Ein Beispiel dafür – und einer der Aspekte, durch den sich PXO AKIRA von anderen Systemen für virtuelle Produktion unterscheidet – ist die hochmoderne Bewegungsplattform.
Wie der Name andeutet, ist diese Plattform in der Lage, sich frei zu drehen und zu neigen, und zudem können auf ihr Fahrzeuge aller Arten und Größen platziert werden. Egal ob man einen kleinen Flugzeugrumpf oder ein Rennmotorrad filmt, die Plattform erhöht den Realismus in allen Szenen, in denen ein Fahrzeug verwendet wird.
Die Räder eines Fahrzeugs können auf einzelnen Pedalen stehen, die in der Plattform eingelassen sind. Diese Pedale bewegen die Aufhängung des Autos und gewähren die volle Kontrolle über die Reifendrehung – eine Funktion, die eine Eigenheit bei Aufnahmen von Fahrzeugen in der virtuellen Produktion angeht, wegen der man die Räder gar nicht filmen kann, da diese sich nicht drehen und daher nicht echt aussehen.
"Bei unseren Rädern bewegen wir nicht nur die Federung hoch und runter, sondern die Räder drehen sich auch, was uns realistischere Aufnahmen ermöglicht", sagt Elbourne.
Ein Roboter-Kamerakran für elegante Kamerafahrten.
Der Roboter-Kamerakran ist ein weiteres Puzzleteil, das es uns erlaubt, unsere Fahrzeugaufnahmen mit PXO AKIRA lebendiger aussehen zu lassen.
Der Kran verwendet ein "Techno-Dolly" – eins von nur vier auf der Welt. Wir haben 18 Meter Dolly-Schienen und 7,5 Meter maximale Kamerahöhe zur Verfügung, was uns eine Menge Möglichkeiten für atemberaubende Kamerabewegungen mit bester Kontrolle über Bewegung und Geschwindigkeit eröffnet. Das Techno-Dolly ist darauf programmiert, wiederholbare und konsistente Kameraarbeit durchzuführen, die mit all den anderen verbundenen Teilen des Systems synchronisiert ist.
Diese Synchronisierung ist dank der Software "Digitaler Zwilling" möglich, um die herum PXO AKIRA aufgebaut ist. Digitaler Zwilling nutzt die Unreal Engine und fungiert als Steuerung für die einzelnen Elemente des Systems. Die Software dirigiert den Kran, den Fahrsimulator und das LED-Volumen, damit alles im Einklang funktioniert.
Digitaler Zwilling ist außerdem in der Lage, das komplette physische Setup in der Unreal Engine digital zu replizieren, einschließlich Kamerakran, Bewegungsplattform und der umgebenden LED-Wand. Dieses digitale Setup kann verwendet werden, um Previs für die Aufnahme durchzuführen und dabei verschiedene Kamerawinkel auszuprobieren, die auf der LED-Wand angezeigte Umgebung anzupassen und Optionen für den Fahrtweg des Fahrzeugs auszuprobieren.
"Wir können die Umgebungen, die man normalerweise in traditioneller virtueller Produktion verwendet, mit den Bewegungen von Fahrzeug, Kamera und Kran verbinden und Previs für alles durchführen", erklärt Elbourne. "Man kann die Unreal Engine-Software auf das Set bringen und die gesamte Filmproduktion damit laufen lassen."
Die Planung der Aufnahmen beginnt mit der Auswahl eines Orts auf der virtuellen Weltkarte in der "Digitaler Zwilling"-Software. Nutzer wählen dann eine CG-Replik des echten Fahrzeugs und platzieren eine virtuelle Kamera in der Soundstage.
Nach Auswahl der CG-Umgebung, die auf den LED-Bildschirmen angezeigt wird, kann man den Weg anpassen, den man durch die virtuelle Szene nimmt, und die Bewegung des Fahrzeugs in der Software anpassen. Die Bewegungsplattform ahmt die Fahrbedingungen des Orts nach, ob es ein holpriger Feldweg ist oder eine reibungslose Rennstrecke.
Dieses kreative Brainstorming wird dann auf das Set übertragen und das PXO AKIRA-Ökosystem übernimmt die Einstellungen. Dieses sendet wiederum die dynamischen Kamerabewegungen an den Kran, die CG-Umgebung an das LED-Volumen und die Bewegungen des Terrains an die Plattform.
Atemberaubende, fotorealistische Hintergründe auf dem LED-Bildschirm
Die Bewegungsplattform und der Roboterkran machen die Bewegungen des Fahrzeugs realistisch, der umgebende LED-Bildschirm übernimmt die visuelle Darstellung der Umgebung.
Auf die LED-Bildschirme um die Plattform kann eine große Auswahl von Umgebungen projiziert werden, was realistische Beleuchtung auf das Auto wirft, inklusive Schatten und Spiegelungen, damit es wirklich so aussieht, als befände sich das Auto in der Szene.
Elbourne erklärt, dass die Konfiguration des LED-Bildschirms ein Setup für die virtuelle Produktion bei Filmen nachahmt, die besser als klassische Greenscreen-Techniken ist und Schauspielern mehr Immersion bietet. Anstatt sich die Umgebung nur vorzustellen – wie das bei Greenscreens der Fall ist –, finden sich Schauspieler in einer fotorealistischen Szene wieder, auf die sie reagieren können.
"Wenn man in einem Auto herumfährt und grün oder blau sieht, kriegt man kein Gefühl dafür, wo man ist oder was das Auto in der jeweiligen Situation macht", sagt Elbourne. "In der virtuellen Produktion sieht man die Umgebung, man sieht die Lichtverhältnisse, man sieht, wenn etwas auf einen zukommt."
LED-Bildschirme können in Kombination mit einer Spielengine verwendet werden, um in Echtzeit Inhalte zu rendern. Dies ermöglicht Anpassungen an verschiedene Szenenelemente und eröffnet Regisseuren eine Vielzahl neuer Möglichkeiten. Da Spielengine-Technologie von Haus aus in Echtzeit arbeitet, ermöglicht sie außerdem dynamische Beleuchtung und Reflexionen.
In der virtuellen Umgebung kann man sämtliche Einstellungen mit unerreichter Genauigkeit planen und sogar die Digitaler-Zwilling-LED-Wand sowie die virtuelle Kamera einrichten, um die gleichen Lichtreflexionen zu erhalten, die man bei einem echten Auto in einer echten Umgebung erwarten würde. Wenn alles perfekt ist, werden die Einstellungen an die Soundstage geschickt und perfekt auf die physische LED-Wand und die Kamera übertragen.
"Die LED-Wand erschafft die gleichen Lichtbedingungen, die gleichen Reflexionen und die gleiche Umgebung, die man in der Unreal Engine erstellt hat", sagt Elbourne. "Das macht den Film nur noch wirklichkeitsgetreuer."
Stunt-Visualisierung und Hochgeschwindigkeits-Verfolgungsjadgen
Um den Realismus der Fahrzeugbewegungen noch zu erhöhen, verfügt PXO AKIRA über eine letzte wichtige Komponente: einen Rennsimulator.
"Angenommen, wir wollen ein bisschen mehr künstlerische Kontrolle, wie das für alle Regisseure und Kameraleute der Fall sein kann", sinniert Elbourne. "Dann setzt man einen Stuntfahrer in den Fahrsimulator, der das Auto, das Boot, oder das Flugzeug so bewegt, wie man das will, Art Direction live und in Farbe."
Diese Bewegungsmuster werden dann auf die Bewegungsplattform übertragen – der Simulator sendet die aufgenommenen Bewegungen an die Plattform, damit diese auch in der Federung des Fahrzeugs zu spüren ist.
Dieser Workflow ist ein wahrer Segen, wenn es um den komplexen und oft teuren Vorgang des Stuntfahrens geht.
"Stuntfahren ist echt einzigartig", erklärt Elbourne. "Damit erhalten wir die realistischsten Bewegungen für unser Fahrzeug. Aber wenn man das auf echten Straßen mit echten Fahrzeugen macht, braucht man Genehmigungen, man muss Straßen absperren. Und wenn man an einem Ort drehen will, wo das nicht erlaubt ist, hat man ein Problem."
In einem Rennsimulator kann man aufnehmen, wie man in einen Drift gleitet, an eine Startlinie fährt oder durch die Botanik brettert, und das dann an die Bewegungsplattform schicken, um einem echten Fahrzeug konsistente und realistische Bewegungen zu verleihen.