Nervenkitzel und Aufregung in Qiddiya City dank virtueller Produktion

17. Oktober 2024
Joe Yong, Lead Unreal Developer, Journey

Joe leitet die Entwicklung aller Journey-Projekte, die die Unreal Engine verwenden. Mit einem Hintergrund in 3D und Gaming bringt Joe seine Liebe zu Echtzeit-Grafik und -Anwendungen in die Entwicklung immersiver Projekte für Journey ein, etwa beim digitalen Wald für Hong Kong Peak Tramways oder bei der virtuellen Produktion von Aufnahmen für komplexe Meilenstein-Projekte wie Qiddiya City.
Vor der eindrucksvollen Kulisse der Tuwaiq-Berge gelegen, ist Qiddiya City eines der hochrangigsten Megaprojekte Saudi-Arabiens. Die riesige Unterhaltungsstadt, die aus 25 Bezirken besteht und sich über 376 Quadratkilometer erstreckt, wird den größten Themenpark im Nahen Osten und eine neue Weltklasse-Motorsport-Rennstrecke sowie Kunstzentren, Golfkurse, Hotels, Konzerthallen und vieles mehr beheimaten. 

Zu sagen, dass dieses Projekt riesig ist, wäre eine Untertreibung.

Die Aufgabe, den Umfang des Angebots von Qiddiya City zu vermitteln – und ihre Geschichte zu erzählen –, wurde von Squint/Opera übernommen, einem Journey-Studio. 

Mithilfe der virtuellen Produktionstechniken und der Echtzeit-Visualisierung der Unreal Engine erstellte das Team eine Reihe von Filmen, um das Bewusstsein für die Stadt zu wecken und verschiedene Aspekte der Stadt zu bewerben. 

Wir haben uns mit dem Team zusammengesetzt, um mehr über seine Erfahrung bei der Arbeit an einem der größten und kompliziertesten Projekte der Welt zu erfahren und herauszufinden, wie Echtzeit-Technologie einen reibungsloseren und glatteren Filmproduktionsprozess ermöglicht hat.
Hallo! Könnten Sie sich bitte vorstellen? Wie heißen Sie und was ist Ihre Rolle bei Journey? Was ist Ihr Hintergrund?

Mein Name ist Joseph Yong. Ich bin der Lead Unreal Developer bei Journey. Ich habe einen Hintergrund als Entwickler, technischer Künstler und 3D-Generalist. Ich arbeite bereits seit 12 oder 13 Jahren mit der Unreal Engine. Vor fünf Jahren habe ich mich Journey angeschlossen und bin damit beschäftigt, unser Unreal-Team von Grund auf aufzubauen.

Einige der Studios von Journey sind bereits seit über 20 Jahren im Geschäft. Wie, warum und wann haben Sie zum ersten Mal angefangen, die Unreal Engine zu nutzen?

Journey nutzt die Unreal Engine seit 2019, aber wir haben unseren Einsatz der UE zusammen mit ihrer fortlaufenden Entwicklung immer mehr erweitert. Wir haben sie anfangs für Projektpräsentationen eingesetzt und intern ihre VR-Kapazitäten genutzt, mit deren Hilfe wir gemeinsam mit unseren internen Künstlerteams verschiedene Umgebungen erkunden konnten. 

Dann fand ein Wandel in der Architekturwelt statt und alle wollten auf einmal Echtzeit als Designwerkzeug einsetzen – vor allem aufgrund der Möglichkeit, Renderings zu erstellen. Die Unreal Engine war dabei ein absoluter Favorit, weil sie schnell rendern und hervorragendes Bildmaterial liefern konnte, während das allgemeine Design eines Projekts weiterentwickelt wurde.
 
Bild mit freundlicher Genehmigung von Journey
Allgemein gesagt ermöglichen uns die schnelleren Iterationszeiten und die Interaktivität von Spielengines, effizientere Konversationen mit Kunden und innerhalb unseres Teams zu führen. 

Als 2022 die Unreal Engine 5 erschienen ist, waren wir in der Lage, sie noch umfassender einzusetzen und zur Erstellung digitaler Inhalte zu nutzen. Jetzt verwenden wir sie in unserer Museumsarbeit, um eine Vorschau von Medien in besonderen Maßstäben und Kontexten zu erhalten, insbesondere wenn sie auf eine irreguläre Leinwand projiziert oder um eine gebogene Wand herum angeordnet werden. Das ist die Art von Bildmaterial, von dem man sich keine richtige Vorstellung machen kann, wenn man sie nur auf einem Computerbildschirm sieht.

Darüber hinaus haben wir eine Bibliothek an Unreal-Werkzeugen und -Plugins aufgebaut, die wir schnell in all unseren Projekten bereitstellen können. (Zum Beispiel haben wir ein PCG-Crowd-Generation-Plugin.) Das hat uns geholfen, in einer sehr schnelllebigen Branche zu florieren.
Können Sie uns etwas über die Filme erzählen, die Sie für Qiddiya City erstellt haben? Wie sah die Arbeit daran aus, wie lang hat die Produktion gedauert und wofür werden die Filme verwendet werden?

Das Marketing-Team von Qiddiya City verwendet die Filme als Teil einer koordinierten Kampagne, um das Bewusstsein für die Stadt zu wecken und eine Reihe aufregender Bezirke in der Stadt zu bewerben – von einem revolutionären Stadium bis hin zu Anime-Dörfern. Mit virtuellen Filmproduktionstechniken war Journey in der Lage, alle 360 Quadratkilometer dieses Weltklasse-Reiseziels für Sport und Unterhaltung zu präsentieren – einschließlich der Formel-1-reifen Rennstrecke, des ersten Six-Flags-Themenparks außerhalb von Nordamerika und des renommierten Kultur- und Kunstzentrums.
 
Bild mit freundlicher Genehmigung von Journey
Die Filme unterstreichen auch, wie die monumentalen Attraktionen von Qiddiya mit der Stadt selbst überlappen und einen multidimensionalen Unterhaltungsbereich erschaffen, der sich mit der Realität vermischt, sie verzerrt und verbessert. 

Einer der Filme zeigt eine futuristische Motorsportstrecke, die sich durch das Herz von Qiddiya winden wird. Mit schnellen Cuts und hoher Energie folgt der Film einem Rennauto, das über die Strecke und an verschiedenen Attraktionen vorbeirast, etwa einer Achterbahn oder einem Glasboden-Pool.

Die Arbeit, die wir in der Unreal Engine gemacht haben, war ähnlich wie gewöhnliche Videoproduktion strukturiert: Narrativ, Vorproduktion, lineare Produktion, Bearbeitung, Sound und Bewertung. Da es sich allerdings um eine virtuelle Produktion (VP) gehandelt hat, konnten wir auf grobschlächtige Greenscreens verzichten und stattdessen einen hyperrealistischen virtuellen Hintergrund für Qiddiya City erschaffen. Die virtuellen Produktionstechniken der UE gaben uns Zugriff auf einen dreidimensionalen virtuellen Raum mit unvergleichlicher Immersivität für die Schauspieler, Mannschaft und das Publikum.

Der Film hat von Anfang bis Ende, vom anfänglichen Narrativ bis zur Versionierung, etwa vier Monate in Anspruch genommen. Das klingt möglicherweise nach einer langen Zeit, aber in Wirklichkeit wurde der Prozess durch die Über-Nacht-Renders in Unreal stark beschleunigt. Vor UE hätten wir ein ganzes Wochenende oder länger zum Rendern benötigt. Jetzt können wir eine Aufnahme über Nacht neu rendern – mit vollständiger Textur und allem Drum und Dran – und die endgültigen Pixel viel schneller sehen.

Was war bei diesem Projekt unabdinglich? War es unbedingt notwendig, Fotorealismus zu erreichen oder den Maßstab des Projekts zu vermitteln? Und wie hat die UE Ihnen geholfen, diese Vorgaben zu erreichen? 

Vor allen Dingen musste das Projekt aufregend sein. Von der Geschwindigkeit der Rennautos, die über die Strecke fliegen, bis hin zu den Vibrationen und zur Musik – der Film musste die Energie und den Lärm der Motorsportstrecke von Qiddiya City vermitteln. Das war für uns eine willkommene Abwechslung, da viele unserer Projekte langsam schwenkende Aufnahmen und sorgfältige Kameraführung involvieren. Aber hier war Action gefragt, um den Masterplan von Qiddiya als einen spaßigen, lebhaften Ort mit viel Licht und Aufregung zu demonstrieren.

Um diesen Effekt zu erreichen, haben wir uns virtuellen Produktionstechniken zugewandt. Zu VP gehören meist große, dreidimensionale LED-Bühnen, die „Volumen“ genannt werden und „Virtual Twin“-Echtzeit-Hintergründe echter Umgebungen projizieren können. Die Kamera bewegt sich synchron mit dem Hintergrund und verleiht den Aufnahmen eine realistische Tiefe und glaubwürdige Bewegungen. Mit VP kann die Notwendigkeit von VFX-Ebenen und Postproduktion verhindert werden, und außerdem sorgt VP dafür, dass die Schauspieler immer „vor Ort“ sind, ohne jemals das Studio zu verlassen.
 
Bild mit freundlicher Genehmigung von Journey
VP hat es uns auch ermöglicht, schnell die Details der Dinge zu sehen, die wir rendern. Das war für uns von entscheidender Bedeutung. Hätten wir die Aufnahmen auf die traditionelle Weise gemacht, wäre es schwierig gewesen, sie vorzuvisualisieren und dem Kunden unsere Vision in angemessener Zeit zu kommunizieren. Aber dank der virtuellen Produktion in der UE konnten wir alles in Echtzeit sehen und in der Aufnahme anpassen. So konnten wir schnell in unsere Kreationen eingreifen, anstatt darauf warten zu müssen, bis die Computer alles rendern.


Warum hat es Sinn ergeben, diese Filme in der Unreal Engine zu erstellen, anstatt eine andere Spielengine zu verwenden oder sich für Offline-Rendering zu entscheiden?

In den letzten fünf Jahren war Unreal wegen seiner Effizienz unser Ein und Alles. Offline-Renderer bieten in einigen Fällen noch immer visuelle Vorteile, aber können bei den Ausgabezeiten nicht konkurrieren.
Bild mit freundlicher Genehmigung von Journey
Da wir in einer Branche arbeiten, in der Projekte zwei bis drei Monate in Anspruch nehmen, nicht Jahre, müssen wir sehr effizient vom Storyboard zum endgültigen Pixel gehen – und gleichzeitig die Kommunikation in jeder Phase unterstützen. Je schneller wir eine anständig gerenderte Aufnahme bekommen können, die in vollem Maße vermittelt, was wir kommunizieren möchten, desto schneller können wir Kundenfeedback erhalten und iterieren. Wenn es keine zwei Wochen dauert, eine Aufnahme zu erhalten, können wir in kürzerer Zeit viel flexibler und kreativer sein.

Unreal ermöglicht es uns auch, wann immer es möglich ist virtuelle Produktion einzusetzen, was ebenfalls Zeit spart. Dadurch können wir mehr Zeit in Vorplanung und Techvis und weniger in die Komposition investieren. Einfach gesagt wären wir ohne Unreal nicht in der Lage, die Art von Projekten zu liefern, für die wir bekannt sind.


Können Sie uns von den spezifischen UE-Funktionen erzählen, auf die Sie sich bei der Produktion der Filme verlassen haben? Welche Vorteile haben sie Ihnen gebracht?

Es ist schwer, sich eine spezielle Funktion auszusuchen, weil wir im Grunde alles verwenden, was die UE zu bieten hat. Aber dennoch sind einige Funktionen absolut kritisch für unsere Kernarbeit.
 
  • Lumen ermöglicht es uns, globale Echtzeit-Beleuchtung und Reflexionen in unsere Szenen zu integrieren und so überzeugendes Licht zu erreichen.
 
  • Dank den Datenebenen von World Partition können wir enorm skalierte Karten haben und nur spezifische Abschnitte laden, sobald wir sie benötigen.
 
  • Dank Nanite können wir Modelle in Produktionsqualität mit Pixelebenen-Details in einer Spielengine einsetzen. Ohne Nanite könnten wir keine Aufnahmen machen.
 
  • Procedural Content Generation (PCG) ermöglicht es uns, iterative Werkzeuge und Inhalte von beliebiger Komplexität zu erstellen. Auf diese Weise können wir schnell einen ganzen Wald mit Bäumen füllen, was nur eines von vielen Assets ist.
 
  • Movie Render Queue gibt uns Aufnahmen mit enormer Auflösung und die Fähigkeit, in der Postproduktion mit zusätzlichen Durchläufen zu rendern.

Aber eigentlich benutzt Journey wirklich alles, was die Unreal Engine 5 unter der Haube hat.

Was war bei der Umsetzung dieses Projekts für Sie die größte Herausforderung und wie haben Sie diese bewältigt?


Weil er eine ganze Stadt repräsentiert, war der Maßstab des Masterplans von Qiddiya gewaltig. Das allein stellte einige technische Herausforderungen dar. Wenn alles im Masterplan auf einmal geladen wird, kann man sich nicht in der Szene bewegen; die reine Menge an Daten macht die Navigation langsam und ungelenk. Aber glücklicherweise ermöglicht uns World Partition von Unreal, das zu laden oder zu entfernen, was wir brauchen, ohne die Szene zu stören.
 
Bild mit freundlicher Genehmigung von Journey
Eine andere Herausforderung war für uns die Glaubwürdigkeit. Wir konnten kein Rennauto auf einer Strecke filmen, die noch nicht existiert, aber wir konnten das Rennauto ins Studio bringen. Um alles so realistisch wie möglich aussehen zu lassen, haben wir physische Live-Action-Requisiten (wie das Rennauto und den Achterbahnwagen) mit virtueller Produktion kombiniert. Danach mussten wir uns um die kleinen Details wie die Reflexionen im Helmvisier des Fahrers kümmern, die sich verändern, während er über die Strecke rast. Mit CGI würden diese Reflexionen falsch aussehen, und sie zu zusammenzustellen, hätte zu viel Zeit in Anspruch genommen. Die Lumen-Funktion von Unreal hat uns genau das Umgebungslicht und die Reflexionen gegeben, die wir gebraucht haben, wodurch die Szene am Ende visuell viel überzeugender aussah.

Das Ergebnis war eine umfassende und actionreiche Repräsentation des Qiddiya-Masterplans, die auf bahnbrechende Art produziert wurde und das Konzept zum Leben erweckt hat. Bereits eine Stunde nach der Veröffentlichung war er in Saudi-Arabien in den X-Trends und generierte mehr als 650 Medienberichte und 363 Millionen Social-Media-Impressions.

Wie hat Echtzeit-Technologie den Workflow im Vergleich zu traditionellen Methoden der Filmerstellung verändert?

Dank Echtzeit-Technologie können das Kreativ- und Vorproduktions-Team besser zusammenarbeiten. Das bedeutet, dass wir einen Masterplan schnell überprüfen, Winkel entdecken und Aufnahmen miteinander verbinden können, um das Narrativ zu definieren und herauszufinden, was funktioniert. Das spart extrem viel Zeit und hilft uns, das Projekt schnell zu iterieren. (Wir haben einmal sogar eine Aufnahme für einen Kunden live gestreamt, damit er uns direkt Feedback geben konnte.)
 
Bild mit freundlicher Genehmigung von Journey
Darüber hinaus bedeutet Echtzeit-Technologie auch, dass wir Filmmaterial in der richtigen Reihenfolge aufnehmen können, damit das Storyboarding Sinn ergibt. Aber bei Bedarf können wir von dieser Reihenfolge auch abweichen. Wenn jemand für eine Aufnahme gerade nicht verfügbar ist, können wir den Hintergrund ändern und in der Zwischenzeit eine andere Aufnahme machen. Und wenn wir eine Aufnahme zur goldenen Stunde machen müssen, dann können wir aus der goldenen Stunde fünf Stunden machen. Der Einsatz dieser Technologie bedeutet, dass wir an Aufnahmetagen reaktiv sein können und immer genau die Aufnahme bekommen können, die wir brauchen.

Können Sie uns ein wenig darüber erzählen, wie Sie Unreal beim Peak Tram-Projekt eingesetzt haben? Vor allem was einzelne Funktionen angeht, die geholfen haben, dieses Projekt abzuschließen.

Die Peak Tram ist eine der berühmten Touristenattraktionen von Hongkong und die älteste Seilbahn Asiens. Das war das erste Projekt, bei dem wir eine lineare Produktionsaufnahme in Unreal (und nicht in einem Offline-Renderer) durchgeführt haben. Um die etwa vier Millionen jährlichen Besucher dieser Attraktion anzusprechen und zu informieren, erschuf Journey immersive Erlebnisse für die erst vor Kurzem renovierte Seilbahn – von ganz unten bis hoch zum Victoria Peak.
 
Bild mit freundlicher Genehmigung von Journey
Um immersive Installationen für das Peak Tram-Besuchererlebnis zu erschaffen, mussten wir einen achtminütigen Render für drei synchrone Szenen erstellen. Und das alles musste eine durchgehende Aufnahme sein. Das sind 14.000 Frames von Anfang bis Ende. Mit einem traditionellen Render-Werkzeug wäre das einfach nicht möglich gewesen. 

Die Größe der Leinwand war eine weitere Herausforderung. Sie war zehn Meter lang und drei bis vier Meter hoch, und an der Decke und Rückwand befanden sich weitere Leinwände. Im Wartebereich standen damals 100 Menschen, und wir mussten dafür sorgen, dass sie alle dort, wo sie standen, etwas visuell Ansprechendes betrachten konnten. Das war ein gewaltiges Unterfangen.

Der Hauptvorteil, in der Unreal Engine zu arbeiten, lag darin, dass wir so nah wie möglich an den endgültigen Pixel herankommen konnten. Bei der Arbeit im Editor sahen wir zu jeder Zeit 99 % der Aufnahme, und alle, die sich den Bildschirm angesehen haben, hatten denselben Kontext. Das war besonders wichtig, da das Projekt während der Pandemie stattfand. Wir mussten alles per Fernarbeit machen, und dafür sorgen, dass der Kunde in Hongkong unsere Vision dennoch verstehen und einschätzen konnte, ob sie die gewünschte Wirkung hatte.
 
Bild mit freundlicher Genehmigung von Journey
Dann kam während der Produktion des Peak Tram-Projekts die Unreal Engine 5 heraus. Plötzlich waren die Lichteffekte und der Render-Support viel besser und wir konnten viel mehr machen. Normalerweise wechselt man mitten in einem Projekt nicht die Engine – das ist ein erhebliches Risiko –, aber sie machte einen so großen Sprung in der visuellen Qualität möglich, dass uns die Entscheidung leicht fiel.

Obwohl wir bereits viele interaktive Medieninhalte produzierten, war der Einsatz von Unreal ein großer Schritt nach vorne. Unser Team musste lernen, in einer Spielengine anstelle eines traditionellen Renderers zu rendern, aber der Unterschied war gewaltig. Anderenfalls wären wir nie in der Lage gewesen, den Maßstab des Bildschirms zu verstehen oder die Komposition auszubalancieren.

Wie hat sich Ihr Einsatz von Unreal für das Battersea Power Station-Projekt von der anderen Arbeit unterschieden, die Sie mit Unreal gemacht haben, und was waren die Vorteile, die Sie durch den Einsatz der Engine hatten?
 
Bild mit freundlicher Genehmigung von Journey
Es ist unser Job als Entwickler, insbesondere in Museen und im kulturellen Bereichen den ansprechendsten Weg für den Kunden zu finden, seine Geschichte zu erzählen. Das trifft vor allem dann zu, wenn das Zielpublikum groß ist und die Inhalte gleichermaßen achtjährige und 78-jährige Besucher ansprechen müssen.
Bild mit freundlicher Genehmigung von Journey
Nichtsdestotrotz bot das Lift 109-Erlebnis an der Battersea Power Station eine kleine Abweichung von den gewöhnlichen Methoden, Informationen über ein kulturelles Objekt zu vermitteln. Wir haben Unreal auf einem interaktiven Touchscreen-Bildschirm eingesetzt, auf dem Nutzer Kohle in eine Turbine schieben können, um einen riesigen physischen Kronleuchter anzutreiben. Obwohl das ein einfaches Konzept ist, bietet es Besuchern einen spielerischen und verständlichen Weg, zu verstehen, wie eine Turbine funktioniert, während es gleichzeitig die allgemeine kulturelle Geschichte dieses Orts ergänzt.

Wie wird Ihrer Meinung nach die Vermischung von digitalen Medien und physischer Realität in Zukunft aussehen? Und welche aufregenden Möglichkeiten bieten Spielengine-Technologien in diesem Bereich?

Im Museums- und Kulturbereich werden wir weiterhin die visuelle Qualität von dem erhöhen, was wir erschaffen können. Außerdem werden wir immer mehr mit interaktiven Elementen arbeiten, je besser die Renderer werden. Während Unreal sich weiterentwickelt, wird auch die Qualität unserer Produkte besser werden.

Im Architektur- und Baubereich liegt unser Fokus zunehmend auf digitalen Zwillingen. Diese Zwillinge ermöglichen es uns, eine visuelle Darstellung von bestehenden oder zukünftigen Orten zu erschaffen – allerdings mit einer zusätzlichen Ebene, die dabei hilft, Daten wie Verkehrsmuster oder Energieverbrauch zu visualisieren. Das ist eine Möglichkeit, wichtige Konversationen voranzubringen und Menschen zu helfen, die richtigen Geschichten über ihre Bauwerke zu erzählen, was ein großer Teil unserer Arbeit bei Journey ist. 

Wir wissen, dass wir mit der fortlaufenden Entwicklung von Spielengines mehr erreichen können werden. Da Journey all seine Werkzeuge und Stacks bewusst firmeneigen belässt, können wir unsere großen technischen Durchbrüche zu jedem neuen Projekt mitnehmen. Das ermöglicht es uns, unsere Energie auf Kreativität und die Bereitstellung hochmoderner Projekte zu konzentrieren.

Wir freuen uns bereits darauf, zu sehen, wie sich Spielengines in Zukunft entwickeln werden. Im Moment stehen wir an der Spitze der Branche und können es kaum erwarten, bis sie noch größer wird, als sie es jetzt schon ist.
 

Entdecken Sie die Unreal Engine für Architektur

Wollen Sie herausfinden, wie die Unreal Engine zur Visualisierung von Architekturprojekten eingesetzt wird? Dann schauen Sie in unserem Architektur-Hub vorbei.

Ähnliche Blogs


Virtuelle Produktion

Unreal Engine 5.5 ist jetzt verfügbar

Diese Veröffentlichung umfasst wesentliche Verbesserungen bei Animationserstellung, Rendering, der virtuellen Produktion, der Spieleentwicklung für Mobilgeräte und den Werkzeugsätzen für Entwickler-Iterationen – und vieles, vieles mehr.

Indies

Fab, der neue zentrale Marktplatz von Epic für Inhalte geht heute an den Start!

Heute startet Epic Fab, eine zentrale Anlaufstelle, wo ihr digitale Assets entdecken, kaufen, verkaufen und teilen könnt. Dieser neue Marktplatz unterstützt alle Arten von Creators mit Inhalten zur Verwendung mit Unreal Engine, Unity 3D, UEFN und anderen digitalen Werkzeugen zur Inhaltserstellung.

Film und Fernsehen

Hier finden Sie die wichtigsten Neuigkeiten vom Unreal Fest Seattle 2024

Sehen Sie sich die Ankündigungen von Epic Games auf dem Unreal Fest Seattle 2024 an, um mehr über Kürzungen bei den Lizenzgebühren für Unreal Engine über den Epic Games Store, die neuen Funktionen in der UE 5.5, die Teenage Mutant Ninja Turtles in UEFN zu erfahren – und noch viel mehr.