Magnopus erweckt Amazons Fallout-Serie mit virtueller Produktion realisiert durch Unreal Engine zum Leben

Mit freundlicher Genehmigung von Magnopus/Kilter Films/Amazon MGM Studios
13. Mai 2024
Magnopus ist seit über einem Jahrzehnt ein bahnbrechendes Technologie- und Kreativstudio, das einzigartige Unterhaltungserlebnisse schafft. 

Ob immersive VR- und AR-Erlebnisse oder sämtliche Aspekte der virtuellen Produktion (von kamerainternen VFX über die virtuelle Kunstabteilung bis hin zum LED-Volumenbetrieb) – Magnopus, ein Unreal Engine Service Partner genießt das Vertrauen der besten Filmemacher und Marken von heute, um die Grenzen der Technologie im Dienste wirklich unvergesslicher Inhalte zu erweitern. 

Erst vor Kurzem hat das Studio eng mit Jonathan Nolan und Lisa Joys Kilter Studios bei der virtuellen Produktion der TV-Serie Fallout von Amazon Prime Video zusammengearbeitet. Wir unterhielten uns mit AJ Sciutto, Director of Virtual Production bei Magnopus, über den kreativen und technischen Prozess, mit dem diese dystopische Welt mit ICVFX zum Leben erweckt wurde, über die Flexibilität, die Unreal Engine in Echtzeit bietet, und darüber, wie die virtuelle Produktion mit 35-mm-Film funktioniert und vieles mehr.
Wann wurde die Unreal Engine ein Werkzeug im Arsenal von Magnopus?

Wir erstellen virtuelle Produktionstools in und um Unreal seit 2018, also bevor die Dreharbeiten zu The Mandalorian begannen. Wir haben mit dem Epic-Team daran gearbeitet, eine erstklassige Werkzeugsuite zu entwickeln, mit der Kreative ihre virtuellen Welten betreten und unglaubliche Geschichten durch die virtuelle Linse erzählen können. ICVFX ist eines dieser Werkzeuge in unserem Arsenal. In Verbindung mit dem phänomenalen Software-Engineering-Team von Magnopus sind nDisplay und die Unreal Engine die leistungsfähigsten Werkzeuge, die man haben kann, um unglaubliche Bilder auf LED-Wänden darzustellen.

Wann wurde Magnopus in Fallout involviert und welche Rolle spielten Sie bei der virtuellen Produktion der Show?

Wir arbeiteten 2020 eng mit Jonathan Nolan und dem Team von Kilter Films bei einem F&E-Projekt und kooperierten Ende 2021 erneut bei Westworld Staffel 4. Irgendwann während der Produktion von Westworld begannen wir mit ersten Gesprächen über Fallout. Zu diesem Zeitpunkt war lediglich die Pilotfolge fertig und wir waren an dem Projekt eher als Leitung einer Kreativabteilung beteiligt. 

Wir lieferten kreativen Input für den Einsatz der virtuellen Produktion in der gesamten Serie und erarbeiteten gemeinsam mit den Filmemachern die Szenen und Umgebungen, die am meisten von ICVFX profitieren würden. Wir einigten uns auf vier Umgebungen – die Farm und die Vault-Tür-Szenen in Vault 33, die Cafeteria in Vault 4 und die Basis der New California Republic im Griffith-Observatorium. Außerdem war alles, was in einem Vertibird passierte, ein großartiger Kandidat für LED-Prozessaufnahmen.
Von da an erarbeiteten wir gemeinsam mit Howard Cummings und Art Director Laura Ballinger, welche Teile des Sets physisch und welche virtuell gebaut werden sollten. Der Einfluss dieser Entscheidungen auf die Beleuchtung und die VFX war enorm. Wir verwendeten daher Konzeptzeichnungen und Storyboards, um die beiden Welten zu vereinen und genau herauszufinden, wo die Übergänge zwischen virtueller und physischer Welt sein würden.

Ein großer Teil dieser Entscheidung besteht darin, herauszufinden, wo das praktische Set endet und das virtuelle beginnt. Außerdem geht es darum, herauszufinden, wo die virtuelle 3D-Welt endet und das Matte Painting beginnt. Unsere Matte Painter Frank Capezzuto III und Rocco Gioffre entwickelten Designs, die es uns ermöglichten, die LED-Wand bei Panoramaaufnahmen optimal zu nutzen. Auf Grundlage ihrer Arbeit konnten wir den Ansatz des "geschützten Proszeniums" nutzen, der sich gut für Aufnahmen mit LED eignet.
Wie verlief der Aufbau des LED-Volumens für Fallout?

Wir begannen mit der Unterstützung beim ersten Entwurf eines LED-Volumens. Wir wollten eine Bühne entwerfen, die den Filmschaffenden die Beleuchtungsvorteile eines gekrümmten Volumens bietet, zusätzlich zu der Flexibilität für längere Wege und Gespräche, die die geraden Abschnitte einer flachen Wand bieten. 

Die Hufeisenform unserer Bühne erwies sich als klarer Gewinner, und das Endergebnis war eine LED-Wand, die 23 Meter breit, 6,5 Meter hoch und 30 Meter lang war. Eine Bühne zu finden, die ein Volumen dieser Größe aufnehmen konnte, erwies sich als unsere nächste Herausforderung. Damals gab es nur sehr wenige Bühnen, und so übernahmen Jeffrey Soderberg und Chris Cox von den Manhattan Beach Studios (MBS) diese Aufgabe. 

Sie entwickelten gemeinsam mit uns und der Fuse Technical Group unter Leitung von Mitch Lathrop und Koby Kobylko ein auf die Anforderungen der Produktion zugeschnittenes Volumen. Das Ergebnis war eine modulare und flexible LED-Bühne mit der fortschrittlichsten Technologie auf dem Markt, konstruiert in Bethpage, Long Island.
Auf der Computerseite leistete die Fuse Technical Group fantastische Arbeit bei der Gestaltung des Serverraums und der Video-/Datenverteilung der Bühne. Sie bauten einen Serverraum in einem Standard-Schiffscontainer in L.A. und verschifften ihn dann nach New York. Die 12x4K-Outputs für die Haupt-LED-Wand und die sechs weiteren 4K-Outputs für die verschiedenen Stellwände befanden sich alle in diesem Serverraum, ebenso wie die sechs Operator-Workstations in der Einsatzzentrale, die über Glasfaser mit ihren Boxen verbunden waren. 

Wir verwendeten Roe BP2 v2s für die LED-Panels, Brompton Tessera SX40s für die Prozessoren und sowohl Stype RedSpy für die Kameraverfolgung als auch das Stype Follower System für die Objektverfolgung. Unser Mechatronik-Team unter Leitung von Fabian Flores entwarf und druckte 3D-Halterungen für die LED-Signale des Follower-Systems für unsere Stellwände, sodass diese als dynamische Projektionsflächen in Unreal fungierten, die in Echtzeit bewegt und neu konfiguriert werden konnten.
Unser Engineering-Team unter der Leitung von Lily Pitts, Guillermo Quesada und Ross Rosewarne nahm die Bühne nach dem Bau in Betrieb und stellte sicher, dass alle Softwarekomponenten vor dem ersten Dreh mit der Hardware kompatibel waren. Nach der Installation der Hardware richteten wir ein Content-Management-System ein, um VAD-Aktualisierungen von entfernten Teammitgliedern zu erhalten und Bilder auf die LED-Wand zu übertragen. 

Wir verwendeten Unreal und nDisplay zum Rendern der Szene sowie LiveLink, um die RedSpy-Daten in Echtzeit mit der Engine zu koordinieren. Während einer Aufnahme zeichneten wir per Take Recorder Tracking-Daten auf und schrieben eine eigene Software, um diese Daten in USD-Daten zu konvertieren, damit sie leicht an die VFX-Teams unter der Leitung von Jay Worth und Andrea Knoll exportiert werden konnten. 

Was war die größte Herausforderung bei der Arbeit an dieser Serie?

Das Drehen auf Film. Die Dreharbeiten auf Film verliehen der Serie zweifellos eine einzigartige und wunderschöne Ästhetik, indem sie Details abschwächten, die künstlerische Schroffheit betonten und eine Trennung zwischen den verschiedenen Ebenen des Ödlands schufen. Die Serie hätte sich vollkommen anders angefühlt, wäre sie digital gedreht worden. Es stand also nie die Frage im Raum, ob wir in der Serie auf Film drehen würden, es war vielmehr eine Frage des Wie.
Da wir ein Jahr zuvor I auf Film gedreht hatten, verfügten wir über Erfahrung im Umgang mit Arricam-Synch-Boxes und dem Übertragen von Genlock auf die Kamera. Wir hatten allerdings keinen digitalen Monitor mit voller Auflösung an der Kamera und mussten daher kreativ und äußerst präzise vorgehen, um den Look der Bilder auf der LED-Wand einzustellen. 

Unsere Lösung: Die Film-LUT der Serie wurde auf die Ausgabe einer Sony Venice-Kamera angewendet und als Referenz für die Justierung der Beleuchtung und die Farbabstimmung mit einer Kombination aus OpenColorIO und Werkzeugen zur Farbabstufung innerhalb der Unreal Engine verwendet. Wir haben die Farbtemperatur der Szenen auf dem LED-Volumen und die Vordergrundbeleuchtung bei jedem Beleuchtungswechsel per Farbspektrometer gemessen, um einen passgenauen Abgleich zu gewährleisten. 

Wie half die Unreal Engine beim virtuellen Scouting in Fallout?

Für Fallout wurden unsere virtuellen Sets komplett mit der Unreal Engine erstellt. So konnten wir während des gesamten Kreativprozesses alle Werkzeuge von Unreal für die virtuelle Produktion verwenden, einschließlich virtueller Scouting-Werkzeuge, mit denen wir die Filmschaffenden in VR versetzen konnten, um technische Scoutings durchzuführen und schließlich die Handlung auszublenden. 

Dank der Werkzeuge konnten Kameras und Charaktere präzise platziert und die Aufnahmen sogar in Echtzeit gedreht werden. Anschließend konnten wir diese Daten speichern und damit eine Heatmap der Umgebung erstellen. So wussten wir, welche Bereiche der Sets für die Geschichte am wichtigsten waren, und konnten unseren kreativen Fokus auf diese Bereiche richten, um die Beleuchtung zu verfeinern und die visuelle Wiedergabetreue zu erhöhen. 

Dieses Wissen half uns auch bei der weiteren Optimierung – da wir nun wussten, in welche Richtung der Dreh gehen würde, konnten wir die Szene modular unterteilen und so rechenintensive Szenenbilder ausblenden, wenn sie nicht im Bild waren.

Das Visualisierungsteam unter der Leitung von Kalan Ray und Katherine Harris erstellte 3D-Versionen aller Sets im Maßstab 1:1 via Unreal – sogar solcher Teile, die nur als physische Bauten gedacht waren. Wenn die Filmschaffenden also eine Szene ausblenden wollten, waren sie nicht allein auf virtuelle Assets beschränkt, sondern konnten die gesamte Szene visualisieren und aussagekräftige Aufnahmen komponieren, die alle Bereiche der Serie beeinflussten.

Von der Vorproduktion über die Produktion am Set bis hin zur Nachproduktion – erläutern Sie uns Ihren Arbeitsablauf und wie Sie während der gesamten Produktion die kreativen Optionen flexibel und anpassungsfähig gehalten haben.

Bei der Vorproduktion drehte sich alles um Planung und Visualisierung. Sobald die Sets für das Volumen feststanden, machte sich unser Viz-Team an die Arbeit. Während unser Kreativteam unter der Leitung von Craig Barron mit den visuellen Effekten und der Art-Abteilung daran arbeitete, den konkreten physischen und virtuellen Footprint eines jeweiligen Sets festzulegen, arbeitete das Visualisierungsteam bereits an den Aspekten der technischen Visualisierung der Serie.

Um die Grenze zwischen virtuellen Bildern und realen Bauten am Set zu erfassen, mussten wir mit den realen Dimensionen der Bühne arbeiten. Wir bauten daher ein maßstabsgetreues Modell des tatsächlichen Lagerhauses in Bethpage, Long Island, und passten die Abmessungen der LED-Wand daran an. So konnten wir nicht nur die kreativen Aspekte der Serie planen (mit welchen Blickwinkeln und Objektiven wir "von der Wand aus aufnehmen"), sondern auch ermitteln, wo die Aufnahmepunkte für das Stunt-Team, die Platzierung der Overhead-Beleuchtung und sogar die Standorte der Unreal-Operator-Pulte sein sollten. 

Das hat uns auch Kopfzerbrechen in unerwarteten Bereichen erspart – so fanden wir zum Beispiel heraus, dass die Abmessungen der physischen Türen zu klein waren, um einige Teile des Vertibirds durchzulassen! Alle waren also froh, dass sie genug Zeit hatten, um eine Lösung dafür zu finden.
Um die kreative Arbeit für die Visualisierung anzugehen, arbeiteten unsere Virtual Production Supervisors Kathryn Brillhart und Kalan Ray mit den Regisseuren der einzelnen Episoden zusammen, um das Ausblenden einiger komplexerer Szenen zu visualisieren. Kat Harris, unsere Lead für virtuelle Produktionen, richtete die ersten Ausblendungen ein und integrierte Multinutzer-Systeme, damit die Filmschaffenden gemeinsam mit unseren Animateuren eintauchen und die Teile in Echtzeit bewegen konnten. Auf diese Weise visualisierten wir auch das Filly-Set – obwohl es nie für die Serie vorgesehen war –, um einige der logistisch komplexeren Drehtage zu planen.

Wir arbeiteten mit den Regisseuren Wayne Yip, Clare Kilner und Fredrick E. O. Toye zusammen, um Teile des Stützpunkts der New California Republic am Griffith Observatory und den Speisesaal von Vault 4 auszublenden und einen räumlichen Kontext für die Dreharbeiten zu schaffen. Die Maximierung der Effektivität des LED-Volumens bedeutete, Szenen zu visualisieren, die man normalerweise nicht in einem Previs-Durchgang sehen würde – etwa Dialogszenen –, denn so konnten wir sicherstellen, dass wir die fantastischen Elemente der Geschichte ins Bild bringen. Lucy und Maximus essen nicht einfach nur an einem Picknicktisch, sondern in einer gewaltigen, unterirdischen, nuklear betriebenen Vault – die Bilder sollten diesen erzählerischen Gedanken unterstützen.

Während der Produktionstage im Volumen stellten Billy Bonifeld und Devon Hubner, unsere Produzenten am Set, sicher, dass wir eng mit jedem Team am Set zusammenarbeiteten. Da wir die 150+ Arri Skypanels auf der Bühne mit DMX-gestützter Beleuchtung aus Unreal versorgten, erstellte und integrierte unser Creative Technologist Addison Herr diese Beleuchtungsausgabe mit dem Dimboard-Operator des Gaffer-Teams. 

Die LED-Wände waren voll beweglich, um Lücken im Volumen zu füllen, wenn wir in extremen Winkeln drehen. Unser Mechatroniker für die virtuelle Produktion, Fabian Flores, und unser Hardware-Ingenieur für die virtuelle Produktion, Julio Salcedo, stimmten sich mit der Grip-Abteilung ab, um festzulegen, wie und wohin die Technik gerollt werden konnte, damit für alle die Sicherheit gewährleistet war. Wir kooperierten auch mit den Bauteams, um sicherzustellen, dass das im Vertibird-Cockpit verwendete Plexiglas keine Verzerrungen oder Artefakte verursachte, wenn es vor emittierenden Objekten vor die Kamera kam.

Wir arbeiteten äußerst eng mit den Abteilungen VFX, Art und Beleuchtung zusammen, um zu gewährleisten, dass unsere Umgebungen die höchstmögliche Originaltreue aufweisen. Nachdem unsere VAD Artists (Sarah Hudson Semple, Sidney Olluyn, Tony Kwok, Kellie Brewart, Liesbet Segaert, Hugh D. McCullom und Lisa Barber) die Inhalte auf der LED-Wand begutachtet hatten, koordinierten die Producer für virtuelle Produktion, Gabriel Blake und Andrés Martinez, die Besprechungen der Inhalte mit den Abteilungsleitern und den Leads aus den Bereichen Kunst, VFX und Beleuchtung, um sicherzustellen, dass alle über den Fortschritt der Umgebungen Bescheid wussten, und herauszufinden, wo Unterstützung benötigt wurde, um die höchste Wiedergabetreue zu gewährleisten.
Jedes Team leistete enorme Unterstützung für die endgültigen Bilder, die an der Wand zu sehen waren. VFX teilte Lidar- und Scandaten von Setteilen, Umgebungen und Assets. Ann Bartek (dedizierte Art Director für alle In-Volume-Sets) stellte die richtigen Materialien, Farben und Texturen der physischen Sets zur Verfügung, an die die virtuellen Sets angepasst werden konnten.

An Drehtagen koordinierten unsere virtuellen Produktionsleiter mit den Regisseuren der Folgen die Vorbereitung der LED-Wand für Dreharbeiten in eine bestimmte Richtung. Sobald die Kameras eingestellt und getrackt waren, halfen die Unreal-Operatoren, festzulegen, welche Kameraperspektive beim Rendern auf der Wand Vorrang haben sollte, und entwickelten gemeinsam mit der Kameraabteilung Perspektiven, die die Überlappung der Frustums minimierten und die Tracking-Treue maximierten. 

Wir arbeiteten beispielsweise mit dem Steadicam-Operator zusammen, um eine Montageposition für das Tracking-Gerät zu finden, damit es die Aufnahme nicht beeinträchtigt, und gleichzeitig sicherzustellen, dass die Daten sauber und exakt sind. Berto Mora und das großartige Unreal-Team von All Of It Now wurden in die Kamera- und Grip-Abteilungen integriert, um diese Probleme zu beheben, sobald sie auftraten.

Unser virtueller Gaffer, Devon Mathis, arbeitete auch mit Bruce McCleery, dem für das Volumen verantwortlichen DP, sowie mit den episodischen DPs zusammen, um die Nit-Werte, den Weißabgleich und die Farbwerte der LEDs anzupassen, damit sie in jeder einzelnen Einstellung mit dem Rest der Szene harmonierten. Dies beruhte auf der Arbeit in der Vorproduktionsphase, in der unser Beleuchtungsteam mit Unreal Visualisierungen erstellte, wie die einzelnen Beleuchtungseinstellungen in den jeweiligen Umgebungen aussehen würden, und die Beleuchtungsübergänge live plante.

Was war der Vorteil, einen eigenen Volume-DP zu haben, der mit dem DP jeder Episode kooperiert?

Bruce McCleery war als unser dedizierter Volumen-DP für die ICVFX-Arbeiten an den Sets Vault 4, Griffith Observatory und Vertibird verantwortlich. Mit einem so talentierten und engagierten DP zu arbeiten, der uns bei der Auswahl der Inhalte vor und nach den Prelight-Tagen half, mit unserem Virtual Gaffer Devon Mathis kooperierte und die Produktion vorantrieb, war eine zutiefst positive Erfahrung, die sich direkt in schönen Ergebnissen niederschlug. Wir empfehlen, für jede große ICVFX-Produktion einen eigenen Volume-DP anzuheuern, insbesondere für die Produktion von Folgen, die schnellere Drehpläne und manchmal mehr Abwechslung bei Crew und Regie bieten.
Wir hatten außerdem das große Glück, bei der Produktion der zweiten Hälfte der Folgen auf die unglaubliche Unterstützung der großartigen Produzentin Margot Lulick zählen zu können. Sie stellte sicher, dass den LED-Teilen des Drehs die nötige Aufmerksamkeit geschenkt wurde. ICVFX war für den Großteil des Produktionsteams Neuland, aber Margot und ihr Team verbrachten viel Zeit damit, sich mit dem Prozess vertraut zu machen und sicherzustellen, dass wir die besten Teile des Volumens kreativ ausnutzen und innerhalb des Volumens effizient drehen konnten.

Beschreiben Sie, welche einzigartige Rolle das LED-Volumen in dieser Show spielt, sowohl als VFX-Werkzeug als auch als Teil der Handlung.

Die Geschichte bot sich für die Technologie des LED-Volumens an, da in der Serie ein Telesonic-Projektor eine Nebraska-Maisfeldlandschaft in der Vault simuliert. Das LED-Volumen wird also sowohl als technisches Werkzeug als auch für die Geschichte verwendet. So konnten Jonathan Nolan und die Showrunner mit der Idee herumspielen, die Tageszeit mitten in der Aufnahme zu ändern.
Während der Hochzeitsszene im Maisfeld hat der Overseer eine Zeile, die den Wechsel von der Dämmerung zur Nacht anzeigt und einen Mondaufgang in der Mitte der Aufnahme animiert. Außerdem konnten wir während des Kampfes zwischen Vault 33 und den Oberflächenbewohnern mit wunderschönen FX-Elementen an der Wand spielen. Da die Projektoren von Schüssen getroffen wurden, entwickelte unser Houdini-Team, Justin Dykhouse und Daniel Naulin, einen Filmverbrennungseffekt, der schließlich die gesamte Leinwand einnahm. 

Wir nahmen Verweise auf die Verbrennung von Filmen auf, recherchierten online über die Filmtypen der 50er Jahre und ihre charakteristischen Verbrennungsmuster und schufen einen fesselnden Effekt, der sich nach und nach auf alle drei Wände der Vault ausbreitete. Bei der Entwicklung dieses Effekts erkannten wir, dass die Anforderungen an eine Umgebung am Set ähnlich sind wie bei der Entwicklung eines Effekts für ein Videospiel – wir wollten also, dass der Übergang von einem Zustand in einen anderen zu einem bestimmten, aber kreativ flexiblen Zeitpunkt erfolgt. 

Auf diese Weise war die Produktion nicht an das starre Timing eines linearen FX-Elements gebunden, sondern konnte auf ein Stichwort reagieren, das auf der Darstellung des Schauspielers basierte – eine einmalige Möglichkeit, die sich uns durch die Arbeit in Unreal bot.
Wieso war die Arbeit in Echtzeit-3D für Ihre Arbeit an dieser Produktion so wichtig?

Unreal ermöglichte es dem Team, das Set in der Vorproduktionsphase kreativ zu verändern. Da wir schon früher mit diesem Produktionsteam kooperiert hatten, wussten wir, dass wir am Set flexibel und in der Lage sein mussten, das Beleuchtungs- oder Setdesign in letzter Minute zu ändern, wenn es nötig war. 

Tatsächlich wurde unserem Team während der Dreharbeiten zum Set Vault-Door die Idee unterbreitet, das Licht während der Aufnahme dann einzuschalten, sobald Lucy den Aufzug verlässt, um die Umgebung zu enthüllen. Unser VAD-Leiter Devon Mathis und unser Lookdev/Lighting Supervisor Jeremy Vickery entwickelten rasch einen Plan, bauten diese Lösung noch vor dem Mittagessen in ein neues Level ein und luden das Level auf das Set, sodass es für die Aufnahme der Eröffnungseinstellung der Szene verwendet werden konnte, komplett mit einem dynamischen Lichtwechsel während der Einstellung. Mit vorgerenderten Inhalten wäre das nie möglich gewesen.
Am letzten Drehtag kam die Produktion auf ähnliche Weise auf uns zu und bot uns an, den Post-Credits-Teaser für die letzte Folge zu drehen. Wir erstellten mithilfe des Umgebungslichtmischers rasch ein einfaches Level, um Overseer Hank in seiner Power Armor zu beleuchten und zu filmen, während er durch die Wüste wandert. Die Flexibilität des Systems erlaubte es uns, die Szene in weniger als zehn Minuten zu erstellen und auf die Wand zu laden.

Welche Rolle hat die Unreal Engine bei der Planung und Terminierung der Drehtage gespielt?

Vor einem Dreh führten wir so viele Prelight-Tage durch, wie es der Drehplan zuließ. An diesen Tagen richteten wir die Leistung der LED-Wand anhand der eingestellten Setbeleuchtung aus und filmten das Ergebnis mit dem Kamerakörper und dem Filmmaterial der Serie. Diese Tests führten wir sowohl mit der Belichtung der Kamera als auch mit den manuellen Belichtungswerkzeugen von Unreal durch. 

Anhand der Ergebnisse dieser Tests konnten wir messen, an welchem Punkt die Synchronisierung unserer digitalen Referenzkamera mit unserem Filmmaterial aufhörte und welche Anpassungen wir vornehmen konnten, damit in unterschiedlichen Lichtszenarien alles gut aussah. Durch den Einsatz von Lumen in Unreal konnten wir die virtuelle Beleuchtung genauso verfügbar machen wie die physische Beleuchtung am Set. Was normalerweise verschiedene Niveaus unterschiedlicher gebakter Beleuchtung erfordern würde, lässt sich nun in Echtzeit bewerkstelligen.

Darüber hinaus boten die Echtzeit-Sets den Filmschaffenden die Möglichkeit, schon in einem frühen Entwicklungsstadium kreative Entscheidungen zu Bildausschnitt, Beleuchtung und Positionierung von Aktionen zu treffen. Sie unterstützten die ADs sogar bei der Planung der Drehtage, indem sie visualisierten, wie große Teile der Ausrüstung auf das Set gelangen und wo sie aufgestellt werden können.

Die Kulisse der Vault 33-Farm im Maisfeld wurde symmetrisch gestaltet, damit wir beim Drehen in die andere Richtung nur ein paar Teile verschieben mussten. Wir drehten die Umgebung praktisch um 180 Grad, um rückwärtsgewandt in die eigentliche Vault zu filmen. Während der gesamten Produktionsphase mit der LED-Wand hatten wir eine Verfügbarkeit von 99 % und es kam nur einmal zu einer Verzögerung von 9 Minuten. Das verschaffte den Showrunnern und ADs die Gewissheit, dass die Crews von Magnopus, Fuse und All of it Now (alles Unreal Engine Service Partner) das bewältigen konnten.

Wie groß war das Team bei Magnopus für dieses Projekt und wie viele Künstler haben in der Unreal Engine gearbeitet?

Die Magnopus-Crew bestand während der gesamten Spielzeit aus 37 Personen. 19 Künstler bauten die virtuellen Sets, 7 Operatoren bedienten das Unreal nDisplay-System auf der LED-Wand, integrierten das Kamera-Tracking und programmierten DMX-Daten für die Lichtsysteme. Der Rest des Teams bestand aus Software-Ingenieuren, Creative Direction und der Produktionsaufsicht, die alle in Unreal arbeiteten.
Gab es bestimmte Unreal Engine-Funktionen, die besonders wichtig waren, um diese Serie zum Leben zu erwecken?

Lumen ist das wichtigste Element von Unreal, das alle Elemente von Fallout zusammenführte. Nachdem wir von der gebakten Beleuchtung abgerückt waren, hatten wir deutlich weniger Ausfallzeiten am Set und konnten die Beleuchtungsänderungen in Echtzeit mit dem Kameramann besprechen, was die Effektivität unserer kreativen Überprüfungen noch erhöhte.

Entdecken Sie die Unreal Engine für Film und TV

Erschaffen Sie überzeugende Charaktere. Erzählen Sie ungewöhnliche Geschichten. Oder lassen Sie Ihre Nutzer brandneue Welten auf eigene Faust erkunden. Unreal Engine eröffnet Ihnen beispiellose kreative Möglichkeiten über den gesamten Produktionsprozess hinweg.

Ähnliche Blogs


Film und Fernsehen

Das Beispielprojekt "Cassini" ist jetzt verfügbar

Mache einen großen Schritt mit dem Cassini-Beispielprojekt, das jetzt zum Herunterladen bereitsteht! Entdecke die jüngsten Neuerungen am PCG-Framework (Procedural Content Generation) von Unreal Engine in dieser Weltraumumgebung.

Virtuelle Produktion

Unreal Engine 5.5 ist jetzt verfügbar

Diese Veröffentlichung umfasst wesentliche Verbesserungen bei Animationserstellung, Rendering, der virtuellen Produktion, der Spieleentwicklung für Mobilgeräte und den Werkzeugsätzen für Entwickler-Iterationen – und vieles, vieles mehr.

Indies

Fab, der neue zentrale Marktplatz von Epic für Inhalte geht heute an den Start!

Heute startet Epic Fab, eine zentrale Anlaufstelle, wo ihr digitale Assets entdecken, kaufen, verkaufen und teilen könnt. Dieser neue Marktplatz unterstützt alle Arten von Creators mit Inhalten zur Verwendung mit Unreal Engine, Unity 3D, UEFN und anderen digitalen Werkzeugen zur Inhaltserstellung.