Spotlight
24. April 2025

Live-Action-Studio stellt für Sci-Fi-Film Babiru auf reine CG um

AnimationBabiruFilm und FernsehenFunktionenMoCapPrevisSecond Tomorrow Studios
second-tomorrow-studio-logo.png
Second Tomorrow Studios, eine in Montreal ansässige Produktionsfirma, die sich für Film und Fernsehen auf das Genre Science-Fiction konzentriert und unter der Leitung von Gründer/Regisseur Nguyen-Anh Nguyen steht, kann eine beachtliche Entwicklungsliste effektlastiger Live-Action-Projekte wie TEMPLE, HYPERLIGHT und THE AKIRA PROJECT vorweisen. 
Was passiert, wenn die Menschheit verschwunden ist, ihre Maschinen aber weiterleben? Diese Frage stellt Babiru, das neueste Projekt von Second Tomorrow Studios.
 
Für den Trailer zu Babiru nutzte das Studio seinen Epic MegaGrant, um mit der Unreal Engine von Live-Action auf reine CG umzusteigen. Sie taten sich mit Autor Philip Gelatt (Love, Death + Robots, Secret Level) zusammen und produzierten ein mutiges, visuell beeindruckendes Werk, das als Machbarkeitsnachweis für einen abendfüllenden Film dient – einen Film, den Nguyen ebenfalls komplett in der Unreal Engine realisieren will.

Wir baten Nguyen, uns etwas über Babiru zu erzählen – und was er für die Zukunft des Filmemachens bedeutet.
Wie ist Babiru entstanden? 

Babiru begann als Projekt aus Leidenschaft. Ich war ein Riesenfan der atemberaubenden Konzeptkunst von Nivanh Chantara und Frederic Rambaud, den beiden Konzeptkünstlern hinter der Welt von Babiru. 

Ihre Arbeit, die über einen Zeitraum von fast einem Jahrzehnt entstand, entwarf eine eindringliche, tief strukturierte Welt voller Potenzial für eine fesselnde Sci-Fi-Geschichte. Ich überzeugte sie, diese Idee zu einem Spielfilm weiterzuentwickeln, und wir haben die Idee eine Zeit lang als Live-Action-Projekt in verschiedenen Formen gepitcht. Aber nach einigen Absagen wegen der Ambitionen des Projekts erkannten wir bald, dass ein Unterfangen dieser Größenordnung auf herkömmliche Weise nicht durchführbar ist. 

Ich nahm die Unreal Engine als eine mögliche Lösung unter die Lupe, um dieses Projekt zum Leben zu erwecken, ohne die für eine Live-Action unverzichtbaren Kompromisse eingehen zu müssen, und bewarb mich für einen MegaGrant. 

Die Antwort von Epic kam direkt nach dem Ausbruch der Pandemie. Wir haben es geschafft, ein weltweit agierendes Team zusammenzustellen und aus der Ferne zu arbeiten, während überall Lockdown herrschte. Es war eine glückliche Fügung und gab uns allen in diesen Tagen ein dringend benötigtes kreatives Ventil. 

Der Grant ermöglichte es uns, mit Künstlern von Weltruf zusammenzuarbeiten und die Grenzen des Möglichen zu erweitern. Zu der Zeit wagten wir uns bei unserem angestrebten Qualitätsniveau auf experimentelles Terrain, aber die Unreal Engine ermöglichte es uns, groß zu träumen.
Characters in Babiru.
Courtesy of Second Tomorrow Studios
Einer der auffälligsten Aspekte von Babiru ist sein reichhaltiger visueller Stil. Woher stammt dieser Stil?

Als ich Babiru konzipierte, stellte ich mir immer wieder etwas vor wie City of God meets District 9. Ich wollte, dass sich der Film düster, sonnenverwöhnt und roh anfühlt – wie eine zerfallende brasilianische Favela, auf der der Zusammenbruch einer ganzen Zivilisation lastet.

Ein zentrales visuelles Thema von Babiru ist der Kontrast – zwischen verfallenen, verrosteten Umgebungen und leuchtender Neontechnologie; zwischen der riesigen, verlassenen Welt und der intimen Überlebensgeschichte unserer KI-Protagonisten. 

Die Unreal Engine hat bei der Entwicklung dieser Ästhetik eine entscheidende Rolle gespielt. Ihre Echtzeit-Beleuchtung sowie Lumen ermöglichten es uns, dynamisch mit Licht und Schatten zu experimentieren und das Zusammenspiel zwischen Dunkelheit und Beleuchtung zu schaffen, das den Cyberpunk-inspirierten Look von Babiru definiert. Ihr ausgeklügeltes Kamerasystem half uns auch, filmische Kompositionen rasch zu erstellen und mit ihnen zu experimentieren, was die starke visuelle Erzählweise des Films vorantrieb.
Robot with teeth in Babiru.
Courtesy of Second Tomorrow Studios
Da Ihre früheren Arbeiten allesamt mit echten Darstellern entstanden, muss es für Sie eine ziemliche Umstellung gewesen sein, sich vollständig auf CG-Charaktere einzulassen.

Das war es. Die Regie für Schauspieler aus der Ferne von Montreal aus – in einer Motion-Capture-Umgebung bei Beyond Capture Vancouver – war anfangs eine Herausforderung, aber danach ermöglichte dies die vollständige kreative Kontrolle – über Bewegung, Timing und sogar Kameraführung – ohne die Einschränkungen physischer Sets oder der Verfügbarkeit von Schauspielern. Wir konnten die aufgenommenen Animationen zu einem viel späteren Zeitpunkt verwenden und sie perfekt an unsere Szenen anpassen, ohne dafür zusätzliche Drehtage einplanen zu müssen. Angesichts unseres Budgets und unserer Zeitbeschränkungen war das eine Riesenhilfe. 

Durch die Unreal Engine mit ihren Echtzeit-Rendering- und Animationswerkzeugen wurde es ein nahtloser Prozess. Wir konnten fast fertige Szenen überprüfen und die Performance rasch iterieren, die Beleuchtung im Handumdrehen anpassen und die Kompositionen in der Engine verfeinern, ohne lange Renderzeiten abwarten zu müssen. Das ermöglichte uns auch einen dezentraleren Arbeitsablauf, bei dem Künstler aus der ganzen Welt parallel an mehreren Aufnahmen in denselben Szenen arbeiten konnten.
Characters explore Babiru.
Courtesy of Second Tomorrow Studios
Warum haben Sie sich für die Unreal Engine als primäre Rendering-Engine entschieden?

Ich bin Gamer, seit ich denken kann, und erinnere mich lebhaft daran, wie ich Quake in einer frühen Version der Unreal Engine als Teenager spielte. Es gab immer etwas an diesen filmischen Videospiel-Zwischensequenzen (wie in Wing Commander oder Call of Duty), das mich denken ließ: "Das könnte ich mir so als ganzen Film ansehen." 

Bei früheren Projekten musste ich die Erfahrung machen, dass herkömmliche Rendering-Engines eine viel steilere Lernkurve haben und keine Echtzeit-Ergebnisse liefern. Bei einem Fehler oder der Anpassung kleinerer Details konnte das bei komplexen Szenen Stunden, wenn nicht sogar Tage dauern. 

Die Unreal Engine bot einen Echtzeit-Workflow, der es uns ermöglichte, Aufnahmen sofort zu visualisieren und zu verfeinern – etwas, mit dem herkömmliche CG-Pipelines einfach nicht mithalten können. Die Möglichkeit, mit vollständig texturierten, beleuchteten und animierten Szenen in Echtzeit zu arbeiten, bedeutete, dass wir kreative Entscheidungen viel schneller treffen konnten. Es war zudem kostengünstig und ermöglichte ein Maß an visueller Wiedergabetreue, das mit herkömmlichen vorgerenderten Animationen zu erreichen viel kostspieliger gewesen wäre.

Was mich jedoch am meisten begeistert hat, war, dass Unreal nahezu eine Alles-in-einem-Lösung bietet. Damit lassen sich Previs, Animation, Beleuchtung, der Erhalt von Aufnahmen und sogar der endgültige Pixel in derselben Software verwalten. 

Zu der Zeit, als wir mit den Arbeiten an Babiru begonnen, war das bahnbrechend. Mir hat es seit jeher Spaß gemacht, neue Technologien zu erproben, Grenzen zu sprengen und zu sehen, wie ich sie nutzen kann, um kreative Ideen zu verwirklichen, die mit einem eher herkömmlichen Setup vielleicht nicht möglich wären.
Cityscape in Babiru.
Courtesy of Second Tomorrow Studios
Welche Funktionen der Unreal Engine erwiesen sich für das Projekt am nützlichsten?

Wir begannen das Projekt in Unreal 4.27 und waren ein wenig besorgt, auf Unreal 5 zu aktualisieren, als sie erschien, da wir fürchteten, dass sie das Projekt zerstören könnte – aber was für einen Unterschied sie gemacht hat! 

Mehrere Funktionen in der Unreal Engine 5 waren für Babiru bahnbrechend. Dank der globalen Beleuchtung von Lumen konnten wir eine realistische und dynamische Beleuchtung erzielen, welche die Atmosphäre des Films verstärkt und ein tiefes, visuelles Erlebnis schafft, das sich realistisch anfühlt.Die virtualisierte Geometrie von Nanite ermöglichte es uns, die extrem detaillierten Umgebungen zu nutzen, die von meinen Freunden bei Ronin161 und Xavier Albert erstellt wurden, ohne Kompromisse bei der Performance einzugehen – etwas, das für den Aufbau der komplexen, post-humanen Welt von Babiru entscheidend war. 

Echtzeit-Rendering gab uns die Möglichkeit, Kompositionen, Beleuchtung und Animationen sofort zu optimieren, was den kreativen Prozess viel flüssiger und effizienter gestaltete. 

Und letztlich bot uns Sequencer einen robusten In-Engine-Werkzeugsatz für die Bearbeitung und Kameraeinstellungen, der es uns gestattete, Aufnahmen zu gestalten und mit dem Tempo zu experimentieren, ohne uns auf traditionelles Offline-Rendering verlassen zu müssen. Ich hatte viel Spaß an der Zusammenarbeit mit Dane Armour, unserem Operator für virtuelle Kameras mit Sitz in London! Wir haben ständig neue Perspektiven für einige der von uns erstellten Szenen entdeckt. 

Diese Werkzeuge verbesserten nicht nur die visuelle Qualität des Projekts, sondern sorgten auch für eine agile und zugleich kosteneffiziente Produktion.
Character in Babiru.
Courtesy of Second Tomorrow Studios
Welche andere Software nahm neben der Unreal Engine eine Schlüsselrolle in Ihrer Pipeline ein?

Maya kam hauptsächlich für die Charaktermodellierung, das Rigging, das Retargeting und die Animation zum Einsatz, bevor Assets für das Echtzeit-Rendering in die Unreal Engine importiert wurden.

Bei CineGround Media, unserer Einrichtung für die Postproduktion, verwendeten wir DaVinci Resolve und Fusion von Blackmagic. Sie spielten eine entscheidende Rolle bei der Farbkorrektur, den finalen VFX und dem Compositing und ermöglichten es uns, den Look des Films abzurunden, sobald alle Unreal-Renderings abgeschlossen waren – und den Unreal-Renderings einen traditionelleren Filmlook zu verleihen.

Die Pipeline war auf gewisse Weise iterativ, da wir zwischen Unreal und Maya hin- und herwechseln konnten, um die Animationen zu verfeinern, und Resolve ermöglichte es uns, den Feinschliff für das endgültige Bildmaterial vorzunehmen und dabei flexibel zu bleiben.
Robot with sparks in Babiru.
Courtesy of Second Tomorrow Studios
Wie viele Künstler arbeiten an Babiru?

Fast 50 Künstler haben zu Babiru beigetragen, verteilt auf Nordamerika, Europa und Australien. Ich verbrachte rund sechs Monate damit, die besten Künstler an Bord zu holen, die ich online finden konnte, und es war wirklich eine weltweite Zusammenarbeit. Später schlossen sich uns die supertalentierten Leute von Mathematic Studios und Ronin161 an, die uns maßgeblich dabei halfen, das Projekt abzuschließen.

Der Echtzeit-Workflow der Unreal Engine sorgte für eine viel reibungslosere Zusammenarbeit aus der Ferne, da Künstler Aktualisierungen sofort sehen konnten, ohne auf Renderings warten zu müssen. Wir haben außerdem Perforce für die Versionskontrolle genutzt, um sicherzustellen, dass Assets über mehrere Zeitzonen hinweg effizient verwaltet werden. Die Möglichkeit, in den gemeinsam genutzten Projektdateien von Unreal zu arbeiten, ermöglichte auch bei asynchroner Arbeit extrem koordiniertes Teamwork.

Wir nutzten Discord als unser Hauptkommunikationszentrum, Dropbox, um Assets zu teilen, sowie frame.io, um unseren Fortschritt zu verfolgen. Es war wie ein Mini-Studio, das von Montreal aus betrieben wurde – und ist ein Beweis dafür, wie viel man heutzutage mit den richtigen Werkzeugen, einer gemeinsamen Vision und einer Internetverbindung erreichen kann.
Debris in Babiru.
Courtesy of Second Tomorrow Studios
Auf welchem Entwicklungsstand befindet sich Babiru momentan?

Wir haben 16 Minuten des Films erstellt, aber vorerst haben wir den Trailer als Machbarkeitsnachweis veröffentlicht, um die Welt von Babiru zu zeigen. Unser nächster Schritt besteht darin, diesen anderen Geldgebern und Filmstudios vorzustellen, um eine zusätzliche Finanzierung für den Ausbau von Babiru zu einem abendfüllenden Spielfilm zu sichern. 

Der Machbarkeitsnachweis hat das visuelle und erzählerische Potenzial dieser Welt aufgezeigt, und wir suchen aktiv nach Partnern, die uns dabei helfen, sie in größerem Maßstab zum Leben zu erwecken.
Destruction in Babiru.
Courtesy of Second Tomorrow Studios
Wo sehen Sie in Zukunft die Unreal Engine, wenn es um das Filmemachen geht?

Die Unreal Engine verändert die Art und Weise, wie Animationsfilme kreiert werden. Sie ermöglichte uns, schneller zu iterieren, kreative Entscheidungen in Echtzeit zu treffen und dezentral mit Künstlern auf der ganzen Welt zusammenzuarbeiten, auf eine Weise, die herkömmliche Pipelines nicht zulassen. 

Die Möglichkeit, in einer vollständig realisierten Echtzeitumgebung zu arbeiten, bedeutet, dass sich Filmemacher auf das Geschichtenerzählen und das visuelle Design konzentrieren können, statt auf Renderings zu warten. Sie ermöglichte mir, Aufnahmen zu machen, von denen ich auf traditionelle Weise nie zu träumen gewagt hätte – und Babiru wäre ohne diese Technologie nicht möglich gewesen. Ich glaube, es ist ein Game-Changer für Independent- und Großproduktionen gleichermaßen. 

Wir sind an einem Punkt angelangt, an dem die Technologie es einer neuen Generation von Creators ermöglicht, Dinge zu vollbringen, die vor ein paar Jahren noch undenkbar waren, und neue, hybride Formen des Geschichtenerzählens zu erforschen.

So installierst du die Unreal Engine

Download-Anweisungen

Den Launcher herunterladen

Bevor du den Unreal Editor installieren und ausführen kannst, musst du den Epic Games Launcher herunterladen und installieren.

Epic Games Launcher installieren

Öffne den Launcher nach dem Herunterladen und melde dich bei deinem Epic-Games-Konto an oder erstelle ein neues Konto.

Erhalte Unterstützung oder starte den Download deines Epic Games Launchers wie in Schritt 1 beschrieben neu.

Unreal Engine installieren

Sobald du eingeloggt bist, navigiere zum Reiter "Unreal Engine" und klicke auf die Schaltfläche "Installieren", um die neueste Version herunterzuladen.

Videoanleitung für die Installation

Du suchst den Unreal Editor für Fortnite?

Lege mit dem Unreal Editor für Fortnite über den Epic Games Launcher los.

UEFN herunterladen

Erhalte aktuelle Informationen über Brancheninnovationen und die neuesten kostenlosen Assets für

Indem du deine Informationen einreichst, willigst du ein, Neuigkeiten, Umfragen und Sonderangebote von Epic Games zu erhalten. Datenschutzrichtlinie