Destacado
24 de abril de 2025

Un estudio de imagen real se pasa a gráficos generados por ordenador para la película de ciencia ficción Babiru

AnimaciónBabiruCaptura de movimientosCine y televisiónFuncionesPrevisSecond Tomorrow Studios
second-tomorrow-studio-logo.png
Second Tomorrow Studios es una productora con sede en Montreal especializada en cine y televisión de ciencia ficción, al mando de su fundador y director Nguyen-Anh Nguyen, con una impresionante lista de desarrollo de proyectos de imagen real plagados de efectos como TEMPLE, HYPERLIGHT y THE AKIRA PROJECT. 
¿Qué sucede cuando las máquinas siguen viviendo tras la caída de la humanidad? Esta es la pregunta que plantea Babiru, el proyecto más reciente de Second Tomorrow Studios.
 
Para el tráiler de Babiru, el estudio usó la MegaGrant de Epic y así pasar de acción real a gráficos generados por ordenador con Unreal Engine. Al trabajar con el guionista Philip Gelatt (Love, Death + Robots, El nivel secreto), han producido una obra atrevida y visualmente impactante que sirve como prueba de concepto para un largometraje que Nguyen también planea crear íntegramente en Unreal Engine.

Le hemos pedido a Nguyen que nos hable sobre Babiru y lo que significa para el futuro de la realización cinematográfica.
¿Cómo nació Babiru? 

Babiru empezó como un proyecto fruto de nuestra pasión. Soy muy fan del impresionante arte conceptual de Nivanh Chantara y Frederic Rambaud, los dos artistas que se ocupan del mundo de Babiru. 

Su trabajo, que se desarrolló a lo largo de casi una década, retrataba un mundo inquietante y lleno de texturas con el potencial para una historia de ciencia ficción envolvente. Les convencí para que convirtieran esta idea en una película y, durante un tiempo, la presentamos como un proyecto de imagen real de distintas formas. Sin embargo, tras algunos rechazos a causa de lo ambicioso que era el proyecto, nos dimos cuenta de que sería imposible llevar a cabo algo de esta envergadura de una forma tradicional. 

Contemplé Unreal Engine como posible solución para hacer realidad este proyecto sin las limitaciones que habríamos tenido en comparación con uno de acción real, así que solicité una MegaGrant. 

La respuesta de Epic llegó justo después de que estallara la pandemia. Logramos formar un equipo global y trabajar de forma remota mientras el mundo estaba confinado. Fue una casualidad y nos proporcionó a todos la válvula de escape creativa que tanto necesitábamos en aquellos días. 

La subvención nos permitió colaborar con artistas de primer nivel, ampliando los límites de lo posible. En ese momento, nos aventurábamos en territorio desconocido con el nivel de calidad que buscábamos, pero Unreal Engine nos permitió soñar a lo grande.
Characters in Babiru.
Courtesy of Second Tomorrow Studios
Una de las cosas más llamativas de Babiru es su riqueza visual. ¿De dónde viene este estilo?

Cuando estaba creando el concepto de Babiru, siempre me imaginaba algo como Ciudad de Dios mezclado con Distrito 9. Quería que la película fuese cruda y soleada, como una favela brasileña en ruinas con el derrumbe de una civilización entera sobresaliendo por encima de todo.

Un tema visual clave en Babiru es el contraste entre entornos deteriorados u oxidados y la brillante tecnología de neón, entre el vasto mundo abandonado y la íntima historia de supervivencia de nuestros protagonistas de IA. 

Unreal Engine ha sido fundamental a la hora de desarrollar esta estética. Su iluminación en tiempo real y Lumen nos permitieron experimentar con luces y sombras de forma dinámica, creando así la interacción entre la oscuridad y la iluminación que define el aspecto de inspiración ciberpunk de Babiru. Su refinado sistema de cámara también nos ayudó a crear y experimentar rápidamente con composiciones cinemáticas, lo que potenciaba la intensa narrativa visual de la película.
Robot with teeth in Babiru.
Courtesy of Second Tomorrow Studios
Como todos tus trabajos anteriores estaban hechos con actores reales, debe haber sido un gran cambio para ti adoptar personajes completamente generados por ordenador.

Lo fue. Dirigir actores de forma remota desde Montreal, con un entorno de captura de movimientos en Beyond Capture Vancouver, fue todo un reto al principio, pero después permitió tener un control creativo total sobre el movimiento, el tiempo e incluso el trabajo de cámara, sin las limitaciones de los decorados físicos o la disponibilidad de los actores. Podríamos usar y modificar las animaciones capturadas para adaptarlas perfectamente a nuestras escenas mucho más adelante, sin las limitaciones de programar días de rodaje adicionales. Esto fue de gran ayuda teniendo en cuenta nuestro presupuesto y limitaciones de tiempo. 

Unreal Engine simplificó este proceso con sus herramientas de animación y renderización en tiempo real. Podíamos revisar escenas casi finales y modificar las interpretaciones de forma rápida, ajustar la iluminación sobre la marcha y refinar las composiciones en el motor sin tener que esperar largos tiempos de renderización. También permitió un proceso de trabajo más descentralizado en el que artistas de todo el mundo participaban de forma paralela en múltiples tomas de las mismas escenas al mismo tiempo.
Characters explore Babiru.
Courtesy of Second Tomorrow Studios
¿Por qué elegisteis Unreal Engine como motor de renderización principal?

Me gustan los videojuegos de toda la vida y recuerdo muy bien jugar a Quake con una de las primeras versiones de Unreal Engine cuando era adolescente. Las cinemáticas de los videojuegos (como Wing Commander o Call of Duty) siempre tenían algo que me hacía pensar: «podría ver una película entera así». 

Gracias a mi experiencia con motores de renderización tradicionales en proyectos anteriores, descubrí que tenían una curva de aprendizaje mucho más pronunciada y que no ofrecían resultados en tiempo real. Si cometías un error o si querías ajustar pequeños detalles, podrías tardar horas o días en renderizar escenas complejas. 

Unreal Engine ofrecía un proceso de trabajo en tiempo real que nos permitía visualizar y refinar las tomas al instante, algo que no se podía ni comparar con las canalizaciones de gráficos generados por ordenador tradicionales. Gracias a la capacidad de trabajar con escenas animadas, iluminadas y texturizadas en tiempo real, podíamos tomar decisiones creativas mucho más rápido. También era rentable, ya que permitía alcanzar un nivel de fidelidad visual que habría sido mucho más costoso de conseguir con la animación prerrenderizada convencional.

Sin embargo, lo que más me entusiasmó fue que Unreal Engine ofrece una solución casi integral. Puedes gestionar la previsualización, la animación, la iluminación, la adquisición de tomas e incluso el píxel final en el mismo software. 

Eso fue revolucionario cuando empezamos a trabajar en Babiru. Siempre me ha gustado prueba nuevas tecnologías, traspasar límites y ver cómo puedo usarlas para materializar ideas creativas que no serían posibles con una configuración más tradicional.
Cityscape in Babiru.
Courtesy of Second Tomorrow Studios
¿Cuáles son algunas de las funciones de Unreal Engine que han resultado más útiles para el proyecto?

Comenzamos el proyecto con Unreal 4.27 y nos inquietaba un poco actualizar a Unreal 5 cuando salió, ya que nos preocupaba estropear el proyecto, pero ¡qué diferencia! 

Varias características de Unreal Engine 5 supusieron un punto de inflexión para Babiru. La iluminación global de Lumen nos permitió lograr una iluminación realista y dinámica que resaltaba la atmósfera de la película, creando una experiencia profunda y visualmente envolvente que parecía realista.

La geometría virtualizada de Nanite nos permitió usar los entornos altamente detallados creados por mis amigos de Ronin161 y Xavier Albert, sin comprometer el rendimiento, lo que fue clave para construir el intrincado mundo posthumano de Babiru. 

La renderización en tiempo real nos ha permitido modificar al instante las composiciones, la iluminación y las animaciones, lo que aumenta la fluidez y eficiencia del proceso creativo. 

Por último, Sequencer ofrecía un sólido conjunto de herramientas cinemáticas y de edición integradas en el motor, lo que nos permitió diseñar las tomas y experimentar con el ritmo sin depender de la renderización tradicional sin conexión. Me divertí mucho trabajando con Dane Armour, nuestro operador de cámara virtual con sede en Londres, descubriendo nuevas formas de ver algunas de las escenas que habíamos creado. 

Estas herramientas no solo mejoraron la calidad visual del proyecto, sino que también mantuvieron la agilidad y la rentabilidad de la producción.
Character in Babiru.
Courtesy of Second Tomorrow Studios
Además de Unreal Engine, ¿qué otro software desempeñó un papel clave en vuestra canalización?

Maya se usó principalmente para el modelado, rigging, cambio de objetivo y animación de personajes antes de incorporar los recursos a Unreal Engine para la renderización en tiempo real.

En nuestras instalaciones de posproducción CineGround Media, usamos DaVinci Resolve y Fusion de Blackmagic, que tuvieron un papel fundamental en el etalonaje, los efectos visuales finales y la composición, al permitirnos refinar el aspecto de la película cuando se completaron todas las renderizaciones de Unreal Engine y añadir un aspecto cinematográfico más tradicional a los renderizados de Unreal Engine.

El proceso exigió ciertas iteraciones, ya que podíamos alternar entre Unreal y Maya a la hora de refinar las animaciones, y Resolve nos permitía ajustar los elementos visuales finales sin perder la flexibilidad.
Robot with sparks in Babiru.
Courtesy of Second Tomorrow Studios
¿Cuántos artistas están trabajando en Babiru?

En Babiru han participado casi 50 artistas, repartidos por América del Norte, Europa y Australia. Pasé unos seis meses contratando a los mejores artistas que pude encontrar en línea y fue realmente una colaboración a nivel mundial. Más tarde se unieron a nosotros los increíbles profesionales de Mathematic Studios y Ronin161, que resultaron fundamentales para ayudarnos a completar el proyecto.

El proceso de trabajo en tiempo real de Unreal Engine hizo que la colaboración remota fuera mucho más fluida, ya que los artistas podían ver las actualizaciones al instante sin tener que esperar por las renderizaciones. También usamos Perforce para el control de versiones, y así nos aseguramos de que los recursos se gestionaran de manera eficiente en múltiples zonas horarias. La capacidad de trabajar dentro de los archivos de proyecto compartidos de Unreal Engine hizo que el equipo permaneciera muy coordinado, incluso cuando al trabajar de forma asíncrona.

Usamos Discord como nuestro principal centro de comunicación, Dropbox para compartir recursos y frame.io como medios para ver nuestro progreso. Daba la sensación de ser un miniestudio que operaba desde Montreal y es una prueba de todo lo que se puede conseguir hoy en día con las herramientas adecuadas, una visión compartida y una conexión a internet.
Debris in Babiru.
Courtesy of Second Tomorrow Studios
¿Cuál es el estado actual de Babiru con respecto al desarrollo?

Creamos 16 minutos de la película, pero por ahora hemos lanzado el tráiler como prueba de concepto para mostrar el mundo de Babiru. Nuestro siguiente paso será presentar esto a otros inversores y estudios cinematográficos para asegurar financiación adicional que nos permita expandir Babiru y convertirlo en largometraje. 

La prueba de concepto ha demostrado el potencial visual y narrativo de este mundo y estamos buscando socios de forma activa para convertirlo en realidad a una escala mayor.
Destruction in Babiru.
Courtesy of Second Tomorrow Studios
¿Cómo ves la integración de Unreal Engine en el cine en el futuro?

Unreal Engine está transformando por completo la forma de hacer películas de animación. Nos ha facilitado unas iteraciones más rápidas, la toma de decisiones creativas en tiempo real y una colaboración de forma descentralizada con artistas de todo el mundo de formas que los procesos tradicionales no permitían. 

La capacidad de trabajar dentro de un entorno en tiempo real completamente integrado significa que los cineastas pueden centrarse en la narración y el diseño visual en lugar de esperar a las renderizaciones. Me permitió crear planos con los que nunca habría soñado de la manera tradicional y con los que Babiru no habría sido posible. Creo que es un punto de inflexión tanto para producciones independientes como a gran escala. 

Nos encontramos en un punto en el que la tecnología está permitiendo a una nueva generación de creadores hacer cosas impensables hace unos años y explorar nuevas formas híbridas de narración.

Cómo instalar Unreal Engine

Instrucciones de descarga

Descargar el iniciador

Antes de instalar y ejecutar Unreal Editor, tendrás que descargar e instalar el iniciador de Epic Games.

Instalación del iniciador de Epic Games

Cuando lo hayas descargado e instalado, abre el iniciador y crea o inicia sesión con tu cuenta de Epic Games.

Solicita asistencia o reinicia la descarga del iniciador de Epic Games del paso 1.

Instalación de Unreal Engine

Cuando hayas iniciado sesión, dirígete a la pestaña «Unreal Engine» y haz clic en el botón «Instalar» para descargar la versión más reciente.

Videotutorial sobre cómo instalarlo

¿Quieres usar Unreal Editor for Fortnite?

Comienza a trabajar en Unreal Editor para Fortnite desde el iniciador de Epic Games.

Descargar UEFN

Recibe actualizaciones sobre las novedades del sector y los últimos recursos gratuitos para

Al enviar esta información, aceptas recibir noticias, encuestas y ofertas especiales de Epic Games. Política de privacidad