¿Cómo nació Babiru?
Babiru empezó como un proyecto fruto de nuestra pasión. Soy muy fan del impresionante arte conceptual de Nivanh Chantara y Frederic Rambaud, los dos artistas que se ocupan del mundo de Babiru.
Su trabajo, que se desarrolló a lo largo de casi una década, retrataba un mundo inquietante y lleno de texturas con el potencial para una historia de ciencia ficción envolvente. Les convencí para que convirtieran esta idea en una película y, durante un tiempo, la presentamos como un proyecto de imagen real de distintas formas. Sin embargo, tras algunos rechazos a causa de lo ambicioso que era el proyecto, nos dimos cuenta de que sería imposible llevar a cabo algo de esta envergadura de una forma tradicional.
Contemplé Unreal Engine como posible solución para hacer realidad este proyecto sin las limitaciones que habríamos tenido en comparación con uno de acción real, así que solicité una MegaGrant.
La respuesta de Epic llegó justo después de que estallara la pandemia. Logramos formar un equipo global y trabajar de forma remota mientras el mundo estaba confinado. Fue una casualidad y nos proporcionó a todos la válvula de escape creativa que tanto necesitábamos en aquellos días.
La subvención nos permitió colaborar con artistas de primer nivel, ampliando los límites de lo posible. En ese momento, nos aventurábamos en territorio desconocido con el nivel de calidad que buscábamos, pero Unreal Engine nos permitió soñar a lo grande.
Como todos tus trabajos anteriores estaban hechos con actores reales, debe haber sido un gran cambio para ti adoptar personajes completamente generados por ordenador.
Lo fue. Dirigir actores de forma remota desde Montreal, con un entorno de captura de movimientos en Beyond Capture Vancouver, fue todo un reto al principio, pero después permitió tener un control creativo total sobre el movimiento, el tiempo e incluso el trabajo de cámara, sin las limitaciones de los decorados físicos o la disponibilidad de los actores. Podríamos usar y modificar las animaciones capturadas para adaptarlas perfectamente a nuestras escenas mucho más adelante, sin las limitaciones de programar días de rodaje adicionales. Esto fue de gran ayuda teniendo en cuenta nuestro presupuesto y limitaciones de tiempo.
Unreal Engine simplificó este proceso con sus herramientas de animación y renderización en tiempo real. Podíamos revisar escenas casi finales y modificar las interpretaciones de forma rápida, ajustar la iluminación sobre la marcha y refinar las composiciones en el motor sin tener que esperar largos tiempos de renderización. También permitió un proceso de trabajo más descentralizado en el que artistas de todo el mundo participaban de forma paralela en múltiples tomas de las mismas escenas al mismo tiempo.
¿Por qué elegisteis Unreal Engine como motor de renderización principal?
Me gustan los videojuegos de toda la vida y recuerdo muy bien jugar a Quake con una de las primeras versiones de Unreal Engine cuando era adolescente. Las cinemáticas de los videojuegos (como Wing Commander o Call of Duty) siempre tenían algo que me hacía pensar: «podría ver una película entera así».
Gracias a mi experiencia con motores de renderización tradicionales en proyectos anteriores, descubrí que tenían una curva de aprendizaje mucho más pronunciada y que no ofrecían resultados en tiempo real. Si cometías un error o si querías ajustar pequeños detalles, podrías tardar horas o días en renderizar escenas complejas.
Unreal Engine ofrecía un proceso de trabajo en tiempo real que nos permitía visualizar y refinar las tomas al instante, algo que no se podía ni comparar con las canalizaciones de gráficos generados por ordenador tradicionales. Gracias a la capacidad de trabajar con escenas animadas, iluminadas y texturizadas en tiempo real, podíamos tomar decisiones creativas mucho más rápido. También era rentable, ya que permitía alcanzar un nivel de fidelidad visual que habría sido mucho más costoso de conseguir con la animación prerrenderizada convencional.
Sin embargo, lo que más me entusiasmó fue que Unreal Engine ofrece una solución casi integral. Puedes gestionar la previsualización, la animación, la iluminación, la adquisición de tomas e incluso el píxel final en el mismo software.
Eso fue revolucionario cuando empezamos a trabajar en Babiru. Siempre me ha gustado prueba nuevas tecnologías, traspasar límites y ver cómo puedo usarlas para materializar ideas creativas que no serían posibles con una configuración más tradicional.
¿Cuál es el estado actual de Babiru con respecto al desarrollo?
Creamos 16 minutos de la película, pero por ahora hemos lanzado el tráiler como prueba de concepto para mostrar el mundo de Babiru. Nuestro siguiente paso será presentar esto a otros inversores y estudios cinematográficos para asegurar financiación adicional que nos permita expandir Babiru y convertirlo en largometraje.
La prueba de concepto ha demostrado el potencial visual y narrativo de este mundo y estamos buscando socios de forma activa para convertirlo en realidad a una escala mayor.
¿Cómo ves la integración de Unreal Engine en el cine en el futuro?
Unreal Engine está transformando por completo la forma de hacer películas de animación. Nos ha facilitado unas iteraciones más rápidas, la toma de decisiones creativas en tiempo real y una colaboración de forma descentralizada con artistas de todo el mundo de formas que los procesos tradicionales no permitían.
La capacidad de trabajar dentro de un entorno en tiempo real completamente integrado significa que los cineastas pueden centrarse en la narración y el diseño visual en lugar de esperar a las renderizaciones. Me permitió crear planos con los que nunca habría soñado de la manera tradicional y con los que Babiru no habría sido posible. Creo que es un punto de inflexión tanto para producciones independientes como a gran escala.
Nos encontramos en un punto en el que la tecnología está permitiendo a una nueva generación de creadores hacer cosas impensables hace unos años y explorar nuevas formas híbridas de narración.