Magnopus da vida a Fallout, la serie de Amazon, con una producción virtual basada en Unreal Engine.

Cortesía de Magnopus/Kilter Films/Amazon MGM Studios
13 de mayo de 2024
Magnopus, estudio creativo y tecnológico pionero, ha sido responsable del desarrollo de experiencias de entretenimiento únicas durante más de una década. 

Los principales cineastas y marcas del momento han apostado por Magnopus, un socio de servicios de Unreal Engine, para ir más allá de los límites de la tecnología con contenido inolvidable, desde experiencias de RV y RA inmersivas hasta todos los aspectos de la producción virtual (efectos visuales en cámara, departamento de arte virtual y operaciones con volúmenes de LED). 

Recientemente, el estudio comenzó una colaboración con Lisa Joy y Jonathan Nolan, de Kilter Studios, en la producción virtual de Fallout, la exitosa serie de Amazon Prime Video. Nos hemos reunido con AJ Sciutto, director de producción virtual de Magnopus, para hablar sobre el proceso técnico y creativo detrás del desarrollo de este mundo distópico mediante efectos visuales en cámara, la flexibilidad en tiempo real que les ha permitido Unreal Engine o cómo hacer que las producciones virtuales funcionen en 35 mm, entre otras cosas.
¿Cuándo se convirtió Unreal Engine en una herramienta del arsenal de Magnopus?

Llevamos creando herramientas de producción virtual desde 2018, antes de que empezara a rodarse The Mandalorian. De la mano del equipo de Epic, nos propusimos diseñar un conjunto de herramientas de primer nivel que permitieran a los creativos acceder a sus mundos virtuales y contar historias increíbles a través de la lente virtual. Los efectos visuales en cámara son una de las herramientas que usamos. Cuando se combinan con el fantástico equipo de ingenieros de software de Magnopus. nDisplay y Unreal Engine son increíbles a la hora de mostrar imágenes impresionantes en paneles LED.

¿Cuándo empezó Magnopus en Fallout y qué papel desempeñasteis en la producción virtual de la serie?

Trabajamos prácticamente codo con codo con Jonathan Nolan y el equipo de Kilter Films en un proyecto de I+D en 2020. Después, volvimos a colaborar a finales de 2021 en la temporada 4 de Westworld. En algún momento de la producción de Westworld, entablamos ciertas conversaciones acerca de Fallout. En ese momento, solo se había escrito el piloto y nuestra implicación en el proyecto fue muy parecida a la de un jefe del departamento creativo. 

Proporcionamos información creativa para aprovechar la producción virtual en toda la serie y colaboramos con los cineastas para dividir los guiones en escenas y entornos que pudieran sacar el máximo partido a los efectos visuales en cámara. Así, dimos con cuatro entornos: las escenas de la granja y la puerta del Refugio 33, el escenario de la cafetería en el Refugio 4 y la base de la República de Nueva California dentro del Observatorio Griffith. A ello hay que sumar que todo lo que ocurriera en un Vertibird era idóneo para tomas con el LED.
Más adelante, trabajamos con Howard Cummings y la directora de arte Laura Ballinger para determinar qué partes del set había que construir físicamente y cuáles podían recrearse virtualmente. Estas decisiones tuvieron un impacto tremendo en la iluminación y los efectos visuales, por lo que usamos el arte conceptual y los guiones gráficos para unificar dos mundos y ver dónde irían exactamente las transiciones físicas y virtuales.

Una parte importante de esta decisión es saber dónde termina el set práctico y empieza el virtual. Aparte de eso, también se trata de descubrir dónde acaba el mundo virtual en 3D y comienza el material mate. Los encargados de esto último, Frank Capezzuto III y Rocco Gioffre, crearon algunos diseños que nos permitían aprovechar al máximo el panel LED en tomas panorámicas. Partiendo de eso, pudimos usar el enfoque de «proscenio protegido», que se presta bien al rodaje con LED.
¿Cuál fue el proceso de creación del volumen de LED en Fallout?

Primero ayudamos en el diseño preliminar de un volumen de LED. Lo que pretendíamos era diseñar un escenario que aportara las ventajas de iluminación de un volumen curvo a los cineastas, además de la flexibilidad de la narrativa «talk and walk» que ofrecen las secciones rectas de un panel plano. 

Sin duda, el claro vencedor fue la forma de herradura de nuestro escenario y el resultado final fue un panel LED de 20 metros de ancho, 6 de alto y 30 de largo. El siguiente reto fue encontrar un escenario con capacidad para un volumen de ese tamaño. En aquel momento, había muy pocos escenarios disponibles, pero ahí es cuando Jeffrey Soderberg y Chris Cox, de Manhattan Beach Studios (MBS) se pusieron manos a la obra. 

Colaboraron con nosotros y con el grupo de Fuse Technical Group, liderado por Mitch Lathrop y Koby Kobylko, para diseñar y crear un volumen específico para los requisitos de producción. El resultado fue un escenario LED modular y flexible con la tecnología más avanzada del mercado en Bethpage, Long Island.
En la parte computacional, Fuse Technical Group hizo un trabajo fantástico al diseñar la sala de servidores y la distribución de vídeo y datos del escenario. Crearon una sala de servidores a medida dentro de un contenedor de envío estándar en Los Ángeles y después lo enviaron a Nueva York. Esa sala de servidores contenía las 12 salidas 4K de la pared LED principal y las seis salidas 4K restantes de las demás paredes, además de seis áreas de trabajo para operadores en el centro de control que estaban conectadas a sus cajas por fibra. 

Usamos Roe BP2 v2 para los paneles LED, Brompton Tessera SX40 para los procesadores, el Stype RedSpy para el seguimiento de cámara y el Stype Follower System para el seguimiento de objetos. Nuestro equipo de mecatrónica, liderado por Fabian Flores, diseñó e imprimió en 3D soportes de montaje para las balizas LED del Follower System de las paredes secundarias. De este modo servirían de superficies de proyección dinámica en Unreal Engine que podían moverse y volver a configurarse en tiempo real.
Nuestro equipo de ingeniería, encabezado por Lily Pitts, Guillermo Quesada y Ross Rosewarne, se encargó de preparar toda la escenografía, revisando que todos los componentes de software funcionaran con el hardware antes de empezar a rodar. Con el hardware listo, configuramos un sistema de gestión de contenido para extraer actualizaciones del departamento de arte virtual de los miembros del equipo en remoto y enviar las imágenes al panel LED. 

Usamos Unreal Engine y nDisplay para renderizar la escena y LiveLink para integrar los datos de RedSpy en el motor en tiempo real. En una de las tomas también utilizamos Take Recorder para grabar datos de seguimiento y creamos un software propio para convertirlos en datos USD. Así resultaba más sencillo exportarlos para los equipos de efectos visuales de Jay Worth y Andrea Knoll. 

¿Cuál ha sido el mayor reto al que os habéis enfrentado en esta serie?

Lo más complicado ha sido rodar en formato analógico. Sin embargo, ha aportado una estética preciosa y singular a la serie al suavizar los detalles, acentuar las expresiones artísticas y separar las capas del desierto. De hecho, la serie habría sido totalmente distinta si la hubiéramos rodado en digital. En ningún momento nos planteamos si íbamos a grabar en analógico en el volumen, solamente el cómo.
Después de haber rodado también en analógico un año antes, teníamos experiencia en trabajar con cajas de sincronización de Arricam y usar el genlock en cámara. Al no disponer de un monitor digital de máxima resolución en la cámara, tuvimos que ser creativos y extremadamente precisos a la hora de reflejar el aspecto de las imágenes en el panel LED. 

Para ello, optamos por aplicar la LUT de la serie al contenido de salida de una cámara Sony Venice, usándola como referencia para ajustar la iluminación y equilibrar el color con una combinación de OpenColorIO y herramientas de etalonaje dentro de Unreal Engine. Por otro lado, medimos la temperatura de color de las escenas en el volumen de LED y la iluminación del primer plano con un espectrómetro de color para cada cambio de iluminación con el objetivo de que coincidían. 

¿De qué forma os ha ayudado Unreal Engine en la exploración virtual de Fallout?

Al crear nuestros sets virtuales íntegramente en Unreal Engine para Fallout, pudimos aprovechar las herramientas de producción virtual de UE durante todo el proceso creativo, como por ejemplo las herramientas de exploración virtual, que nos permitieron usar la RV con los cineastas para que pudieran realizar exploraciones técnicas y, en última instancia, bloquear la acción. 

De este modo, las herramientas les ofrecían la posibilidad de colocar cámaras y personajes en posiciones concretas, incluso de enfocar la toma en tiempo real. Después, guardamos esa información y la usamos para crear un mapa de calor del entorno. Así, pudimos identificar qué áreas de los sets eran más importantes para la historia y asegurarnos de centrar toda la atención creativa en ellas. Con ello se conseguiría un mayor realismo visual, además de pulir la iluminación. 

Saber todo esto también nos ayudó más adelante en la optimización. Como sabíamos en qué direcciones rodábamos, pudimos dividir la escena de manera modular. Esto nos permitió ocultar los fragmentos más costosos en términos computacionales cuando no aparecían en cámara.

El equipo de visualización, con Kalan Ray y Katherina Harris a la cabeza, compiló versiones 3D a escala 1:1 de todos los sets en UE, hasta de las partes que solo iban a ser instalaciones físicas. De esta forma, cuando los cineastas querían bloquear una escena, no se limitaban solo a recursos virtuales. Podían visualizar toda la escena y crear tomas significativas que informaban a todos los departamentos de la serie.

Háblanos un poco sobre vuestro proceso de trabajo, desde la preproducción hasta la producción en el set y la posproducción, además de cómo conseguisteis que vuestras opciones creativas fueran flexibles y adaptables durante toda la producción.

Durante la preproducción, nos centramos exclusivamente en planificar y visualizar. Cuando los sets estuvieron listos para el volumen, nuestro equipo de visualización se puso en marcha. Craig Barron dirigía tanto a nuestro equipo creativo para ocuparse de los efectos visuales como al departamento de arte, para determinar cuáles serían las huellas físicas y virtuales del set. Mientras tanto, el equipo de visualización se encargaba de los aspectos de visualización técnicos de la serie.

Para entender de manera efectiva la diferencia entre las imágenes virtuales y las compilaciones en el set, necesitábamos las dimensiones reales del escenario. Así que diseñamos un modelo a gran escala del almacén auténtico de Bethpage, Long Island, y ajustamos las dimensiones reales del panel LED en él. Esto no solo nos ayudó a planificar los aspectos creativos de la serie (qué ángulos y objetivos se estaban «rodando desde el panel»), sino también a identificar dónde ubicar los puntos para el equipo de especialistas, dónde instalar la iluminación superior y hasta dónde deberían estar los operadores de UE. 

De esta manera, nos ahorramos infinidad de dolores de cabeza. Por ejemplo, gracias a este proceso, descubrimos que las dimensiones de las puertas físicas eran demasiado pequeñas para que entraran algunas partes del Vertibird. Fue una alegría enorme para todos poder darnos cuenta con la suficiente antelación como para encontrar una solución.
En cuanto a los trabajos de visualización creativa, nuestros supervisores de producción virtual, Kathryn Billhart y Kalan Ray, colaboraron con los directores de cada episodio para visualizar el bloqueo de algunas de las escenas más complejas. Kat Harris, nuestra jefa de producción virtual, configuró el bloqueo inicial e integró sistemas multiusuario para que los cineastas pudieran ayudar a nuestros animadores y empezar a mover las piezas en tiempo real. Aquí, aunque no entraba en nuestros planes para el volumen, visualizamos también el set de Filly, que nos permitió planificar algunos de los días de rodaje más complejos en lo que a logística se refiere.

Por otro lado, trabajamos con Wayne Yip, Clare Kilner y Fredrick E.O. Toye, directores de varios episodios, y bloqueamos algunas partes de la base de la República de Nueva California del Observatorio Griffith y el comedor del Refugio 4 con el objetivo de obtener contexto espacial de lo que rodarían. Para aprovechar la máxima eficacia del volumen de LED, había que visualizar escenas que no suelen verse en una previsualización, como las escenas de diálogo, puesto que esto nos permitía incorporar los elementos fantásticos de la historia a la pantalla. Lucy y Maximus, además de aparecer comiéndose un picnic, también aparecen en una enorme bóveda nuclear subterránea y las imágenes siempre deben respaldar esa presunción narrativa.

Durante la producción en el volumen, nuestros productores en el set Billy Bonfield y Devon Hubner se aseguraron de que trabajáramos mano a mano con todos los equipos en el set. Mientras nosotros enviábamos iluminación DMX a los más de 150 paneles Arri SkyPanel en escena directamente desde UE, nuestro técnico creativo, Addison Herr, diseñó e integró esa salida de iluminación con el operador del iluminación en el equipo del gaffer. 

Contábamos con paneles LED totalmente articulados para rellenar cualquier hueco del volumen al rodar en ángulos extremos. Fabian Flores, nuestro ingeniero de mecatrónica de producción virtual, y Julio Salcedo, ingeniero de hardware de producción virtual, colaboraron con el equipo de grip para determinar cómo y dónde usar el equipo y que todo el mundo estuviera a salvo. Además, junto con los equipos de construcción, comprobamos que el plexiglás que se usaba en la cabina del Vertibird no provocara ninguna distorsión ni artefacto al rodar frente a contenido de tipo emisivo.

Trabajamos prácticamente codo con codo con los departamentos de efectos visuales, arte e iluminación para que nuestros entornos fueran lo más realistas posible. Después de revisar el contenido del panel LED con nuestros artistas del departamento de arte virtual (Sarah Hudson Semple, Sidney Olluyn, Tony Kwok, Kellie Brewart, Liesbet Segaert, Hugh D. McCullom y Lisa Barber), los responsables de producción virtual Gabriel Blake y Andrés Martínez coordinaron las revisiones con los jefes de los departamentos de arte, efectos visuales e iluminación. Lo que pretendíamos con esto era que todos siguieran una misma línea en cuanto al progreso de los entornos y dónde era necesaria más ayuda para conseguir el máximo realismo.
Lo cierto es que todos los equipos contribuyeron enormemente a las imágenes finales que aparecían en el panel, donde los efectos visuales compartían datos de escaneo y LiDAR de escenas, entornos y recursos. Ann Bartek, directora de arte encargada de todos los sets en volumen, se ocupaba de los materiales, colores y texturas exactos de los sets físicos, para que los virtuales coincidieran.

Durante el rodaje, nuestros supervisores de producción virtual se coordinaron con los directores de los episodios para preparar el panel LED de cara al rodaje. Después de instalar y rastrear las cámaras, los operadores de UE ayudaron a determinar qué perspectiva de cámara tendría prioridad al renderizarse sobre el panel. Además, colaboraron con el departamento de cámara para buscar las perspectivas que redujeran al mínimo solapamientos en el campo de visión y permitieran obtener la máxima fidelidad de reconocimiento. 

En este sentido, colaboramos con el operador de Steadicam para encontrar una posición donde instalar el dispositivo de reconocimiento de modo que no interfiriera en la toma, pero que sí nos permitiera que los datos fueran exactos y sin errores. Berto Mora y el magnífico equipo de All Of It Now de UE de trabajaron de la mano de los departamentos de grip y cámara para solucionar esos problemas a medida que iban surgiendo.

Por su parte, Devon Mathis, nuestro gaffer virtual, ha trabajado con el director de fotografía del volumen, Bruce McCleery, y con los directores de los respectivos episodios para ajustar los valores de nits, el balance de blancos y los valores de color de los LED para equilibrarlos plano a plano con el resto de la escena. Para ello, nos basamos en lo que hicimos en la fase de preproducción, en la que nuestro equipo de iluminación usó Unreal Engine para visualizar cómo quedaría las distintas configuraciones de iluminación en cada entorno y preparó las transiciones de iluminación en directo.

¿Cuál fue la ventaja de contar con un director de fotografía específico para el volumen que se coordinara con los demás directores de fotografía de cada episodio?

Bruce McCleery fue el director de fotografía del volumen encargado de los efectos visuales en cámara de los sets del Refugio 4, el Observatorio Griffith y el Vertibird. Contar con la colaboración de un director de fotografía experto de tal calibre para gestionar el contenido antes y después de los días del pre-light, coordinarse con nuestro gaffer virtual Devon Mathis y llevar la producción fue una experiencia tremendamente positiva que se tradujo en unos resultados impresionantes. A todas las grandes producciones de efectos visuales en cámara les recomendamos un director de fotografía para el volumen, sobre todo de cara a los episodios, ya que implican agendas más apretadas y, a veces, más variedad en el equipo y en la dirección.
Además, también tuvimos la suerte de contar con la inestimable ayuda de la increíble productora, Margot Lulick, que se encargó de la segunda mitad de los capítulos y se aseguró de que se prestara la suficiente atención a las partes LED del rodaje. Para la mayoría del equipo de producción, los efectos visuales en cámara eran algo nuevo, pero Margot y su equipo dedicaron tiempo a familiarizarse con el proceso para asegurarse de que aprovechábamos las mejores partes del volumen de forma creativa y rodábamos con eficacia.

¿En qué medida el volumen de LED tuvo un papel importante en la serie, como herramienta de efectos visuales y como parte de la narrativa?

La propia historia se prestaba a la tecnología del volumen de LED. En la serie, un proyector Telesonic simula un paisaje de maizales de Nebraska dentro del refugio. Es decir, que el volumen de LED se usa tanto como herramienta técnica como parte de la historia. De esta forma, Jonathan Nolan y los showrunners pueden divertirse con la idea de jugar con la hora del día en mitad de la toma.
Durante la escena de la boda en el maizal, el supervisor tiene una línea en la que indica el paso del anochecer a la noche, así aprovechaba la salida de la luna a mitad del plano. Además, nos permitió jugar con elementos de unos preciosos efectos visuales en el panel durante la batalla entre el Refugio 33 y los habitantes de la superficie. Nuestro equipo de Houdini, Justin Dykhouse y Daniel Naulin, crearon un efecto de película quemada que abarca toda la pantalla cuando los proyectores reciben disparos. 

Capturamos referencias de películas quemándose, realizamos investigaciones en línea sobre tipos de películas de los años 50 y sus distintivos patrones de quema, además de crear un efecto atractivo que se extendía poco a poco a las tres paredes del refugio. Al crear el efecto, nos dimos cuenta de que las necesidades de crear un entorno en el set eran las mismas a las de crear el efecto para un videojuego. Es decir, queríamos que la transición de un estado a otro se produjera en un tiempo concreto pero flexible en términos creativos. 

De esta manera, la producción no se limitaba al timing estricto de un elemento de efectos visuales lineal, sino que, más bien, podía reaccionar a una señal basada en la actuación del actor. Sin duda, esta fue una oportunidad única que nos llevó a usar Unreal Engine.
¿De qué forma crees que trabajar en 3D en tiempo real era esencial en esta producción?

Unreal nos daba flexibilidad, por lo que nuestro equipo podía modificar de forma creativa el set durante la fase de preproducción. Como ya habíamos trabajado con este equipo de producción, sabíamos que había que ser flexibles en el set y estar abiertos a cambios en la iluminación o en el diseño del set hasta el último minuto si hacía falta. 

De hecho, mientras rodábamos el set de la puerta del refugio, se nos ocurrió que las luces se encendieran durante la toma cuando Lucy saliera del ascensor para «revelar el entorno». Nuestro jefe del departamento de arte virtual, Devon Mathis, y el supervisor de iluminación y lookdev, Jeremy Vickery, idearon un plan. Crearon esa solución en un nuevo nivel antes del lanzamiento y lo cargaron en el set, para que se pudiera usar al rodar la toma inicial de la escena junto con un cambio de iluminación dinámico a mitad de la toma. Nada de esto habría sido posible con contenido prerrenderizado.
Asimismo, el último día de grabación, la producción nos ofreció la posibilidad de rodar el avance poscréditos del último episodio. Sin dudarlo, creamos un nivel sencillo con el mezclador de luces ambientales para iluminar y grabar al Supervisor Hank mientras caminaba por el desierto con la servoarmadura. Gracias a la flexibilidad del sistema, pudimos crear la escena y cargarla en el panel en apenas diez minutos.

¿Qué papel desempeñó Unreal Engine a la hora de planificar y programar los días de rodaje?

Antes de cada rodaje, siempre probábamos la iluminación tantos días como podíamos. Entonces, llenábamos el panel LED con iluminación ambiental y rodábamos el resultado con el cuerpo de cámara y el rollo de película de la serie. Después, agrupábamos las pruebas con la exposición de la cámara y con las herramientas de exposición manual de Unreal Engine. 

El resultado de estas pruebas nos permitió medir en qué punto perdía la sincronización nuestra cámara de referencia digital con respecto a la película y ver qué ajustes podíamos hacer para que todo quedara perfecto en varios escenarios de iluminación. En este tipo de trabajos, usar Lumen en UE nos brindó la posibilidad de incorporar al set la iluminación tanto virtual como física. Ahora podríamos hacer en tiempo real algo que, normalmente, exigiría varios niveles con diferentes bakes de luz.

Además, los sets de tiempo real nos daban un montón de oportunidades para que los cineastas tomaran decisiones creativas en cuanto al bloqueo de acción, el encuadre y la iluminación en las primeras fases del desarrollo. Incluso ayudaban a los asistentes de dirección a planificar los días de grabación, ya que visualizaban cómo entrarían las partes del equipo más grandes en el set y dónde se podrían integrar en la escena.

Por su parte, el diseño del set de la granja del Refugio 33 en el maizal buscaba la simetría, de modo que solo había que mover algunas partes cada vez que hiciera falta «dar la vuelta» para rodar en la otra dirección. Prácticamente, giramos el entorno 180 grados para grabar de nuevo el refugio. Durante toda la fase de producción del panel LED, estuvimos trabajando el 99 % del tiempo y solo tuvimos un retraso de 9 minutos. Gracias a esto, los showrunners y los asistentes de dirección tuvieron la confianza de programar las tomas de forma agresiva, conscientes de que los equipos de Magnopus, Fuse y All Of It Now (todos los socios de servicios de Unreal Engine) no iban a tener inconvenientes.

¿Cómo de grande era el equipo de Magnopus que trabajó en el proyecto y cuántos artistas usaron Unreal Engine?

El equipo de Magnopus estaba formado por 37 personas durante la producción de toda la temporada. Para crear los sets virtuales hicieron falta 19 artistas y otros 7 operadores fueron necesarios para instalar el sistema nDisplay de UE en el panel LED, integrar el seguimiento de cámara y programar los datos DMX para los sistemas de iluminación. El equipo lo completaban ingenieros de software, directores creativos y supervisores de producción, que ya trabajaban en Unreal Engine.
¿Hubo alguna función específica de Unreal Engine que os resultara fundamental para hacer realidad la serie?

Lumen fue la pieza clave de Unreal Engine que hizo posible Fallout. Sufrimos una caída importante en el tiempo de inactividad en el set después de descartar la iluminación baked y pudimos iterar los cambios de la misma en tiempo real con el director de fotografía, lo que hizo que nuestras revisiones fueran más eficaces.

Explora Unreal Engine para cine y televisión

Crea personajes interesantes. Narra historias no contadas. O deja que tu público explore por sí mismo un mundo completamente nuevo. Unreal Engine te ofrece un control creativo sin precedentes sobre todo el proceso de producción.

Blogs similares


Cine y televisión

Ya está disponible el proyecto de muestra Cassini

Prepárate para el despegue con el proyecto de muestra Cassini, que ya está disponible para descargar. Descubre el nuevo marco de generación procedimental de contenido de Unreal Engine en este entorno espacial.

Producción virtual

Ya está aquí Unreal Engine 5.5

Esta versión incluye mejoras importantes en la creación de animaciones, la renderización, la producción virtual, el desarrollo de videojuegos para móviles y los conjuntos de herramientas de iteración para desarrolladores, entre muchas otras cosas.

Indies

¡Hoy sale Fab, el nuevo mercado de contenido digital unificado de Epic!

Hoy Epic lanza Fab, un sitio centralizado donde podréis descubrir, comprar, vender y compartir recursos. Este nuevo mercado da soporte a todo tipo de creadores con contenido para Unreal Engine, Unity 3D, UEFN y otras herramientas de creación de contenido digital.