Capturar la emoción de Qiddiya City mediante la producción virtual

17 de octubre de 2024
Joe Yong, desarrollador jefe de Unreal, Journey

Joe dirige el desarrollo de todos los proyectos de Journey que utilizan Unreal Engine. Gracias a su experiencia en el sector de los videojuegos y la animación 3D, Joe aporta su pasión por los gráficos y las aplicaciones de tiempo real para desarrollar proyectos envolventes para Journey, como el bosque digital para el funicular Peak Tram de Hong Kong y la producción virtual de tomas para proyectos complejos y de gran envergadura como Qiddiya City.
Con los evocadores montes Tuwaiq como telón de fondo, Qiddiya City es uno de los megaproyectos más destacados de Arabia Saudí. Esta colosal ciudad del entretenimiento, con 25 distritos y una superficie de 376 kilómetros cuadrados, albergará el mayor parque temático de Oriente Medio y un nuevo circuito de automovilismo de categoría mundial, además de centros de arte, campos de golf, hoteles, recintos para conciertos y mucho más. 

Decir que es un proyecto enorme es quedarse corto.

La tarea de presentar todo lo que ofrece Qiddiya City —y lo que es más, de contar su historia— recayó en Squint/Opera, un estudio de Journey

Mediante técnicas de producción virtual y de visualización en tiempo real basadas en Unreal Engine, el equipo creó toda una serie de vídeos para dar a conocer y promocionar los diferentes aspectos de la ciudad. 

Hemos hablado con ellos para que nos contaran más cosas sobre la experiencia de trabajar en uno de los proyectos más grandes y complejos del mundo, así como sobre cómo el uso de la tecnología de tiempo real hizo que todo el proceso de producción de vídeo fuera más sencillo y fluido.
¡Hola! ¿Puedes presentarte y decirnos cómo te llamas y tu puesto en Journey? ¿Cuál es tu experiencia?

Me llamo Joseph Yong y soy desarrollador jefe de Unreal Engine en Journey. Tengo experiencia como desarrollador, artista técnico y especialista en animación 3D. Además, llevo trabajando con Unreal Engine unos 12 o 13 años. Hace cinco años, me uní a Journey y empecé a construir nuestro equipo de Unreal Engine desde cero.

Algunos estudios de Journey llevan trabajando más de 20 años. ¿Cómo, por qué y cuándo empezasteis a usar Unreal Engine por primera vez?

Journey empezó a usar Unreal Engine en 2019, pero hemos evolucionado y hemos ampliado el uso que hacemos de UE a medida que este ha ido cambiando. Empezamos a usarlo para presentar proyectos a clientes potenciales, además de aprovecharlo internamente por sus capacidades de RV, que nos permitían explorar espacios con nuestros equipos creativos internos. 

Después, se produjo un cambio en el ámbito de la arquitectura y, de repente, todo el mundo quería pasarse a las herramientas de tiempo real para diseñar, especialmente por su capacidad para producir renderizados. Unreal Engine era la opción obvia para renderizar rápidamente y ofrecer una calidad visual excelente, pues permitía que el diseño global de un proyecto siguiera evolucionando.
 
Imagen cortesía de Journey
Además, los plazos de iteración más cortos y la naturaleza interactiva de los motores de juego nos permiten tener conversaciones más eficientes con los clientes y dentro de nuestro propio equipo. 

Cuando salió Unreal Engine 5 en 2022, pudimos expandirnos aún más y usarlo para crear contenido digital. Ahora, lo usamos en nuestros proyectos museísticos para previsualizar contenidos a escala y en su contexto, sobre todo cuando se proyectan en una pantalla irregular o sobre una pared curva. Son tipos de elementos visuales que no puedes terminar de entender simplemente mirando la pantalla del ordenador.

Además, hemos estado construyendo nuestra biblioteca de herramientas y complementos de Unreal Engine para poder implementarlos rápidamente en todos nuestros proyectos. Por ejemplo, un complemento de generación de público mediante PCG. Esto nos ha ayudado a prosperar en un sector muy dinámico.
¿Puedes hablarnos un poco sobre los vídeos que habéis creado para Qiddiya City? ¿Qué supuso el trabajo, cuánto tiempo llevó realizarlo y para qué se usarán los vídeos?

El equipo de marketing de Qiddiya City está usando los vídeos como parte de una campaña coordinada para dar a conocer y promocionar toda una serie de distritos de la ciudad, desde un innovador estadio hasta pueblos de estilo anime. Con técnicas de producción virtual cinematográfica, Journey ha podido exhibir los 360 kilómetros cuadrados de este destino de categoría mundial dedicado a los deportes y el entretenimiento, incluyendo el circuito para Fórmula 1, el primer parque temático Six Flags fuera de Norteamérica y el prestigioso centro de arte y cultura.
 
Imagen cortesía de Journey
Los vídeos también destacan cómo las monumentales atracciones de Qiddiya se mezclan con la ciudad, creando una zona de entretenimiento multidimensional que combina, difumina y aumenta la realidad. 

Un vídeo muestra un circuito de automovilismo futurista que serpentea por el corazón de Qiddiya. Con cortes rápidos y enérgicos, el vídeo sigue a un coche de carreras por la pista a medida que va pasando por distintas atracciones, como una montaña rusa y una piscina con el fondo de cristal.

El trabajo, realizado con Unreal Engine, se estructuró de manera parecida a la producción normal de vídeo: narrativa, preproducción, producción lineal, edición, sonido y etalonaje. Sin embargo, al tratarse de una producción virtual (PV), pudimos prescindir de las aparatosas pantallas verdes y crear un escenario virtual hiperrealista para Qiddiya City. Las técnicas de producción virtual de UE nos dieron acceso a un espacio virtual tridimensional con una capacidad de inmersión sin precedentes para los actores, el equipo y el público.

El desarrollo llevó aproximadamente cuatro meses de principio a fin, desde la narrativa inicial a la creación de versiones. Eso puede parecer mucho tiempo, pero, gracias a la rápida renderización de Unreal Engine, los plazos se acortaron muchísimo. Antes de UE, nos llevaba un fin de semana o más renderizar algo. Ahora, podemos volver a renderizar una toma para el día siguiente, con todas las texturas y acabados, y ver los píxeles finales de manera mucho más rápida.

¿Cuáles eran los requisitos esenciales del proyecto —por ejemplo, un resultado fotorrealista o transmitir la enormidad del proyecto— y cómo ayudó UE a conseguirlos? 

Por encima de todo, necesitábamos que el proyecto resultara impactante. Desde la velocidad de los coches de carreras lanzados a toda velocidad por el circuito hasta las vibraciones y la música, el resultado tenía que transmitir la energía y el ruido de la pista de automovilismo de Qiddiya City. Fue un cambio significativo para nosotros porque muchos de nuestros proyectos incluyen tomas lentas y un trabajo de cámara pausado. Esto, en cambio, tenía que derrochar acción para demostrar que el plan maestro de Qiddiya persigue ser un lugar divertido y vibrante con mucha luz y emoción.

Para lograr este efecto, utilizamos técnicas de producción virtual. La PV implica normalmente grandes escenarios LED tridimensionales denominados «volúmenes», capaces de proyectar fondos en tiempo real que son «gemelos virtuales» de entornos reales. El movimiento del fondo sigue el desplazamiento de la cámara, añadiendo una profundidad realista y un movimiento convincente a las tomas grabadas. La PV permite evitar capas de VFX y posproducción, así como que los actores estén siempre en escenarios reales sin salir del estudio.
 
Imagen cortesía de Journey
La producción virtual también nos permitió visualizar rápidamente los detalles de aquello que estábamos renderizando, lo que resultó crucial. Si hubiéramos realizado las tomas de la manera tradicional, habría sido complicado previsualizarlas y transmitir la visión al cliente dentro de unos plazos razonables. Sin embargo, con la producción virtual de UE, lo pudimos visualizar todo en tiempo real y realizar los ajustes directamente en cada toma. Eso nos permitió dirigir mejor lo que creábamos en lugar de tener que esperar a que los ordenadores lo renderizaran todo.


¿Por qué os pareció una buena idea crear estos vídeos con Unreal Engine en vez de usar otro motor de juego u optar por la renderización sin conexión?

A lo largo de los últimos cinco años, Unreal Engine se ha convertido en nuestro pan de cada día gracias a su eficiencia. Puede que las herramientas de renderización sin conexión aún sean algo mejores a nivel visual en algunos casos, pero no pueden competir en cuanto a plazos de entrega.
Imagen cortesía de Journey
Dado que trabajamos en un sector en el que los proyectos tardan entre dos y tres meses en completarse, que no años, necesitamos poder pasar del guion gráfico al píxel final —y facilitar las conversaciones a lo largo de cada una de las fases— de manera muy eficiente. Cuanto antes podamos tener una toma con una renderización decente que nos permita transmitir todo lo que queremos comunicar, antes podremos recibir el feedback del cliente e iterar a partir de él. Al no llevarnos dos semanas volver a renderizar una toma, podemos ser mucho más flexibles y creativos en unos plazos mucho más cortos.

Unreal Engine también nos permite usar la producción virtual siempre que podemos, lo que supone un ahorro de tiempo. Así, podemos planear mucho más con antelación y usar la visualización técnica para limitar el tiempo dedicado a la composición. En pocas palabras, no podríamos realizar el tipo de proyectos por el que se nos conoce sin Unreal Engine.


¿Qué funciones de UE habéis utilizado al producir los vídeos y qué ventajas os han aportado?

Es difícil señalar una función específica porque básicamente usamos todo lo que ofrece UE. Dicho esto, hay algunas funciones que son indispensables para nuestro trabajo más básico.
 
  • Lumen nos permite incorporar iluminación global y reflejos en tiempo real a nuestras escenas para conseguir una iluminación creíble.
 
  • World Partition, ya que, con Data Layers, podemos tener mapas enormes y solo cargar secciones específicas cuando las necesitamos.
 
  • Nanite nos permite usar modelos con calidad de producción y detalles a nivel de píxel en un motor de juego. Sin Nanite, no podríamos conseguir estas tomas.
 
  • La generación procedimental de contenido (PCG) nos permite desarrollar herramientas iterativas y contenido con cualquier nivel de complejidad. Así, podemos propagar de manera rápida y automática un bosque lleno de árboles (entre muchos otros recursos).
 
  • Movie Render Queue nos ayuda a realizar tomas con una resolución extraordinaria y renderizar con pases adicionales en posproducción.

De todas formas, Journey usa todo cuanto ofrece Unreal Engine 5.

¿Cuáles fueron los mayores obstáculos a los que se enfrentó el proyecto y cómo los sorteasteis?


Dado que representa toda una ciudad, la escala del plan maestro de Qiddiya era inmensa. Solo eso ya presentaba desafíos técnicos. Si todo el plan maestro se carga a la vez, es imposible moverse por la escena; hay tantos datos que la navegación resulta lenta y pesada. Por suerte, la función World Partition de Unreal Engine nos permite cargar solo lo que necesitamos sin alterar la escena.
 
Imagen cortesía de Journey
Otro desafío era la verosimilitud. No podíamos grabar un coche de carreras sobre una pista que aún no existe, pero sí que podíamos meter el coche de carreras en el estudio. Para que fuera lo más fidedigno posible, combinamos elementos físicos de acción en directo —como un coche de carreras o un vagón de montaña rusa— con la producción virtual. Después, pudimos centrarnos en detalles minúsculos, como los reflejos en el visor del casco del piloto, que cambian a medida que avanza por la pista. El CGI habría hecho que esos reflejos parecieran falsos y compilarlos habría llevado demasiado tiempo. La función Lumen de Unreal Engine nos permitió incluir todas las luces ambientales y todos los reflejos que necesitábamos, lo que produjo una escena mucho más creíble visualmente.

El resultado fue una representación global y llena de acción del plan maestro de Qiddiya, producida de una manera totalmente innovadora para dar vida al concepto. Una hora después del lanzamiento, ya era tendencia en X en Arabia Saudí y generó más de 650 menciones en los medios de comunicación y 363 millones de reacciones en las redes sociales.

¿De qué manera cambia la tecnología de tiempo real los flujos de trabajo en comparación con el método tradicional de creación de vídeos?

La tecnología de tiempo real ayuda a que el equipo creativo y el equipo de preproducción funcionen en sintonía. Esto significa que podemos revisar con rapidez un plan maestro, descubrir ángulos, vincular tomas para definir la narrativa y ver qué es lo que funciona, lo cual nos permite ahorrar muchísimo tiempo y nos ayuda a iterar rápidamente (incluso llegamos a enviar la transmisión en directo de una toma a un cliente para que nos diera feedback mientras estábamos capturando las tomas).
 
Imagen cortesía de Journey
Además de esto, la tecnología de tiempo real nos permite realizar las tomas en orden, de manera que el guion gráfico tenga sentido, pero también podemos alterar ese orden si fuese necesario. Si alguien no está disponible para una toma, podemos cambiar el fondo y filmar otra toma mientras esperamos. Del mismo modo, si tenemos que realizar una toma durante la hora mágica, podemos hacer que esa hora mágica dure cinco horas. Con esta tecnología, podemos ser reactivos en los días de rodaje y conseguir siempre la toma exacta que buscamos.

Nos gustaría saber cómo usasteis Unreal Engine en el proyecto Peak Tram y qué funciones específicas os ayudaron a llevarlo a cabo.

El Peak Tram, una de las atracciones turísticas más importantes de Hong Kong y el funicular más antiguo de Asia, fue el primer proyecto en el que utilizamos una toma de producción lineal en Unreal Engine (en vez de renderizar sin conexión). Con el objetivo de llegar e informar a los cuatro millones de pasajeros que se estiman anualmente, Journey creó experiencias envolventes para el funicular, recientemente renovado, desde la parte inferior hasta la cima del pico Victoria.
 
Imagen cortesía de Journey
A la hora de crear instalaciones envolventes para los visitantes del Peak Tram, necesitábamos realizar una renderización de ocho minutos para tres pantallas sincronizadas y que las tomas fueran continuas, lo que se tradujo en 14 000 fotogramas de principio a fin. Con una herramienta de renderización tradicional, no lo habríamos conseguido. 

El tamaño de la pantalla presentaba otro desafío. Tenía diez metros de longitud y entre tres y cuatro metros de altura. Además, había otra pantalla en el techo y otra en la pared trasera. Con 100 personas en la zona de espera, teníamos que asegurarnos de que todos tuvieran algo visualmente agradable que observar desde su posición. Era una tarea muy complicada.

La ventaja de trabajar con Unreal Engine era que podíamos acercarnos todo lo posible al píxel final. Al trabajar en el editor, veíamos el 99 % de la toma en todo momento y todos los espectadores tenían el mismo contexto. Eso fue especialmente importante porque el proyecto se llevó a cabo durante la pandemia. Tuvimos que hacerlo todo de forma remota a la vez que nos asegurábamos de que el cliente en Hong Kong entendía nuestra visión y podía evaluar si tenía el impacto deseado.
 
Imagen cortesía de Journey
Entonces, durante la producción del proyecto Peak Tram, salió Unreal Engine 5. De repente, los efectos de iluminación y el soporte de renderización mejoraron muchísimo, lo que nos permitió hacer mucho más. No es habitual cambiar de motor en mitad de un proyecto —es un riesgo importante—, pero nos ofrecía un salto tan grande en la calidad visual que no nos lo pensamos.

Aunque ya producíamos mucho contenido interactivo, usar Unreal Engine supuso un gran paso adelante. Nuestro equipo tuvo que aprender a renderizar en un motor de juego en vez de con un renderizador tradicional, pero la diferencia fue enorme. De otro modo, nunca habríamos podido entender la escala de la pantalla ni habríamos sido capaces de equilibrar la composición.

¿En qué se diferenció el uso de Unreal Engine en el proyecto Battersea Power Station del de otros trabajos realizados con Unreal Engine y cuál fue la ventaja de usar el motor?
 
Imagen cortesía de Journey
Nuestro trabajo como creativos —especialmente en museos y espacios culturales— es encontrar la manera más atractiva para que el cliente cuente su historia. Esto es cierto sobre todo cuando el público es muy amplio y el contenido tiene que entretener tanto a un visitante de 8 años como a uno de 78.
Imagen cortesía de Journey
Con eso en mente, la experiencia Lift 109 de la Battersea Power Station dio un giro a los métodos habituales de transmitir información sobre un espacio cultural. Usamos Unreal Engine en una pantalla táctil interactiva que permite a los usuarios introducir carbón en una turbina y poner en marcha un enorme candelabro de techo real. Aunque el concepto es sencillo, permite a los visitantes comprender de manera lúdica y accesible el funcionamiento de una turbina y complementa a su vez la historia cultural más general del lugar.

¿Hacia dónde os parece que se encamina la fusión de los medios digitales y la realidad física en un futuro y qué oportunidades os resultan más interesantes en cuanto al uso de motores de juego en este espacio?

En espacios culturales y museos, vamos a llevar lo más lejos que podamos la calidad visual de lo que hacemos. Además, a medida que mejoren las herramientas de renderización, trabajaremos más y más con elementos interactivos. Conforme Unreal Engine siga desarrollándose, la calidad que podemos ofrecer mejorará cada vez más.

En el ámbito de la arquitectura y la construcción, nos centraremos más en los gemelos digitales. Estos gemelos nos permiten crear una representación visual de un lugar existente o que existirá en un futuro, pero con una capa extra que permite visualizar distintos datos, como patrones de tráfico o consumo de energía. Se trata de una manera de facilitar conversaciones importantes y de ayudar a la gente a contar las historias que necesitan ser contadas sobre aquello que están construyendo, que es una parte importante de lo que hacemos en Journey. 

Sabemos que podremos lograr muchas más cosas a medida que evolucione la tecnología de los motores de juego. Dado que Journey mantiene de forma intencionada todas sus herramientas y pilas internas, podemos aplicar todos los progresos técnicos a cada nuevo proyecto. De este modo, podemos dedicar toda nuestra energía a ser creativos y a generar proyectos innovadores.

Tenemos muchas ganas de ver hasta dónde llegarán los motores de juego. Ahora mismo, estamos a la vanguardia de nuestro sector y deseamos que este siga creciendo aún más.
 

Explora Unreal Engine para proyectos arquitectónicos

¿Quieres obtener más información sobre cómo se utiliza Unreal Engine para visualizar proyectos de arquitectura? Echa un vistazo a nuestro centro de arquitectura.

Blogs similares


Arquitectura

Ya está aquí Unreal Engine 5.5

Esta versión incluye mejoras importantes en la creación de animaciones, la renderización, la producción virtual, el desarrollo de videojuegos para móviles y los conjuntos de herramientas de iteración para desarrolladores, entre muchas otras cosas.

Indies

¡Hoy sale Fab, el nuevo mercado de contenido digital unificado de Epic!

Hoy Epic lanza Fab, un sitio centralizado donde podréis descubrir, comprar, vender y compartir recursos. Este nuevo mercado da soporte a todo tipo de creadores con contenido para Unreal Engine, Unity 3D, UEFN y otras herramientas de creación de contenido digital.

Cine y televisión

Descubre todos los anuncios del Unreal Fest Seattle 2024

Echa un vistazo a todos los anuncios de Epic Games en el Unreal Fest Seattle 2024 y descubre infinidad de novedades, como las reducciones en las regalías de Unreal Engine a través de la Epic Games Store, las nuevas funciones de UE 5.5 o la llegada de las Tortugas Ninja a UEFN.