La nueva función MetaHuman Animator facilita la captura de movimiento de alta fidelidad para los MetaHumans

Estamos encantados de anunciar que pronto lanzaremos una nueva función de MetaHuman.

MetaHuman Animator te permitirá utilizar tu iPhone o tu cámara de montaje frontal (HMC) estéreo para reproducir cualquier movimiento facial como animación de alta fidelidad en personajes de MetaHuman. Gracias a esta función, podrás capturar la particularidad, el realismo y la fidelidad de las actuaciones de tu actor y transferir todos los detalles y matices a cualquier MetaHuman para darle vida en Unreal Engine.
 

Los humanos digitales fotorrealistas requieren una animación de gran calidad para poder ofrecer actuaciones verdaderamente creíbles, pero los conocimientos y el tiempo necesarios para crearlos complican la labor, incluso para los creadores más cualificados. Resulta increíblemente difícil para las soluciones de captura de movimiento existentes recrear de manera fiel los matices de la actuación de un actor en personajes. Para conseguir una animación verdaderamente realista, a menudo hace falta que animadores cualificados retoquen meticulosamente los resultados mediante un proceso muy laborioso. 

¡Pero eso está a punto de cambiar!

Con el lanzamiento previsto para los próximos meses, MetaHuman Animator permitirá obtener una calidad de animación facial similar a la que exigen los desarrolladores de juegos triple A y los productores de Hollywood, a la vez que será accesible para estudios independientes e incluso para aficionados. Con un iPhone, que es posible que ya tengas, y un trípode estándar, podrás crear animaciones creíbles para tus MetaHumans y lograr conectar emocionalmente con tu público, aunque la animación no sea tu fuerte.
 

MetaHuman Animator también funciona con cualquier cámara de montaje frontal vertical estéreo de uso profesional, incluidas las de Technoprops, lo que mejorará la calidad de los resultados. Y si además cuentas con un sistema de captura de movimiento, el uso de códigos de tiempo de MetaHuman Animator permite alinear la animación de movimientos faciales con la captura de movimientos del cuerpo y con el audio para reproducir la actuación completa de un personaje. Incluso puede utilizar el audio para crear animaciones convincentes de los movimientos de la lengua.

¿Y cómo funciona?

La clave consiste en asegurarse de que el sistema entiende la anatomía única del rostro del actor y cómo debe trasladarse a la del personaje objetivo. MetaHuman Animator empieza creando una MetaHuman Identity del actor: una malla que posee la misma topología y que comparte el mismo rig estándar de todos los MetaHumans.

Si has usado Mesh to MetaHuman, sabrás que parte de dicho proceso genera una MetaHuman Identity a partir de un escaneo 3D o de una escultura; MetaHuman Animator desarrolla esa tecnología para permitir la creación de MetaHuman Identities a partir de una cantidad reducida de material capturado. El proceso se completa en pocos minutos y solo debe realizarse una vez por actor.
 

Tras finalizar este paso, la MetaHuman Identity se utiliza para interpretar la actuación realizando un seguimiento y solucionando las posiciones del rig facial de MetaHuman. El resultado es que cada expresión, por sutil que sea, queda recreada de forma precisa en el personaje objetivo de MetaHuman, independientemente de las diferencias que haya entre las facciones del actor y las del MetaHuman. En Unreal Engine, podrás confirmar visualmente el material creado y comparar la MetaHuman Identity animada con el metraje grabado del actor, fotograma a fotograma.

Otra ventaja es que los datos de animación son limpios; las curvas de control son semánticamente correctas, es decir, están en el lugar que les corresponde en los controles del rig facial (igual que si las hubiera creado un animador humano), lo que facilita posibles ajustes posteriores.

Dado que hemos utilizado una MetaHuman Identity desde el principio, puedes tener por seguro que la animación creada seguirá funcionando si realizas cambios más adelante en tu MetaHuman, o incluso si decides usarlo en otro.

Las capacidades de procesamiento de MetaHuman Animator serán parte del complemento MetaHuman para Unreal Engine, cuya descarga, igual que la del propio motor, es gratuita. Si quieres utilizar un iPhone (MetaHuman Animator funciona con iPhone 11 o posteriores), necesitarás la aplicación Live Link Face para iOS, también gratuita, que se actualizará con algunos modos de captura adicionales para permitir realizar este proceso.

¿Tienes ganas de empezar? Asegúrate de suscribirte al boletín más abajo para recibir un mensaje cuando MetaHuman Animator esté disponible.

    ¡No te pierdas nada!

    Introduce tu dirección de correo electrónico para registrarte y recibir las noticias y los anuncios más recientes sobre MetaHuman, Unreal Engine y otras herramientas del ecosistema de Epic Games.