La nouvelle fonctionnalité MetaHuman Animator devrait faciliter la capture de performance haute-fidélité des MetaHumans

Nous avons le plaisir de vous annoncer qu'une nouvelle fonctionnalité de MetaHuman sera bientôt disponible.

MetaHuman Animator vous permettra d'utiliser votre iPhone ou votre caméra montée sur casque stéréo (HMC) pour reproduire les performances faciales des personnages MetaHuman sous la forme d'animations haute-fidélité. Vous pourrez capturer l'individualité, le réalisme et la fidélité de la performance de votre acteur, puis transférer chaque détail et chaque nuance vers n'importe quel MetaHuman pour lui donner vie dans l'Unreal Engine.
 

Les humains numériques photoréalistes ont besoin d'une animation de haute qualité pour offrir des performances vraiment crédibles. Le processus de création est toutefois difficile, même pour les créateurs les plus expérimentés, car il exige de l'expertise et du temps. Il est extrêmement difficile pour les solutions de capture de performance existantes de recréer fidèlement chaque nuance de la performance de l'acteur pour votre personnage. Pour obtenir une animation vraiment réaliste, les animateurs expérimentés doivent souvent affiner les résultats de façon méticuleuse à travers un processus généralement laborieux et chronophage. 

Mais tout cela va changer !

La fonctionnalité MetaHuman Animator, dont la sortie est prévue au cours des prochains mois, produira la qualité d'animation faciale exigée par les développeurs de jeux AAA et les cinéastes hollywoodiens, tout en étant accessible aux studios indépendants et même aux développeurs amateurs. À l'aide de votre iPhone et d'un trépied standard, vous pouvez créer des animations réalistes pour vos MetaHumans qui permettront d'établir des liens émotionnels avec le public, même si vous ne vous considérez pas comme un animateur.
 

MetaHuman Animator fonctionne également avec n'importe quelle solution professionnelle de capture HMC stéréo verticale, y compris les solutions de Technoprops, pour offrir des résultats d'une qualité encore supérieure. Si vous disposez également d'un système de capture de mouvement corporel, MetaHuman Animator prend en charge le timecode. Vous pouvez ainsi aligner facilement l'animation de la performance faciale à la capture de mouvement corporel et à l'audio pour obtenir une performance complète du personnage. Elle peut même utiliser l'audio pour créer une animation réaliste de la langue.

Comment fonctionne MetaHuman Animator ?

Il s'agit de garantir que le système comprend l'anatomie unique du visage de l'acteur et d'établir un lien avec votre personnage cible. MetaHuman Animator commence par créer l'identité MetaHuman de votre acteur. Il s'agit d'un maillage qui a la même topologie et le même squelette standard que tous les MetaHumans.

Si vous avez utilisé Mesh to MetaHuman, vous savez qu'une partie de ce processus crée une identité MetaHuman à partir d'un scan ou d'une sculpture 3D. MetaHuman Animator utilise cette technologie pour permettre de créer des identités MetaHuman à partir d'une petite quantité d'images capturées. Le processus prend quelques minutes et ne doit être effectué qu'une fois pour chaque acteur.
 
Une fois cette étape terminée, l'identité MetaHuman est utilisée pour interpréter la performance en suivant et en résolvant les positions du squelette facial du MetaHuman. Il en résulte que la moindre expression est recréée précisément sur votre personnage cible MetaHuman, quelles que soient les différences entre les traits de l'acteur et du MetaHuman. Dans l'Unreal Engine, vous pouvez visualiser l'affichage de la performance et comparer l'identité MetaHuman animée à l'enregistrement de l'acteur, image par image.

L'autre avantage que présente cette fonctionnalité réside dans le fait que les données d'animation sont propres. Les courbes de contrôles sont correctes d'un point de vue sémantique ; en d'autres termes, elles se trouvent là où vous les attendiez sur les contrôles du squelette facial (là où elles auraient été si elles avaient été créées par un animateur humain), ce qui permet de les ajuster facilement, si nécessaire, à des fins artistiques.

Étant donné que nous avons utilisé une identité MetaHuman dès le départ, vous pouvez être certain que l'animation que vous créez aujourd'hui continuera de fonctionner si vous apportez des modifications ultérieures à votre MetaHuman ou si vous voulez l'utiliser sur un autre MetaHuman.

Les capacités de traitement de MetaHuman Animator feront partie du plug-in MetaHuman pour l'Unreal Engine, qui peut être téléchargé gratuitement, tout comme le moteur. Si vous souhaitez utiliser un iPhone (MetaHuman Animator fonctionnera sur l'iPhone 11 et versions ultérieures), vous aurez besoin de l'application gratuite Live Link Face pour iOS, qui sera mise à jour avec des modes de capture supplémentaires pour prendre en charge ce flux de travail.

Vous avez hâte de commencer ? Assurez-vous de vous inscrire à la newsletter ci-dessous pour vous tenir informé de la sortie de MetaHuman Animator.

    Restez informé

    Saisissez votre adresse e-mail pour recevoir les dernières actualités et annonces concernant MetaHuman, l'Unreal Engine et les autres outils de l'écosystème Epic Games.