Der neue MetaHuman Animator bringt Performance Capture für MetaHumans in voller Wiedergabetreue.

Wir sind hocherfreut, ankündigen zu können, dass es bald ein neues MetaHuman-Funktionsset geben wird.

MetaHuman Animator ermöglicht es Ihnen, Ihr iPhone oder Ihre Stereo-Helmkamera (HMC) zu verwenden, um jede beliebige Gesichtsperformance als detailgetreue Animation auf MetaHuman-Charakteren zu reproduzieren. So können Sie die Individualität und den Realismus der Performance Ihres Schauspielers in voller Wiedergabetreue einfangen und jedes Detail und jede Nuance auf einen beliebigen MetaHuman übertragen, um ihn in der Unreal Engine zum Leben zu erwecken.
 

Fotorealistische digitale Menschen benötigen qualitativ hochwertige Animationen, um wirklich glaubhafte Performances zu liefern. Doch das nötige Fachwissen und die Zeit, um so etwas zu erschaffen, stellen selbst die erfahrensten Entwickler vor große Herausforderungen. Für bestehende Performance-Capture-Lösungen ist es äußerst schwierig, jede Nuance der schauspielerischen Performance Ihrer Schauspieler originalgetreu wiederzugeben. Um eine wirklich realistische Animation zu erhalten, müssen versierte Animatoren die Ergebnisse in einem mühsamen und zeitaufwendigen Prozess minutiös nachbearbeiten. 

Aber das hat jetzt ein Ende!

Geplant ist eine Veröffentlichung in den nächsten Monaten: MetaHuman Animator wird die Qualität der Gesichtsanimation erzeugen, nach der AAA-Spieleentwickler und Hollywood-Filmemacher suchen, und ist gleichzeitig auch für Indie-Studios und sogar Hobbyisten verfügbar. Mit dem iPhone, das Sie möglicherweise schon in der Tasche tragen, sowie einem Standard-Stativ können Sie glaubwürdige Animationen für Ihre MetaHumans erstellen, die emotionale Bindungen zu Ihrem Publikum aufbauen – selbst dann, wenn Sie sich nicht als Animator bezeichnen würden.
 

MetaHuman Animator funktioniert auch mit jeder professionellen vertikalen Stereo-HMC-Capture-Lösung, einschließlich solcher von Technoprops, und liefert so noch hochwertigere Resultate. Und wenn Sie noch dazu über ein MoCap-System für die Körpererfassung verfügen, bedeutet die Timecode-Unterstützung durch MetaHuman Animator, dass die Performance-Animation des Gesichts ganz einfach mit der Körpererfassung und dem Audiomaterial abgeglichen werden kann, um eine vollständige Charakter-Performance zu liefern. Sogar die Zungenanimation kann mit Hilfe des Tons überzeugend nachgebildet werden.

Wie funktioniert es also?

Der Schlüssel liegt darin, sicherzustellen, dass das System die individuelle Anatomie des Gesichts des Schauspielers versteht und begreift, wie sich diese auf den Zielcharakter beziehen sollte. MetaHuman Animator beginnt mit der Erstellung einer MetaHuman Identity Ihres Schauspielers: ein Mesh, welches dieselbe Topologie und denselben Standard-Rig wie alle MetaHumans aufweist.

Wenn Sie Mesh to MetaHuman verwendet haben, wissen Sie bereits, dass ein Teil dieses Vorgangs eine MetaHuman Identity aus einem 3D-Scan oder einer Modellierung erstellt; MetaHuman Animator knüpft an diese Technologie an und ermöglicht die Erstellung von MetaHuman Identities aus einer kleinen Menge aufgenommenen Filmmaterials. Dieser Vorgang nimmt nur wenige Minuten in Anspruch und muss für jeden Schauspieler nur einmal durchgeführt werden.
 
Ist dieser Schritt abgeschlossen, wird die MetaHuman Identity zur Interpretation der Performance verwendet, indem die Positionen des MetaHuman Gesichts-Rigs verfolgt und aufgelöst werden. Das Ergebnis: Jeder noch so subtile Ausdruck wird auf Ihrem MetaHuman-Zielcharakter akkurat nachgebildet, unabhängig von den Unterschieden zwischen dem Schauspieler und den Funktionen des MetaHumans. In der Unreal Engine können Sie die Performance visuell bestätigen und die animierte MetaHuman Identity Bild für Bild mit dem Material des Schauspielers vergleichen.

Ein weiterer Vorteil: Die Animationsdaten sind sauber; die Steuerungskurven sind semantisch korrekt, das heißt, sie befinden sich an den Stellen, an denen man sie bei den Bedienelementen des Gesichts-Rigs erwarten würde – ganz so, als hätte sie ein menschlicher Animator erstellt – und lassen sich bei Bedarf für künstlerische Zwecke leicht anpassen.

Da wir von Anfang an eine MetaHuman Identity verwendet haben, können Sie darauf vertrauen, dass eine Animation, die Sie heute erstellen, auch dann noch funktioniert, wenn Sie in Zukunft Änderungen an Ihrem MetaHuman vornehmen oder sie für einen anderen MetaHuman verwenden.

Die Bearbeitungsfähigkeiten von MetaHuman Animator werden Teil des MetaHuman-Plugins für Unreal Engine sein, das wie die eigentliche Engine kostenlos heruntergeladen werden kann. Falls Sie ein iPhone verwenden möchten – MetaHuman Animator funktioniert mit einem iPhone 11 oder höher – benötigen Sie zusätzlich die kostenlose Live Link Face-App für iOS, die um einige zusätzliche Capture-Modi zur Unterstützung dieses Arbeitsablaufs aktualisiert wird.

Sie können es kaum erwarten, loszulegen? Vergewissern Sie sich, dass Sie für den Newsletter angemeldet sind, und wir benachrichtigen Sie, sobald MetaHuman Animator verfügbar ist.

    Bleiben Sie auf dem Laufenden!

    Geben Sie Ihre E-Mail-Adresse ein, um sich für die aktuellsten Neuigkeiten und Ankündigungen zu MetaHuman, der Unreal Engine und anderen Werkzeugen im Epic Games-Ökosystem anzumelden.