Online-Kurs: MetaHuman-Gesichtsanimation mit Faceware Analyzer und Retargeter

Möchten Sie glaubhafte digitale Menschen erstellen? In diesem zweiten Teil der Serie von Unreal-Online-Lernkursen, erstellt in Kooperation mit Faceware, werden die Geheimnisse der realistischen Gesichtsanimation gelüftet. Mit Facewares Gesichts-MoCap-Software nehmen Animatoren Mimik und Ausdrücke akkurat auf und erstellen glaubwürdige Gesichtsanimationen schnell und zuverlässig.

Simon Habib, Lead Cinematic Animator bei Nesting Games, führt Sie in diesen beiden Kursen unseres Partners durch Faceware Analyzer und Retargeter. Sie erkunden die Herausforderungen der Verwendung diverser Arten der Performance Capture – Filmmaterial, Webcams oder Kopfkameras – und lernen, wie Beleuchtung, Bildausschnitt und Framerate das Tracking beeinflussen. Dann erkunden wir einige Funktionen von Analyzer und erfahren, wie man mehrere Performances stapelweise verarbeitet.

Mit Retargeter importieren wir einen MetaHuman-Charakter in Autodesk Maya und nutzen eine nachverfolgte Performance. Sie erlernen, wie Sie nachverfolgte Animationen bereinigen, bevor wir zur Unreal Engine wechseln und eine Sequenz unserer Retargeting-Performance rendern.

Faceware Analyzer und Faceware Retargeter

Betrachten wir die Eckdaten dieser Kurse. 
 
Wie lange dauert es, die Kurse zu absolvieren?
Um die Kurse abzuschließen, werden drei Stunden und zehn Minuten benötigt.
 
An wen richten sich diese Kurse?
Unreal-Engine- und MetaHuman-Einsteiger, Personen, die mit Faceware Analyzer und Retargeter noch nicht vertraut sind, sowie alle, die an der Erstellung realistischer digitaler Menschen für die Film-, Spiele- oder virtuelle Produktionsbranche interessiert sind, profitieren von diesen Kursen.
 
Was sind die Teilnahmevoraussetzungen?
Sie benötigen mindestens Unreal Engine 4.27.
 
Was lerne ich dabei?
Sie lernen:
  • Wie Sie ein Gesichtsperformance-Video mit korrekten Vorgaben für die Nutzung in Faceware aufnehmen und bearbeiten
  • Wie Sie Mimik-Performance in Analyzer verfolgen, um Feinheiten eines Performers zu erfassen
  • Wie Sie eine einzigartige Charaktereinrichtung für das Gesichts-Rig in Retargeter erstellen
  • Wie Sie Nachverfolgungsdaten auf das Charakter-Gesichts-Rig mit Retargeter anwenden
  • Wie Sie einen animierten Charakter in die UE importieren, um ihn im Sequenzer zu präsentieren

Möchten Sie direkt loslegen? Besuchen Sie heute noch unsere Faceware Analyzer- und Retargeter-Kurse.

    Erweitern Sie die Mimik Ihrer MetaHumans mit Facial Capture!

    Starten Sie mit unseren Gratis-Kursen für Faceware Analyzer und Retargeter durch und lernen Sie, wie Sie digitalen Menschen realistische Mimik verleihen.