Unreal Engine 4.20 では、Apple による ARKit のフェイス トラッキング システムが新たにサポートされるようになりました。iPhone X のハードウェアを使うとき、この API によって顔の動きをトラッキングし、それを Unreal Engine で使用できるようになります。このトラッキング データは、デジタル キャラクターを制御するために使用したり、ユーザーが望むことに転用することも可能です。UE4 の ARKit の実装により、顔のトラッキング データ (現在の顔の表情や頭部の回転など) を LiveLink プラグインを介して Unreal Engine に直接送信することも可能です。このようにして、スマートフォンをモーション キャプチャとして利用することによって、スクリーン上のキャラクターを操作できるようになります。
Apple の ARKit によるフェイス トラッキング機能についての詳細は、
Apple の公式ドキュメンテーションでご覧になれます。
補足: この記事が書かれている現在、モバイルの顔アニメーション キャプチャ システムは、iPhoneX ハードウェアでのみ使用可能です。このテクノロジーが他のデバイスにも拡張されると、この記事も更新されます。
ハードウェア要件: iPhone X
マップ: デバイスへのデプロイ用低解像度デモ マップ (FaceTrackingMap_Simplified) 1、および、LiveLink 操作用高解像度のマップ 1 (FaceTrackingMap2)
補足: アプリは、Unreal Engine からデプロイされるためのものです。Apple Developer アカウントが必要となります。
developer.apple.com から入手可能です。
UE 専用 コンテンツ - Unreal Engine ベースの製品にのみ使用がライセンスされます。