2018年9月13日

アンリアル エンジンのマルチユーザー コラボレーションとリアルタイム映像制作

作成 Dana Cowley

SIGGRAPH 2018 でアンリアル エンジンでのリアルタイム映画制作はさらに飛躍を遂げました。Real-Time Live!ショーケースの一つとして、エピック ゲームズと ILMxLAB は「Ray-Traced, Collaborative Virtual Production in Unreal Engine」を発表しました。パフォーマンスキャプチャー、バーチャルリアリティ、マルチユーザーの共同編集を取り入れ、リアルタイムレイトレーシングによってフォトリアルで映画品質の出力が得られる新しいパイプラインとワークフローです。さらに、このリアルタイム制作環境は NVIDIA の最新プロフェッショナル向けグラフィックカード Quadro RTX 6000 GPU の 1 枚で、滑らかに実行することが可能です。
Real Time Live! でのエピック ゲームズと ILMxLAB のプレゼンテーション (開始は 37:33)

Star Wars™ ユニバースを舞台にして、ファースト・オーダーの艦内で非常に反射率の高いストームトルーパー 2 人と、キャプテン・ファズマとのやりとりを見せるムービーです。今回のコラボレーションは「Reflections」リアルタイムレイトレーシングデモの延長になります。5ヶ月前に最初に発表された時には 4 枚のNVIDIA Quadro GV100 GPU を搭載した NVIDIA DGX-1 ステーションでの実行でしたが、今では、1 枚の Quadro RTX 6000 GPU で同じフレームレートを実現できるようになりました。コストも大幅に削減されます。ハードウェアがこれだけのペースで向上しているので、考えられなかったほど早くリアルタイム技術を向上させていけるようになりました。

Blog-body-img1.jpg

Real-Time Live! プレゼンテーションでは、セット、プロップ、ライト、カメラ、モーションキャプチャで動かされるキャラクタ、最終のアニメーションといった映画要素の統合方法を紹介し、最終ショットをステージ上でライブでディレクションを行って完成させるデモを行いました。

このデモでは、ILMxLAB の Director of Immersive Content の Mohen Leo 氏が俳優にディレクションを行い、カメラを操作し、ライティングを調整しました。エピック ゲームズの Creative Cinematic Director の Gavin Moran、及びSenior Cinematic Designer の Grayson Edge がモーションキャプチャアクターとテクニシャンとして、制作をリアルタイムで実演しました。

Leo 氏は以下のように述べています。「マルチユーザー機能がすばらしいのは、チームが同じシーンに同時に共同作業ができるということです。映画のセットと同じです。」

アクター役の Moran は Vive Pro と Xsens MVN スーツを身に着けてバーチャルリアリティの世界に入り込み、「Reflections」シーンの他の CG キャラクタに対して演技を行いました。演技はキャプチャされ、IKINEMA LiveAction が身体のデータを直接アンリアル エンジン上のストームトルーパーにリターゲットしました。

テクニシャン役の Edge はこの演技を Sequence Recorder で記録し、シーケンサーシネマティックツールでショットを編集してマスターシーケンスに追加しました。二人は協力して、ライティングの調整とカメラ位置調整を行いました。ライトの移動と調整は即座にレイトレーシングの反射に反映されました。そして、ピクセル単位で完璧な、修正したシーンをリアルタイムで聴衆に再生して見せました。 
 
実験的リアルタイムレイトレーシングで作成された元々の「Reflections」ムービー

エピック ゲームズのCTO、Kim Libreri は以下のように述べています。「マルチユーザーコラボレーションと編集によって、まるでフィルムセットで作業しているかのように、セット担当も、カメラオペレーターも、俳優も、撮影監督もディレクターも同時に共同作業できるようになります。VR の中でも、ワークステーション越しでも、全員が同じ環境でリアルタイムに共同作業ができるのです。」

ライブプロダクション環境では、クリエイティブチームが即座にほぼ最終に近い品質の画像を制作することが可能になり、オフラインでのレンダリング結果を待つことなく結果を検証できるようになります。アンリアル エンジンはバーチャル プロダクションをリアルタイム プロダクションへと変えていくのです。

アンリアル エンジンがバーチャルパイプラインの基礎となることで、ディレクター、セットデザイナー、ライティングデザイナー、アクター、モーションキャプチャテクニシャン、カメラオペレーター、SFX アーティストといった全ての制作のスタッフがリアルタイムに並行して作業を行ってエンジンから直接最終画像を出すことが可能になります。

リアルタイム プロダクションでのリアルタイム レイトレーシングはいくつかの要因が結集したことにより可能になりました。Microsoft DXR テクノロジーにレイトレーシング機能が含まれるようになりました。効率良いレイトレーシングで必須となるデノイズアルゴリズムは洗練され高速化しましました。そしてハードウェアも進化しました。例えば NVIDIA Quadro RTX 6000 は 1 秒間に1000万本のライトレイを処理できます。

ここで紹介したレイトレーシング機能はまだ実験的段階ではありますが、アンリアル エンジンの正式機能とするために開発を続けています。また、マルチユーザー機能についても将来のリリースに含める予定です。もちろんこれまでと同様、すべては無料で、メインブランチに統合され、ソースコード付きで、アンリアル エンジン 開発コミュニティの誰でも利用できるようになります。

SIGGRAPH では、エピック ゲームズ、ポルシェ、NVIDIA のコラボレーション「The Speed of Light」も初公開しました。ゴージャスなポルシェ 911 スピードスター コンセプトが主役です。このショートフィルム兼インタラクティブライティングコンフィギュレーターは初期段階のレイトレーシング ディフューズ グローバル イルミネーションを含むリアルタイムレイトレーシングを使用して、アンリアル エンジンの映画、テレビを含む出力品質を示しています。

これらのリアルタイムレイトレーシングデモへの技術協力を行った NVIDIA に特に感謝したいと思います。今年の終わりまでにリアルタイム レイトレーシング機能のソースコードを GitHub でリリースし、来年にはバイナリバージョンでのサポートをリリースしたいと計画しています。

「Reflections」と「Ray-Traced, Collaborative Virtual Production in Unreal Engine」のメイキングについて詳細を知りたい方は、ILMxLAB の Mohen Leo 氏とエピック ゲームズの Kim Libreri と Gavin Moran によるSIGGRAPH インタビューをご覧ください。

アンリアル エンジンを無料でダウンロードして、リアルタイムプロダクションを自分で試してみませんか?素敵な作品を楽しみにしています。ソーシャルメディアで共有する際に @UnrealEngine や #UE4 タグを使って是非お知らせください。