2019年1月30日
Welcome to Marwen の人形に生命を吹き込んだバーチャル プロダクション
Welcome to Marwen は実話に基づくストーリーです。アーティストの Mark Hogancamp 氏は、暴行を受けたあと、治療の手段として写真を撮るようになりました。写真の題材となったのは、6 分の 1 スケールで再現された、第 2 次世界大戦期の村です。Hogancamp 氏は自宅の裏庭にこの村を作り、ポーズを入念に選んだ数十体の人形を置きました。人形たちは、友人、家族、暴行の犯人たちに加えて、Hogancamp 氏自身をも表していました。
ゼメキス監督は次のように述べています。「どうすればいいか、やっと突き止めることができました。感情をアバターへと完全に移すことができるようになったのです。映画のツールボックスに、新しい道具が 1 つ加わりました」 モーション キャプチャに至る経緯
Welcome to Marwen には、人形によるアニメーションのシーンが 46 分間あります。「これだけの規模で、これだけの時間、人間のようにリアルな演技をさせて、しかも現実の世界と完全に噛み合ったものにする。どうしたらそんなことができるでしょう?」こう問いかけるのは、同作の視覚効果 (VFX) スーパーバイザー、Kevin Baillie 氏です。それは、ゼメキス監督から最初に台本を受け取ったときに尋ねたことでもあります。「人形と現実、この 2 つはどうもお互いに調和しないように思えました」
ゼメキス監督は、人形の演技、特に表情が俳優の生き写しとなることを望みました。表情を含めて俳優の全身の演技を記録するモーション キャプチャを、パフォーマンス キャプチャと呼びます。当初はこれこそが答えであると考えられました。ゼメキス監督は、2004 年に公開されたポーラー・エクスプレスでこのテクニックを使用し、先駆者となった人でもあります。しかし、パフォーマンス キャプチャの限界について懸念したゼメキス監督は、VFX チームに別の方法を考えるように求めました。
Baillie 氏率いるチームは、さまざまな方法を試しました。たとえば、Hogancamp 氏を演じる主演俳優、スティーヴ・カレル氏の演技を撮影してから、身体のパーツを整形して取り替え、人形の体型に近付けました。「ひどい見た目になりました」と Baillie 氏は言います。「ハロウィンのコスチュームにしては高いものを着ている、という感じでした」
そこで、Baillie 氏は逆のアプローチを試しました。俳優に人形のパーツを足すのではなく、デジタルの人形に生身の俳優のパーツを足すことにしたのです。カレル氏のライブ パフォーマンスを元に、目と口を変形させて、デジタルの人形の顔に投射しました。できあがった結果を見て、チームは成功できるという確信を得ました。
「明らかに人間が演技しているようだが、人形らしくもある、そのような仕上がりでした」と Baillie 氏は言います。「このテストの結果、制作が決まりました。最終的にもこの方法を使うことになりました」
このアプローチでは、俳優の表情をモーション キャプチャ用のステージで撮影する必要があり、また、変わった工夫が必要になりました。Baillie 氏は次のように述べています。「顔の映像を使うので、顔にマーカーを付けたり、ヘッドカメラを装着したりすることはできませんでした。さらに、最終的なショットとまったく同じように照明を当てる必要がありました」
バーチャル プロダクションによるライティング
物理的なライティングとデジタルのライティングを正確に一致させる必要があったため、準備の手順が 1 つ必要になりました。チームは、撮影を開始する前に、Unreal Engine で人形のシーンをすべて作成しました。こうすることで、撮影監督 (DP) が UE4 で作業を行い、モーション キャプチャの撮影前にすべてのライティングを設計できました。そのなかでさまざまなシナリオを試し、ショットごとに望ましいビジュアルを得ることができました。Baillie 氏は次のように述べています。「モーション キャプチャ用のステージでは、ライティングについて把握していることが重要でした。しかし、撮影監督の C. Kim Miles にとっては、これは大きな課題でした。なぜなら、彼は何もなく広いグレーの空間を照らすことになるからです。これは非常に難しい問題でした。バーチャル プロダクションに関する多くのテクニックを駆使して、モーション キャプチャ用のステージでの判断が最終的な環境全体にどのように影響するか、Miles が理解できるようにしました」
モーション キャプチャのセッション中に、ライティング、ブロッキング、カメラのアングルについて監督が違ったものを試したくなった場合は、UE4 チームがデジタルのシーンを更新して、変更の影響をプレビューできるようにしました。
モーション キャプチャのプロセスにおいては、俳優の演技は非常に重要な部分だったため、俳優を引き付けることが重要でした。Baillie 氏は次のように述べています。「俳優がリハーサルで演技をしてみてからモニターを見て、シーンのブロッキングを変更したくなった場合や、監督が何かを変更したくなった場合、それを試してみて、実際どう見えるかを確認できました。信じてくれ、きっとうまくいくから、と言うのではなく、実際にどうなるか見せることができたので、俳優が世界に入り込みやすくなりました」
ゼメキス監督は、Unreal Engine によってリアルタイムのフィードバックを得られたことで、自分とスタッフ、そして俳優たちのコミュニケーションがスピーディになったと評価しています。「とてもよくできた、アニメーションするストーリーボードのようなものです。どうしたいのかを、俳優を含めて誰にでも簡単に伝えることができました」とゼメキス監督は述べています。
すべての演技を撮影したら、VFX チームが、人形の頭部のリグ上で手作業によってキーフレームを指定したアニメーションとその映像を組み合わせました。俳優の頭部の 3D スキャンと人形のモデルを行き来して、顔の映像とキーフレーミングの利用の適切な組み合わせを見つけ出しました。このプロセスによって、リアルでその人であると見分けがつく俳優の演技を人形の顔に付けることができました。
バーチャル プロダクションによる映像制作の改善
俳優の演技を記録し、アニメーションするキャラクターに移すことができるようになっただけでなく、バーチャル プロダクションによって、これまでできなかった形で映像制作にクリエイティビティを発揮できるようになりました。Baillie 氏は次のように述べています。「バーチャル プロダクションによって、協力しやすくなり、全員に各自の作業の成果をすぐに見せられるようになりました。何らかの判断を下したときに、最終的な結果にどう影響するかわかります。このように、当事者意識を持つことで、監督だけなく、あらゆるチームが、でき上がる映画にできる限り直接的に関わることができます」
テクノロジーの導入には常に前向きなゼメキス監督も同じ意見のようで、次のように述べています。「テクノロジーはすばらしいものです。できる限り最高の映画を制作するために、テクノロジーを取り入れ、キャラクターとストーリーのために活用すべきです」
バーチャル プロダクションのページにアクセスして、Visual Disruptors シリーズのコンテンツをご覧ください。