リアルタイムの基礎知識

映画におけるアニメーション

Courtesy of Aaron Sims Creative

アニメーションは映画でどのように使われているのか?

映画や映画におけるアニメーションの使用は、1920 年代にまでさかのぼる長い歴史があります。当時は 1 コマ 1 コマを手作業で描くという大変な作業を行っており、長編映画 1 本には何万枚もの絵が必要でした。個々のフレームを透明なセルロイド シートに描き、描画された背景上に配置し、それらをカメラでフレームごとに撮影していました。その後、フィルムの現像を行い、撮影したものの確認を行います。 

初期のアニメーション映画は視聴者にとって非常に新鮮でしたが、映画自体の制作に時間がかかってしまうので、エラーを直したり試行錯誤を行ったりする余地はあまりありませんでした。たとえば、背景と連動させてキャラクターの腕や脚を操作する際にそれらが適切な位置にない場合、描画セット全体をやり直す必要がありました。そのような変更には費用がかかるため、制作にはある程度のリスクが伴いました。

これらの初期の映画制作では、ストップモーション人形を用いたアニメーションなど、アニメーション ベースの他のタイプのエンターテインメントも生まれました。こうした手法は、象徴的なホリデー映画の『ルドルフ 赤鼻のトナカイ』 (1964年) や、より最近の映画、『ナイトメアー・ビフォア・クリスマス』 (1993年)、ウォレスとグルミットというキャラクターが主演する『アードマン・アニメーションズシリーズを通じてご存じの方も多いかも知れません。 

 

3D アニメーション

その後、20 世紀後半に新しいスタイルのアニメーションが登場し始めました。3D アニメーションです。この技術により、ライブ撮影用の映画セットと同様、仮想ワールドを三次元で構築できるようになりました。この仮想セットの任意の部分に仮想カメラを向け、好きな場所に 3D キャラクターを配置できます。キャラクターの顔や体は、ペンや鉛筆で新しい位置を描くのではなく、マウスのドラッグによりアニメートできます。3D ワールドと 3D キャラクターのビルドと設定が適切であれば、手描きの 2D 画像よりもはるかに自由にカメラ アングルやキャラクター アクションを試すことができます。

混乱を避けるために説明すると、3D アニメーションにおける「3D」というのは、映画を三次元で見るための特別なメガネを着用して視聴する立体映画のことではありません。ステレオスコピック フィルムは、アニメーションと実写の両方で作成できます。3D アニメーションでは、ワールドとキャラクターを二次元で描画するよりも簡単に三次元オブジェクトを操作できることから、より詳細なアニメーションを作れるようになります。

映画制作者は 1950 年代に単純なワイヤーフレーム表現で映画の 3D アニメーションを実験していましたが、技術は急速に進歩し、アーティストは完全にリアルなワールドとキャラクターを作成できるようになりました。初期の例には、映画『アビス』 (1989年) のフォトリアルな水中生物や、完全にコンピューター生成 (CG) された長編映画『トイ・ストーリー』 (1995年) があります。

それ以来、多くのアニメーション長編映画が作られるようになり、映画の中では下記のようなさまざまな方法でその地位を確立しました。
 

モーション キャプチャ

映画にアニメーション キャラクターが存在する場合、アニメーション チームは、現実の俳優がデータ収集用に特別に設計された特別なスーツを着てアクションを演じるモーション キャプチャ セッションをよく行っています。俳優の動きをデジタルで記録し、モーション データをデジタル キャラクターに転送することで、映画内の人間、動物、生き物の動きが自然になります。身体と表情の両方のキャプチャを行うプロセスは パフォーマンス キャプチャ といいます。 
Courtesy of Cory Strassburger

視覚効果 (VFX)

火、煙、霧、雲、ほこりなどの視覚効果のデジタル作成または強化も、3D アニメーション技術で実現できます。これら気体に関するエフェクトは通常、数千の仮想粒子のクラスタを用いて作成します。海水や雷などの自然現象も 3D アニメーション ツールで表現できます。VFX という用語は、コンピュータで生成された画像と実写映像を統合する技術も指します。

プレビジュアライゼーション

プレビジュアライゼーション (プレビズ) は、大まかな形状 (たとえば、建物の代わりにボックス) と単純なキャラクターで作成された映画の「最初のドラフト」となるビデオです。台本から録音されたセリフでアニメートされます。プレビズにより、ディレクター、撮影監督、その他のメンバーはショットとシーケンスのロードマップがわかるので、撮影前に潜在的な問題を発見しやすくなります。   
Courtesy of Engine House Films

レンダリングについて

映画館で上映される映画におけるアニメーションのこれらすべてのアプリケーションは、「すべてをレンダリングする必要がある」という点で共通しています。レンダリングとは、3D 表現を映画やビデオとして再生可能な一連の 2D 画像に変換するプロセスです。 

従来、1 つのフレームをレンダリングする時間は、単純なシーンの場合は数分、多くのキャラクターや視覚効果を含むシーンの場合は数時間に及ぶ場合があります。毎秒 24 フレームで再生される 30 秒間のシーケンスをレンダリングすると、720 フレームになります。各フレームのレンダリングに 10 分かかる場合、7,200 分、つまり 5 日かかってしまいます。
アニメーションにおける最も革新的な技術の一つは、各フレームを一瞬でレンダリング可能なリアルタイム レンダリングです。リアルタイム レンダリングは、多くの 3D アニメーション パッケージや Unreal Engine などのゲーム エンジンで何らかの形で利用できます。

近年では映画制作でリアルタイム レンダリングの採用が進んでおり、制作全体の時間節約や、より良い表現を目指して試行錯誤を行うための機会増加に貢献しています。 
 

映画や映画におけるアニメーションの例

以下に、リアルタイム アニメーションを利用した映画やシリーズの例をいくつか示します。

ゲーム・オブ・スローンズ』 (2011-2019年) のような番組では、最終エピソードの重要なシーンである玉座の間のシーンなど、有名なシーケンスを事前にリアルタイム レンダリングで視覚化していました。同シリーズでは、『ハウス・オブ・ザ・ドラゴン』のような近年のヒット作でも続けて使用されています。

Netflix の『ラブ、デス&ロボット』は最近、「地下に眠りしもの」でリアルタイム アニメーションを使用しました。「地下に眠りしもの」は、Unreal Engine の力を借りて命を吹き込まれた CG クトゥルフ、MetaHuman、その他のモーション キャプチャで操作したデジタル キャラクターをフィーチャーした魅力的なエピソードです。

受賞歴のあるアニメーション映画『Allahyar and the Legend of Markhor』 (2018年) は、リアルタイム レンダリングを用いてすべてが Unreal Engine で作成されました。これは友人を救うために旅に出るパキスタンの少年の物語で、続編の『Allahyar and the 100 Flowers of God』も同じプロセスで制作されています。

マーウェン』 (2018年) では、Unreal Engine で俳優のパフォーマンスのキャプチャを行い、彼らに似た仮想上の人形にリターゲットしています。これらの作業はすべてリアルタイムで行われています。
 

アニメーションを始める

アニメーションを始める際は、次の無料リソースをチェックしてその一歩を踏み出しましょう。 また、アニメーション ハブアニメーション分野のガイド をチェックすると、大規模なスタジオ、小規模なグループ、さらには個人が Unreal Engine で高品質なアニメーションを制作する方法を確認できます。

さらに多くの「リアルタイムの基礎知識」


リアルタイムの基礎知識

バーチャル プロダクションとは