Aikapin氏:まず楽曲のイメージに合わせてステージを組み立てて DMX をセットアップしました。その後にステージに合わせてセットアップした DMX の照明演出を Take Recorder で録画すれば撮影準備完了です。
次に人物の撮影ではカメラの HDMI 出力から PC に接続して OBS に流し込んで録画しています。この時に平行して遅延の少ない映像を送ることのできる NDI という伝送方式を利用して UE にもカメラ映像を送りリアルタイムに合成を行うようにしていて、合成具合やカメラの角度にズレがないか都度確認しながら撮影をしています。
人物の撮影が完了した後は撮影データを連番画像として UE に Image Media Source としてインポートします。その後に Media Texture として Material 上で MF_Chromakeyer というエンジン標準の Material Function を使って人物撮影データに含まれる背景のグリーンバック部分をくり抜いています。あとはその Material を適当な Mesh に割り当ててレベルに配置します。思いつく限りのアングルやカメラワークを Level Sequence として撮影したら Movie Render Que を使って Apple ProRes のコーデックに書き出せば撮影作業は完了です。最後に Adobe Premiere Pro で編集をして音声を合わせれば完成です。
もし、Premiere Pro での編集段階で絵に物足りなさを感じたり、物撮りしたカットを挿入したい時は実写だと後で撮りに行くのは難しいですけど、バーチャルなのですぐに UE を立ち上げて撮影しにいけるのでとても便利でした。
Aikapin氏:Cine Camera と Camera Shake にモーションブラーを組み合わせる絵の作り方が気に入っています。ボケ感やブレを手軽に追加できるので、実写合成をする際にどうしても気になってしまうバーチャルと実写の境界を良い感じに溶かしてくれるのでとても役立ちました。そもそも Cine Camera はカメラのレンズに関するパラメーターを自由に変更できるので、現実だとこれだけですごくお金がかかってしまう箇所が手軽に手に入るのはバーチャルならではの特権だと思います。 Sakakida氏:自分は機能などではないですが、失敗しても撮り直し放題という点が良かったです。バーチャルでの撮影なので映像がボケちゃって再撮影したくても撮り直せずにカットを諦めたりすることもないですし、夜間に撮影しなければいけないといった時間の制限もないのは助かりました。 Aikapin氏:これに慣れてしまったらバーチャル以外で撮ろうと思わなくなってしまいます(笑)。現実だとロケ地に行くための準備や移動時間が大変ですが、家の中でこんな壮大なものを作ることに慣れたら外に出たくなくなってしまいますね。こういった点はテクノロジーに頼った方がいいと思いました。
Aikapin氏:バーチャルライブでは Megascans のアセットやマーケットプレイスで販売されている John Teodoro さん作の Japanese Temple を購入して使わせて貰いました。こんな素晴らしい技術を持った職人さんたちの作品を比較的安価な値段で使わせて頂けるのは「不特定多数の人々がお金を出し合って技術を買える」マーケットプレイスのようなプラットフォームがあって初めて実現できる事なので、私たちのような1から 3D のモデルを制作することができなかったり、資金力の無いチームにとっては感謝しかないです。