わずか半年でバーチャルライブを実現『PRIDASK Virtual Liveshow #1』インタビュー

Yuya Shiotani
日本国内においても Unreal Engine(以下、UE) を利用したバーチャルプロダクション(以下、VP)の活用を多く耳にするようになりました。VP は1つのスタジオ内で複数ロケーションの撮影を行うことが可能であり映像業界を始めとして様々な業界にて利用されています。

この今とても熱い VP をエレクトロニックユニット PRIDASK(プライダスク) が 3DCG に関する経験が無い中で UE や Twinmotion を活用して短期間の内にバーチャルライブを成功させました。

今回は PRIDASK のお二人にどうして UE を使用するに至ったのか、どのように導入したのか、そしてどういった環境でVPを行っているのか2021年に公開されたバーチャルライブの事例を元にお聞きしました。

インタビューをお受けいただきありがとうございます。さっそくですがお二人について教えていただけますか?

Aikapin氏:北海道を拠点として活動している PRIDASK というエレクトロユニットでボーカルをしています。Aikapin です。バーチャルライブではライブステージのレベルデザインなどビジュアルに関わる部分を担当しています。
Sakakida氏:同じく PRIDASK のトラックメイカーと DJ をしています。Sakakida です。Aikapin がライブステージを制作し、自分は Blueprint や DMX 周りなど技術的な箇所を担当しています。
PRIDASK Interview 01PRIDASK Interview 02
( 左:Aikapin 氏 右:Sakakida 氏 )
2021年に公開された『PRIDASK Virtual Liveshow #1』はお二人が初めて公開されたバーチャルライブ作品かと思います。反響はいかがでしたでしょうか?

Aikapin氏:
『PRIDASK Virtual Liveshow #1』は2021年9月に公開したPRIDASK初の バーチャル ライブ パフォーマンス ビデオです。このバーチャルライブを公開したことでリスナー様からの反応が大きかったのでとても嬉しかったです。
今回私たちが制作したバーチャルライブのように予算をあまり出せないインディーズアーティストでも自分たちが思い描く「非現実」を可視化して PR ができるのは革新的なことだと思っています。曲のイメージが可視化されるだけで SNS でも目につきやすいので、映像をきっかけに楽曲を買ってくれる新規リスナー様の数が増えました。
 

バーチャルライブ ステージは様々な要素が入り混じっているように伺えますがどのようなイメージで制作されたのでしょうか?

Aikapin氏:今回のバーチャルライブでは日本を謳った楽曲を取り上げているので和風なロケーションを想像していました。個人的にカッコイイと思った平等院鳳凰堂や八坂神社を参考にしたり、ステージに向かうまでの道にある花などは私のイメージを元に作ったりしています。あえて仏教モチーフのものと神社モチーフのものを一緒くたに配置して日本の「混沌」を表現しています。
Sakakida氏:バーチャルライブにのせている照明演出はクオリティの高いアジア圏のライティングショーを参考にして制作しました。
バーチャルなので現実と違って自由に試行錯誤ができました。現実だと怒られるレベルで照明を好きに触ったり花火も打ち放題です。こういった多く試行錯誤できる環境があったことで自分たちの自由なイメージを形にできたかと思います。
バーチャルライブの制作期間はどの程度かかりましたか?

Aikapin氏:制作期間は3ヶ月ぐらいでした。その中で最も時間を取られたのがレベルデザインでした。3ヶ月の内に2ヶ月半はレベルデザインをしていたぐらいです。
Sakakida氏:DMX 周りは比較的サクサク進んで半月ぐらいで連動するようになりました。
Aikapin氏:2人共 UE を学習しながらの進行だったのでたくさんの時間を取られましたが、最近はバーチャルライブを制作する要領を掴めてきた気がするので、次からはもう少し早く進められると思います。

バーチャルライブの制作はどのような流れでしたか?ワークフローについて教えて頂けますか?

Aikapin氏:まず楽曲のイメージに合わせてステージを組み立てて DMX をセットアップしました。その後にステージに合わせてセットアップした DMX の照明演出を Take Recorder で録画すれば撮影準備完了です。
次に人物の撮影ではカメラの HDMI 出力から PC に接続して OBS に流し込んで録画しています。この時に平行して遅延の少ない映像を送ることのできる NDI という伝送方式を利用して UE にもカメラ映像を送りリアルタイムに合成を行うようにしていて、合成具合やカメラの角度にズレがないか都度確認しながら撮影をしています。
人物の撮影が完了した後は撮影データを連番画像として UE に Image Media Source としてインポートします。その後に Media Texture として Material 上で MF_Chromakeyer というエンジン標準の Material Function を使って人物撮影データに含まれる背景のグリーンバック部分をくり抜いています。あとはその Material を適当な Mesh に割り当ててレベルに配置します。思いつく限りのアングルやカメラワークを Level Sequence として撮影したら Movie Render Que を使って Apple ProRes のコーデックに書き出せば撮影作業は完了です。最後に Adobe Premiere Pro で編集をして音声を合わせれば完成です。
もし、Premiere Pro での編集段階で絵に物足りなさを感じたり、物撮りしたカットを挿入したい時は実写だと後で撮りに行くのは難しいですけど、バーチャルなのですぐに UE を立ち上げて撮影しにいけるのでとても便利でした。
VPを利用した撮影にはどういった準備が必要だったでしょうか?

Aikapin氏:まずネットで購入した3,000円ほどの緑の布を2枚購入して床と壁に設置。それから2個セット1万円もしないような小さなLEDライトを立てて撮影環境を作りました。用意したグリーンバックの中で元々アルバムのジャケットなどの撮影で使っていた中古の型落ち一眼レフカメラとゲーム用のビデオキャプチャーを準備して VP の撮影を行っていました。
Sakakida氏:在りものをかき集めただけのチープな環境ですが UE 内蔵のクロマキーヤーが優秀なのとレベルに配置するだけで光や影の計算をUEがしてくれるので、自然な感じに混ざってくれて意外になんとかなりました。
Aikapin氏:VP は今のところ高価な撮影機材やプロフェッショナルなスタジオでの使用例が目立っているので敷居が高く感じがちですが、そんなイメージとは反対に UE での VP は個人でも手軽に始められるものに感じました。極端な話、緑の布さえ用意すればスマホのカメラなんかでも自宅の一角を使って楽しめるんじゃないかなと思います。
ただ、当初は以前使用していた PC で十分だったのですがバーチャルライブ制作に向けて UE を学習する内にしたいことが増えてきて新しいものを導入しました。今ではCPUは Ryzen9、グラボは RTX3080 を利用しています。これでもまだ DMX を動かすと FPS 値が極端に低くなるので、欲を言えばまだ上のグレードが欲しいところです。
比較的安価な物や元々持っていた機材で VP を始められたのですね。1つ気になったのですが、PRIDASK のユニット構成としては2名体制だったかと思いますが、様々な撮影をされているように見受けられます。撮影はどのようにされているのでしょうか?

Aikapin氏:撮影体制とグリーンバックの範囲の関係で撮影する時は1人ずつ撮影していました。撮影後に撮影データをレベルに配置することでバーチャルライブ上では2人が一緒にパフォーマンスをしているように合成しています。
1度の撮影でカメラのズーム具合や画角別に上半身アップ、引きで全身を入れる場合など1人ごと、カットごとに5-6パターン撮影しているので結構手間がかかっています。もしカメラが複数台あれば複数のカメラアングルでのパフォーマンスの撮影が一気にできるかもしれないので、最近手に入れた GoPro を今後の撮影に活用していきたいと思っています。
実はパフォーマンスをしている内に盛り上がりすぎてしまってついついグリーンバックの範囲外へ超えちゃうこともあったりして結構狭いスペースで撮影しています(笑)
バーチャルライブの実現にあたり Twinmotion をご利用いただいたとのことですが、どうして Twinmotion を利用されたのでしょうか?

Aikapin氏:Twinmotion はステージ制作に利用しています。正直に申し上げると最初は UE を立ち上げた時に「ちょっと難しそう」な印象を持ちました。ですので直感的な操作を特徴とする Twinmotion を使って試しに背景を組み立ててみることにしました。
突然難しいものに挑むより難易度が低めのハードルから順に飛び越えながら、創作の楽しさを見出すことが継続の鍵だと思っているのでそのようにしています。そもそも「3DCG でどんな事が出来るのか」すらも全くわからないところからのスタートだったので基本を把握する為に、簡単なレベルデザインをやりながら一通りの機能を使ってみました。
慣れている人から見れば少し遠回りな工程のようにも見えますが、今思えば最初に Twinmotion に触れて 3DCG ソフトがどのような物なのかを知ることは良かったと思います。
ある程度慣れた段階でいざ、UE に移行した時に Twinmotion に触れていたことで「Twinmotion でこんなことができたから UE でも出来るだろう」と手順や工程の仕組みがすんなり入ってくるので、最初に UE に対して「難しそう」と感じた私のような初心者の方にはこの流れをオススメしたいです。
DMX の利用にあたって DMX サンプルは参考になりましたか?また UE との連携はいかがでしたでしょうか?

Sakakida氏:DMX サンプルはすごく参考になりました。実のところ DMX に触れたことすらなかったので、まずは DMX そのものを学ぶ必要がある点を少し壁に感じていました。ですが、UE の DMX は現実と同じ様に動作するので、現実におけるノウハウなどがまとまった記事がそのまま役立ちました。それこそ、DMX の学習にあたっては UE 付属の DMX テンプレートはもちろんのこと、特にラーニングタブで配られている Moment Factory さんの DMX プリビジュアライゼーション サンプルは大変参考になりました。DMX ライブラリの構築例や Sequencer の使いこなしなど、実際の使用例としてプロジェクトファイルの中身を見ることができるのはとても助けになりました。実際にプロジェクトで使用する際も DMX フィクスチャーを有効にすれば一通りの灯体が揃っていますし、UE であれば現実と違ってなんでも試し放題なので、VP に限らず DMX 入門としても UE は良いツールだと思います。

バーチャルライブでは DAW (Cubase) からライブセットと共に出力した MIDI データで QLC+ というフリーの DMX ライティングソフトをコントロールしています。そこから Art-Net という照明用イーサネットプロトコルを経由して UE 内の灯体を動かし、演奏と同期する手法を取りました。最終的に内容が決まったら Take Recorder で Level Sequence として記録してバーチャルライブに利用しています。

DMX は実際のライティング規格だけに、現実での使用例がそのまま参考に出来たという点はとても助っています。
DMX などの他にも UE の機能でオススメであったり好きな機能や使い方はありますか?

Aikapin氏:Cine Camera と Camera Shake にモーションブラーを組み合わせる絵の作り方が気に入っています。ボケ感やブレを手軽に追加できるので、実写合成をする際にどうしても気になってしまうバーチャルと実写の境界を良い感じに溶かしてくれるのでとても役立ちました。そもそも Cine Camera はカメラのレンズに関するパラメーターを自由に変更できるので、現実だとこれだけですごくお金がかかってしまう箇所が手軽に手に入るのはバーチャルならではの特権だと思います。
Sakakida氏:自分は機能などではないですが、失敗しても撮り直し放題という点が良かったです。バーチャルでの撮影なので映像がボケちゃって再撮影したくても撮り直せずにカットを諦めたりすることもないですし、夜間に撮影しなければいけないといった時間の制限もないのは助かりました。
Aikapin氏:これに慣れてしまったらバーチャル以外で撮ろうと思わなくなってしまいます(笑)。現実だとロケ地に行くための準備や移動時間が大変ですが、家の中でこんな壮大なものを作ることに慣れたら外に出たくなくなってしまいますね。こういった点はテクノロジーに頼った方がいいと思いました。
制作されたバーチャルライブのステージにはとても多くのアセットが利用されていたかと思います。ステージ制作にはマーケットプレイスのアセットを利用されたのでしょうか?

Aikapin氏:バーチャルライブでは Megascans のアセットやマーケットプレイスで販売されている John Teodoro さん作の Japanese Temple を購入して使わせて貰いました。こんな素晴らしい技術を持った職人さんたちの作品を比較的安価な値段で使わせて頂けるのは「不特定多数の人々がお金を出し合って技術を買える」マーケットプレイスのようなプラットフォームがあって初めて実現できる事なので、私たちのような1から 3D のモデルを制作することができなかったり、資金力の無いチームにとっては感謝しかないです。
アセットをうまく活用して PRIDASK としてのパフォーマンスを形にされたのですね。
ここからは、バーチャルライブを行うに至った経緯をお聞きしたいと思います。初の 3DCG を使った制作の中、バーチャルライブ実現まではとても大変な道のりだったかと思いますが、どういったきっかけで UE を知ったのでしょうか?

Aikapin氏:2020年に開催された Tomorrowland Around the World というクラブミュージックを中心に扱ったデジタルフェスを見て「これは次世代のライブエンターテイメントだ!」と衝撃と感銘を受けたことが UE との出会いでした。それこそ Tommorowland がなかったら UE を使うことはなかったと思います。
Sakakida氏:バーチャルフェスというと視聴者交流型のイベントが多かった中で Tomorrowland は作品としての側面が強くてその異質さが衝撃的だったことがファーストコンタクトでしたね。
Aikapin氏:その後にそれが UE というソフトで制作されているという記事を目にしたんです。3DCG は自分たちにとって完全に分野外でしたし、その時はゲームエンジンという概念も知らなかったぐらいでした。
よく知っているゲームや映画などにも利用されているくらいなので、「とてもハードルが高い、素人お断りのプロ向けソフトなんだろうな」と勝手に思い込んでいたのですが、調べてみるとそんなイメージとは裏腹になんと無料で使えるということで「これは挑戦しない手はないぞ」と思い自分たちのコンテンツにも使用しようと思いました。あと「Unreal Engine」という名前がカッコイイのにも惹かれました(笑)
Sakakida氏:「アンリアルってカッコイイね」ってね(笑)

お二人の活動を取り巻くコンテンツでの利用を目的にUEを始められたとのことですが、最初からバーチャルライブが目標だったのでしょうか?

Aikapin氏:バーチャルライブというよりはアートワークや MV なども含めて、最終的には楽曲を取り巻く制作物全般で UE を利用していきたくて始めました。
Sakakida氏:僕らエレクトロニックミュージックなので自然界に無い音を扱って楽曲を作っていますし、「非現実」なもののほうが世界観にマッチすると思ったのもあります。
初めての 3DCG ソフトとして UE の学習はどのようにしたのでしょうか? Twinmotion の他に何かされましたか?

Aikapin氏:私たちは 3DCG 初心者で全くの未経験からのスタートでしたが、 ラーニングコンテンツが充実していたことで安心感がありました。初めは秀和システムさんから出ている書籍「Unreal Engine 4 リアルタイム ビジュアライゼーション」が基礎的なことを学ぶのにとても役立ちました。少し高価ですが手元に置いておいて損はない書籍だと思います。
Sakakida氏:書籍を使った学習の後は公式・非公式問わずに関連すると思われるチュートリアル動画は暇があれば観続けて、あとはもう「習うより慣れよ」でひたすら触って覚えていきました。最終的にとにかく触るのが一番だったように思えます。

バーチャルプロダクションに関して学習する際に資料などはありましたか?

Aikapin氏:正直なところバーチャルプロダクションに関しては日本語の情報が少なかったので英語の情報を見ることが多かったです。英語資料を見つけてブラウザの翻訳機能を使えば学ぶ際には十分でした。
Sakakida氏:自分たちの場合は楽曲制作などで普段から英語情報を見る癖があったのが良かったんだと思います。
その他だと、自分が好きなアーティストに deadmau5(デッドマウス)という方がいるんですが、Unreal Build: Broadcast & Live Events にスピーカーとして出演されていて彼がどうやってライブを作ったのか知ることができたり、そこからさらに調べて彼の Twitch の作業配信を見るのもすごく参考になりました。
Aikapin氏:私たちの好きな海外のクラブミュージック アーティストは今ライブといえば UE という流れになっていて当たり前のように使用例が出てくるので、そういったものも資料にしています。
 

Sakakida氏:どうしても日本語で手に入る情報はまだ技術紹介で留まっていることが多いですが、海外のアーティストたちは既に実際のショーへも UE を取り入れているので、そういった現場でどのように利用しているのかという情報は資料として役立ちました。
Aikapin氏:私たちのやりたいことの中だと「現実とバーチャルの境目をどのように魅せるのか」という点が技術的な鬼門だと思うので、そこをクリアにするようなものであったり VP に関するノウハウが国内でもたくさん出てくれば良いなと思っています。私たちみたいな個人や小規模でもバーチャルライブを制作できるので他の方もできない話でもないのかなと思っているので、ぜひ皆さんに挑戦してみてほしいです。

VP に関しては公式よりフィールドガイド(第1巻第2巻)という形で様々なスタジオのワークフローなどを無料公開していますので、ぜひこちらも今後の活動にお役立ていただければと思います。
ただ、VP の事例は国内ですとコミュニティベースの情報がまだ少ない状況ですので、今回のインタビューが個人の方への助けになれば私たちとしても大変うれしく思います。


今回のバーチャルライブを始め過去に公開されている 楽曲ティーザー でも UE を採用していただいていますが、採用してよかったことはありますか?

Aikapin氏:
音楽活動を通じて覚えてきたこと全てがそのまま活かせたことでしょうか。以前に現実世界で MV を撮影した際に覚えたカメラの知識は UE では Cine Camera の設定で活かすことができましたし、DMX に関しても長年クラブやライブハウスに出入りしてきて様々な照明演出を観たことがあったからこそ出来たことでした。
Sakakida氏:Sequencer を使って演出としてまとめた各カットを積み重ねていく感覚は DAW での楽曲制作にとてもよく似た感覚ですし、Blueprint の概念はシンセサイザーで言うところのモジュラー方式と通じるものがあります。元々共通項が多いと言いますか、音楽を作る人間とは相性が良いんだと思います。

今後チャレンジしたいことはありますか?

Aikapin氏:直近の目標だとフル尺の MV の完成を実現させたいと思っていて、現在製作中です。それとバーチャルライブでいただいた反応が良かったのでもっと短いスパンでバーチャルライブの方も公開していきたいです。次のライブでは MetaHuman やバーチャルカメラなどの新しいものも取り入れながら更にレベルアップした作品にできれば良いなと思っています。
Sakakida氏:僕らはミュージシャンなので、その他にもゲーム制作などで使えるBGMや効果音のパックなどを作ってマーケットプレイスに出品してみたいなと考えています。
UE を使うだけじゃなく自分たちなりに得意分野でコミュニティに貢献出来たらいいなと思っています。

作品だけでなくマーケットプレイスでの出品もご検討されているのですね。それはとても楽しみです。
この度はインタビューの機会を頂き誠にありがとうございました。

本インタビューの公開と合わせて PRIDASK は新たな バーチャルライブ を公開されました。インタビューで取り上げたバーチャルライブから更にパワーアップを果たした作品とのことで、2名体制のユニットである PRIDASK が UE を活用してどのようなパフォーマンスを新たに生み出したのか、ぜひこちらも合わせてご覧ください。

    今すぐ Unreal Engine を入手しましょう!

    Unreal Engine は、世界で最もオープンで高度な制作ツールです。 
    あらゆる機能とソース コード アクセスを完備している Unreal Engine を使用すれば、すぐに制作に取り掛かることができます。