『SlimeZone』はプレイヤーがニコロデオンのメタバースへ入り込む VR 体験です。 Nickelodeon Entertainment Lab の優秀なチームがアンリアル エンジンで手掛けた 『SlimeZone』は最大 6 名 まで遊べる VR 体験です。ニコロデオン キャラクターのアバターを選んで、ゲームプレイやアニメーションの他、アート創作や友達とのスライム合戦も楽しめます。その『SlimeZone』が本日、ロサンゼルス、ニューヨーク、トロントの IMAX VR Center で初公開されます。上海、バンコク、マンチェスターにもまもなく上陸予定です。
Nickelodeon Entertainment Lab の Senior VP である Chris Young 氏にイマーシブ版ニコロデオン ワールドの制作についてお話を伺いました。
まず最初に Nickelodeon Entertainment Lab を簡単に紹介してください。
Nickelodeon Entertainment Lab は 2014 年前半に開始した事業を基に 2017 年 3 月に正式に設立されました。 Lab の設立目的は 、プロトタイプとコンテンツの開発を組み合わせて、それをオーディエンス向けの新しい形のエンターテイメントの作成に生かす方法をじっくり時間をかけて実験していくことです。
SlimeZone プロジェクトはどのように進みましたか?
『SlimeZone』の最初のプロトタイプは 3 名のチームが行いました。 モーション コントローラと シミュレーション物理を使って、複数のプレイヤーが楽しくインタラクトできるオンライン ソーシャル体験から始めました。 概念実証でスタートした後、 ロバスト技術のデモから 1 年かけて体験全体の製品化につなげました。
テレビショーで使っているアセットは使用しましたか?そのようなアセットは どうやってアンリアル エンジンに取り込むのですか?
シンプルで直観的な Maya を使いました。さまざまなニコロデオン IP からかなり多くの既存の CG アセットを UE4 FBX ワークフローへ取り込みました。
アンリアル エンジンは 2013 年から使用し始めたそうですね。アンリアルで AR/VR 体験を簡単に作成するための最新の機能には、どのようなものがありましたか?
いろいろな VR ハードウェアを使って直接 UE4 エディタで開発するための マルチプラットフォーム対応プラグ アンド プレイや、組み込み式のクライアント/サーバー ネットワーク機能、また 絶対に無理そうな思い付きでも スピーティなプロトタイプで試すチャンスをくれるブループリントがあります。さらに ソースを拡張すれば どんなに奇抜で独創性が強いアイデアにも 対応できるのはとても便利です。 ニコロデオンの 突飛な アイデアを最新のプラットフォーム上で思い切りクリエイティブに実現することができるのです。
体験にはどのくらいの数のキャラクターと背景が登場しますか?
異なる種類の 12 個のニコロデオンのアバターから選ぶことができます。これらのアバターには、ネットワーク通信用に口の上で ブレンドシェイプが操作できるように波形 VoIP が使用されています。また、約 9290 平方キロメートル (100,000 平方フィート) の背景には シネマ、バスケットボールコート、 ピンポン台、様々なパーティクル ペイント チューブが付いたアートルーム、ターゲット ギャラリー、スライム砲 とスポンジボブのパイナップルの家がセットされたスライム アリーナがあります!
アンリアル エンジン 4 を採用した理由はなんでしょうか?
まず最初に 実現可能なレンダリングの品質レベル、それからリニアでインタラクティブなコンテンツをシーケンサーで作成するリアルタイム作成技術に UE4 の魅力を感じました。自分達のアイデアを構築することができるブループリント、必要であればソースにアクセス可能である点にも惹かれました。
このようなプロジェクトにとって繰り返し処理能力はどれくらい重要なのでしょうか?
VR (または上質の VR) を作るためにイタレーションは必須です。アイデアを迅速に作成および確認し挑む能力にかかっている - これが他の作成処理とは異なる点です。体験を空間的に把握すると、 最終製品のあらゆる側面に特徴を出すことができます。 『SlimeZone』では VR 作成の反復プロセスがみごとに具現化されています。2 人の人間が頭の中でとても簡単な情報を交換 することから始まり、やがて物理を有効にしてキューブを前後へパスし始めて、 そこからつながって新しいアイデアが 生み出されます。
流体シミュレーションと NVIDIA FleX を使用した経緯についてお聞かせください。
我々はスライムを作るためにまずデカールシステムを使ってみました。ただ、流体システムが必要なことは分かっていたので、GitHub で NVIDIA のブランチを発見した時はワクワクしましたし、FleX の流体シミュレーション が 90fps で可能だと知ってものすごく興奮しました。
今後についてお聞きします。コンテンツと技術を組み合わせた実験の先には、どのような夢があるのでしょうか?
我々の Lab では 未来はレンダリング リアルタイムだと信じています。 エンターテイメントは 実行ファイルとして提供され 、 リアルタイム技術は VR、AR、仮想シネマ パイプラインの基本となるでしょう。そして我々はオーディエンスとつながる新しい方法を求めて これらのツールとプラットフォームを開拓し続けると思います。