アンリアル エンジンで Google ARCore を始めてみよう
8.29.2017

アンリアル エンジンで Google ARCore を始めてみよう

作成 Nick Whiting, Technical Director of VR and AR, Epic Games

Google が Android 端末へ拡張現実 (AR) 機能を提供するための ARCore を発表しました。なんと、アンリアル エンジンはこの Google の ARCore デベロッパー プレビュー版をサポートしています。つまり、ユーザーのみなさんは今すぐ使い始めることができます。

ARCore は、ハードウェアを一切追加せずに、デベロッパーが素晴らしい AR 体験を作成できるようにしつつ、Android エコシステム全体での AR 開発を可能にするプラットフォームです。

ARCore SDK は、Android 7.0 Nougat 以上がインストールされた Google Pixel、Pixel XL、Samsung Galaxy S8 で使用できます。Google は、1 億台の端末での使用を目標として、デベロッパー プレビューを重ねて対応台数を着実に増やしています。

エピックでは、デベロッパー達がアンリアル エンジンを使って素晴らしい AR 体験を作り出し、それがさらなる AR プラットフォームのサポートにつながるようにしています。10 月半ばに予定されているアンリアル エンジン 4.18 で AR が大々的にリリースできるようにARKit support のさらなる充実や ARCore の早期アクセス サポートと合わせて準備を進めています。

「拡張現実はスマートフォンの次なる進化の段階です。アンリアル エンジン デベロッパー達も既にエンジン全開で、素晴らしい AR 体験を夢中で制作しています。ARCore ではクロス プラットフォーム AR 体験のビルドおよび出荷が可能ですので、今後ますます AR の使用が盛んになることでしょう。アンリアル コミュニティのみなさん、アンリアル エンジン 4 の早期アクセス版の ARCore サポートを GitHub 上でチェックしてください。アンリアル エンジン 4.18 のプレビューも間もなく登場します。」(エピック ゲームズ、Co-Founder and Vice President、Mark Rein)

Unreal+Engine%2FblogAssets%2F2017%2FAUGUST+2017%2FGetting+Started+with+ARCore%2F770_ARCore-770x404-63f4fc882c9e5daf2549efca77b6ded99a946e11

ARCore の仕組みについてもう少しお話しましょう。ARCore では、モーション トラック、環境理解、光量推定という 3 つの主要コンポーネントを使って、モバイル ユーザーの目に映るワールドの変換を行っています。

モーション トラック

モバイル端末がワールドの中を移動すると、ARCore は端末のカメラからの視覚データと端末の IMU からの慣性測定を組み合わせて、カメラのポーズ (位置と方向) が時間と共にどのように移動したかを推定します。ワールドでの端末位置を ARCore に伝えるこのプロセスは「Visual inertial odometry (VIO)」と呼ばれます。

3D コンテンツをレンダリングする仮想カメラのポーズを ARCore から送られてくる端末のカメラのポーズと一致させて、仮想コンテンツを正確な視点からレンダリングします。そして、レンダリングされたこの仮想イメージを端末のカメラで取得したイメージに重ね合わせて表示すると、仮想コンテンツがまるで現実世界の一部であるかのように見えるというわけです。

環境理解

ARCore は、特徴点と水平面を検出することで、現実世界の環境を高い精度で把握し続けようとします。特徴点とは、キャプチャされたカメラ画像の中で、例えカメラ位置が微妙に変化した場合でも ARCire が認識できる視覚的に目立つ特徴を言います。ARCore は、連続したフレーム間の特徴点上で三角測量を行ってポーズの変化を推定します。

また ARCore は、テーブルや机など一般的な水平面上に置かれているようにみえる特徴点のクラスタを捜して、アプリケーションがこれらの表面を平面として使えるようにします。さらには、各平面の境界を判断して、その情報をアプリケーションで使えるようにします。これにより、仮想オブジェクトを平らな表面にいるかのように配置して、床やテーブル上でキャラクターを走らせることができます。

光量推定

3 つ目は光量推定です。 ARCore は背景のライティング情報を検出して、所定のカメラ画像の平均強度を出すことができます。この情報を使って、オブジェクトの周辺環境と同じ状態で仮想オブジェクトに光を当てることができるので、本物らしさがアップします。

難しい話はここまでにして、みなさん、とにかく ARCore デベロッパー プレビュー版 をチェックして今すぐ体験してみましょう。4.18 リリースが近づくにつれて ARCore 開発向けラーニング リソース とサポート コンテンツが追加されますので、くれぐれもお見逃しのないように!どのような作品が生まれるのか、今からワクワクします。 @UnrealEngine と #UE4 でダグ付けをして TwitterFacebook 、 Instagram で是非シェアしてください!

最近の投稿

UNREAL FEST EAST 2018 参加登録開始!公式サイトを公開しました

10月14日(日)に横浜にて開催される『 UNREAL FEST EAST 2018 』の参加登録を開始しました。

Holospark の Earthfall が Co-op シューティング ゲームのジャンルにイノベーションをもたらす

シアトルを拠点とする独立系開発会社 Holospark が開発した Earthfall は、太平洋岸北西部を舞台にした、4 人プレイのシューティング ...

The Mill と Monster.com が生み出したモンスターをアンリアル エンジンが操る

高い評価を受けているスタジオ、The Mill は、毛皮に覆われた巨大なクリーチャーが登場するアニメーション スポットをいくつも短期間で制作する必要に...