Google 已公布,赋予 Android 智能手机增强现实 (AR) 功能的 ARCore 今日上线。这是个大好消息,因为它包含对虚幻引擎的支持,你可以马上开始使用 Google 的 ARCore 开发者预览版!
ARCore 支持整个 Android 生态系统中的 AR 开发,让开发人员无需购置任何额外的硬件就能创造迷人的 AR 体验。
当前的 ARCore SDK 支持运行 Android 7.0 Nougat 及更高版本的 Google Pixel、Pixel XL 和 Samsung Galaxy S8。随着开发者预览版的完善,Google 将添加新的支持设备,目标是在正式推出时达到 1 亿部。
我们 Epic 的工作人员正在努力让开发者能够使用虚幻引擎创造令人惊叹的 AR 体验,这款引擎目前正在加大对 AR 的更深层次的平台支持。预计 10 月中旬发布的虚幻引擎 4.18 将成为主打 AR 功能的重要版本,其中会有更加成熟的 ARKit 支持,以及 ARCore 的测试版支持功能。
“增强现实是智能手机发展的下一步,而虚幻引擎开发者已经在为创造非凡的 AR 体验努力工作。通过支持开发人员创造和发布跨平台的 AR 体验,ARCore 将有助于进一步推动 AR 的普及。我们鼓励虚幻社区的人们去 GitHub 上看看今天的 ARCore 虚拟引擎 4 测试版支持功能以及将在虚幻引擎 4.18 中发布的预览版。”- Mark Rein,Epic Games 的联合创始人兼副总裁
让我们稍微解释一下 ARCore 的工作原理。有三个主要的组件可以帮助改变移动用户对世界的观感:运动追踪、环境理解和光照估算。
运动跟踪
当你的移动设备在世界中移动时,ARCore 会将设备摄像机的视觉数据和设备 IMU 的惯性测量数据结合在一起,并随着时间的变化估计摄像机相对于世界的姿态(位置和方向)。这个过程被称为视觉惯性测程 (VIO),它让 ARCore 知道设备相对于周围世界的位置。
通过调整用于渲染 3D 内容的虚拟摄像机的姿态,使其与 ARCore 提供的设备摄像机的姿态相对应,便可以从正确的角度渲染虚拟内容。经过渲染的虚拟图像之后会叠加到设备摄像机获得的图像之上,使虚拟内容看上去像是真实世界的一部分。
环境理解
ARCore 通过检测特征点和平面来不断提高对真实世界环境的理解。特征点是指摄像机拍到的图像中的不同视觉特征,即使摄像机的位置发生轻微变化,ARCore 也能识别这些特征。ARCore 通过对连续帧之间的这些特征点进行三角测量来估算摄像机的姿态变化。
ARCore 会寻找看似位于相同水平表面的特征点集群,例如桌台,并将这些表面提供给应用程序用作平面。ARCore 还可以确定每个平面的边界,并将这些信息提供给应用程序。你可以使用这些信息把虚拟对象放置在平面上,例如让虚拟的角色在地板或桌子上四处跑动。
光照估计
最后,通过光照估计,ARCore 可以检测出周围环境的光照信息,然后提供指定的摄相机图像的平均光照强度。这一信息能为你的虚拟对象提供与周围环境相同的光照条件,从而进一步增加真实感。
言归正传,我们鼓励大家现在就去看看 ARCore 开发者预览版并开始尝试。随着 4.18 发行版的临近,请留意有关 ARCore 开发的更多学习资源和支持内容。我们非常期待能够看到大家的作品,如果您有意分享,请在 Twitter、Facebook 或 Instagram 上用 @UnrealEngine 和 #UE4 标记我们,让我们一睹为快!