2018年11月2日

借助UE4实时捕捉技术打造逼真数字人类

作者 Jimmy Thang

图形界正在不断努力提升视觉效果的真实程度。尽管我们已经能够捕捉并还原大部分真实世界,但要创造出真实可信的面孔仍然是一项巨大挑战。

原因就在于,数字人脸非常容易产生所谓的“恐怖谷”效应,只要他们的外观稍有偏差,他们的面孔就会变得非常怪异僵硬。这就是为什么许多开发人员经常选择高度公式化的面孔创建方式。不过,这样虽然能绕开问题,但是不能从根本上解决问题。

Epic正致力于解决这项难题。为此,我们先是深入研究人体解剖学。然后,我们又构建出全新的工具,以便创造出真实可信、前所未有的数字人类。我们所展示的《Virtual Mike》《Siren》《Andy Serkis》等演示短片都反应了我们在图形技术方面取得的重大进展。

在最近一期livestream直播中,资深角色美术师Adam Skutt展示了我们创作《Virtual Mike》的过程。你可以通过Epic Games启动器下载该资源并体验效果。

关于数字人类实时渲染,在我们所有取得的重大突破中,具有代表性的一项就是我们在皮肤渲染上取得的进步。在livestream直播中,Skutt将带领你了解我们如何对学者兼作家Mike Seymour开展面部扫描,借助捕捉技术制作出一幅能够真实还原人脸粗糙度和油脂的皮肤模型,并利用两张法线贴图再现面部细节动画。除了介绍全新的次表面轮廓着色模型外,Skutt还分享了如何通过屏幕空间辐照度后处理材质,解决通常会令数字人类不够真实的“CG灰色”阴影效果。

逼真的毛发效果得益于将大量混合的单独样条曲线与创新的皮下毛囊植入技术相结合。最后,Skutt深入介绍了我们如何创造出逼真的眼部效果。

在这些全新渲染工具的共同作用下,我们才得以创作出一副能够以假乱真的数字面孔,以至于在livestream直播中,就连Skutt都分不出哪张是引擎渲染图片,哪张是真人照片。

如果您想深入了解我们是如何创造出栩栩如生的数字人类,请务必点击上方视频回看livestream直播。若要获取更多信息,请深入阅读我们的技术文档,并继续关注有关此话题的更多内容。

如果您想亲自体验我们的数字人类引擎特性示例,请即刻免费下载虚幻引擎4.20。您可以在Epic Games启动器中的“学习”选项卡中找到它。