2019년 5월 6일
Microsoft Build: 언리얼 엔진 4를 통해 아폴로 11호 임무를 HoloLens 2로 재탄생시킨 에픽게임즈
엔터테인먼트, 시각화, 디자인, 제조 그리고 교육 분야의 크리에이티브 커뮤니티는 언리얼 엔진 4의 홀로렌즈 2 네이티브 지원을 애타게 기다리고 있는 가운데, 에픽은 5월말로 홀로렌즈 2의 출시를 발표했습니다. 그리고 그에 앞서, 마이크로소프트 빌드의 시작을 알리기 위해 언리얼 엔진 팀은 올해 아폴로 11호의 월면 착륙의 50주년을 맞이하여 놀라운 시각화를 공개했습니다.
ILM의 최고 크리에이티브 책임자 존 놀(John Knoll, COO)과 맨 온 더 문(Man on the Moon)의 작가이자 우주 사학자인 앤드류 채이킨(Andrew Chaikin)은 작은 내용 하나 놓치지 않고 1969년도의 역사적인 사건을 완벽히 재현한 멀티 유저 홀로렌즈 2 데모를 시연했습니다. 이 데모는 헤드셋으로 고퀄리티 3D 콘텐츠를 제어하는 것이 스마트폰으로 이메일을 확인하는 것처럼 쉬워질 컴퓨팅의 미래에 대한 비전을 공유합니다.
5월 5일에 리허설 중인 ILM 최고 크리에이티브 책임자 존 놀과 맨 온 더 문의 작가이자 우주 사학자인 앤드류 채이킨
이 실제와도 같은 경험에서는 아폴로 11호의 발사, 상세하게 재현된 새턴 V(Saturn V) 몸체와 월면 착륙 장면, 그리고 아폴로 11호의 임무 데이터와 영상을 기반으로 복원된 닐 암스트롱(Neil Armstrong)의 첫 발자국을 포함하여 아폴로 11호의 미션을 다양한 관점에서 내려다볼 수 있습니다. 다른 매체에서 이 정도로 상세한 구현이 불가능한 하이라이트로는 3단으로 구성된 새턴 V, 그 기능에 따라 외관이 설계된 착륙선 이글(Eagle), 그리고 박진감 넘쳤던 월면 착륙 순간 등이 포함되어 있습니다.
“홀로렌즈의 힘을 애저(Azure)의 힘과 합치면 파트너사들은 혁신적인 솔루션을 제공할 수 있습니다. 자동차에서 제조 산업까지, 그리고 건축에서 헬스케어 산업까지 전반적인 업계의 고객들은 3D 콘텐츠의 매우 정확하고 세부적인 묘사를 필요로 합니다.”라고 마이크로소프트의 클라우드 및 인공지능 그룹의 테크니컬 펠로우 알렉스 키프만(Alex Kipman, Technical Fellow)이 말하며, “에픽은 하이폴리곤 콘텐츠를 데시메이션 없이 홀로렌즈로 직접 스트리밍하는 방법을 보여줬습니다. 언리얼 엔진은 에지 컴퓨트와 렌더링만으로 가능한 수준을 훨씬 뛰어넘는, 무한한 세부 표현이 가능한 홀로그램을 홀로렌즈 2로 전시할 수 있도록 지원합니다.”라고 덧붙였습니다.
이 데모의 그래픽은 네트워크형 PC에서 언리얼 엔진 4.22를 통해 애저 스페이셜 앵커(Azure Spatial Anchor)를 사용하는 2대의 홀로렌즈 2 기기로 무선 스트리밍 되어 놀과 채이킨 사이에 공유된 경험을 구현하며, 사실적인 혼합현실에서의 사회적 교류 경험이 가진 가능성을 엿보게 해줍니다. 두 발표자는 같은 공간 내 같은 홀로그램과 상호작용하는 환경에서 단순하고 끊김 없는 듯 하지만 사실상 매우 복잡한 협업을 진행했습니다.
또한, 이 데모는 사용자가 자연스럽게 머리와 손을 움직여서 눈앞에 있는 홀로그램을 만지고 제어할 수 있는 홀로렌즈 2의 직관적인 상호작용 기능을 활용합니다. 예를 들면, 양손을 모았다가 서로 밀어서 떨어뜨리는 동작으로 새턴 V 로켓의 고유한 컴포넌트를 분리된 개별적인 요소로 관찰할 수도 있습니다.
마지막으로, 언리얼 엔진 4의 홀로그래픽 리모팅(Holographic Remoting) 지원은 고급 PC 그래픽을 홀로렌즈 기기로 가져올 수 있습니다. 아폴로 11호 데모는 방대한 1500만 개의 폴리곤을 완전히 동적인 라이팅 및 섀도, 멀티 레이어의 머티리얼 그리고 볼류메트릭 이펙트를 포함하는 물리 기반의 렌더링 환경에서 보여줍니다.