에픽게임즈는 모든 XR 개발자들의 노력을 지원하기 위해, 언리얼 엔진 4의 가상 세계 속 공간에 실제 세계의 영상을 합성하는 솔루션을 개발해 왔습니다. 언리얼 엔진 4.20에서 베타로 사용할 수 있는 혼합현실 캡처는 실제 플레이어 자신이나 트래킹되는 모든 오브젝트를 가상 경험 속에 투영하는 데 필요한 툴을 제공합니다.
보세요, 제가 지금 로보 리콜의 드론을 사용해 로봇에게 레이저를 쏘고 있습니다!
셋업
캡처 공간을 구성하는 작업은 매우 간단하지만, 시작하기 위해서는 필요한 실제 환경이 몇 가지 사항이 있습니다. 위의 로보 리콜 영상을 녹화하기 위해서 2개의 삼각대 사이에 설치한 그린 스크린과 고정형 카메라, 카메라의 영상을 처리할 캡처 디바이스, 3개의 오큘러스(Oculus) 센서와 오큘러스 리프트(Oculus Rift)의 +터치(+Touch) 콘트롤러를 사용했습니다.
이렇게 환경을 구성한 후, 가상 세계와 현실 세계의 오브젝트 사이에 공간 매핑을 만들어주는 보정 어플리케이션을 사용합니다.
모든 것이 제대로 보정된 후에는, 자신이 선택한 화면 녹화 소프트웨어를 사용해서 게임플레이 중에 합성된 영상을 녹화할 수 있습니다(위 로보 리콜 영상의 경우 OBS라는 소프트웨어를 사용했습니다).
간단한 팁 - 혼합현실 캡처를 사용하여 영상을 캡처할 때 프로젝트를 가장 잘 보여줄 수 있도록 렌더링한 대상과 렌더링 방법을 선택하고 싶으실 것입니다. 위 영상에서 제 등 쪽의 권총집에 들어있는 총들이 렌더링되지 않았으며, 손 모형도 역시 숨겨져 있다는 점에 주목해 주세요. 스케일과 위치는 관전자가 아닌 플레이어의 경험에 맞게 조정되어 있기 때문에, 그리고 기본으로 설정되어 있던 값이었기에 어색해 보였기 때문에 권총집의 총들과 손의 녹화를 꺼놓았습니다. 언제나 그렇듯, 테스트와 반복 작업은 수시로 해야 합니다!
더 자세한 정보
지원 디바이스의 보정 방법이나 플레이어를 가상 배경 속으로 합성하는 방법 등 혼합현실 캡처 사용에 대해 더 자세히 알아보시려면, 베타 혼합현실 캡처 문서를 읽고 자신만의 몰입형 경험을 시작해 보세요.
여러분의 영상 캡처 디바이스가 목록에 없나요? 에픽게임즈는 새로운 캡처 방식도 쉽게 활용할 수 있도록 이 시스템을 모듈 방식으로 만들었습니다. 다른 영상 캡처 솔루션을 통합하는데 관심이 있다면, 엔진의 "Media" 모듈에 있는 인터페이스들을 살펴보세요. 현재 에픽게임즈는 재생을 하는데 WmfMedia 모듈을 사용하고 있습니다.
저희는 여러분이 이 기능을 활용하여 자신의 프로젝트를 어떤 새로운 방법으로 선보일지, 그리고 툴에 대해 어떤 피드백이 줄지 기대하고 있습니다. 혼합현실 캡처 피드백 포럼 스레드에 여러분의 의견을 공유해 주세요!