ARFX 시스템을 사용하면 언리얼 엔진으로 계산된 실시간 이미지가 씬의 배경으로 사용하기 충분한 크기로 화면 속에 표시되며, 이미지는 카메라의 움직임에 따라 실시간으로 업데이트됩니다. 실제 배우가 벽 앞에 서면 즉시 "합성된" 촬영 장면이 결과물로 만들어집니다. 실시간 3D 가상 세트의 확장인 셈입니다.
"그린 스크린(Green Screen)을 사용하는 것과 비슷한데, 대신 그린 스크린이 없다고 보시면 됩니다." AMD의 몰입형 기술팀 디렉터, 프랭크 비츠 (Frank Vitz)는 말했습니다. "카메라는 자유롭게 움직일 수 있습니다. 합성 작업이 카메라에서 곧바로 진행되는 것을 볼 수 있죠. "
AR월 시스템을 사용하면 그린 스크린 촬영에 영향을 줄 수 있는 부작용도 더 이상 걱정할 필요가 없습니다. "그린 스크린의 반사광이 피사체에 비치는 그린 스필(Green Spill) 현상도, 머리카락과 관련된 문제도 발생하지 않습니다." 비츠는 말했습니다.
ARFX 시스템은 제작자가 사전에 녹화해 둔 배경 영상을 라이브 촬영 중인 배우 뒤의 스크린에 투사하는 리어 프로젝션(Rear Projection) 기술의 발전형입니다. 하지만 원래 이런 부류의 기술은 스크린에 수직적인 시야각에서만 지원되었으며, 그 외의 각도에서는 적용된 효과들이 바로 엉망이 되었죠.
그러나 ARFX 시스템을 사용하면 카메라는 어떤 각도로든 움직이고 촬영할 수 있으며, 완벽한 몰입형 영화제작 경험을 위해 핸드헬드 카메라를 들고 가상의 세트를 돌아다닐 수 있습니다. CG 배경 속 원근적인 요소들은 실시간으로 반응하여, 2D 투영의 한계도 존재하지 않습니다. 또한, 배우는 이제 배경을 보고 반응할 수 있으므로, 연기 수준을 향상시키는데 도움이 됩니다.




"현장에서 즉시 매끄럽게 합성을 해낼 수 있다는 점은 버추얼 프로덕션의 궁극적 목표나 다름없습니다." 비츠는 말했습니다. "버추얼 프로덕션의 툴킷에 또 다른 툴을 더해 줄 놀라운 신기술입니다."
배경에 실시간 업데이트를 적용하기 위해, ARFX는 카메라에 부착된 트래커와 함께 언리얼 엔진을 사용합니다. 또한 이 시스템은 언리얼 엔진에 라이팅 정보를 제공하기 위한 AMD의 어드밴스드 미디어 프레임워크(Advanced Media Framework, AMF)와 IRT 센서도 사용할 수 있습니다. Zcam 360 카메라는 언리얼 엔진이 실제 세트와 가상 세트 확장 간의 조명을 일치시키고, 라이팅의 변화에 실시간으로 반응하는 데 활용할 수 있는 라이팅 정보를 수집합니다. NAB에 표시된 시스템은 AMD 라이젠 스레드리퍼(Ryzen Threadripper)와 라데온 프로 WX 9100(Radeon Pro WX 9100) GPU 2대를 기반으로 구동됩니다.
"영화 제작자는 현실성와 충실도 면에서 가장 까다로운 제작자들입니다." AR월의 CEO인 르네 아마도르(Rene Amador)는 말했습니다. "우리는 AR월을 성공적으로 구현하기 위해서는, 촬영 현장의 엄격한 기준과 요구뿐만 아니라 무엇을 입력하든 처리해낼 수 있는 엔진이 필요하다는 것을 알고 있었습니다." 언리얼 엔진은 이런 요구 사항과 그 이상을 충족시켜 왔습니다. 매번 업데이트가 진행될 때마다 제작팀은 크리스마스 아침을 맞이하는 기분이 듭니다."
언리얼 엔진을 사용해보고 싶으신가요? 오늘 언리얼 스튜디오 베타에 가입하셔서 언리얼 엔진과 익스포트/임포트 툴, 학습 영상 등을 이용해 보세요!