The Weather Channel 이미지 제공

일일 생방송에 몰입형 혼합현실을 적용한 The Weather Channel의 신규 스튜디오

Andy Blondin
날씨 이야기는 우리 모두의 공통 관심사입니다. 최근 몇 년 동안 맹렬한 허리케인부터 기록적인 고온, 폭우로 인한 홍수, 재앙적인 대형 화재에 이르기까지, 날씨 이야기가 점점 더 화제에 오르는 것 같습니다.

더 웨더 채널(The Weather Channel) 방송국은 어언 40년 동안 미국 시청자에게 전문 일기예보 및 기상 분석을 전달해왔습니다. 최근 더 웨더 채널에서는 시청자에게 더 흥미롭고 유용한 방송을 제공하기 위해 새로운 방법을 추구하면서, 2018년 더 퓨처 그룹(The Future Group)과 손을 잡고 특별히 번개와 토네이도의 몰입형 혼합현실을 선보였고, 연말에는 폭풍 해일과 대형 산불의 몰입형 혼합현실을 방송으로 내보냈습니다.

이러한 일회성 방송은 엄청난 반향을 불러 일으켰습니다. 언론에서는 기사가 쏟아졌고 날씨의 위험성을 현실적으로 묘사한 능력은 엄청난 찬사를 받아 에미상까지 수상했습니다. 하지만 이러한 방송은 계획과 연출에 상당한 시간이 소요됐고, 언리얼 엔진의 리얼타임 렌더링을 사용하기는 했지만 생방송으로 진행되지는 않았습니다. 방송 몇 시간 전에 라이브로 녹화해서 테이프를 편집한 후 내보내는 방식을 사용했습니다. 

하지만 만약 더 웨더 채널에서 일기예보를 매일 몰입형 혼합현실(IMR) 방식의 생방송으로 내보낸다면 어떨까요? 2020년 6월 2일, 방송국에 정확히 이것을 목표로 한 새로운 IMR 기상 스튜디오가 탄생했습니다.
 
이 신규 스튜디오는 물리적 공간을 넓혀 절반은 물리적 공간으로, 나머지 절반은 가상 공간으로 사용할 수 있어 기상 캐스터는 두 공간을 자연스레 오갈 수 있습니다. 가상 공간으로 가는 경계에는 조정할 수 있는 유리 벽이 있습니다. 캐스터는 여기에서 벽 너머의 가상 환경에 나타나는 '바깥' 날씨를 보여줄 수 있으며, 가상 공간으로 걸어 들어갈 수도 있습니다. 
가상 환경은 그날의 주제에 따라 변합니다. 허리케인이 다가오면 해안 지역이 되고, 스키와 관련한 눈 소식을 전할 때는 산악 지역으로 변합니다. 이러한 환경을 스튜디오에 구현하기 위해 전국 주요 지역 50곳을 HDR 영상으로 촬영했습니다.
The Weather Channel 이미지 제공
더 웨더 채널의 기상 보도 디렉터 마이크 체스터필드(Mike Chesterfield)는 이렇게 말합니다. "이건 생생하게 이야기를 전달할 수 있게 해주는 엄청난 툴입니다. 시청자 분들이 저희 방송을 정말 높게 평가해 줍니다. 너무 현실적이라서 감정 이입이 확실히 되기 때문이죠."

스튜디오에서는 실시간 기상 데이터를 활용하여 3D 차트와 막대 그래프도 생성하며, 비, 구름, 태양, 번개 등의 3D MR 기상 요소를 일련의 애니메이션으로 제작하여 가상 도시의 일주일 날씨를 예보하기도 합니다. 버튼 클릭만으로 30미터짜리 모니터를 불러오거나, 말 그대로 전 세계 규모의 기상 시스템을 거대한 3D 가상 지구본을 통해 보여줄 수도 있습니다.
체스터필드는 말합니다. "미국 정보 통신 시스템에서 정말 실용적인 정규 가상 스튜디오를 만든 것은 이것이 처음입니다. 전례 없는 새로운 방식의 일기예보를 완전히 생방송으로 보여주고 있죠."
 

무대 뒷이야기: 기술 살펴보기

모든 생방송 요소를 가상 환경에 통합하는 일을 담당하는 방송국의 수석 테크니컬 아티스트 워렌 드론스(Warren Drones)가 전체 과정을 설명합니다.
The Weather Channel 이미지 제공
이 스튜디오의 파이프라인에서는 카메라와 녹색 화면 세트를 갖춘 전통적인 방송 시설과 더불어 제로 덴시티(Zero Density)의 언리얼 엔진 기반 방송 합성 시스템 리얼리티 엔진(Reality Engine)과 GPU에서 작동하는 세계 최초이자 유일한 리얼타임 이미지 기반 키어인 리얼리티 키어(Reality Keyer)를 함께 사용합니다. 이미지 기반 키잉은 크로마 키잉처럼 전체 배경을 단일 색상값으로 합성하는 게 아니라 캡처한 영상을 클린 플레이트와 비교하여 미묘한 투명 효과와 그림자를 연출합니다.

이동하는 카메라를 위해 클린 플레이트를 생성할 수 있도록 리얼리티 키어는 파노라마식 그린스크린 배경막을 가상 버전으로 만들어 배경을 연출하는 기능을 제공합니다. 물리적 그린스크린 세트의 캡처 이미지가 이 디지털 복제 버전에 매핑됩니다. 카메라의 추적 데이터(방송국에서는 모-시스(Mo-Sys) 시스템 사용)를 이 노드 속으로 전달해 시스템이 매 프레임마다 클린 플레이트를 생성할 수 있게 합니다.
가상 세트의 정적 요소는 상당 부분 이전 물리적 세트에서 가져왔습니다. 실제로 팀에서는 완벽하게 일치할 수 있도록 물리적 머티리얼을 스캔했습니다. 소품은 3ds Max에서 제작하여 FBX를 통해 언리얼 엔진에 가져옵니다. 환경 요소의 경우 방대한 고퀄리티 2D 및 3D 퀵셀 메가스캔 라이브러리를 사용하는데, 이 라이브러리는 현재 언리얼 엔진에서 모두 무료로 이용할 수 있습니다

VFX 아티스트는 언리얼 엔진의 나이아가라 VFX 시스템에서 비, 눈, 불, 물 등의 효과를 만듭니다. 애니메이션은 시퀀서 다중 트랙 비선형 에디터로 제작합니다. API로 임포트한 실시간 기상 데이터는 3D 차트와 그래프를 구현하는 데 사용되며, 비가 내리거나 태양이 구름 뒤에 가려지는 영상으로도 나타납니다. 
The Weather Channel 이미지 제공
팀에서는 블루프린트 비주얼 스크립팅 시스템을 광범위하게 사용하여 행동, 스크립트 로직과 트리거 이벤트를 작성합니다. 한 예로, 디렉터의 지시에 따라 생방송 도중에 클릭 한 번으로 전체 세트가 바뀐 적도 있습니다. 디렉터는 조명을 바꾸고 다른 생방송 영상으로 전환하고 새 위치로 화면을 넘기는 등의 작업을 모두 실시간으로 처리할 수 있습니다.

드론스의 말에 따르면, 가상 생방송 때문에 제작 양상이 바뀌었다고 합니다. 과거의 방송과 비교했을 때 최신 가상 콘텐츠 제작 방식이 더 어렵기는 하지만, 동시에 시청자를 확실히 사로잡는 즉각적인 효과가 나타납니다.  

드론스는 말합니다. "정보에 기반한 스토리텔링은 생방송 형식으로 진행하는 것이 제일 좋습니다. 아무래도 연기자가 최신 정보를 진짜 순간적으로 반응하는 방식으로 보여줘야 시청자에게 더 와닿겠죠. 가상 콘텐츠 녹화 방식은 그래픽이 좀 더 정돈된 느낌이 드는 반면, 실시간 스토리텔링 측면에서 제약이 생깁니다. 저희의 새로운 생방송 가상 스튜디오에서는 이러한 제약이 사라집니다."

드론스는 언리얼 엔진 5 발표 소식을 듣고 혼합현실 방송의 미래에 대해 더 많은 기대를 품고 있습니다.

드론스는 말합니다. "정말 감동했죠. 시간이 지날수록 개발과 3D 그래픽의 진입 장벽이 점차 없어지고 있는데, 개인적으로 이런 진입 장벽을 제거하는 데 있어 언리얼 엔진의 공이 가장 큰 것 같습니다. 언리얼 엔진 5 발표로 제 생각에 확신을 가졌습니다. 앞으로 더 많은 소식을 기대하겠습니다."  


언리얼 엔진으로 리얼타임 콘텐츠를 제작하는 방법을 더 알아보고 싶으신가요? 방송 & 라이브 이벤트 페이지를 확인해 보세요. 

    지금 언리얼 엔진을 받으세요!

    세계에서 가장 개방적이고 진보된 창작 툴을 받아보세요. 
    모든 기능과 무료 소스 코드 액세스를 제공하는 언리얼 엔진은 제작에 바로 사용할 수 있습니다.