2017년 11월 22일

'Morgan Lives in a Rocket House'의 VR 제작기

저자: Brian Rowe

언리얼 엔진은 다양한 분야의 창의적 작업에서 그 다재다능한 장점을 증명해 왔습니다. 애니메이션도 예외는 아니며, 2015년 에픽게임즈는 "소년과 연"을 공개하며 언리얼 엔진이 가진 애니메이션 툴로써의 위력을 보여주었습니다.

 이 단편 애니메이션을 본 독학 애니메이터 피터 몽거(Peter Monga)는 자신이 고전 스톱 모션 애니메이션으로부터 영감을 받아 구상중인 재미있고 다채로운 유아용 쇼, '모건 리브스 인 어 로켓 하우스(Morgan lives in a Rocket House)'를 독자 제작할 방법을 찾았다고 생각했습니다.

언리얼 엔진 4의 VR 성능에 매혹된 몽거는 최근 모건 리브스 인 어 로켓 하우스를 VR로 출시해, 자신의 쇼를 오큘러스 리프트(Oculus Rift) 및 HTC 바이브(HTC Vive)용 인터랙티브 경험으로 만들어 냈습니다. 우리는 몽거와의 인터뷰를 통해 이 프로젝트에 대해 더 자세히 알아보았습니다.

몽거 씨의 애니메이션 관련 경력에 대해 설명해 주시죠.

저는 뉴질랜드 오클랜드 출신의 독학 애니메이터입니다. 저는 2004년 뉴질렌드 워크워스에 위치한 작은 규모(당시에는 규모가 작았습니다)의 후후 스튜디오(Huhu Studios)에 첫 직장을 잡았습니다. 이 곳에서 저는 다양한 TV 및 오리지널 DVD 만화를 작업했으며, 그 중에서 가장 유명한 것은 베지 테일즈(Veggie Tales)입니다. 2010년에는 오클랜드로 다시 돌아와, 당시 니켈로디언(Nickelodeon)과 협업중이던 옥토버 애니메이션(Oktobor Animation)에서 일하기 시작했습니다. 저는 마다가스카의 펭귄(Penguins of Madagascar)이나 쿵푸 팬더: 전설의 마스터(Kung Fu Panda: Legends of Awesomeness) 등의 방송사 오리지널 프로젝트에서 디렉터를 맡았었습니다.

모건 리브스 인 어 로켓 하우스는 어떻게 영감을 받고 제작하셨습니까?

저는 언제나 웜블스(The Wombles), 포스트맨 팻(Postman Pat), 그리고 특히 핑구(Pingu)같은 고전 스톱모션 TV 쇼 같은 저만의 애니메이션 프로젝트를 만들고 싶었습니다. 또한 저는 소규모 팀(이나 저 혼자) 인원으로도 현재 유아들을 대상으로 방송중인 쇼들과 퀄리티에서 차이가 나지 않는 쇼를 디자인해서 제작하고 싶다는 생각이 있었습니다.

실제 컨셉을 구상하기 전에, 저는 아무 예산도 없이 어떻게 쇼를 만들 것인지 아이디어를 먼저 제시했습니다. 그래서 목표와 쇼의 아이디어 디자인을 제한하기 위한 규칙들을 먼저 확립했습니다.

자기 관리 규칙:

  • 손과 발을 만들지 않아서 애니메이션을 줄인다
  • 나레이션을 써서 립싱크도 없앤다
  • 느슨한 천이나 꼬리처럼 쓸데없이 덜렁거리는 애니메이션도 없앤다
  • 12fps 애니메이션으로 제작해 스톱 모션의 미학도 모사하고 폴리시 작업을 할 프레임 수도 줄인다.
  • 텍스처는 간단하게
  • 모든 스토리는 단 하나의 장소에서 이루어진다
  • 캐릭터의 캐스팅도 제한한다
  • 캐릭터가 등장하는 시간을 적게 유지한다(예: 각 샷마다 등장하는 캐릭터를 적게 유지한다)
  • 각 에피소드는 5분

770_MorganLivesInARocketHouse_MRH_04.jpg

저는 이런 규칙들에 맞는 아이디어들을 몇 페이지씩 써내려갔습니다. 그런 다음 이런 아이디어들을 기반으로 컨셉 시트를 그렸으며, 이것을 다시 줄여서 마침내 모건 리브스 인 어 로켓 하우스로 만들어 냈습니다.

모건은 그냥 대놓고 TV 쇼를 빠르게 제작하기 위한 규칙을 만들어 둔 다음 제작한 작품이라고 말할 수도 있습니다. 매정한 말처럼 들리긴 하지만, 사실 그게 제가 이 쇼를 제작하면서 진심으로 '의도했던' 것이기도 합니다.

제작하기가 쉬운 방식으로 쇼를 디자인하는 것 외에, 제작 속도를 더 올릴 수 있는 가능성을 가진 소프트웨어와 기술도 찾아보았습니다. 에픽게임즈가 공개한 "소년과 연"을 본 것도 이렇게 제작 수단을 찾던 시기였습니다. 그 단편 애니메이션의 시각적 충실도는 제가 목표로 하던 것 보다도 훨씬 높아서, 언리얼 엔진 4를 활용한 리얼타임 렌더링을 사용해야겠다고 결정했습니다.

770_MorganLivesInARocketHouse_MRH_08.jpg

언리얼 엔진 4는 워크플로우에 어떻게 도움을 주었습니까?

저는 언리얼 엔진 4를 사용해 보편적인 애니메이션 파이프라인의 셰이딩, 라이팅, 이펙트, 렌더링, 그리고 컴포지팅 단계를 대체합니다.

라이팅은 제가 각각의 새로운 에피소드마다 복제하는 "마스터" 맵에서 구워집니다. 저는 라이티이 모든 카메라 각도에서 작동하도록 디자인하려고 노력하지만, 가끔씩은 샷 별로 추가적인 라이트를 채워야 할 때도 있습니다. 이런 경우에는 그냥 다이내믹 라이트를 추가한 다음 다시 베이킹하는 것에 대해서는 신경쓰지 않습니다.

저는 시퀀서를 사용해 제 애니메이션 애셋을 언리얼 엔진 4로 가져온 다음, 다양한 소품, 캐릭터, 그리고 카메라로 각 씬을 구성했습니다. 저는 원래 마티네를 사용했지만 시퀀서가 훨씬 더 쉽습니다.

770_MorganLivesInARocketHouse_vr-unreal-1.jpg

포스트 프로세싱 이펙트는 보통 애프터 이펙트(After Effect)로 추가 작업을 해 외형을 얻습니다. 컬러 그레이딩, 비네트, 크로매틱 애버레이션, 블룸 등은 모두 엔진 내에서 작업이 가능합니다. 저는 아직도 캐릭터가 연필로 선을 그리는 등의 특정 효과를 낼 때는 애프터 이펙트로 작업합니다. 필요하다면 간단한 작업들은 언리얼 엔진 4로 작업할 수 있지만, 어떤 작업들은 그냥 애프터 이펙트로 작업하는 것이 더 빠릅니다.

저는 제 경력상 많은 이펙트를 사용하지는 않았지만, 언리얼 엔진의 캐스케이드 파티클 시스템이 배우기가 쉽다는 점은 알았습니다. 모건이 그렇게 이펙트가 많은 프로젝트는 아니지만 깡통이 물에 빠져서 물이 튀거나 반짝이는 폭발 같은 경우의 이펙트 작업은 해 보았으며, 이 두 경우 모두 굉장히 잘 완성이 되었습니다. 심지어 VR에서는 종이비행기로 이루어진 회오리 바람도 만들어냈습니다!

770_MorganLivesInARocketHouse_MRH_07.jpg

언리얼 엔진 4를 애니메이션 도구로 사용해 얻은 장점은 무엇이었습니까

언리얼 엔진을 사용하면서 얻을 수 있는 절대적인 주요 장점은 바로 시간 절약입니다. 전체 쇼의 라이팅, 렌더링과 컴포지팅을 약 3일 내에 끝낼 수 있습니다. 각 쇼는 대략 80개의 샷으로 이루어져 있으며, 옛날 방식의 제작 파이프라인으로는 80개의 샷을 3일 내로 라이팅, 렌더링 및 컴포지팅 할 수 있는 방법은 아예 없었습니다.

언리얼 엔진은 시간 외에도 머신도 아낄 수 있습니다. 머신 팜이 필요가 없기 때문에, 렌더 라이선스와 전력도 절약할 수 있습니다.

제가 원래 생각했던 더 높은 수준의 렌더링 이펙트는 비용이 엄두도 내지 못할 정도로 지나치게 비쌌지만, 비슷한 정도의 뎁스 오브 필드와 글로벌 일루미네이션, 높은 퀄리티의 앰비언트 오클루전, 리플렉션, 리프랙션 등을 언리얼 엔진으로도 쉽게 낼 수 있었습니다. 오프라인 렌더링을 사용했더라면 렌더링 시간을 줄이기 위해 이런 이펙트들에서 타협을 해야 했을 것입니다.

언리얼 엔진을 사용해서 얻는 또 다른 장점으로는 바로 빠른 이터레이션 횟수입니다. 변경이 필요하다 해도 샷 전체를 다시 렌더링할 필요가 없습니다. 예를 들어 카메라를 필드의 절반 정도 옆으로 틀어야 한다 해도 새로 렌더링을 하는 데 몇 시간씩 걸리는 것이 아니라 그냥 1분만 기다렸다가 다시 아웃풋만 하면 되는 것이니, 아무 망설임 없이 틀어줄 수 있습니다.

770_MorganLivesInARocketHouse_MRH_02.jpg

언리얼 엔진 4를 애니메이션 용으로 바꾸어 작업하는 과정을 어떻게 설명하시겠습니까?

언리얼 엔진 4으로 툴을 바꿔 애니메이션을 작업하는 것은 꽤 간단한 일이었습니다. 원래 마야를 사용했기 때문에, 언리얼 엔진의 인터페이스도 상당히 익숙했습니다. 이해하기도 굉장히 쉬웠습니다.

저는 언리얼 엔진을 배우기 위해 언리얼 엔진 문서를 처음부터 읽었으며, 유튜브(YouTube)의 언리얼 채널에 있는 "Getting Started with UE4" 비디오 튜토리얼을 따라해 보았습니다. 처음 시작할 때는 인터랙티브 경험을 제작할 게획이 없었지만, 언리얼 엔진의 모든 측면을 아는 것이 중요하겠다고 생각했습니다.

770_MorganLivesInARocketHouse_MRH_03.jpg

1인 프로젝트를 제작하면서, 프로젝트의 규모를 관리하는 구체적인 척도가 있었나요??

저는 스토리를 쓸 때 앞서 말씀드렸던 규칙에 더해 제 목표도 항상 염두에 두었습니다. 예를 들어 한 씬에는 너무 많은 캐릭터들이 들어가지 않도록 신경을 썼습니다. 한 화면에 더 많은 캐릭터가 들어갈수록 애니메이션 작업 시간도 길어지니까요. 하나의 씬 안에 다수의 캐릭터들이 존재한다면, 각 캐릭터마다 최대한 샷을 분할해 주려고 했습니다. 이러면 애니메이션은 줄이면서 씬은 더욱 실감나게 됩니다.

또한 저는 한 에피소드에서 너무 많은 새 소품들을 소개하지 않으려 했습니다. 에피소드 전에 필요한 프리 프로덕션 작업은 적을수록 좋으니까요.

이 쇼의 VR 에피소드를 제작하시게 된 동기는 무엇입니까?

저는 VR의 상당한 팬입니다. VR이 굉장히 재미있다고 생각하고, 제 애셋은 이미 상당수가 언리얼 엔진 4 안에 있으므로 한번 시도해볼 만 하겠다고 생각했습니다. 스토리텔링의 새로운 형태를 만든다거나 첨단 매체를 한번 사용해 보겠다는 거창한 계획이 있었던 것이 아니라, 그냥 재미있겠다고 생각했던 것 뿐입니다.

770_MorganLivesInARocketHouse_vr-screenshot-1.jpg

쇼를 VR로 전환하시면서 만났던 난관들에는 어떤 것이 있습니까?

제 모든 애셋들은 원래 평면의 고해상도 화면을 위한 것이었기 때문에 VR 게임용 퍼포먼스 목표((프레임당 11ms)를 맞추기 위해서는 애셋의 해상도를 수동으로 낮춰야겠다고 생각했었지만, 언리얼 엔진에 내장된 LOD 시스템은 기본적으로 이것을 아무런 문제도 되지 않도록 해 주었습니다. 모델의 LOD 구성과 텍스처의 최대 텍스처 사이즈 선택은 매우 간단하게 해줄 수 있는 것이었으며, 수동으로 작업했다면 몇 시간이 걸렸을 시간을 절약해 주었습니다.

에픽게임즈가 로보 리콜의 제작을 자세하게 설명한 다양한 영상 및 라이브 스트리밍 역시 최적화에 정말로 도움이 되었습니다. 포워드 렌더러, MSAA, 쿼드 오버드로우, 컴포짓 텍스처, 그리고 한 프레임에서 모든 것을 스폰하지 않는 것은 모두 제 프로젝트의 퍼포먼스를 높이는 데 도움이 되어 주었습니다.

770_MorganLivesInARocketHouse_vr-screenshot-3.jpg

VR 속 스토리텔링은 완전히 새로운 것이었습니다. 제 생각에는 영화 제작보다는 연극 제작에 더 가까운 것 같습니다. 컷을 나눈다는 효과를 누릴 수 없으면서 스토리를 짜는 것은 상당히 어려운 것이었습니다. 그냥 제가 보여주고 싶은 장면들만을 컷으로 나누어서 나열하는 것이 아니라, 제가 원하는 장면을 사용자도 보도록 유도할 수 있는 방법을 찾아야만 했습니다. 이런 유도 방법은 움직임의 대비(예를 들면 특정 오브젝트를 다른 오브젝트들보다 빠르게 움직여서, 사용자의 관심을 그 쪽 방향으로 유도하는 것입니다), 캐릭터가 바라보거나 가리키는 방향(사람들을 다른 사람들이 바라보거나 가리키는 방향 쪽을 보는 경향이 있습니다), 그리고 포지셔널 사운드로 해결할 수 있었습니다.

그래도 사용자가 잘못된 방향을 바라볼 가능성은 언제나 존재하지만, TV 시청자 역시 딴 곳을 바라볼 확률이 존재합니다. 그저 계속 사용자의 관심을 끌어서 다른 곳을 바라보고 싶지 않게만 하면 되도록 하는 문제입니다.

또한 3차원 공간에서 스토리보드를 짜는 좋은 방법을 도무지 생각해낼 수가 없었기 때문에, 스토리보드를 짜는 단계는 그냥 생략해버렸습니다. 대신 언리얼 엔진의 VR 에디터 상에서 원하는 액션을 대강 스케치해서, 캐릭터들을 어디에 배치해야 할지 대본 스타일의 계획을 짰습니다. 그런 다음 이런 계획을 기반으로 애니메이션 레이아웃을 구성했습니다.

770_MorganLivesInARocketHouse_vr-episode-gameplan.jpg

VR로 애니메이션 작업을 하는 것은 제가 전혀 예상하지 못했던 난관이었습니다. 저는 보통 12나 24fps로 애니메이션 제작을 하는 데 익숙한데, 바이브나 오큘러스 리프트에서 90fps 이하의 프레임은 모두 심각한 수준의 떨림 현상이 나타났습니다. 따라서 더 높은 프레임을 내기 위한 폴리시 작업을 해야 했습니다. 애니메이션 작업은 24fps로 끝내고, 폴리시 작업은 48fps, 그리고 굽기 작업을 끝냈을 때는 90fps를 낼 수 있었습니다. 지나고 나서 하는 이야기지만 애니메이션 작업을 30fps로 끝냈다면 기본 프레임이 90의 배수이니, 키를 조정해서 프레임을 맞추기가 훨씬 쉬웠을 것입니다.

또 다른 난관은 사용자가 언제든지 아무 캐릭터나 볼 수 있다는 점이었습니다. 일반적으로는 화면에 존재하지 않는 캐릭터는 애니메이션을 부여할 필요도 없지만, VR 속에서는 화면에 존재하지 않는 캐릭터가 없습니다. 즉 비슷한 길이의 애니메이션에서 예상할만한 작업보다 더 많은 양의 애니메이션 작업이 요구된다는 뜻입니다.

770_MorganLivesInARocketHouse_MRH_09.jpg

언리얼 엔진 4를 사용해 프로젝트를 제작하는 다른 애니메이터들에게 줄 수 있는 팁이 있으시다면?

일단 시도해보기 전에 먼저 엔진을 전체적으로 살펴보십시오. 오프라인-렌더링 애니메이션에서는 접하지 못했던 독특한 전문용어들(예를 들명 라이트맵 해상도, 스태틱 및 스테이셔너리 라이트, 캐스케이딩 섀도 맵, 라이트매스, 라이트매스 임포턴스 볼륨 등)은 먼저 배워두는 것이 좋습니다. 모든 정보는 언리얼 엔진 문서에서 찾아볼 수 있습니다. 엔진에 대해 전반적으로 알아두지 않으면 기피하고 싶은 마음이 들 수도 있지만, 일단 차이점을 알아두면 공통점을 알아보기가 더 쉬워집니다.

770_MorganLivesInARocketHouse_MRH_11.jpg

모건 리브스 인 어 로켓 하우스의 차기작은 무엇입니까?

곧 유튜브 채널 https://www.youtube.com/MorganlivesinaRocketHouse을 통해 더 많은 에피소드를 공개할 게획입니다. .

VR 에피소드는 스팀(Steam)에 올라와 있으며 지금까지의 반응은 굉장히 좋습니다. 충분한 인기만 모인다면 더 많은 에피소드를 만들어 DLC로 제공할 예정입니다.

사실 아직까지는 앞으로의 계획을 제대로 생각해본 적은 없지만, 어쩌면 앞으로 VR과 TV용 에피소드를 모두 방영해볼 수도 있겠습니다. 어쩌면 일반 에피소드에서는 보여주지 않았던 비밀을 VR 버전에서 더 많이 보여줄 수도 있겠죠.

제작 과정과 관련된 포스트를 게시하는 블로그도 운영하는 중입니다.