Ayant filmé sur pellicule un an plus tôt, nous avions déjà travaillé avec des boîtiers de synchronisation Arricam en envoyant un signal genlock à la caméra. L'absence de moniteur numérique en pleine résolution sur la caméra nous a obligés à être créatifs et très précis pour régler l'apparence des images sur le mur LED.
Pour y parvenir, nous avons appliqué le LUT des bobines de la série à une caméra Sony Venice et nous nous en sommes servis pour ajuster l'éclairage et les couleurs au moyen d'outils d'étalonnage des couleurs et d'OpenColorIO dans l'Unreal Engine. Nous avons mesuré la température des couleurs des scènes sur le volume LED et l'éclairage du plateau en premier plan avec un spectrophotomètre à chaque changement de lumière pour garantir la correspondance.
Comment l'Unreal Engine vous a-t-il aidés à procéder au repérage virtuel de Fallout ?
Sur Fallout, comme nos plateaux virtuels avaient été entièrement créés dans l'Unreal Engine, nous avons pu tirer parti de tous les outils de production virtuelle de l'UE tout au long du processus créatif, notamment les outils de repérage virtuel qui nous ont permis d'utiliser la VR pour effectuer des repérages techniques et faire une ébauche de l'action.
Grâce à ces outils, nous avons pu positionner précisément les caméras et les acteurs, et même filmer la prise en temps réel. Il ne nous restait alors plus qu'à enregistrer ces informations et à les réutiliser pour créer une carte de chaleur de l'environnement. Ainsi, nous avons pu identifier les zones des décors les plus importantes pour l'histoire et leur consacrer toute notre attention créative afin de peaufiner leur éclairage et de renforcer leur réalisme visuel.
Ces informations ont également facilité nos efforts d'optimisation un peu plus tard ; puisque nous savions dans quelle direction nous allions filmer, nous avons pu procéder à un découpage modulaire des scènes et masquer informatiquement les éléments de décor coûteux quand ils n'apparaissaient pas à l'écran.
L'équipe de visualisation, dirigée par Kalan Ray et Katherine Harris, a créé des versions 3D grandeur nature de tous les plateaux dans l'UE, même les éléments qui ne seraient utilisés qu'en version physique. De cette façon, lorsque les réalisateurs souhaitaient faire l'ébauche d'une scène, ils n'étaient pas limités aux ressources virtuelles. Ils pouvaient visualiser l'intégralité de la scène et composer des prises donnant des informations pertinentes à tous les services travaillant sur la série.
De la préproduction à la post-production, en passant par la production sur plateau, quel était votre flux de travail et comment avez-vous réussi à vous adapter et à rester flexibles dans vos options créatives ?
La préproduction a été consacrée à la planification et à la visualisation. Une fois les plateaux prêts à passer au volume, l'équipe de visualisation s'est mise au travail. Pendant que l'équipe créative, dirigée par Craig Barron, travaillait avec le service artistique et celui des effets visuels afin de déterminer précisément quelles seraient les dimensions de tel ou tel plateau, l'équipe de visualisation se penchait déjà sur les aspects visuels techniques de la série.
Pour bien comprendre la frontière entre l'image virtuelle et les créations sur plateau, il nous fallait travailler avec les dimensions réelles du décor. Nous avons donc créé un modèle grandeur nature de l'entrepôt de Bethpage, à Long Island, et y avons logé le mur LED dans ses véritables dimensions. Nous avons ainsi pu planifier les aspects créatifs de la série (les angles et objectifs qui "filmaient depuis le mur"), mais aussi déterminer où placer les points d'attache pour l'équipe des cascades, les projecteurs et même les bureaux des opérateurs Unreal.
Nous avons aussi eu la chance d'éviter quelques complications, par exemple, ce processus nous a révélé que les portes réelles étaient trop petites pour faire passer certaines pièces du Vertibird ! Tout le monde s'est réjoui de le découvrir suffisamment à l'avance pour y remédier.