Coup de projecteur
24 avril 2025

Un studio de prise de vues réelles adopte complètement les images de synthèses pour son film de science-fiction Babiru

AnimationBabiruCinéma et télévisionFonctionnalitésMoCapPrévisSecond Tomorrow Studios
second-tomorrow-studio-logo.png
Second Tomorrow est un studio montréalais spécialisé dans la science-fiction pour le cinéma et la télévision. Piloté par sa directrice fondatrice Nguyen-Anh Nguyen, il a signé un nombre impressionnant de projets bourrés d'effets spéciaux en prise de vues réelles, tels que TEMPLE, HYPERLIGHT et AKIRA PROJECT. 
Que se passerait-il si l'humanité disparaissait, mais que les machines continuaient d'exister ? C'est la question que pose Babiru, le nouveau projet de Second Tomorrow.
 
Pour la bande-annonce de Babiru, le studio a bénéficié d'une subvention Epic MegaGrants afin de basculer complètement de la prise de vues réelles aux images de synthèse avec l'Unreal Engine. En collaboration avec le scénariste Philip Gelatt (Love, Death + Robots, Secret Level), l'équipe a produit une séquence captivante et visuellement impressionnante. Celle-ci a servi de preuve de concept pour le long métrage, que Nguyen-Anh Nguyen prévoit également de créer entièrement avec l'Unreal Engine.

Nous avons demandé à Nguyen-Anh Nguyen de nous parler de Babiru et de sa vision du futur de la réalisation de films.
D'où vous vient l'idée de créer Babiru ? 

Babiru est né d'une passion. J'adore l'art conceptuel impressionnant de Nivanh Chantara et de Fred Rambaud, les deux artistes conceptuels de l'univers de Babiru. 

Leur travail, qui s'étale sur près de dix ans, décrit un monde envoûtant et ancien. Le potentiel est immense pour une histoire de science-fiction immersive. Je les ai convaincus d'approfondir ces idées dans un long métrage. Pendant quelque temps, nous avons présenté l'idée d'un film en prise de vues réelles sous différentes formes. Mais après plusieurs refus dus à la nature ambitieuse du projet, nous nous sommes rendu compte que nous n'aboutirions à rien de façon traditionnelle. 

J'ai étudié la faisabilité du projet avec l'Unreal Engine, qui nous épargnait certaines concessions nécessaires avec la prise de vues réelles, et j'ai candidaté pour obtenir une subvention MegaGrant. 

La réponse d'Epic est tombée juste après le début du confinement. Nous avons réussi à former une équipe pour travailler à distance dans le monde entier quand tout était à l'arrêt. Nous avons eu de la chance, car nous avons pu exprimer toute notre créativité pendant cette période. 

La subvention nous a permis de faire appel à des artistes de grande renommée, afin de repousser les frontières du possible. Lors de cette étape, nous avons expérimenté pour atteindre le niveau de qualité que nous visions. L'Unreal Engine nous a permis de voir les choses en grand.
Characters in Babiru.
Courtesy of Second Tomorrow Studios
La richesse du style graphique de Babiru saute aux yeux. Quelle est l'origine de ce style ?

Lorsque je conceptualisais Babiru, j'avais envie d'un mélange de La Cité de dieu et District 9. Je voulais un rendu brut et délavé, comme une favela brésilienne sur laquelle toute la civilisation se serait effondrée.

Les contrastes sont forts dans Babiru. On passe de décors rouillés et délabrés à des environnements technologiques aux néons lumineux. On oscille entre le vaste monde abandonné et la lutte intime des personnages IA pour leur survie. 

L'Unreal Engine a été essentiel pour développer cette esthétique. L'éclairage en temps réel et Lumen nous ont permis d'expérimenter sur les lumières et les ombres de façon dynamique. Ainsi, nous avons travaillé sur les interactions entre l'obscurité et la lumière, qui définissent l'ambiance de Babiru aux inspirations cyberpunk. Par ailleurs, grâce à son puissant système de caméras, nous avons expérimenté pour créer rapidement les compositions cinématographiques et renforcer la narration visuelle.
Robot with teeth in Babiru.
Courtesy of Second Tomorrow Studios
Après vos travaux précédents avec de véritables acteurs, adopter des personnages en images de synthèse a dû représenter un grand bouleversement !

Effectivement. Au début, ce n'était pas simple de diriger les acteurs situés dans l'environnement de capture de mouvement de Beyond Capture Vancouver, à distance depuis Montréal. Peu à peu, ce mode de travail a permis un contrôle créatif complet sur les mouvements, le timing et même les déplacements de la caméra, sans les contraintes des décors physiques ou de la disponibilité des acteurs. Bien plus tard, nous avons exploité les animations capturées et les avons modifiées pour qu'elles correspondent parfaitement à nos scènes, sans avoir à planifier de nouvelles journées de prise de vues. Ce processus nous a aidés à respecter nos contraintes de temps et d'argent. 

L'Unreal Engine apporte de la fluidité à ce mode de travail, grâce au rendu en temps réel et aux outils d'animation. Nous pouvions visionner les scènes proches du résultat final pour itérer rapidement sur les animations, le réglage des lumières à la volée et le peaufinage des compositions directement dans le moteur, sans avoir à attendre un rendu chronophage. Enfin, nous avons bénéficié d'un flux de travail décentralisé, qui permet à des artistes du monde entier de contribuer en parallèle à plusieurs plans de la même scène, en même temps.
Characters explore Babiru.
Courtesy of Second Tomorrow Studios
Pourquoi avoir opté pour l'Unreal Engine en tant que principal moteur de rendu ?

Je joue aux jeux vidéo depuis toujours. Je me souviendrai toujours de Quake sur une vieille version de l'Unreal Engine, quand j'étais ado. J'étais captivée par les scènes cinématiques des jeux comme Wing Commander ou Call of Duty. Je me disais : "Je pourrais regarder tout un film comme ça." 

J'ai testé des moteurs de rendu traditionnels dans le cadre de projets antérieurs. Je les trouvais difficiles à maîtriser et ils ne proposaient pas de résultats en temps réel. En cas d'erreur ou pour toute modification mineure, regénérer le rendu d'une scène complexe pouvait prendre des heures, voire des jours. 

L'Unreal Engine propose un flux de travail en temps réel qui nous permet de visualiser et de peaufiner les plans instantanément. Les pipelines d'images de synthèse traditionnels sont loin de l'égaler.Nous pouvons travailler en temps réel sur une scène avec toutes ses textures, ses lumières et ses animations. Ainsi, nous prenons les décisions créatives plus rapidement. C'est également plus économique, car on obtient un réalisme visuel qui coûterait beaucoup plus cher en animation prérendue conventionnelle.

Mais c'est le caractère presque tout-en-un de l'UE qui m'a particulièrement convaincu. En effet, on peut gérer la prévis, l'animation, l'éclairage, le tournage et même le pixel final dans un seul logiciel. 

C'était révolutionnaire à l'époque où nous avons commencé à travailler sur Babiru. J'ai toujours aimé tester de nouvelles technologies pour repousser les limites et découvrir comment les exploiter afin de concrétiser des idées créatives qui seraient hors de portée dans une configuration plus classique.
Cityscape in Babiru.
Courtesy of Second Tomorrow Studios
Quelles fonctionnalités de l'Unreal Engine vous ont été particulièrement utiles dans le projet ?

Nous avons commencé le projet avec l'Unrel Engine 4.27. À la sortie de l'UE5, nous avons eu un peu peur de migrer et de détériorer le projet. Heureusement que nous avons sauté le pas !

Plusieurs fonctionnalités de l'Unreal Engine 5 ont changé la donne pour Babiru. L'éclairage global Lumen nous a permis d'obtenir des lumières réalistes et dynamiques pour améliorer l'ambiance du film et générer une expérience visuelle à la fois profonde, immersive et réaliste.

La géométrie virtualisée Nanite nous a permis d'exploiter les décors ultradétaillés qu'avaient créés Xavier Albert et mes amis de Ronin161, sans effet négatif sur les performances. Ce point était essentiel afin de densifier l'univers posthumain de Babiru. 

Le rendu en temps réel nous a permis de peaufiner les compositions, l'éclairage et les animations instantanément. Ainsi, le processus créatif s'est avéré plus fluide et efficace. 

Enfin, Sequencer propose, au sein même du moteur, un ensemble d'outils fiables pour l'édition cinématographique. Grâce à lui, nous avons défini les plans et expérimenté sur le rythme sans devoir recourir au rendu hors-ligne traditionnel. J'ai pris beaucoup de plaisir à travailler avec Dane Armour, notre opérateur de caméra virtuelle londonien. Avec lui, j'ai découvert de nouveaux points de vue sur les scènes que nous avions créées. 

Non seulement ces outils ont amélioré la qualité visuelle du projet, mais ils ont également contribué à l'agilité et à la rentabilité de la production.
Character in Babiru.
Courtesy of Second Tomorrow Studios
Outre l'Unreal Engine, quels autres logiciels ont un rôle important dans votre pipeline ?

Maya nous sert principalement à effectuer la modélisation, le squelettage, le reciblage et l'animation des personnages. Ensuite, nous importons les ressources dans l'Unreal Engine pour générer leur rendu en temps réel.

Dans notre centre de post-production, CineGround Media, nous avons utilisé les logiciels DaVinci Resolve et Fusion de Blackmagic. Ils ont été très utiles pour gérer la colorimétrie, les effets visuels finaux et la composition. Ainsi, nous avons peaufiné l'image du film après les rendus de l'UE, afin de leur apporter l'aspect d'un film plus traditionnel.

Le pipeline était plutôt itératif : nous pouvions faire des allers-retours entre l'UE et Maya pour corriger les animations et Resolve permettait de peaufiner l'image finale de façon souple.
Robot with sparks in Babiru.
Courtesy of Second Tomorrow Studios
Combien d'artistes ont œuvré sur Babiru ?

Près de 50 artistes ont travaillé sur Babiru, depuis l'Amérique du Nord, l'Europe et l'Australie. J'ai passé presque six mois à recruter les meilleurs artistes en ligne. Ça a été une véritable collaboration mondiale. Plus tard, les très talentueuses équipes de Mathematic Studios et Ronin161 nous ont rejoints. Leur contribution a été essentielle pour boucler le projet.

Les flux de travail en temps réel proposés par l'Unreal Engine ont beaucoup fluidifié notre travail collaboratif : les artistes voyaient les modifications instantanément, sans devoir attendre les rendus. Nous avons utilisé Perforce pour assurer le contrôle de version et la gestion efficace des ressources à travers de nombreux fuseaux horaires. Comme nous pouvions travailler sur les fichiers partagés du projet sur l'UE, l'équipe est restée très coordonnée, même lorsqu'elle travaillait de façon asynchrone.

Nous avons également utilisé Discord comme principal canal de communication, Dropbox pour partager des ressources et frame.io pour visualiser la progression du projet. Nous avions l'impression de former un mini studio piloté depuis Montréal. C'est la preuve que l'on peut réaliser de grandes choses avec les bons outils, une vision partagée et une connexion internet.
Debris in Babiru.
Courtesy of Second Tomorrow Studios
Où en est le développement de Babiru ?

Nous avons créé 16 minutes de film. Pour l'instant, nous avons diffusé une bande-annonce comme preuve de concept et pour montrer un aperçu du monde de Babiru. Notre prochaine étape est de le présenter à des producteurs et à des studios de cinéma afin d'obtenir un financement supplémentaire e frt faire de Babiru un véritable long métrage. 

La preuve de concept dévoile le potentiel visuel et narratif de cet univers. Nous recherchons activement des partenaires pour passer à la vitesse supérieure.
Destruction in Babiru.
Courtesy of Second Tomorrow Studios
Comment voyez-vous l'Unreal Engine dans la réalisation de films à l'avenir ?

L'Unreal Engine transforme totalement la façon de créer des films d'animation. Il nous a permis d'itérer plus rapidement, de prendre des décisions créatives en temps réel et de collaborer de façon décentralisée avec des artistes du monde entier. Les pipelines traditionnels ne permettent pas tout cela. 

Quand les cinéastes travaillent avec un décor en temps réel complètement abouti, ils peuvent se concentrer sur la narration et le design graphique, quand d'autres attendent les rendus. Grâce à l'UE, j'ai pu créer des plans inimaginables avec un mode de travail traditionnel. Babiru n'aurait jamais vu le jour sans cette technologie. Pour moi, cet outil change la donne pour les grands studios comme pour les indépendants. 

Aujourd'hui, la technologie permet à une nouvelle génération de créateurs de concrétiser des projets qui étaient hors d'atteinte il y a quelques années. Ils peuvent tester de nouvelles formes narratives hybrides.

Comment installer l'Unreal Engine ?

Instructions de téléchargement

Téléchargez le lanceur

Avant d'installer et d'exécuter l'Unreal Editor, vous devez télécharger et installer le lanceur Epic Games.

Installer le lanceur Epic Games

Une fois le lanceur téléchargé et installé, ouvrez-le et créez un compte ou connectez-vous à votre compte Epic Games.

Obtenez de l'aide ou relancez le téléchargement du lanceur Epic Games comme décrit dans l'étape 1.

Installez l'Unreal Engine

Connectez-vous, puis accédez à l'onglet Unreal Engine et cliquez sur le bouton Installer pour télécharger la version la plus récente.

Regarder la vidéo d'installation

Vous souhaitez installer l'Unreal Editor pour Fortnite ?

Mettez en place tout le nécessaire pour utiliser l'Unreal Editor pour Fortnite depuis le lanceur Epic Games.

Télécharger l'UEFN

Recevez des informations sur les innovations du secteur ainsi que les dernières ressources gratuites pour :

En transmettant vos informations, vous acceptez de recevoir des actualités, des enquêtes et des offres spéciales de la part d'Epic Games. Politique de confidentialité