Magnopus sublime la série Fallout d'Amazon avec une production virtuelle optimisée par l'Unreal Engine

Avec l'aimable autorisation de Magnopus/Kilter Films/Amazon MGM Studios
13 mai 2024
Depuis plus de dix ans, Magnopus est un studio créatif à l'avant-garde de la technologie qui crée des expériences de divertissement uniques. 

Qu'il s'agisse d'expériences en VR ou en AR immersives ou de production virtuelle (notamment les effets visuels intégrés à la caméra, le service artistique virtuel, l'opération de volumes LED), Magnopus, partenaire de service de l'Unreal Engine, a travaillé avec les plus grands réalisateurs et les plus grandes marques actuelles afin de repousser les limites de la technologie au service d'un contenu véritablement marquant. 

Récemment, le studio a travaillé en étroite collaboration avec les studios Kilter Films de Jonathan Nolan et Lisa Joy sur la production virtuelle de la série événement d'Amazon Prime Video, Fallout. Nous avons rencontré AJ Sciutto, directeur de la production virtuelle chez Magnopus, pour discuter du processus créatif et technique qui leur a permis de donner vie à ce monde dystopique, entre effets visuels intégrés à la caméra, flexibilité du temps réel offerte par l'Unreal Engine et association de la production virtuelle à des pellicules de 35 mm.
Quand l'Unreal Engine a-t-il rejoint l'arsenal de Magnopus ?

Nous créons des outils de production virtuelle dans et autour de l'UE depuis 2018, avant que commence le tournage de The Mandalorian. En collaboration avec l'équipe d'Epic, nous avons entrepris de créer une suite d'outils avancés qui permettrait aux créatifs d'entrer dans leurs mondes virtuels et de raconter des histoires fantastiques à travers leur objectif virtuel. Les effets visuels intégrés à la caméra sont l'un des outils que nous utilisons. Lorsqu'ils sont associés à la fabuleuse équipe d'ingénierie logicielle de Magnopus, il n'y a pas plus puissant que nDisplay et l'Unreal Engine pour afficher des images époustouflantes sur des murs LED.

Quand Magnopus a-t-elle été impliquée dans Fallout et quel rôle avez-vous joué dans la production virtuelle de la série ?

Nous avions collaboré avec Jonathan Nolan et l'équipe de Kilter Films sur un projet de R&D en 2020 et avions de nouveau travaillé ensemble fin 2021 sur la saison 4 de Westworld. C'est pendant la production de Westworld que nous avons commencé à discuter de Fallout. À l'époque, seul le pilote avait été écrit et notre rôle sur le projet était similaire à celui d'un responsable de service créatif. 

Nous avons contribué à optimiser la production virtuelle de l'ensemble de la série en apportant des solutions créatives et travaillé avec les réalisateurs pour décomposer les scripts en scènes et en environnements qui bénéficieraient le plus des effets visuels intégrés à la caméra. Nous nous sommes arrêtés sur quatre environnements : les scènes de la ferme et de la porte dans l'abri 33, le décor de la cafétéria dans l'abri 4 et la base de la République de Nouvelle Californie à l'intérieur de l'observatoire Griffith. Ensuite, tout ce qui se passait dans un Vertibird se prêtait particulièrement aux prises de vue LED.
À partir de là, nous avons travaillé avec Howard Cummings et Laura Ballinger, directrice artistique, pour déterminer quels éléments du décor fabriquer physiquement et lesquels créer virtuellement. Ces décisions auraient un impact conséquent sur l'éclairage et les effets visuels, alors nous avons utilisé les illustrations conceptuelles et les story-boards pour coordonner l'unification des deux mondes en délimitant précisément les transitions entre le virtuel et le matériel.

Une grande partie de la réflexion visait à déterminer où s'achevait le plateau matériel et où commençait le plateau virtuel. Par ailleurs, il nous fallait trouver où s'arrêtait le monde virtuel en 3D et où commençait la peinture sur cache. Nos experts en la matière, Frank Capezzuto III et Rocco Gioffre, ont mis au point des designs qui nous ont permis de tirer pleinement parti du mur LED lors des prises de vue panoramiques. En nous appuyant sur leur travail, nous avons pu recourir à un "proscenium couvert" qui se prête bien aux tournages avec des LED.
Quel a été le processus de création du volume LED pour Fallout ?

Nous avons commencé par aider à la conception initiale du volume LED. L'idée était de concevoir un plateau offrant aux réalisateurs les avantages d'un volume incurvé en matière d'éclairage et la flexibilité d'un mur rectiligne pour les discussions et les déplacements plus longs. 

La forme de U de notre plateau était la plus avantageuse, avec un mur LED mesurant finalement 22,8 m de large, 6,5 m de haut et 30,5 m de long. Après cela, le défi a été de trouver un plateau capable d'accueillir un volume de cette taille. Peu de plateaux étaient disponibles à l'époque. C'est là que Jeffrey Soderberg et Chris Cox de Manhattan Beach Studios (MBS) ont assuré. 

Ils ont travaillé avec nous et les gens de Fuse Technical Group, dirigés par Mitch Lathrop et Koby Kobylko, pour concevoir et construire un volume répondant aux besoins de la production. Il en a résulté un plateau LED modulable et flexible intégrant la technologie la plus avancée du marché, construite à Bethpage, Long Island.
Côté informatique, Fuse Technical Group a fait un travail remarquable en concevant la salle des serveurs et la distribution des données/vidéo du plateau. L'équipe a construit une salle de serveurs sur mesure à l'intérieur d'un conteneur de transport standard à Los Angeles avant de l'expédier à New York. Les 12 sorties 4K pour le mur LED principal et les six autres sorties 4K pour les différentes parois étaient toutes contenues dans cette salle de serveurs, ainsi que les six postes de travail des opérateurs du centre de contrôle qui étaient connectés à leurs boîtiers via la fibre. 

Pour les panneaux LED, nous avons utilisé des BP2 V2, des Brompton Tessera SX40 pour les processeurs et les systèmes RedSpy et Follower de Stype pour le suivi de la caméra et le suivi des objets respectivement. Notre équipe de mécatronique, dirigée par Fabian Flores, a conçu et imprimé en 3D les supports de montage pour les balises LED du système Follower des parois afin qu'elles agissent comme des surfaces de projection dynamiques pouvant être déplacées et reconfigurées en temps réel dans l'Unreal Engine.
L'équipe d'ingénierie, dirigée par Lily Pitts, Guillermo Quesada et Ross Rosewarne, a commandé le plateau post-construction et fait en sorte que tous les composants logiciels fonctionnent avec le matériel avant le premier tournage. Une fois le matériel en place, nous avons mis en œuvre un système de gestion de contenu afin de récupérer les mises à jour de VAD émises par des membres de l'équipe travaillant à distance et d'envoyer les images vers le mur LED. 

Nous avons utilisé l'UE et nDisplay pour le rendu de la scène et LiveLink pour coordonner les données de RedSpy dans le moteur en temps réel. Lors d'une prise, nous avons utilisé Take Recorder pour capturer les données de suivi et développé un logiciel personnalisé afin de les transformer en données USD et de les exporter facilement pour les équipes d'effets visuels supervisées par Jay Worth et Andrea Knoll. 

Quel a été le principal défi à relever pour vous dans la création de cette série ?

La principale difficulté a été de filmer sur pellicule. Le film photographique confère à la série cette esthétique si particulière en atténuant les détails, en accentuant le grain artistique et en créant une séparation entre les différentes couches de ces terres désolées. L'atmosphère de la série aurait été différente si elle avait été tournée en numérique. La question n'a donc jamais été si nous filmerions sur pellicule dans le volume, mais comment nous le ferions.
Ayant filmé sur pellicule un an plus tôt, nous avions déjà travaillé avec des boîtiers de synchronisation Arricam en envoyant un signal genlock à la caméra. L'absence de moniteur numérique en pleine résolution sur la caméra nous a obligés à être créatifs et très précis pour régler l'apparence des images sur le mur LED. 

Pour y parvenir, nous avons appliqué le LUT des bobines de la série à une caméra Sony Venice et nous nous en sommes servis pour ajuster l'éclairage et les couleurs au moyen d'outils d'étalonnage des couleurs et d'OpenColorIO dans l'Unreal Engine. Nous avons mesuré la température des couleurs des scènes sur le volume LED et l'éclairage du plateau en premier plan avec un spectrophotomètre à chaque changement de lumière pour garantir la correspondance. 

Comment l'Unreal Engine vous a-t-il aidés à procéder au repérage virtuel de Fallout ?

Sur Fallout, comme nos plateaux virtuels avaient été entièrement créés dans l'Unreal Engine, nous avons pu tirer parti de tous les outils de production virtuelle de l'UE tout au long du processus créatif, notamment les outils de repérage virtuel qui nous ont permis d'utiliser la VR pour effectuer des repérages techniques et faire une ébauche de l'action. 

Grâce à ces outils, nous avons pu positionner précisément les caméras et les acteurs, et même filmer la prise en temps réel. Il ne nous restait alors plus qu'à enregistrer ces informations et à les réutiliser pour créer une carte de chaleur de l'environnement. Ainsi, nous avons pu identifier les zones des décors les plus importantes pour l'histoire et leur consacrer toute notre attention créative afin de peaufiner leur éclairage et de renforcer leur réalisme visuel. 

Ces informations ont également facilité nos efforts d'optimisation un peu plus tard ; puisque nous savions dans quelle direction nous allions filmer, nous avons pu procéder à un découpage modulaire des scènes et masquer informatiquement les éléments de décor coûteux quand ils n'apparaissaient pas à l'écran.

L'équipe de visualisation, dirigée par Kalan Ray et Katherine Harris, a créé des versions 3D grandeur nature de tous les plateaux dans l'UE, même les éléments qui ne seraient utilisés qu'en version physique. De cette façon, lorsque les réalisateurs souhaitaient faire l'ébauche d'une scène, ils n'étaient pas limités aux ressources virtuelles. Ils pouvaient visualiser l'intégralité de la scène et composer des prises donnant des informations pertinentes à tous les services travaillant sur la série.

De la préproduction à la post-production, en passant par la production sur plateau, quel était votre flux de travail et comment avez-vous réussi à vous adapter et à rester flexibles dans vos options créatives ?

La préproduction a été consacrée à la planification et à la visualisation. Une fois les plateaux prêts à passer au volume, l'équipe de visualisation s'est mise au travail. Pendant que l'équipe créative, dirigée par Craig Barron, travaillait avec le service artistique et celui des effets visuels afin de déterminer précisément quelles seraient les dimensions de tel ou tel plateau, l'équipe de visualisation se penchait déjà sur les aspects visuels techniques de la série.

Pour bien comprendre la frontière entre l'image virtuelle et les créations sur plateau, il nous fallait travailler avec les dimensions réelles du décor. Nous avons donc créé un modèle grandeur nature de l'entrepôt de Bethpage, à Long Island, et y avons logé le mur LED dans ses véritables dimensions. Nous avons ainsi pu planifier les aspects créatifs de la série (les angles et objectifs qui "filmaient depuis le mur"), mais aussi déterminer où placer les points d'attache pour l'équipe des cascades, les projecteurs et même les bureaux des opérateurs Unreal. 

Nous avons aussi eu la chance d'éviter quelques complications, par exemple, ce processus nous a révélé que les portes réelles étaient trop petites pour faire passer certaines pièces du Vertibird ! Tout le monde s'est réjoui de le découvrir suffisamment à l'avance pour y remédier.
Au moment d'aborder le travail de visualisation créative, les superviseurs de la production virtuelle Kathryn Brillhart et Kalan Ray ont travaillé avec les réalisateurs de chaque épisode pour visualiser l'ébauche de certaines scènes plus complexes. Kat Harris, la responsable de la production virtuelle, a défini l'ébauche initiale et intégré les systèmes multiutilisateurs pour permettre aux metteurs en scène de s'immerger aux côtés des animateurs et de déplacer des éléments en temps réel. C'est également ainsi que nous avons visualisé le plateau de Filly, même s'il n'était pas destiné au volume, afin de faciliter la planification de certaines journées de tournage à la logistique plus complexe.

Nous avons travaillé avec les réalisateurs d'épisodes Wayne Yip, Clare Kilner et Fredrick E.O. Toye pour faire l'ébauche de segments de la base de la République de Nouvelle Californie à l'observatoire Griffith et du réfectoire de l'abri 4 afin d'obtenir un contexte spatial pour ce qu'ils allaient filmer. Pour maximiser l'efficacité du volume LED, nous devions visualiser des scènes qu'on ne voit pas d'habitude dans une phase de prévisualisation, comme des scènes de dialogues, pour nous assurer de bien cadrer les éléments fantastiques de l'histoire. Lucy et Maximus ne mangent pas simplement à une table de pique-nique, ils sont à l'intérieur d'un gigantesque abri nucléaire souterrain ; l'imagerie devait soutenir ce postulat narratif.

Lors des journées de production dans le volume, les producteurs sur plateau Billy Bonifeld et Devon Hubner veillaient à ce que nous collaborions étroitement avec chaque équipe présente. Pendant que nous envoyions l'éclairage DMX d'Unreal vers plus de 150 projecteurs Skypanel Arri sur le plateau, notre technologue créatif Addison Herr générait et intégrait la lumière obtenue avec l'opérateur du tableau des gradateurs dans l'équipe de l'éclairagiste. 

Nous avions de grandes parois mobiles à LED entièrement articulées pour combler les éventuels trous dans le volume lorsque nous tournions à des angles extrêmes. Fabian Flores, notre ingénieur en mécatronique de production virtuelle, et Julio Salcedo, notre ingénieur en matériel de production virtuelle, ont collaboré avec les machinistes pour définir comment et où déployer cet équipement en garantissant la sécurité de tous. Nous avons également travaillé avec les équipes de construction pour nous assurer que le plexiglas utilisé dans le cockpit du Vertibird ne créerait pas de distorsion ou d'artefacts lorsqu'il serait filmé face à un contenu émissif.

Nous avons travaillé en étroite collaboration avec le service artistique et ceux des effets visuels et de l'éclairage pour garantir le plus haut degré de réalisme à nos environnements. Après avoir examiné le contenu sur le mur LED avec nos artistes VAD sur le plateau (Sarah Hudson Semple, Sidney Olluyn, Tony Kwok, Kellie Brewart, Liesbet Segaert, Hugh D. McCullom et Lisa Barber), les responsables de la production virtuelle Gabriel Blake et Andrés Martinez ont coordonné des révisions de contenu avec les chefs de service et les responsables artistiques, des effets visuels et de l'éclairage pour s'assurer que tout le monde était raccord sur l'avancée des décors et déterminer les points requérant de l'aide pour garantir un réalisme maximal.
Chaque équipe a grandement contribué aux images finales affichées sur le mur, les effets visuels partageant les données Lidar et de numérisation d'éléments de décor, d'environnements et de ressources. Ann Bartek (directrice artistique chargée des plateaux dans le volume) a fourni les matériaux, les couleurs et les textures utilisés dans les décors physiques afin que les décors virtuels leur correspondent.

Les jours de tournage, les superviseurs de production virtuelle se coordonnaient avec les réalisateurs des épisodes afin de préparer le mur LED pour filmer dans une direction donnée. Une fois les caméras réglées et suivies, les opérateurs de l'UE aidaient à déterminer quelle perspective prévaudrait lors du rendu sur le mur et travaillaient avec le service des caméras pour trouver des angles qui minimiseraient les chevauchements de frustum tout en maximisant la fidélité du suivi. 

Par exemple, nous avons collaboré avec l'opérateur de la Steadicam afin de trouver une position de montage du dispositif de suivi qui n'interfère pas avec la prise de vue, tout en nous assurant que les données entrantes seraient nettes et précises. Berto Mora et la super équipe d'Unreal chez All Of It Now ont été intégrés aux services des caméras et des machinistes afin de résoudre ces problèmes au fur et à mesure qu'ils se présenteraient.

Notre éclairagiste virtuel, Devon Mathis, a également travaillé avec le directeur de la photographie assigné au volume, Bruce McCleery, ainsi qu'avec les directeurs de la photographie des épisodes pour ajuster les valeurs de Nits, la balance des blancs et les valeurs chromatiques des LED à des fins d'homogénéité avec le reste de la scène, plan par plan. Ce processus s'appuyait sur le travail effectué lors de la phase de préproduction par notre équipe d'éclairage, qui avait utilisé l'UE pour visualiser chaque configuration d'éclairage dans chaque environnement et planifié des transitions d'éclairage en direct.

Quel avantage y avait-il à disposer d'un directeur de la photographie assigné au volume en plus du directeur de la photographie de chaque épisode ?

Bruce McCleery était notre directeur de la photographie assigné au volume pour les effets visuels intégrés à la caméra sur les plateaux de l'abri 4, de l'observatoire Griffith et du Vertibird. Disposer d'un directeur de la photographie aussi talentueux et impliqué pour nous aider à régler le contenu avant et après les journées de pré-éclairage, travailler avec notre éclairagiste virtuel Devon Mathis et piloter la production a été une expérience extrêmement positive qui s'est traduite par de superbes résultats. Nous recommandons d'avoir recours à un directeur de la photographie assigné au volume dédié pour toutes les grandes productions d'effets visuels intégrés à la caméra à l'avenir, en particulier pour les œuvres épisodiques dont les plannings peuvent être plus intenses et les équipes et directions plus variées.
Nous avons également eu la chance de bénéficier du soutien de l'incroyable productrice Margot Lulick sur la deuxième moitié des épisodes. Elle a veillé à ce que les sections du tournage utilisant les LED reçoivent l'attention qu'elles méritaient. Les effets visuels intégrés à la caméra étaient quelque chose de nouveau pour la majorité de l'équipe de production, mais Margot et son équipe ont pris le temps de se familiariser avec le processus pour s'assurer que nous tirions pleinement parti du volume, d'un point de vue créatif, et que nous tournions de façon efficace dans ce cadre.

En quoi le volume LED joue-t-il un rôle unique dans cette série, que ce soit en tant qu'outil pour les effets visuels ou en tant qu'élément narratif ?

L'histoire se prêtait à la technologie du volume LED, car dans la série, un projecteur Telesonic simule le paysage d'un champ de maïs du Nebraska dans l'abri. Le volume LED est donc utilisé à la fois comme outil technique et comme élément narratif. Cela a permis à Jonathan Nolan et à la direction de la série de jouer avec l'idée de changer l'heure de la journée au milieu du plan.
Pendant la scène du mariage dans le champ de maïs, une réplique du superviseur évoque le passage du crépuscule à la nuit, et la lune se lève au milieu du plan. Nous avons aussi pu jouer avec de magnifiques éléments d'effets sur le mur pendant la bataille entre l'abri 33 et les habitants de la surface. Quand les projecteurs sont atteints par des tirs, notre équipe Houdini, Justin Dykhouse et Daniel Naulin, a créé un effet de pellicule brûlée qui finit par envahir tout l'écran. 

Nous avons enregistré des références de pellicules qui brûlent et mené des recherches en ligne sur les types de pellicules utilisés dans les années 50 et la façon dont elles brûlaient afin de créer un effet saisissant qui s'étendrait progressivement aux trois murs de l'abri. En créant cet effet, nous avons réalisé que les besoins d'un environnement sur plateau étaient les mêmes que ceux d'un jeu vidéo : nous voulions que la transition d'un état à un autre se produise à un moment prédéterminé, mais flexible d'un point de vue créatif. 

De cette façon, la production n'était pas contrainte par le timing strict d'un effet linéaire. Elle pouvait réagir à un signal dans le jeu de l'acteur, un avantage unique que nous avons gagné en travaillant dans l'UE.
En quoi travailler en 3D en temps réel était-il essentiel à votre travail sur cette production ?

L'UE nous a offert de la flexibilité, ce qui a permis à l'équipe de modifier de manière créative le plateau pendant la phase de préproduction. Ayant déjà travaillé avec cette équipe de production, nous savions qu'il nous faudrait être flexibles sur le plateau et pouvoir modifier l'éclairage ou la scénographie à la dernière minute si nécessaire. 

En fait, alors que nous filmions le plateau de la porte de l'abri, l'équipe a eu l'idée d'allumer les lumières pendant le plan où Lucy sortait de l'ascenseur pour "dévoiler l'environnement". Notre responsable VAD Devon Mathis et notre superviseur Look development/éclairage Jeremy Vickery ont rapidement intégré une solution dans un nouveau niveau avant le déjeuner et chargé celui-ci sur le plateau afin qu'il puisse être utilisé pour filmer le plan d'ouverture de la scène, avec un changement d'éclairage dynamique au milieu. Cela n'aurait pas été possible avec du contenu prérendu.
Au dernier jour de tournage, la production nous a proposé de filmer le teaser post-générique de l'épisode final. Nous avons rapidement créé un niveau simple en utilisant l'Environment Light Mixer pour éclairer et filmer le superviseur Hank qui parcourt le désert équipé de son armure. Grâce à la flexibilité du système, nous avons pu générer la scène et la charger sur le mur en moins de dix minutes.

Quel rôle l'Unreal Engine a-t-il joué dans la planification et la programmation des journées de tournage ?

Avant un tournage, nous procédions à autant de journées de pré-éclairage que le permettait le planning. Durant ces journées, nous réglions l'affichage du mur LED en fonction de l'éclairage du plateau et tournions le résultat avec la caméra et les bobines utilisées pour la série. Nous délimitions ces tests avec l'exposition de la caméra ainsi que les outils d'exposition manuelle de l'UE. 

Le résultat de ces essais nous permettait de mesurer à quel point notre caméra numérique de référence divergeait de nos bobines et de déterminer les ajustements nécessaires pour que l'image reste impeccable, quelles que soient les conditions d'éclairage. Pour ce genre de travail, l'utilisation de Lumen dans l'Unreal Engine nous permettait de disposer de l'éclairage virtuel comme de l'éclairage matériel sur le plateau. Ce qui aurait normalement requis plusieurs niveaux avec différents éclairages prégénérés pouvait ainsi être géré en temps réel.

Par ailleurs, disposer de décors modifiables en temps réel permettait aux metteurs en scène de prendre des décisions créatives sur le cadrage, l'éclairage et l'ébauche de l'action très tôt au cours du développement. Ils ont également permis aux DA de programmer des journées de tournage en visualisant comment les équipements volumineux entreraient et prendraient place sur le plateau.

La ferme de l'abri 33 dans le champ de maïs a été conçue de manière symétrique afin de pouvoir tourner dans la direction opposée en n'ayant que quelques éléments de décor à déplacer. Nous avons fait pivoter virtuellement le décor à 180 degrés pour filmer vers l'intérieur de l'abri. Durant toute la phase de production avec le mur LED, nous avions un temps d'opérabilité de 99%, avec un seul retard de 9 minutes à déplorer. Les directeurs de la série et les DA pouvaient ainsi programmer un rythme de tournage intense dans le volume en toute confiance, en sachant que les équipes de Magnopus, Fuse et All of it Now (des partenaires de service de l'Unreal Engine) seraient en mesure de le tenir.

Quelle était la taille de l'équipe de Magnopus engagée sur ce projet et combien d'artistes travaillaient dans l'Unreal Engine ?

L'équipe de Magnopus comptait 37 personnes pendant toute la production de la saison. 19 artistes ont créé les décors virtuels et 7 opérateurs étaient en charge du système Unreal nDisplay sur le mur LED, de l'intégration du suivi de la caméra et de la programmation des données DMX pour les systèmes d'éclairage. Le reste de l'équipe était constitué d'ingénieurs logiciels, de la direction créative et de la supervision de la production. Tous travaillaient dans l'UE.
Y a-t-il des fonctionnalités de l'Unreal Engine qui vous ont particulièrement aidés à réaliser la série ?

C'est Lumen qui a été la fonctionnalité de l'UE la plus essentielle à la réalisation de Fallout. Nous avons constaté une baisse significative des temps morts sur le plateau après avoir délaissé l'éclairage prédéterminé. Cela nous a permis d'itérer sur les changements d'éclairage en temps réel avec le directeur de la photographie, ce qui a accru l'efficacité de nos révisions créatives.

Découvrez l'Unreal Engine pour le cinéma et de la télévision

Créez des personnages convaincants. Racontez des histoires inédites. Ou laissez le public explorer librement un nouveau monde. L'Unreal Engine vous donne un contrôle créatif sans précédent sur l'intégralité de votre processus de production.

Articles similaires


Indépendants

Fab, le nouveau marché du contenu unifié d'Epic, fait son lancement aujourd'hui !

Aujourd'hui, Epic lance Fab, une destination unique où vous pourrez découvrir, acheter, vendre et partager des ressources numériques. Ce nouveau marché soutient tous types de créateurs avec du contenu utilisable dans l'Unreal Engine, Unity 3D, l'UEFN et d'autres outils de création numérique.

Cinéma et télévision

Découvrez les grandes annonces de l'Unreal Fest Seattle 2024

Revivez les annonces d'Epic Games à l'Unreal Fest Seattle 2024 pour découvrir la réduction du taux de redevance de l'Unreal Engine avec l'Epic Games Store, les nouvelles fonctionnalités de l'UE5.5, l'arrivée des Tortues Ninja dans l'UEFN et bien plus encore.

Indépendants

Epic for Indies, disponible sur la communauté de développeurs Epic

Votre petite équipe a de grandes ambitions ? Nous lançons un espace dédié aux développeurs indépendants, où vous allez pouvoir rencontrer vos pairs, suivre l'actualité et les événements ainsi que trouver et partager des ressources d'apprentissage.