Regard sur la table ronde Production virtuelle avec Arri et Fireframe

Par Margot Carvet, pour l’AFC

Pour sa première conférence de l’édition 2022 de Camerimage, Arri a convié le jeune studio de production Fireframe, spécialisé dans la production virtuelle. Partenaires, Arri et Fireframe ont développé ensemble pour la première fois un workflow pertinent, intégrant des stratégies dès le tournage pour maintenir une qualité et une fiabilité de l’image. A Rare Grand Alignment, de Cinqué Lee, photographié par John Christian Roselund, FNF, est le premier tournage réalisé entièrement grâce aux écrans LED du studio et bénéficiant de cette innovation.

A cette occasion, Arri a rassemblé un panel composé de David Bermbach et Andreas Oestreich, développeurs et chargés de projet pour Arri, d’Annemi Kuusela - responsable du département commercial – et de Markus Helminen - directeur technique - pour le studio Fireframe ; de John Christian Roselund, chef opérateur ; et modéré par David Levy pour Arri, pour partager un retour d’expérience sur ce tournage avec le public de Camerimage.

La conférence s’ouvre sur une présentation de la société Fireframe. Basée à Helsinki depuis deux ans, l’entreprise compte trois pôles :

- Le pôle Studio, qui accueille des tournages sur fond LED dans un studio spécialisé, dans tous les domaines (clips, publicités, mais aussi gaming, live, podcasts etc.).
- Le pôle Film, antenne spécialisée dans la production et la co-production de films intégrant de la production virtuelle.
- Le pôle Academy, dont la mission est de former des talents de la production virtuelle, afin d’anticiper les besoins de cette technologie naissante et en pleine expansion.

En plus d’accompagner les projets de plus en plus nombreux qui souhaitent profiter de la production virtuelle, la société investit continuellement dans la recherche et le développement, afin de faire évoluer cette technologie et ses outils. Ils intègrent les outils de Color Management d’Arri afin de s’assurer que les couleurs des écrans LED qu’enregistre la caméra soient identiques aux couleurs affichées sur les écrans. Travaillant en ACES, les techniciens spécialisés alignent les espaces de couleurs différents, entre celui de la caméra, ceux des écrans LED, ceux des moniteurs de retour image, etc. Arri promet d’ailleurs, pour l’Alexa 35, d’intégrer de nouveaux plugins dédiés à la production visuelle, qui rendront le processus encore plus simple. En assurant la présence continuelle d’un étalonneur sur le plateau, le chef opérateur peut travailler une correction précise des couleurs, directement sur les images des écrans LED, afin d’enregistrer en caméra des images intégrées au plus proche des intentions.

La technologie encore balbutiante fait face à de nombreux problèmes, notamment vis-à-vis de la qualité des écrans LED qui, pour l’instant, sont des écrans de télévision, et non des appareils spécialement conçus pour ce genre de production. L’IRC de ces équipements est encore très médiocre, et le chef opérateur présent pour évoquer son expérience de long métrage témoigne avoir commencé par faire retirer du studio Fireframe le plafond d’écrans LED destiné à l’éclairage, et l’avoir remplacé par des projecteurs à LED plus fins. Il décrit le film, qui se déroule à 95 % dans un téléphérique, comme destiné à être tourné sur murs de LED. Une grande partie de l’intrigue se déroule de nuit ou en lumière crépusculaire, et les comédiens sont des enfants. « Si nous avions tourné en décors réels, ça aurait été beaucoup de stress, avec toutes les séquences en heure bleue, et toute la logistique », explique-t-il. « Ça aurait aussi coûté trois fois plus cher ! », précise Annemi Kuusela. « Et avec les écrans LED, c’était mieux qu’en fond vert pour les enfants, car ils pouvaient voir directement ce qu’ils étaient censés voir par les fenêtres de la cabine. Et pour moi c’était beaucoup plus confortable, et ça a vraiment ajouté de la qualité au film : quand on peut faire du petit matin toute la journée, on a le temps d’être précis ! On a aussi utilisé une machine à fumée, et une machine à fumée lourde, pour donner l’impression qu’ils étaient au dessus des nuages. C’était amusant d’apporter des éléments réels ». Pour ce tournage, le directeur de la photo demande sur le plateau un grand écran de télévision, sur lequel il regarde les images, afin d’être sûr de repérer les détails qui trahiraient l’artifice. Il est calibré le plus précisément possible par les équipes du studio, et l’étalonneur est équipé d’un écran d’étalonnage plus précis. Pour pouvoir se consacrer à la lumière et à la gestion des écrans, le chef opérateur choisit de ne pas cadrer lui-même le film.


Les pelures sont évidemment tournées en amont du tournage, et sont ensuite retravaillées par les équipes de Fireframe afin d’y ajouter du contenu 3D. « Ce genre de tournage, ça revient à faire la postproduction en pré-production », commente John Christian Roselund. « Il faut être très bien préparé, car on ne peut pas dire "on verra en postproduction !" ». Markus Helminen complète : « On a appris que pour ce genre de tournage, la clé du succès, c’est la préparation. Ce sont des technologies naissantes, et on apprend encore tous un peu comment régler les problèmes de fréquence d’image, de synchronisation, etc. »

Sur la question de la profondeur de champ, les avis commencent à légèrement diverger dans le panel. Les concepteurs sont convaincus des possibilités du procédé, tandis que les artisans du film y voient des limites. « Techniquement, c’est possible d’agrandir la profondeur de champ, et de suivre les mouvements du follow-focus, mais pour le moment il vaut mieux éviter d’avoir le point sur l’écran. », explique Markus Helminen. John Christian Roselund précise : « C’est comme quand on travaille avec un Translight, il faut garder une certaine distance, et jouer avec le point. Le studio est un volume assez étroit, et nous n’avions pas beaucoup de recul pour maintenir les écrans dans le flou. J’ai donc réduit la profondeur de champ en tournant à pleine ouverture sur le grand capteur de l’Arri Mini LF, et j’ai choisi des optiques assez douces. La texture des fenêtres et le gel qui s’y formait nous ont aussi beaucoup aidés, et on a même pu faire des bascules de point. » David Bermbach complète : « Pour le moment, il y a conflit entre les pixels sur mur de LED et ceux de la caméra. Les écrans brillent, et on trahit l’artifice si on fait le point sur l’écran, surtout si l’axe de la caméra n’est pas perpendiculaire. Ce sera long avant que la technologie soit complètement au point, mais je suis certain qu’on y arrivera un jour. »

Le public de la conférence se montre curieux, et semble déjà envisager un usage de la technologie sur leurs prochains projets. Une question porte sur la possibilité d’utiliser la production virtuelle pour les retakes. A nouveau, les ingénieurs d’Arri et de Fireframe s’enthousiasment d’une idée si riche, tandis que John Christian Roselund temporise : « C’est quelque chose qu’il faut intégrer dans la production, car ça implique d’emporter les équipements de tournage des pelures sur tous les décors. Et je ne suis pas sûr que tous les décors puissent se prêter à ce genre de technologie. »
Un autre spectateur s’interroge quant à la flexibilité du procédé. Markus Helminen répond : « C’est tout à fait possible de faire du tracking, pour pouvoir remplacer la pelure. La caméra tourne en RAW, donc c’est transparent en terme de définition. »

De gauche à droite : David Levy, Annemi Kuusela, Markus Helminen, David Bermbach, John Christian Roselund. - Photo : Aleksander Urbanski
De gauche à droite : David Levy, Annemi Kuusela, Markus Helminen, David Bermbach, John Christian Roselund.
Photo : Aleksander Urbanski


Mais c’est certainement la dernière question qui est la plus intéressante et la plus surprenante pour le panel : « C’est une technologie formidable, mais avec toutes ses contraintes informatiques, est-ce que le tournage reste amusant ? Est-ce qu’on ne perd pas un peu de la magie du tournage, en s’encombrant d’une to-do-list si précise et pragmatique ? » Les réponses sont variées, mais toutes s’accordent à dire que le processus et son amélioration permanente se veulent des outils pour aider la créativité plutôt que pour la brider :
David Levy : « Il faut que ça amène de la liberté. C’est une technologie qui permet de faire toutes les scènes qu’on veut sans avoir a changer de décor. C’est au bénéfice du réalisateur. »
David Bermbach : « C’est comme conduire une voiture : au début quand on ne maîtrise pas bien la conduite, c’est très contraignant, mais dès qu’on devient à l’aise, on peut y prendre du plaisir. Si l’équipe travaille bien ensemble, et que les bases sont faites, on s’amuse. »
John Christian Roselund : « C’est un nouvel outil. Si on l’utilise intelligemment, il peut vraiment apporter quelque chose en plus au film. Les cinéastes arrivent sur le plateau avec derrière eux cent ans d’une certaine tradition dans la façon de faire des films, et ils se confrontent à l’équipe de Fireframe, qui a une autre culture, celle de l’informatique, du jeu-vidéo, des VFX, etc. Mais ça n’a pas d’importance, car on met toutes ces créativités et ces savoir-faire au service du film, avec le but qu’il soit bon et qu’il donne des émotions. Et ça à toujours été le but de toutes les nouvelles technologies dans la fabrication des films ».