Retour sur le workflow de la postproduction d’"Athéna" (HDR, ACES, 4K, Dolby Vision)

Par Margaux Cavret pour l’AFC
Le lundi 7 octobre 2022, l’AFC, accompagnée de Netflix, Arri et de Dolby Vision, organisait une rencontre autour de la fabrication du film Athéna, création originale Netflix, réalisée par Romain Gavras et photographiée par Matias Boucard, AFC. Autour de cette table ronde, on retrouve le chef opérateur, accompagné de son étalonneur, Mathieu Caplane, de Jérôme Brechet, Color Scientist chez Color, et de Karine Feuillard, Consultante en workflows pour Netflix. L’occasion de passer au crible les problématiques et singularités du workflow du film (ACES, HDR, 4K, Dolby Vision).

« L’une des premières choses qui m’a motivée à faire cette conférence », commence Matias Boucard, « c’était de dire qu’il y a un an, je ne savais pas faire un film en HDR, et j’ai appris grâce à ce tournage, et aux personnes qui m’accompagnaient dans sa création. C’était à la fois mon premier film en HDR, en ACES et en 4K. Et c’était également le cas de Romain Gavras, le réalisateur ».
Le film est tourné en HDR (High Dynamic Range, par opposition à SDR, Standard Dynamic Range), qui est une technologie employée majoritairement par les nouveaux écrans de télévision, permettant d’atteindre une luminosité de 1 000 nits. Pour comparaison, les salles de cinéma "traditionnelles" ne dépassent pas les 48 nits, et les salles équipées HDR, comme la salle du Pathé Beaugrenelle dans laquelle se tient la rencontre, atteignent quant à elles les 108 nits. Pour cela, elles utilisent deux projecteurs numériques simultanément.
Le film s’inscrit de plus dans un workflow en ACES, que Jérôme Bréchet décrit comme "un espace couleur créé par la SMPTE pour partager les images dans tous les départements de postproduction et garder le même rendu"’, puis utilise une masterisation Dolby Vision, afin de pouvoir se décliner sur tous les supports de visionnage pris en charge par Netflix (plus de 1 700 écrans différents !). « On va livrer le film au monde entier dans des technologies de diffusion qui vont être toutes différentes, comment garder au plus possible l’intégrité de notre travail ? », s’interrogeait Matias Boucard. « Il n’y a qu’un seul étalonnage, celui qu’on a fait ensemble. Mais on le voit dans ces conditions pour la dernière fois en salle d’étalonnage. Le Dolby m’a rassuré car ça permettait de garder l’intégrité, dans toutes les traductions de l’étalonnage en fonction des dynamiques, le film était là à chaque fois. » Mathieu Caplane complète : « On pouvait regarder le film sur un téléphone, sur un iPad, en 4K, en HD, compressé ou non, c’était fiable. L’ACES permet une continuité avec toutes les sorties possibles, et une fiabilité de l’image. S’habituer à ce workflow, c’est une étape, mais il y a un réel bénéfice sur toutes les déclinaisons ».

Malgré ce lexique inédit pour lui au moment de la pré-production, Matias Boucard s’empare de ces nouvelles technologies et en fait des soutiens à la narration et à l’esthétique du film. « Avec Romain Gavras, on ne voulait pas être dans les codes classiques, avec une notion documentaire comme dans Les Misérables, on voulait du spectacle. On a utilisé l’Alexa 65 avec son capteur composé de trois capteurs Super 35 juxtaposés, car on voulait tourner en très grand format. Ma focale la plus courte était un 30 mm, dont l’équivalent en Super 35 aurait été un 14 mm, mais qui n’aurait pas eu les mêmes rapports entre arrière-plan et avant-plan. Là, j’arrivais à avoir de la présence à l’avant-plan, et en même temps à avoir le haut des buildings. Le HDR a été proposé par la productrice et au début j’étais réticent car je confondais tourner en HDR et postproduire en HDR. Je pensais que ce serait compliqué avec les mouvements de caméra, les feux, etc. Mais l’Alexa, avec sa dynamique de 14 diaphs, avait déjà la technologie nécessaire pour tourner directement en HDR. On a fait des tests, et notamment pour les feux d’artifice colorés, on gardait la couleur, et ce peu importe l’exposition. Romain voulait que le film soit immersif, et je me demandais comment captiver un spectateur, qui allait le regarder sur un petit écran, dans une pièce éclairée, pour qu’il ait envie de rester sur sa chaise et de regarder. Je me suis rendu compte que le HDR était un outil pour amener du spectacle dans le petit écran. Ce que j’ai trouvé intéressant, c’est toute la profondeur, l’espace multidimensionnel. Il y a beaucoup plus de volume dans les fumées, ça ressemble presque à un rendu naturel. Et quand l’acteur est au milieu des feux d’artifice, ça devient dangereux et on est en immersion, au cœur de la révolte ».

Pour autant, le film se refuse à être un panorama des possibilités du HDR, et en fait un usage parcimonieux et intelligent, uniquement au service de la narration et de l’immersion. Mathieu Caplane explique : « En gros plan, surtout en 4K, il ne faut pas que le fond prenne le pas sur le visage et ses brillances. On a donc créé des looks qui permettaient de diminuer les hautes lumières quand on en n’avait pas besoin ». Les LUTs sont effectivement des outils indispensables pour ce type de workflow, car l’image brute ACES HDR est difficilement interprétable, ne ressemblant à rien de ce à quoi les chefs opérateurs peuvent être habitués. Matias Boucard rapporte, par exemple, avoir été surpris par des teintes vert-anis ou bleu électrique qu’il n’avait encore jamais vues. Le travail de l’étalonneur en amont du tournage est donc de le rassurer en réalisant des LUTs convertissant ces images brutes. « Ce n’est qu’un outil », commente Mathieu Caplane, « une base à partir de laquelle on peut créer ce qu’on veut ». Matias Boucard reste cependant critique vis-à-vis de son travail : « Si je devais le refaire, j’insisterais pour retravailler certaines couleurs, dans les fumées, dans les "chien et loup", je trouvais les couleurs trop blanches, il fallait les retrouver par la densité en étalonnage ».
De plus il n’existe pas encore de moniteur de plateau HDR. Cependant, une TV OLED est mise à la disposition de Matias Boucard dès le tournage, afin qu’il puisse re-visualiser ses rushes en 4K et en HDR. Il commente : « Très vite, pendant les essais, j’ai essayé d’avoir la dynamique dans l’œil, comme en pellicule. Grâce à la TV OLED, je pouvais m’entraîner tous les jours et me le remettre dans l’œil. J’étais meilleur à la fin du tournage qu’au début ! ».
D’ailleurs, sa comparaison avec la pellicule ne s’arrête pas là : « Les caméras digitales qu’on utilise aujourd’hui nous ont fait changer nos perceptions et nos façons de travailler sur les basses lumières. Mais avec le HDR on se met à retravailler sur les hautes lumières. On ne protège plus les blancs de la même façon. A partir du moment où je savais qu’au-dessus de 100 % il y en avait 10 fois plus que d’habitude, je me suis concentré sur le reste. C’est un questionnement technique qui m’a remis en question sur ma façon d’éclairer, qui a influencé le style du film, et mon style ».
Il poursuit : « Il fallait s’adapter au HDR et à la 4K, qui donnait un rendu de texture particulier. Ça a changé la façon de maquiller, ça a influencé le choix des optiques, et évidemment avec les plans-séquences il a fallu revoir la façon d’éclairer. D’habitude, en plan-séquence, on utilise des lumières dans le champ, mais là je ne pouvais presque pas utiliser cette méthode. Par exemple, dans la scène de nuit j’ai mis deux SkyPanels sur les buildings, mais la dynamique est tellement haute qu’on les distingue tous les deux, ça n’a jamais éclaté en une tâche de lumière. La brillance devient un événement, avec les feux d’artifices, les feux. Pour la scène de nuit avec les feux d’artifice, c’est là qu’on s’est vraiment rendu compte qu’il n’y avait aucun doute sur la HDR avec Romain. J’avais mis des SkyPanels de façon un peu stratégique, mais je savais que pour éclairer cette scène, il fallait surtout que je mise sur les feux d’artifice. Les assistants mise en scène m’ont beaucoup aidé, en plaçant les figurants qui pouvaient manipuler les feux d’artifice, avec la bonne couleur et la bonne direction. La deuxième partie de la scène a été très compliquée, parce que la caméra se déplace beaucoup. Dans ces cas-là, on cherchait les endroits qui n’étaient pas dans le champ, les toits, les balcons où on pouvait mettre des projecteurs. Ensuite, c’était un travail de coordination avec le chef électricien qui travaillait sur une table et éteignait et allumait au fur et à mesure du mouvement. J’avais prévu beaucoup de lumière en pré-light, mais en fait j’éteignais presque tout, ça m’obligeait à aller à l’essentiel et j’en suis content car ça a servi le film ».

Le montage est réalisé en SDR, mais à l’étalonnage évidemment, l’équipe retrouve les images HDR qui ont été tournées, afin d’étalonner directement en HDR. Le film a pourtant connu une petite exploitation en DCP, et l’équipe a pu retourner en étalonnage afin de produire la sortie P3 nécessaire. « On n’est pas repartis de zéro », précise Matias Boucard, « avec cet étalonnage, qui est celui qui a été projeté à Venise, on regagnait de la douceur, mais on perdait les feux et les feux d’artifice. En cinq jours, on a récupéré l’étalonnage. Mais si on avait étalonné directement pour le DCP l’étalonnage aurait peut-être été différent ».
Lors de l’étalonnage HDR, Matias Boucard prend le parti de se focaliser sur une TV standard, installée et calibrée dans le studio d’étalonnage, et de trouver l’image qui lui plaira sur cet écran-là, afin d’être au plus proche des conditions de visionnage de la plupart des spectateurs. « Le HDR changeait ma perception globale du contraste », raconte-t-il, « les noirs ont l’air beaucoup plus profonds, et sur la TV ça devenait un trou noir sans aucune matière. Ce n’est que de la perception, les noirs sont les mêmes, mais comme les blancs sont plus hauts, le sentiment de contraste est plus important. Donc on a travaillé une course de basse lumière pour avoir un rendu plus mat ».
La problématique de la 4K se pose également à l’étalonnage, comme le souligne Mathieu Caplane : « Très tôt, dès les premiers essais filmés avec l’acteur en situation, on s’est rendu compte que cette texture conjointe de la 4K et de la brillance pouvait être très intéressante pour certains plans. C’est un film particulier, où les personnages courent beaucoup, il y a peu de scènes posées, donc cette texture très dure, avec des brillances marquées, allait avec l’ambiance et la narration du film. Cette dureté, qu’on a quand même beaucoup atténuée par rapport à l’image de départ, nous a beaucoup servi pour la narration du film. Pourtant, sur Baselight, qui était notre logiciel d’étalonnage, mais sur tous les autres logiciels aussi, il y a énormément d’outils pour adoucir les textures, c’est le signe que personne n’est vraiment satisfait de ce rendu trop dur de la 4K ».
Matias Boucard conclut : « Je me dis que ça fait partie de la culture de l’image maintenant, on regarde les films comme ça, il y a déjà des TV en 8K ! La 4K change ma perception du motion blur, par exemple, dans la première séquence, je ne le sens pas comme d’habitude, il ne me plaît pas. Mais ça me donne l’impression que même si on n’a pas encore tout compris de la 4K et de la HDR (je ne sais pas encore si il faut filtrer avant, quel caméra utiliser et comment, etc.), il y a encore plein de choses à découvrir. Il faut en discuter car c’est un effort collectif de la production (ça prend plus de tests, plus d’étalonnage, etc), du chef décorateur, du HMC, du chef opérateur, etc. Il faut tous qu’on change un peu nos habitudes, mais ce sont des technologies qui créent du spectacle, sur les petits et grands écrans dans les salles dédiées ».

Vidéo de la conférence entière.


https://youtu.be/o9BrDAM7WN0