Un Génie pour Tonton Guillon
Par François Reumont pour l’AFCIl y développe aussi son système de Préviz On Set, avec pour but d’atteindre à terme le concept de VFX On Set. Un système qui, selon ses dires, s’appliquera plus en France sur le marché de la télévision que du cinéma (lié à la nécessité de travailler en studio et à la récurrence des effets). Il est également en plein travail sur un film ultra ultra haute définition (24K) destiné à être projeté et intégré à l’architecture même d’un grand musée en construction à l’étranger.
Preuve de l’importance de son travail et de son expertise de créateur d’images, le Paris Images Digital Summit s’apprête à lui remettre un "Genie d’honneur", aux cotés de Phil Tippett - immense légende des effets d’animation sur Star Wars et Robocop. (FR)
Quel bilan tirez-vous de toutes ces années passées à faire des trucages ?
Christian Guillon : Nous avons passé notre temps à scier les branches sur lesquelles nous étions assis. Les films étant des prototypes, nous avons vécu trente ans d’hybridation d’une filière en constante évolution. Résultat : nous avons dépensé énormément d’énergie à inventer sans cesse des procédures qui se retrouvaient obsolètes quelques années plus tard.
Une autre leçon est que, finalement, une part importante de ce qui constitue notre activité est progressivement digérée par les autres départements (montage, étalonnage, déco, image...).
C’est un soulagement pour nous. Petit à petit, les "effets spéciaux invisibles" se dissolvent dans le processus global de production. Pour moi, cela confirme que les effets spéciaux sont consubstantiels au cinéma, que le cinéma a toujours été une sorte d’effet spécial.
Qu’est-ce que le numérique a profondément changé pour vous ?
CG : Depuis que le numérique s’est imposé sur l’intégralité de la chaîne, les choses se sont considérablement simplifiées pour nous. Ne plus se préoccuper de faire passer les images d’un support à l’autre est un énorme soulagement.
C’est un peu comme pour la transition de l’homme de Neandertal à l’Homo sapiens... Neandertal évolue tranquillement dans les limites de ses capacités. C’est un très bon chasseur-cueilleur qui fait du feu et taille du silex, mais qui, malgré son gros cerveau, n’aurait sans doute pas inventé la fission nucléaire ou la mayonnaise. Arrive Sapiens. Ils cohabitent pendant une période. Ont-ils pu s’accoupler et se reproduire ?
Pour l’argentique et le numérique, cela a été longtemps impossible, chacun restait bloqué sur son support. Finalement le scanner est inventé, l’hybridation commence. Nous avons tous environ 2 % de gènes de Neandertal, mais seul Sapiens est resté, il a fait passer brutalement un cran à l’évolution. Pour le numérique cela s’appelle une technologie de rupture.
Sapiens n’est ni au bout de son évolution ni l’ultime espèce humaine. Il y a encore des choses à inventer dans les VFX.
Tout de même, on a parfois un peu une impression d’overdose en matière d’effets spéciaux numériques, non ?
CG : D’un côté, comme lors de toute avancée technologique, on cède à la tentation de démonstration technique et de virtuosité : mouvements de caméra impossibles, univers excessivement fantasmagoriques, armées pléthoriques, etc. En général, cela n’a qu’un temps.
D’un autre côté, on cherche à imiter l’ancien medium, ici à reproduire les artefacts de l’argentique (rayures, manque de fixité, flare, manque de profondeur de champ, texture de grain...) qu’on considère alors, soit comme des gages de (photo)réalisme, soit comme des marqueurs culturels. Cela aussi passe avec le temps.
Les effets de profondeur de champ n’ont jamais été "réalistes ". On peut se complaire dans la nostalgie de l’anamorphique (je suis le premier à avoir aimé ça), ou explorer les nouveaux vecteurs de la profondeur de l’image, qui restent à travailler dans une future grammaire visuelle.
Mais qu’est-ce qui caractérise cette nouvelle ère numérique, selon vous ?
CG : Il y a toujours eu débat entre l’image comme témoin et l’image comme composition. Ce conflit existe depuis toujours au sein de la communauté du cinéma mais il est également présent à l’intérieur même de chaque image.
La dissociation des éléments qui composent l’image remonte au début du cinéma. Avec les premier trucages, surimpressions, ajouts de décors, maquettes, on comprend très vite qu’on peut composer une image à partir de fabrications dissociées.
Là encore, le son a été le premier, dans la plus grande discrétion sémantique : la post-synchro n’a jamais donné de boutons à André Bazin (mais à Straub et Huillet, oui, cela me réconforte).
Petit à petit, les effets spéciaux nous ont habitués à dissocier les avant-plans des arrière-plans (fonds verts), à la fabrication séparée de décors graphiques (matte-paintings), puis de personnages ou d’objets calculés (hybridation CGI), pour aboutir maintenant à une dissociation à l’échelle même des comédiens (motion capture sur modèle numérique de personnage).
Désormais on peut enregistrer sous la forme d’un pur fichier numérique des phénomènes du monde réel, pour s’en servir ensuite de vecteur de réalisme en les incorporant à une image calculée. Dans le dernier épisode de Star Wars, 80 ou 85 % de l’image (en unité temps/surface) sont constitués d’images calculées, la bascule est très proche.
Un film à retenir, selon vous ?
CG : Avatar reste une balise technique et sémantique. C’est la première fois que les personnages de synthèse se hissent à un statut équivalent à celui des acteurs filmés. Ils provoquent l’empathie du spectateur, au même titre que les autres personnages, grâce au fait qu’ils sont animés par des comédiens. J’entends ici le mot animé au sens large, mais c’est la preuve que l’image calculée, pour peu qu’elle soit nourrie par des enregistrements du réel, est capable de provoquer l’identification.
James Cameron a eu l’intelligence, au vu de l’état de l’art de l’époque, de faire en CG des personnages, certes humanoïdes, mais différents des humains, et pour lesquels nous n’avions pas de référence.
Cela me fait penser à Jurassic Park, autre film-clé, où Spielberg met en scène des dinosaures numériques, pour lesquels personne n’avait de références autre que des dessins ou squelettes. A l’époque, un projet reposant sur des chiens ou des tigres CG aurait été impossible.
Quelques années plus tard, L’Odyssée de Pi ou Le Livre de la jungle montrent les incroyables progrès qu’ont fait les images de synthèse vers le photoréalisme.
La prochaine étape sera sans doute un film où on aura atteint la fusion indétectable entre les personnages calculés et les personnages filmés, humains. Le pont est construit au-dessus de la "Uncanny Valley", son inauguration est pour bientôt.
Et la réalité virtuelle, vous vous y intéressez ?
CG : Dans le principe, il s’agit encore de dissociation, cette fois entre la mise en scène et la mise en images. La captation d’un phénomène réel, comme une scène de comédie, pourra se faire de façon exhaustive, et non plus liée à un seul point de vue. Je ne parle pas de 360°, qui impose un point de vue unique. Je pense à une captation dont les technologies 4DView ou Lythro par exemple constituent des préfigurations.
Cette étape se passera du "réalisateur", dont l’existence est indissociable du point de vue, mais elle aura toujours besoin de "l’auteur" et du "metteur en scène" pour écrire, concevoir la scène, régler la chorégraphie, inventer une scénographie.
Cette captation exhaustive deviendra le matériau à partir duquel pourront travailler un ou plusieurs "réalisateurs", qui feront de la scène leur version linéaire, en imposant leur point de vue, leur montage, leurs mouvements, etc. Mais ce matériau pourra aussi être directement exploré par le spectateur, qui deviendra alors "spectauteur" ou "spectacteur", et ce sera une version VR. Certains appellent ce concept "multiversionniste" le Deep Media.
Ça me fait penser au travail de Fernando Pereira Gomes, un photographe brésilien qui travaille dans le jeu vidéo Grand Theft Auto V, dont il tire des clichés de "street photography". Il expose des photos, mais son appareil n’existe pas (oubliée la querelle argentique-numérique), et ses "sujets" n’existent pas. Il travaille comme Doisneau ou Capa, c’est un photographe.
En ce qui me concerne plus modestement, je me suis rendu compte récemment qu’on était déjà un peu dans la VR sans l’avoir nécessairement formulé. Nous avons fabriqué un simulateur en immersion, à LTT, avec le département R&D de Mikros, pour le réalisateur d’un film sur lequel nous faisons les VFX. Le film est destiné à être projeté dans une salle immense et atypique, et j’ai proposé ce simulateur au réalisateur pour qu’il puisse mieux se rendre compte, au tournage et au montage, de la perception des images par le public dans cette salle très spécifique. Aujourd’hui nous sommes en postproduction et nous faisons toutes les présentations VFX avec le casque en immersion. Dans ce cas spécifique, la pertinence de cet outil est maintenant devenue pour nous une évidence.
J’en conclus que la VR va venir tout naturellement s’immiscer dans nos usages pour répondre à des besoins nouveaux, et sans qu’on en fasse l’objet d’un débat théorique.
Propos recueillis par François Reumont pour l’AFC