Accueil » Nouvelles » À la Une » La motion/performance capture au cinéma

La motion/performance capture au cinéma

Quand un cours de recréation devient une cour de récréation!
Merci de partager !
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Grâce à la magie des effets spéciaux assistés par ordinateur, le cinéma n’a de limite que celle de l’imagination. La motion capture et la performance capture sont, à ce titre, les exemples les plus éloquents d’une technologie en plein essor, laquelle permet tantôt de créer des personnages numériques, tantôt de recréer des personnes réelles. Or, ce qui n’était hier qu’un dernier recours est devenu un recours quasi systématique. N’en déplaise aux défendeurs de la pellicule qui voient d’un très mauvais œil cet avènement du numérique…

Le avant et après de la capture de mouvement dans Pirates of the Caribbean: At World’s End (2007).

LES DÉFINITIONS DE « MOTION CAPTURE » ET DE « PERFORMANCE CAPTURE »

La capture de mouvement (en anglais Motion Capture) est un nouvel outil hybride à mi-chemin entre le cinéma en prises de vues réelles et le cinéma d’animation. Elle permet de porter à l’écran des idées ambitieuses que ces deux cinémas institutionnels distincts ne peuvent accomplir indépendamment. Elle consiste, en gros, à modéliser tel ou tel acteur (souvent la fluidité de son corps mobile et parfois la complexité de son visage expressif) pour obtenir un double numérique qui sera ensuite intégré dans le décor réel/virtuel d’un film. Quant à la technique de la capture d’interprétation (en anglais Performance Capture), elle fait un pas en avant et cherche à saisir la performance derrière la mobilité corporelle et l’émotion (ou plutôt l’é-motion!) derrière les expressions faciales, là où la capture de mouvement se contente de les imiter à seule fin que l’avatar de synthèse bouge naturellement à nos yeux. Autrement dit, la capture de mouvement requiert davantage l’implication d’animateurs au montage, tandis que la capture d’interprétation correspond davantage au travail de l’acteur lui-même au tournage.

Il faut remonter à la fin du 19e siècle pour retrouver les premiers balbutiements de la capture de mouvement, notamment grâce aux expérimentations d’Eadweard Muybridge et sa chronophotographie (1878) ainsi que celles d’Étienne-Jules Marey et son fusil photographique (1882). Le premier est passé à l’histoire pour avoir décortiqué les enjambées d’un cheval au galop, Sallie Gardner, alors que le second a réussi l’exploit de saisir les battements d’ailes d’un oiseau en vol. Il ne restera ainsi aux frères Auguste et Louis Lumière qu’à mettre au point la perforation et le défilement de la pellicule avec leur cinématographe, et ce, dès 1895 (voir Lumière sur la PPPP (première projection publique et payante)). C’est du génie de ces précurseurs qu’est né le cinéma, mot qui vient d’ailleurs du grec ancien kínêma signifiant « mouvement ». Soit dit en passant, Muybridge et Marey sont tous deux nés en 1830 et morts en 1904. Étrange coïncidence.

Décompositions photographiques d’un cheval au galop par Eadweard Muybridge le 15 juin 1878.

Entre 1980 et 2000, quelques films ont tout simplement mélangé le cinéma en prises de vues réelles et le cinéma d’animation. Je pense par exemple à TRON (1982), Who Framed Roger Rabbit (1988), Cool World (1992) et Space Jam (1996). Il faut attendre l’année 2001, soit plus d’un siècle après la naissance du septième art, pour voir à l’écran la première véritable hybridation des deux cinémas traditionnels. C’était la capture de mouvement de Ming-Na Wen, alias Aki Ross, dans Final Fantasy: The Spirits Within. Le résultat a permis de remettre en question le jeu actoriel, quoique la gamme infinie des mimiques du visage et la précision de la gestuelle des mains restaient majoritairement le travail d’animateurs en postproduction. Il faut attendre l’année 2004 pour croiser un avatar de synthèse crédible. C’était la capture d’interprétation de Tom Hanks (avec cinq rôles!) dans The Polar Express réalisé par Robert Zemeckis via son studio ImageMovers Digital.

Les captures de mouvement/d’interprétation se déroulent soit en intérieur entre les quatre murs d’un environnement contrôlé, isolé et adapté, dit « volume » dans le jargon du métier (une forme abstraite de théâtre sans décor ni éclairage), soit en extérieur sur le lieu de tournage en compagnie des autres acteurs. Pour ce faire, l’acteur qui deviendra un personnage numérique porte une combinaison ajustée, laquelle rappelle drôlement celle portée il y a plus de 125 ans par les modèles de Marey, ornée aux articulations de points blancs et reliée par des bandes blanches. La combinaison 2.0 est recouverte de plusieurs dizaines de capteurs ou réflecteurs qui permettent à des caméras infrarouges d’enregistrer les mouvements corporels. Cette technique évite donc à celui qui l’endosse d’endurer des heures de maquillage et de porter des prothèses encombrantes.

De Weta Digital à Lola VFX, en passant par Mikros Image et SolidAnim, les studios redoublent aujourd’hui d’efforts pour atteindre un niveau de réalisme inédit. La majorité des spectateurs doivent n’y voir que du feu, à défaut de tous les convaincre. Cette idée rejoint une théorie de 1970 élaborée par le roboticien japonais Masahiro Mori, théorie baptisée la vallée dérangeante (de l’anglais Uncanny Valley), laquelle stipule que plus un robot androïde est similaire à un être humain, plus ses imperfections nous paraissent monstrueuses. Certaines personnes seront de ce fait plus à l’aise en face d’un robot clairement artificiel que devant un robot doté d’une démarche et d’un visage pouvant passer pour le garant de la normalité. Cela s’applique autant, sinon plus, à un double numérique qui tente par tous les moyens de revendiquer une reconnaissance humaine.

Un exemple de volume, à savoir un environnement contrôlé, isolé et adapté pour la captation de mouvement (motion capture).

LA CRÉATION DE PERSONNAGES NUMÉRIQUES

ll est désormais possible pour un acteur de prêter ses traits à un personnage ayant une apparence inhumaine, tout en conservant un minimum d’humanité dans ses mouvements, de la même façon qu’un enregistrement sonore permet de détacher la voix du corps qui l’a fait naître. Le public est déjà habitué à entendre des comédiens parler avec une voix qui n’est pas la leur, à commencer par les versions originales anglaises doublées en français. Il en va de même avec l’image.

Le nom d’Andy Serkis est indissociable à cette pratique. En témoigne son impressionnant portfolio : Gollum dans les trilogies The Lord of the Rings et The Hobbit, le gorille King Kong dans le remake éponyme, le chimpanzé César dans la prélogie The Planet of the Apes, le capitaine Haddock dans The Adventures of Tintin et le suprême leader Snoke dans Star Wars: The Force Awakens. Il ne s’agit toutefois plus d’incarner un personnage, mais de tâcher à le devenir en le faisant venir à soi plutôt qu’en allant vers lui.

Serkis au sujet de la motion capture : « D’un point de vue philosophique, c’est un outil libérateur car en tant qu’acteur, on n’est plus limité par sa propre taille, son âge. On dépasse tout ça, on peut jouer n’importe quoi. C’est vraiment le rêve de tous les acteurs. »

Serkis sert de référence à un point tel qu’il a conseillé Benedict Cumberbatch pour le rôle du dragon Smaug dans The Hobbit: The Desolation of Smaug (2013) et The Hobbit: The Battle of the Five Armies (2014), ou encore Mark Ruffalo pour le rôle de Hulk dans Avengers: Age of Ultron (2015), film dans lequel Serkis tient un rôle « normal ».

Les différentes étapes d’Andy Serkis pour devenir César dans Rise of the Planet of the Apes (2011).

Saviez-vous que certains films d’animation tels que Ratatouille (2007) porte la mention « 100% Pure Animation – No Motion Capture! » durant le générique de fin? C’est dire combien la distinction doit être soulignée entre le travail des animateurs et celui des artisans de la motion/performance capture!

Andrew Niccol, réalisateur du film S1m0ne (2002) qui traite du succès d’une actrice virtuelle : « Les comédiens clonés ou synthétiques seront bientôt partout. C’est une évolution logique, une réalité. Nous y serons bientôt confrontés par l’intermédiaire de nos ordinateurs ou de nos télévisions. Tous les jours, nous verrons des gens dont nous serons incapables de dire s’ils sont fait de chair et de sang ou de pixels, et cela n’aura pas d’importance. »

Grâce à l’acteur lui-même ou à une doublure, il est désormais possible de rajeunir le visage d’un acteur ou de transformer son corps en entier (perte ou prise de poids). La doublure est aussi nécessaire quand vient le temps de ressusciter un acteur décédé, une nouvelle tendance qui prend de plus en plus ses aises dans les blockbusters dotés d’un budget conséquent. Petit survol du rajeunissement et de la résurrection numériques.

LE RAJEUNISSEMENT NUMÉRIQUE

Si vieillir un acteur est relativement facile à faire, le rajeunir est une autre paire de manche. L’acteur en question s’offre une véritable cure de jouvence. C’est ce qu’il convient d’appeler un rajeunissement numérique.

Je suis pour le rajeunissement numérique dans la mesure où il reste au service de l’histoire, et non l’inverse, le temps d’un flashback par exemple. Je déteste quand la campagne de marketing se sert de la forme pour vendre un film. C’est ce que je reproche un peu à Avatar. Les publicités ont vendu le premier film 3D, certes, mais il s’agissait d’une reprise 2.0 de Pocahontas. J’espère que les quatre suites annoncées entre 2018 et 2023 développeront un contenu qui a de l’allure.

Quelques exemples notables de rajeunissement numérique :

-Patrick Stewart et Ian McKellen dans X-Men: The Last Stand (2006)
-Brad Pitt dans The Curious Case of Benjamin Button (2008)
-Arnold Schwarzenegger dans Terminator Salvation (2009)
-Jeff Bridges dans TRON: Legacy (2010)
-Chris Evans dans Captain America: The First Avenger (2011)
-Robert De Niro et Sylvester Stallone dans Grudge Match (2013)
-Michael Douglas dans Ant-Man (2015)
-Arnold Schwarzenegger dans Terminator Genisys (2015)
-Dwayne Johnson dans Central Intelligence (2016)
-Robert Downey Jr. dans Captain America: Civil War (2016)
-Carrie Fisher dans Rogue One: A Star Wars Story (2016)

Robert Downey Jr. rajeuni dans Captain America: Civil War (2016).

LA RÉSURRECTION NUMÉRIQUE

Si rajeunir un acteur est une autre paire de manche, le faire revenir d’entre les morts tient ni plus ni moins du prodige. C’est ce qu’il convient d’appeler une résurrection numérique.

Je suis contre la résurrection numérique, étant donné que je crois qu’il faudrait utiliser la motion/performance capture avec parcimonie. Par exemple, dans Rogue One: A Star Wars Story, était-ce si dur de recaster le rôle secondaire du Grand Moff Tarkin plutôt que de susciter la controverse avec la résurrection de Peter Cushing, d’autant plus que Guy Henry a servi de doublure pour la motion capture? Ses mouvements labiaux et la profondeur de ses yeux étaient loin de faire l’unanimité. Après tout, personne n’a crié au scandale quand Michael Gambon a remplacé feu Richard Harris en Dumbledore à partir du troisième volet de la saga Harry Potter…

Fort heureusement, avant sa mort le 11 août 2014, Robin Williams a prouvé une dernière fois qu’il pouvait être un génie en ajoutant une clause particulière à son testament, laquelle stipule que personne peut utiliser son image, que ce soit dans le cadre d’un film ou d’un publicité, pendant un quart de siècle, c’est-à-dire avant le 11 août 2039.

Quelques exemples notables de résurrection numérique :

-Laurence Olivier (1907-1989) dans Sky Captain and the World of Tomorrow (2004)
-Marlon Brando (1924-2004) dans Superman Returns (2006)
-Paul Walker (1973-2013) dans Furious 7 (2015)
-Peter Cushing (1913-1994) dans Rogue One: A Star Wars Story (2016)

Guy Henry ressuscite Peter Cushing dans Rogue One: A Star Wars Story (2016).

MON OPINION PERSONNELLE

Devant cette mobilisation de tous les efforts vers le réalisme de la représentation et la simulation de l’être humain, il sied de rappeler que la popularité de la capture de mouvement ne fait pas l’affaire de tout le monde. Il y a, d’un côté, les techniciens de l’image et des effets visuels traditionnels qui expriment leurs craintes de voir un jour leur emploi menacé par des techniciens de l’animation et de l’informatique, et il y a, de l’autre, les acteurs qui redoutent l’arrivée de ces doubles numériques, de peur d’être un jour remplacer par eux. C’est à se demander si les producteurs et les réalisateurs savent où s’arrête l’interprétation et où commencent les effets spéciaux.

À quand la catégorie de la meilleure performance capture, voire à quand une nomination/lauréat dans une seule catégorie où personnes réelles et personnages numériques ne feraient qu’un? C’est encore plus pertinent comme question depuis que l’acteur qui deviendra un avatar de synthèse tourne ses scènes avec les autres en dehors du volume.

Avec l’annonce du recours à la capture de mouvement pour rajeunir Johnny Depp dans Pirates of the Caribbean: Dead Men Tell No Tales, Robert De Niro dans The Irishman et un Replicant dans Blade Runner 2049, il semble que la recréation d’acteurs soit devenue une récréation. Il serait temps que la cloche sonne pour penser à une histoire et non pour passer à l’histoire…

Mark Ruffalo deviendra Hulk dans Avengers: Age of Ultron (2015).

Commentaires Facebook

Articles connexes
Louis-Philippe Coutu-Nadeau

Louis-Philippe Coutu-Nadeau

Véritable cinéphile, Louis-Philippe Coutu-Nadeau est un scénariste-réalisateur-monteur qui a une cinquantaine de contrats à son actif en tant que vidéaste (mariages, captations d'événement, publicités, vidéoclips). Il s'occupe d'ailleurs de toutes les vidéos du concessionnaire Alix Toyota depuis juin 2013. Il a aussi été pigiste pour trois boîtes de production, soit le Studio Sonogram, VLTV Productions et Ikebana Productions. Sa filmographie personnelle présente pas moins d'une vingtaine de titres dont le film Khaos et la websérie Rendez-vous. Il possède un baccalauréat en études cinématographiques à l'UdeM et un baccalauréat par cumul de certificats à l'UQÀM (en scénarisation cinématographique, en création littéraire et en français écrit). Vous pouvez visionner son expérience contractuelle et son expérience personnelle sur son site officiel : www.lpcn.ca

Facebook Auto Publish Powered By : XYZScripts.com