Du porno aux fausses informations, l’intelligence artificielle manipule désormais la vidéo
Du porno aux fausses informations, l’intelligence artificielle manipule désormais la vidéo
Par Morgane Tual
Des vidéos intégrant des visages de célébrités dans des films X pullulent en ligne. La raison en est un programme accessible à tous, dont les implications dépassent largement la question de la pornographie.
Le visage de l’actrice israélienne Gal Gadot a été calqué sur celui d’une actrice de films pornographiques. / DR / REDDIT
Gal Gadot, la célèbre interprète du film Wonder Woman, dénoue lentement sa longue ceinture blanche, sous le regard d’un homme en costume, installé à un bureau. Elle retire un à un ses vêtements, laissant apparaître sa poitrine, ses fesses et son sexe.
Cette séquence, mise en ligne mercredi 31 janvier par un utilisateur du forum Reddit, a de quoi surprendre. Elle n’est pas tirée d’un film pornographique dans lequel la star hollywoodienne aurait joué, mais d’un montage assisté par intelligence artificielle (IA). Avec un programme nommé DeepFake, l’auteur de la vidéo a pu insérer, sans compétences techniques poussées, le visage de l’actrice israélienne dans cet extrait de film X. Avec un résultat très réaliste.
Depuis deux mois, ce genre de vidéos se multiplient à vive allure, avec comme terreau un fil de discussion Reddit créé il y a deux mois, où des dizaines de séquences similaires ont été publiées. Ariana Grande, Selena Gomez, Jessica Chastain, Emma Watson, Natalie Portman ou encore Daisy Ridley font partie des stars dont le visage a ainsi été calqué sur celui d’actrices de films pornographiques.
Visages monstrueux
Tout est parti, à la fin de 2017, d’un développeur se faisant appeler Deepfakes sur Reddit. C’est lui qui a commencé, pour s’amuser, à fabriquer et à diffuser ce type de vidéos. Repéré par le site spécialisé Motherboard, il a expliqué avoir conçu un programme capable d’automatiser ce processus, en se basant notamment sur une technologie d’IA mise à disposition gratuitement par Google, nommée Tensorflow. Son système, « nourri » de centaines de photos et de vidéos de la star choisie glanées sur le Web, est ensuite capable de déformer suffisamment le visage d’une actrice de film pornographique pour qu’elle ressemble au modèle qu’a « appris » le programme.
Ses expérimentations ont fasciné Reddit. Quelques jours plus tard, un autre internaute mettait en ligne un programme similaire, ne nécessitant pas de compétences pointues. C’est alors l’emballement : les internautes s’emparent de ce logiciel nommé FakeApp, et se mettent à publier en masse leurs créations, aidés par des modes d’emploi détaillés.
Sur le fil de discussion, les vidéos et les GIF animés s’enchaînent. Les internautes exhibent leurs séquences les plus réussies, mais partagent aussi leurs échecs — des visages monstrueux — et s’échangent des conseils techniques. Certains décident aussi de mettre à disposition des bases de données d’images de stars, indispensables à la création de ces vidéos.
Nicolas Cage, coqueluche inattendue
Très vite, les vidéos se diffusent, s’échappent de Reddit, conquièrent d’autres espaces et se retrouvent, pour certaines d’entre elles, sur des sites pornographiques, présentées comme de vraies images de stars. Elles restent néanmoins rares sur YouPorn, géant du secteur, qui interdit ce type de contenu falsifié.
Le droit français interdit de publier « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention », et prévoit de punir les contrefacteurs à un an d’emprisonnement et à 15 000 euros d’amende. La loi américaine est moins claire. Les stars en question pourraient attaquer pour diffamation ou violation du droit à l’image — mais cela ne suffirait sans doute pas à empêcher les vidéos de circuler sur Internet.
En réaction à la multiplication de ces vidéos, la plate-forme de discussion Discord a fermé à la fin de janvier plusieurs groupes consacrés à FakeApp, au motif qu’ils contrevenaient à ses règles. Dans la foulée, c’est la plate-forme Gfycat, sur laquelle étaient hébergées des images animées issues de ces vidéos, qui a fait un grand ménage dans ces contenus jugés « répréhensibles », privant la communauté d’une grande partie de ses créations.
louis cage (nic cage deepfakes)
Durée : 00:15
Les possibilités de cette technique ne se limitent pas aux films pornographiques. Rapidement, les internautes se sont emparés de l’outil pour réaliser d’autres types de fantasmes, moins érotiques, comme remplacer un acteur par un autre dans un film : faire apparaître Lucy Liu dans le rôle-titre de Lady Snowblood ou remplacer Arnold Schwarzenegger par The Rock dans Terminator. Les utilisateurs de Reddit se sont aussi mis à multiplier les apparitions de Nicolas Cage, devenu la nouvelle coqueluche inattendue de la communauté DeepFake.
Harcèlement et fausses informations
Les usages de cette technologie pourraient déraper au-delà des montages de films pornographiques de célébrités. D’abord parce que les stars ne sont pas les seules à être concernées : DeepFake peut aussi être utilisé avec des visages de personnes inconnues, et porter la « vengeance pornographique » à un autre niveau, pour humilier ou harceler des internautes.
Mais surtout, à l’heure où les fausses informations pullulent en ligne – au point d’être soupçonnées d’avoir contribué à l’élection de Donald Trump –, ce type de technologie porte la falsification à un degré encore inédit. L’été dernier, des chercheurs de l’université de Washington avaient par exemple montré comment, grâce à un programme d’IA, il était possible de modifier une vidéo pour faire dire n’importe quoi à Barack Obama. Ou à toute autre personne, pourvu qu’on dispose d’assez de vidéos en guise de « matière première ». Qu’arrivera-t-il si des vidéos falsifiées se faisant passer pour des images d’actualité sont partagées massivement ?
Comment faire dire ce que l'on veut à Barack Obama grâce à l'intelligence artificielle
Durée : 01:38
Les récents progrès de l’IA, notamment portés par le développement du « deep learning », ont en tout cas placé ces problématiques devant notre porte en une poignée d’années seulement. Soudain, ce ne sont plus seulement les experts des effets spéciaux ou les chercheurs les plus avancés qui disposent de ce type de technologie, mais tout un chacun.
Certes, le résultat de FakeApp est encore imparfait. Beaucoup de vidéos contiennent des défauts toujours bien visibles. Le visage de Michelle Obama qui clignote un peu. Celui d’Eva Green un brin pixélisé sur les bordures. Et même pour les plus réussies, il convient de noter qu’elles sont des vidéos de piètre définition.
Mais ce type de programmes progressera-t-il au point de créer des vidéos de qualité, et indétectables ? Jean Ponce, chercheur en vision artificielle à l’Ecole normale supérieure (ENS), en doute : « Je serais étonné qu’on puisse avoir des vidéos de très bonne qualité de manière totalement automatique, deep learning ou pas, explique-t-il au Monde. L’industrie des effets spéciaux travaille depuis longtemps sur ce genre de problèmes, avec un succès mitigé, en partie parce que dans leur cas, on veut une synthèse “parfaite”, très difficile à obtenir ; les gens sont très bons pour voir que “quelque chose cloche”. »