Reddit bannit les vidéos pornographiques manipulées à l’intelligence artificielle
Reddit bannit les vidéos pornographiques manipulées à l’intelligence artificielle
Les fils de discussion qui avaient été le berceau de FakeApp, ce programme permettant d’insérer n’importe quel visage dans une vidéo, ont été fermés mercredi.
Le visage de la comédienne israélienne Gal Gadot a été calqué sur celui d’une actrice de films pornographiques. / DR / REDDIT
Après deux mois à accueillir des liens vers des vidéos pornographiques manipulées par un programme d’intelligence artificielle (IA), Reddit vient d’effectuer une soudaine volte-face. Mercredi 7 février, le célèbre forum a fermé les fils de discussion qui étaient à l’origine de cette pratique et de la diffusion de ces vidéos qui ont beaucoup circulé.
Reddit est, en effet, le berceau du fake porn dopé à l’IA : fin 2017, un utilisateur a conçu programme permettant d’insérer n’importe quel visage dans une vidéo. Il s’est alors mis à intégrer celui de stars du cinéma ou de la musique dans des vidéos pornographiques, avec un résultat parfois bluffant. Les séquences, publiées sur Reddit, ont été largement diffusées et commentées, jusqu’à ce qu’un autre utilisateur, s’inspirant du premier, conçoive son propre programme, FakeApp, et le mette gratuitement à disposition des internautes. Depuis, des centaines de vidéos, plus ou moins réussies, se sont accumulées sur Reddit et sur d’autres plates-formes.
Devant l’ampleur grandissante du phénomène, plusieurs d’entre elles ont réagi en janvier : la plate-forme de discussions Discord a fermé fin janvier plusieurs groupes consacrés à FakeApp. Dans la foulée, c’est le site Gfycat, sur lequel étaient hébergées des images animées issues de ces vidéos, qui a fait un grand ménage dans ces contenus jugés « répréhensibles ». Ont ensuite suivi, début février, le site pornographique Pornhub, qui a souligné que ce type de contenu était contraire à son règlement, puis Twitter, qui a menacé de suspendre tout compte diffusant ces vidéos.
90 000 membres
Reddit, à l’origine de cette pratique, a finalement decidé de réagir, le 7 février. Plusieurs fils de discussion, dont l’un rassemblait près de 90 000 membres, ont été fermés. Dans un message publié sur le forum, un des administrateurs de Reddit explique avoir mis à jour le règlement lié à la « pornographie involontaire » et au « contenu sexuel ou suggestif impliquant des mineurs ». Ces points sont, désormais, plus détaillés. Il est notamment expliqué dans le premier :
« Reddit interdit la diffusion d’images ou de vidéos montrant n’importe quelle personne nue ou engagée dans un acte sexuel apparemment conçues et diffusées sans leur permission, y compris des représentations qui ont été manipulées. »
Ce message apparaît désormais sur les fils de discussion précédemment consacrés à FakeApp. / Capture d'écran Reddit
Le droit français interdit, quant à lui, de publier « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » et prévoit de punir les contrefacteurs à un an d’emprisonnement et à 15 000 euros d’amende. La loi américaine est moins claire. Les stars en question pourraient attaquer pour diffamation ou violation du droit à l’image –, mais cela ne suffirait sans doute pas à empêcher les vidéos de circuler sur Internet.
Le bannissement de ces communautés par Reddit non plus. Si le forum était le cœur de ce nouveau fake porn, les vidéos et ses créateurs avaient déjà commencé, avant même la décision de Reddit, à s’éparpiller sur d’autres plates-formes.
Ce type de technologie ne concerne pas uniquement la pornographie et les stars hollywoodiennes. N’importe quel visage peut être inséré dans n’importe quelle vidéo, ce qui soulève également des questions concernant la manipulation des images dans le cadre de fausses informations.