Le réseau social Facebook a développé une technologie permettant de répérer les images pédopornographiques. / Richard Drew / AP

Facebook l’a évoqué à plusieurs reprises : les technologies d’intelligence artificielle vont prendre une place de plus en plus importante dans son dispositif de modération des contenus — une question centrale pour le réseau social, où sont publiés des milliards de contenus chaque jour.

Mercredi 24 octobre, l’entreprise américaine a annoncé être parvenue, à l’aide d’un nouvel outil basé sur l’intelligence artificielle, à repérer et à supprimer 8,7 millions de contenus contraires à ses règles sur la nudité et l’exploitation sexuelle d’enfants au dernier trimestre. Le règlement de Facebook interdit dans ce cadre la pédopornographie, mais aussi les images représentant des enfants nus.

Jusqu’ici, Facebook disposait déjà d’une technologie capable de repérer automatiquement certains contenus pédopornographiques déjà connus de ses services : si un internaute tentait de publier une de ces images, le réseau social la repérait automatiquement et l’empêchait de la publier.

99 % des contenus détectés sans signalement

Le nouvel algorithme développé par Facebook permet de détecter de nouvelles images en analysant leur contenu pour repérer la présence de pédopornographie ou de nudité. Facebook souligne dans son communiqué que 99 % des contenus supprimés grâce à son nouveau système l’ont été « avant que quiconque ne les signale ». Le système traditionnel de modération de Facebook repose en effet sur le signalement par les internautes de contenus problématiques, qui sont ensuite transmis à des modérateurs humains pour analyse.

La question des conditions de travail de ces modérateurs, confrontés au quotidien à des contenus très durs, est d’ailleurs régulièrement soulevée. Le mois dernier, Selena Scola, une ancienne modératrice pour Facebook, a ainsi porté plainte contre l’entreprise pour stress post-traumatique.

Ces derniers mois, reconnaît Facebook, des internautes se sont plaints de voir certaines photos de leurs enfants supprimées, à tort selon eux. Une position assumée par Facebook, qui « pour éviter même de potentiels abus », prend des dispositions « sur les contenus non sexuels également, comme des photos d’enfants dans leur bain en apparence inoffensives ».

Facebook avait déjà été épinglé en 2016 pour avoir supprimé une image historique, celle de la petite fille fuyant une attaque au napalm pendant la guerre du Vietnam. Facebook avait fini par faire machine arrière et par présenter ses excuses.