Intelligence artificielle pour Facebook, jury populaire pour Periscope : la modération évolue
Intelligence artificielle pour Facebook, jury populaire pour Periscope : la modération évolue
Périscope fait voter ses utilisateurs sur les contenus, tandis que Facebook envisage de se reposer davantage sur l’intelligence artificielle pour le sujet épineux de la modération.
Comment réussir à filtrer efficacement les millions de contenus publiés chaque jour sur les réseaux sociaux pour éviter les messages haineux ? Cette question a toujours été un véritable casse-tête pour ces plates-formes, qui doivent faire évoluer leurs méthodes de modération à mesure qu’elles grandissent et que les pratiques de leurs utilisateurs changent. Aujourd’hui, la plupart des grands réseaux sociaux fonctionnent selon le même principe : les utilisateurs peuvent signaler des contenus problématiques, et une équipe d’employés de l’entreprise traite ces signalements et décide de censurer ou non les messages.
Mardi 31 mai, Periscope, l’application de vidéo en direct appartenant à Twitter, a introduit un nouveau mode de fonctionnement. Quand un commentaire est signalé par un internaute, l’application sélectionne quelques utilisateurs au hasard et leur demande aussitôt si le contenu est bel et bien abusif. Si la majorité approuve, alors son auteur sera brièvement interdit de commenter. Si celui-ci publie un autre commentaire lui aussi rejeté par un de ces jurys, alors il ne pourra plus commenter durant toute la diffusion de la vidéo.
Cette méthode répond à des exigences propres à Periscope, une application consacrée au direct, où les commentaires peuvent fuser en fonction du succès de la vidéo, ne s’affichant à l’écran que quelques secondes seulement. Le système de modération classique, géré par des salariés de l’entreprise, ne pourrait pas être suffisamment réactif.
Plus de photos signalées par l’IA que par les humains
Facebook s’intéresse à un autre type de modération, qui repose davantage sur l’intelligence artificielle. Dans un entretien au site spécialisé TechCrunch publié mardi, Joaquin Candela, ingénieur de Facebook responsable de l’apprentissage automatique appliqué, a dit que ces programmes étaient de plus en plus efficaces, notamment pour identifier le contenu d’une image. « Ce qui est intéressant, c’est qu’aujourd’hui nous avons plus de photos offensantes signalées par des algorithmes d’intelligence artificielle que par des humains. » Au-delà des images, Facebook travaille aussi sur des programmes capables de comprendre le texte.
L’usage de ce type de programme pourrait soulager les équipes de modération et agir plus rapidement, mais il risquerait néanmoins de se montrer trop sévère ou, à l’inverse, trop permissif. Facebook a déjà été énormément critiqué pour avoir parfois censuré des œuvres d’art montrant des nus alors que certains contenus de propagande djihadiste sont longtemps restés en ligne.
Ces pistes de réflexion s’inscrivent dans un contexte où la modération devient primordiale pour les réseaux sociaux, pressés de toutes parts de la rendre plus efficace. En France, après les attentats de 2015, les autorités ont critiqué les géants du Web, souhaitant les « responsabiliser » dans la lutte contre la propagande djihadiste, comme l’avait dit le ministre de l’intérieur Bernard Cazeneuve en janvier 2015. En mai, les associations SOS-Racisme, l’Union des étudiants juifs de France (UEJF) et SOS-Homophobie ont épinglé Facebook, Twitter et YouTube, accusés à la suite d’un test de ne supprimer qu’une minorité des contenus haineux signalés par les internautes. Elles ont porté plainte contre ces trois plates-formes ; l’audience doit avoir lieu en juillet.
Mardi, Facebook, Twitter, YouTube et Microsoft se sont engagés, devant la Commission européenne, à respecter un « code de conduite », dans lequel ils promettent notamment d’examiner « la majorité des signalements valides » en moins de vingt-quatre heures.