Toujours plus de contenus supprimés, toujours plus de contenus détectés avant d’être signalés, et presque toujours moins de messages interdits apparaissant dans les flux des utilisateurs de Facebook : le réseau social a publié, jeudi 23 mai, son troisième rapport semestriel sur l’état de la modération sur son réseau. Sur les principaux points, il est très semblable aux deux précédents ; les principales évolutions sont à noter sur les pourcentages de messages repérés de manière proactive par Facebook, avant même qu’un internaute ne les signale.

Selon le réseau social, 99,9 % des messages de spam sont ainsi détectés en amont, tout comme plus de 99 % des contenus de propagande terroriste. Mais Facebook estime surtout avoir fait d’importants progrès sur la détection automatisée des appels à la haine ; selon les chiffres de l’entreprise, 65,4 % des messages modérés pour cette raison avaient pu être détectés le mois dernier, contre 23,6 % il y a six mois.

Recherches en linguistique et programme pilote

« L’intelligence artificielle a vraiment changé les règles du jeu en matière de détection des discours de haine, a dit Justin Osofsky, vice-président de Facebook, lors d’une conférence de presse téléphonique après la publication du rapport. Mais elle ne comprend pas toujours bien le contexte, qui est un élément-clé pour déterminer si un message est un appel à la haine. » Facebook explique avoir investi dans la recherche en linguistique pour améliorer ses outils et avoir fait évoluer ses pratiques, en donnant plus d’informations sur le contexte à ses modérateurs et en créant un programme pilote qui rassemblera des modérateurs travaillant exclusivement sur ce type de messages.

Car l’enjeu est aussi éminemment politique, alors que plusieurs gouvernements, notamment en Europe et en France, menacent Facebook d’adopter des lois prévoyant des sanctions contre les réseaux sociaux jugés trop laxistes. Lors de la conférence de presse, Mark Zuckerberg, le fondateur de Facebook, a longuement insisté sur le fait que ce dossier était une priorité pour lui. « Si les règles d’Internet étaient écrites aujourd’hui, je ne suis pas certain que les gens souhaiteraient que ce soit à des entreprises privées [de prendre les décisions sur ce qui doit pouvoir être dit ou non] », a-t-il dit. « J’en ai parlé avec de nombreux leadeurs politiques, dont le président Macron » – Mark Zuckerberg a rencontré Emmanuel Macron mi-mai, lors d’une visite à Paris où étaient évoquées les régulations envisagées après l’attentat de Christchurch (Nouvelle-Zélande). Et estimé qu’il serait normal que certains pays choisissent de légiférer en la matière, mais qu’aux Etats-Unis la création d’un régulateur dédié serait suffisante.

Pour M. Zuckerberg, l’importance de la lutte contre les discours de haine constitue aussi un argument précieux à opposer à ceux – dont son ancien partenaire d’affaires Chris Hugues – qui appellent à un démantèlement partiel du groupe que Facebook forme avec Instagram et WhatsApp, pour sa position dominante sur plusieurs marchés. « Si les problèmes qui vous préoccupent le plus sont la lutte contre les contenus haineux, les opérations d’interférence dans les élections, la protection de la vie privée et l’interopérabilité, qui pour moi sont des domaines vitaux pour nos sociétés, je ne pense pas que démanteler Facebook va aider à les régler. [La taille et les revenus] de Facebook nous ont permis d’investir massivement dans ces problèmes je pense que nous avons investi plus d’argent cette année dans ces domaines que le chiffre d’affaires de Twitter. »

Pic de tentatives de création de faux comptes

Reste que, malgré ces investissements, la détection automatisée de certains types de contenus ne semble pas très bien fonctionner, selon les propres chiffres de l’entreprise. La détection du harcèlement en ligne, pour laquelle l’intelligence artificielle connaît aussi d’importantes limites, reste très peu efficace (14 % des contenus repérés en amont). D’autres chiffres présentés par Facebook semblent étonnamment bas, comme la détection des ventes illégales de drogue ou d’armes à feu (83 % et 70 %), qui figure pour la première fois dans le rapport. L’entreprise note également avoir connu au mois de mars un pic important dans les tentatives de créations automatisées de faux comptes sur sa plate-forme – 2,19 milliards de tentatives, soit plus du double du chiffre de février.

Ces chiffres globaux peuvent aussi masquer de fortes disparités régionales – les outils automatisés déployés par Facebook ne fonctionnent pour l’instant que pour une quarantaine de langues, et Facebook ne communique pas le détail par pays de ces chiffres mondiaux. M. Zuckerberg a promis, ce jeudi, que l’entreprise ferait preuve de plus en plus de transparence sur ces sujets. « J’estime que ces rapports sur la bonne ou mauvaise santé des discussions sur la plate-forme sont aussi importants que n’importe quel rapport financier », a-t-il dit.