« Are you guys real ? » (« Les gars, vous êtes sérieux ? ») Mercredi 15 mars, lors de l’audition de représentants des trois principaux réseaux sociaux (Twitter, Facebook, YouTube) par une commission parlementaire britannique, l’ambiance était pour le moins surréaliste.

Chemises et costumes sombres, l’air penaud, les responsables de ces plates-formes internationales en ont pris pour leur grade, l’un des députés commençant même par leur demander : « Vous n’avez pas honte ? » Sujet de l’audition : la modération – ou plutôt l’absence de modération – des vidéos, commentaires, tweets, réactions et autres contenus publiés sur ces grands réseaux.

Inlassablement, pendant trois heures, les députés ont multiplié les questions et les exemples de messages haineux laissés en ligne – apologie du terrorisme, incitation à la haine raciale, harcèlement –, malgré de multiples signalements.

Tentant avec la plus grande peine de brandir leurs « règlements de la communauté » et autres « problèmes d’échelle », Facebook, Twitter et YouTube ne sont pas sortis indemnes de cette séance, durant laquelle les plus remontés des élus britanniques les ont traités de « prostitués » qui « gagnent leur salaire grâce aux colporteurs de haine ».

Modération « à deux vitesses »

Le constat est sévère, mais, pour un utilisateur lambda des réseaux sociaux, la scène avait quelque chose de réjouissant. Le signalement d’un message haineux ou injurieux en ligne est en effet un parcours au mieux hasardeux : après avoir reçu un message automatique affirmant que votre signalement a bien été pris en compte, il est rare de le voir suivi d’effet et encore plus d’être informé de la suite d’une demande. C’est l’une des principales conclusions d’une étude commandée par le ministère allemand de la justice, rendue publique le 14 mars.

L’étude montre que les géants du Net, qui expliquent depuis des années avoir basé leur système de modération sur les signalements de leurs utilisateurs, en tiennent en pratique très peu compte.

Sur Twitter, signaler un message est une perte de temps : moins de 1 % des signalements de messages illégaux aboutissent à une suppression mais le taux augmente drastiquement lorsque les messages sont signalés par des utilisateurs « certifiés » (stars de la musique ou du cinéma, élus, journalistes)…

Une modération « à deux vitesses » ennuyeuse pour le réseau social qui a bâti son succès initial sur le fait que tous ses utilisateurs étaient sur un pied d’égalité, permettant à n’importe qui de discuter avec des célébrités. Facebook fait nettement mieux, avec 39 % des signalements qui aboutissent, mais reste loin du compte.

L’Allemagne a décidé de légiférer

Les trois grands réseaux sociaux sont d’accord pour prôner l’autorégulation, ou encore pour affirmer qu’il est littéralement impossible de modérer les messages avant publication. Leurs solutions passent avant tout par les progrès de l’intelligence artificielle, qui devrait, promettent-ils, permettre de détecter plus vite et mieux les messages illégaux.

Mais, en la matière, les premiers essais sont loin d’être parfaits. L’outil « perspective » de Google détecte les commentaires toxiques mais il est facile à berner et il favorise les messages totalement aseptisés.

Pour que ces solutions soient efficaces, il faudrait faire preuve d’une volonté politique. On peut en douter alors que le représentant de Twitter a refusé, devant les députés britanniques, de dire s’il considérait que l’expression « sale pute juive » était illégale. « Tout dépend du contexte », s’est-il borné à répéter…

Alors que la crise migratoire a vu se démultiplier les messages de haine sur les réseaux sociaux, l’Allemagne a décidé de légiférer. Dans ce pays, le ministre de la justice, Heiko Maas, a présenté un projet de loi qui frapperait – au portefeuille, jusqu’à 50 millions d’euros d’amende – les réseaux sociaux qui ne modéreraient pas assez, ou pas assez vite.

Gare à la surcensure

Est-il possible de tamiser les millions de messages publiés, chaque jour, en Europe pour en extraire les messages illégaux ? Heiko Maas le pense, notamment parce que les tests de ses services ont montré qu’à six mois d’écart la prise en compte des signalements d’utilisateurs est passée de 10 % à 90 % pour la version allemande de YouTube. Preuve, juge Berlin, que les réseaux sociaux ne font simplement pas assez d’efforts.

On peut partager ce constat, sans se réjouir plus que de raison des prises de position des élus européens qui semblent n’avoir découvert que récemment ce problème, endémique depuis dix ans sur les réseaux sociaux.

D’abord parce que toute censure peut mener à des surcensures. Au moment où le débat politique connaît une polarisation rare en Europe, on peut s’interroger sur l’opportunité de dire aux principales plates-formes du Web qu’il vaut mieux pécher par excès de censure.

Ensuite parce que les pressions exercées ces dernières semaines, en Allemagne comme au Royaume-Uni, sur Twitter, Facebook et YouTube ne sont pas dénuées d’arrière-pensées politiques, qu’il s’agisse de défendre le bilan d’Angela Merkel sur l’accueil des réfugiés, ou de poursuivre, outre-Manche, la politique de Theresa May, à l’initiative d’un projet de loi instituant une surveillance massive des connexions Internet.

Lors de l’audition au Parlement britannique, l’un des députés les plus véhéments contre l’inaction des réseaux sociaux a été Naseem Naz Shah, élue de Bradford, qui a longuement fustigé le « manque d’éthique » des réseaux sociaux et les « lois parallèles » que constituent leurs règlements intérieurs. En matière de contenus haineux, la députée jouit d’une certaine expertise : elle a été temporairement exclue du Parti travailliste, en 2016, pour des messages antisémites publiés… sur Facebook.