Modération de la haine suprémaciste : ce que font (ou pas) Facebook, YouTube et Twitter depuis Christchurch
Modération de la haine suprémaciste : ce que font (ou pas) Facebook, YouTube et Twitter depuis Christchurch
Par Damien Leloup, Michaël Szadkowski
L’attentat survenu à la mi-mars en Nouvelle-Zélande a depuis généré un important débat politique sur la modération des contenus suprémacistes sur les réseaux sociaux occidentaux.
L’histoire a semblé vouloir se répéter. Samedi 27 avril, un Américain a ouvert le feu dans une synagogue à San Diego, en Californie, et tenté de diffuser en direct sur Facebook la vidéo de son attentat. Une personne a été tuée et trois autres blessées dans cette attaque à l’arme automatique. L’auteur avait annoncé quelques heures plus tôt sur le forum 8chan son intention d’attaquer un lieu de culte juif, et publié un « manifeste » en ligne dans lequel il se réclamait du suprémacisme blanc.
Ce mode de revendication en ligne est une copie assumée de celui du terroriste de Christchurch, qui, en Nouvelle-Zélande, à la mi-mars, avait tué cinquante personnes dans deux mosquées. Depuis ce massacre, l’un des attentats les plus violents commis récemment au nom de la haine des musulmans, la question de la modération des contenus haineux postés par des suprémacistes blancs a pris une tournure politique inégalée.
Au point où un sommet international a été organisé en France le 15 mai, qui sera coprésidé par Emmanuel Macron et la première ministre néo-zélandaise, Jacinda Ardern. Il s’agira alors de réunir les chefs d’Etats et de responsables des grands entreprises occidentales du numérique social pour signer un « appel de Christchurch ».
« Restrictions » contre les vidéos live
La question dépasse la simple modération des images tournées en direct par le terroriste de Christchurch, qui représente déjà, en tant que tel, un défi. Le 19 avril, le site spécialisé Motherboard a pu constater que de nombreux extraits du massacre étaient encore visibles sur Facebook et Instagram, plus d’un mois après le tour de vis opéré pour supprimer les copies de la vidéo (Facebook évoquant 1,5 million copies de la vidéo postées en tout dans les vingt-quatre heures ayant suivi les faits).
Pour lutter contre ce phénomène, la numéro 2 de Facebook, Sheryl Sandberg, avait pourtant annoncé dans une lettre ouverte publiée le 30 mars dans la presse néo-zélandaise que l’entreprise réfléchissait à des meilleurs outils pour limiter les copies de vidéos pourtant déjà signalées comme problématiques. Sheryl Sandberg a évoqué également dans ce texte de possibles « restrictions » sur les capacités, pour les individus, à diffuser des vidéos en direct ou non sur leurs profils – notamment si l’utilisateur a déjà posté des contenus violant les règles du comportement sur Facebok.
Mais ces réponses, purement techniques, pouvant être apportées face à des événements conscrits et localisés comme des attentats, n’effacent pas les efforts, bien plus vastes, à mener, sur la prolifération de contenus haineux d’extrême droite sur les réseaux sociaux. Plus que la diffusion des images d’attentats, c’est surtout le fait que ces entreprises offrent, depuis une dizaine d’années, une plate-forme rêvée à différents groupes suprémacistes blancs, pouvant y diffuser leurs idées ou leurs critiques, qui concentre l’essentiel des débats.
Jacinda Ardern, première ministre néo-zélandaise, le 25 mars. / Nick Perry / AP
« Nous voulons maintenir les principes d’un Internet libre, ouvert et sécurisé, mais il ne s’agit pas de liberté d’expression, il s’agit de prévenir l’extrémisme violent et le terrorisme en ligne », a expliqué Jacinda Ardern en convoquant le sommet du 15 mai à Paris, pointant l’enjeu auquel sont confrontés les régulateurs et gestionnaires des plates-formes occidentales (Facebook, YouTube, Twitter) : comment fixer le curseur entre « extrémisme » et discours politique classique, alors que dans de nombreux pays, les opinions et partis politiques d’extrême droite sont en vogue, au pouvoir, ou mènent des campagnes électorales ?
Une modération impossible ?
Sur Twitter, la situation est loin de s’améliorer, malgré de nombreuses déclarations publiques affirmant que le réseau social prend désormais le problème au sérieux. Et le président des Etats-Unis lui-même n’améliore pas les choses. Début avril, Donald Trump a publié sur son compte Twitter un message laissant entendre, sans raison aucune, que la députée musulmane Ilhan Omar (démocrate, Minnesota) était liée aux attentats du 11-Septembre.
Ilhan Omar a reçu des centaines de menaces de mort liées à ce message. Pourtant, le réseau social a refusé de supprimer le message du président des Etats-Unis, expliquant, selon le Washington Post, que Donald Trump n’avait pas « violé les règles » du réseau social, et que le message avait déjà été trop largement diffusé pour que sa suppression change quoi que ce soit.
Mais sur Twitter, l’impunité offerte aux comptes d’extrême droite et aux appels à la haine est loin de se limiter au président des Etats-Unis. Les équipes de modération de Twitter, en très large sous-effectif, sont peu efficaces, et font globalement preuve d’une permissivité importante au nom de la liberté d’expression. Parmi ses efforts, Twitter a investi dans la recherche de solutions automatisées, notamment la détection automatique de contenus et de comptes problématiques grâce à des logiciels. Mais le réseau social peut-il réellement faire plus, dans un contexte où il est très utilisé pour des discussions politiques et par des cercles militants parfois radicaux ?
Le site spécialisé Motherboard a ainsi récemment rapporté que l’une des raisons pour laquelle la suppression automatisée des messages suprémacistes n’avait pas été testée aux Etats-Unis était qu’elle risquerait de toucher aussi des Tweet publiés par… des Républicains aux Etats-Unis.
Vidéos YouTube faciles à trouver
Sur YouTube, ce sont aussi les outils automatisés de modération qui sont directement mis en cause : ils aident aussi à la diffusion de messages de haine, même si la plate-forme de vidéos de Google supprime mieux que Twitter les vidéos haineuses. De manière générale, ses algorithmes de recommandation mettent automatiquement en avant des vidéos susceptibles d’êtres regardées par un utilisateur en fonction de son historique : il n’est pas rare, après avoir regardé des vidéos aux contenus problématiques, de se retrouver confronté à d’autres vidéos du même registre.
Et si la modération de la plate-forme a progressé ces dernières années, YouTube prend peu de mesures proactives, se bornant à agir selon les signalements qui lui sont faits. La plate-forme a mis en place l’an dernier une série d’outils censés limiter la diffusion de vidéos conspirationnistes, mais les vidéos faisant l’apologie du suprémacisme blanc, pourtant théoriquement interdites, étaient encore nombreuses sur YouTube et faciles à trouver à la mi-mars, selon le recensement effectué par le site d’investigation ProPublica.
Face à cette situation, la PDG de YouTube, Suzane Wojcicki, n’a pas évoqué de solutions concrètes et structurelles pour éviter la diffusion de contenus néonazis, dans le long portrait qu’a publié le New York Times, le 17 avril. Elle a néanmoins indiqué que les équipes humaines de modération de la plate-forme vidéo avaient été renforcées ces derniers mois, ainsi que les outils de Google pour la reconnaissance automatique des problèmes.
Suppression de comptes et de pages d’extrême droite
Facebook, de son côté, a opté pour une approche différente, plus proactive, en prenant plusieurs mesures notables après l’attentat de Christchurch. Fin mars, le réseau social avait annoncé qu’en plus du suprémacisme blanc, déjà interdit sur la plate-forme, deux autres idéologies proches seraient désormais interdites : le séparatisme blanc (qui prône un apartheid) et le nationalisme blanc (qui se présente comme une idéologie de « défense » des personnes de couleur blanche).
« Nous avons estimé que les points communs entre le nationalisme blanc, le séparatisme blanc et le suprémacisme blanc sont tellement importants qu’il est impossible de les distinguer sérieusement », a expliqué Facebook – alors que Twitter et YouTube continuent de leur côté à faire une distinction entre ces idéologies.
Dans la foulée, Facebook a annoncé une vague de suppression de comptes et des groupes faisant l’apologie du suprémacisme blanc. Et, depuis le début d’avril, Facebook est même allé plus loin, en supprimant des comptes et groupes d’extrême droite en Espagne, en France et au Royaume-Uni, même lorsque ces comptes ne s’étaient pas directement rendus coupables de violation des règles de Facebook et ne se réclamaient pas tous du suprémacisme blanc. Une ligne qui marque un changement significatif pour Facebook, qui durant des années a considéré que sa responsabilité se limitait à appliquer la loi en vigueur dans les pays où son service était disponible.
Plusieurs groupuscules d’extrême droite britanniques, dont l’English Defense League et le British National Party, ont ainsi été bannis de la plate-forme ces dernières semaines, a rapporté le Guardian. L’apologie de ces groupes y est également désormais interdite. « Quand une personne représente le nationalisme blanc, ou incarne une figure de haine, sa présence n’est pas autorisée sur Facebook », a dit Richard Allan, responsable des politiques publiques de l’entreprise, lors d’une conférence de presse téléphonique à laquelle Le Monde a assisté, vendredi 26 avril. « Et ce qu’ils soient ou non membres d’un parti politique ou se présentent à une élection. »
« Se faire connaître »
La question est d’autant plus épineuse, à quelques semaines de l’élection européenne, que les suppressions de compte concernent désormais des candidats britanniques au Parlement européen. Tommy Robinson, membre fondateur de l’English Defense League et déjà banni de Facebook fin février (il avait alors un million d’abonnés), est devenu depuis candidat indépendant aux élections européennes, qui vont se tenir finalement en Grande-Bretagne après le report du Brexit.
De fait, les réseaux sociaux sont plébiscités par les groupes et partis d’extrême droite : simples d’utilisation, ils permettent, pour des candidats, de toucher des millions d’électeurs pour un coût modique (en Grande-Bretagne, la publicité politique à travers des messages sponsorisés n’est pas interdite en période électorale).
En Espagne, le parti d’extrême droite Vox a fait dimanche 28 avril une entrée remarquée au Parlement. Il avait largement misé sur les réseaux sociaux pour sa campagne. « Il y a deux raisons à notre succès », a expliqué au Monde Ivan Espinosa de los Monteros, vice-président de Vox. La Catalogne s’est déclarée indépendante, et même si cela n’a duré que six secondes, les Espagnols récompensent notre courage : Vox a été le seul à se lever véritablement contre les séparatistes et à ouvrir le front judiciaire en déposant les premières plaintes. Le deuxième facteur est l’explosion des réseaux sociaux, qui nous a permis de nous faire connaître alors que les grands médias nous ignoraient. »