Pourquoi les équipes de modération de Twitter ne sont pas plus réactives
Pourquoi les équipes de modération de Twitter ne sont pas plus réactives
Par William Audureau
Le réseau social, théâtre récurrent de campagnes de harcèlement et de propos choquants, est souvent critiqué pour son traitement des signalements.
Le logo de Twitter sur le siège social de la société, à San Francisco. | JOSH EDELSON / AFP
Exit Richard Spencer. Le maître à penser de l’« alt-right », cette extrême droite qui prône le retour « pacifique » à une Amérique blanche, a été exclu de Twitter la semaine du 16 novembre. Dans une vidéo sur YouTube, l’influent penseur et soutien de Trump a dénoncé une action de « stalinisme d’entreprise, au sens où il s’agit d’une purge, et qu’elle vise les gens en fonction de leurs opinions ». Une dizaine d’autres comptes appartenant à la même mouvance ont également été définitivement suspendus.
Une intervention musclée remarquée, sur une plateforme à la modération souvent critiquée pour sa lenteur et son peu d’efficacité. Car sur la plateforme dirigée par Jack Dorsey, entre deux échanges constructifs, de nombreuses insultes, tweets de harcèlement, campagnes de dénigrement ou encore de propagande terroriste prolifèrent, qui mènent parfois – un peu trop rarement selon ses détracteurs – à des mesures de modération.
Des effectifs gardés secrets
Ces dernières années, Twitter a tout connu : à l’été 2014, une vague mondiale de harcèlement en ligne contre quelques développeuses et journalistes dans le monde du jeu vidéo ; courant 2015, la diffusion méthodiquement organisée de la propagande de l’Etat islamique ; cet été, une campagne d’insultes sexistes et racistes envers une actrice noire américaine ; encore début novembre, un tweet sponsorisé vantant les idées racistes de l’alt-right.
Sans parler des dizaines, centaines, ou milliers – Twitter ne donne pas de chiffres – de signalements qui remontent chaque jour aux équipes de surveillance de l’entreprise.
Combien de personnes les composent ? Twitter se refuse à communiquer sur ce point. « Je ne sais pas si [on peut affirmer que] les équipes sont en sous-effectifs. On a multiplié par deux nos effectifs en deux ans – sachant que nous ne sommes pas l’entreprise qui a le plus de ressources financières », souligne Audrey Herblin-Stoop, directrice relations publiques et philanthropiques chez Twitter France.
Pour le réseau social, dont la liberté d’expression est le fonds de commerce, le mot « modération » est tabou. Pourtant, toute une organisation a bien été mise en place pour encadrer les publications et lutter contre les excès. Du moins les plus choquants, tant bien que mal, et avec les moyens du bord.
Priorité à l’urgence vitale
Pour tout utilisateur de la plateforme, le grand défaut de son système de modération est sa lenteur. Mi-novembre, un utilisateur s’en est par exemple pris durant de nombreuses heures à la journaliste du site de jeu vidéo Gameblog, Carole Quintaine, multipliant propos sexistes et dégradants à ses collègues, à sa famille et à elle-même. En dépit de nombreux signalements, c’est seulement au bout de plusieurs heures que ses tweets et son compte ont été supprimés. Audrey Herblin-Stoop s’excuse :
« On ne peut pas se fixer d’objectif de temps pour traiter un tweet signalé car on est toujours obligé de faire passer les urgences en priorité. Cela suppose de mettre parfois de côté les signalements moins urgents. »
Twitter s’était pourtant engagé en mai devant la Commission européenne, aux côtés de Facebook, YouTube et Microsoft, à supprimer les contenus haineux en moins de vingt-quatre heures à partir du moment de leur signalement.
Mais dans le monde sans frontières de Twitter, d’autres priorités se présentent parfois. Le réseau se vante notamment d’avoir supprimé 360 000 comptes djihadistes entre la mi-2015 et février 2016.
« Vous vous doutez bien qu’on ne traite pas de la même façon une menace de mort, un contenu terroriste et du contenu pédopornographique, qui sont ultra-urgents, par rapport à du contenu signalé pour spam ou violation du droit d’auteur »
« L’urgence vitale prime sur tout », ajoute Audrey Herblin-Stoop. Et de préciser que si un utilisateur se sent en danger, s’il s’estime face à une menace grave, la première chose à faire est de passer outre la plate-forme, et d’aller voir les forces de l’ordre.
Pas d’équipe en France, mais des francophones partout
Twitter, lui, n’a pas les ressources pour agir localement. Sa surveillance du réseau est elle-même placée à un niveau transnational. « Nous ne modérons pas par marchés spécifiquement, ce sont des équipes internationales qui supervisent les tweets de manière globale », confirme Sinead McSweeney, directrice des relations publiques et de la communication de Twitter Europe et Moyen-Orient.
Concrètement, la plateforme n’a pas d’équipe dédiée à la France, mais dispose en revanche d’effectifs francophones dans chacune de sa demi-douzaine d’équipes réparties sur plusieurs fuseaux horaires, de San Francisco, à Dublin en passant par Singapour. Ses locuteurs de la langue sont parfois recrutés à des dizaines de milliers de kilomètres du lieu de signalement d’un tweet. Ce qu’elles gagnent en couverture linguistique globale, elles le perdent fatalement en connaissance fine des particularités culturelles de chaque pays, reconnaît Sinead McSeeney :
« On ne peut pas toujours garantir qu’un tweet signalé en allemand soit analysé par un Allemand, ou qu’un tweet signalé en indien soit analysé par un Indien, cela fait qu’il peut y avoir un manque de compréhension de la culture et du contexte. Pour s’assurer qu’il y ait cette compréhension, nous avons besoin d’améliorer la formation des équipes. »
Il s’agit d’ailleurs de l’un des axes d’amélioration officiellement annoncés mardi 15 novembre pour lutter contre les discours haineux.
Suivi de hashtags à risque
Autre particularité de cette organisation transnationale : les priorités sont définies non pas par pays ou par langue, mais par sujet d’actualité. Certes, des effectifs francophones, parfois polyglottes, sont présents sur chaque fuseau horaire, mais, rappelle Audrey Herblin-Stoop, « leur disponibilité varie, car il peut y avoir des sujets prioritaires dans d’autres langues à certains moment ».
C’est en revanche de manière locale que des orientations peuvent être données. « C’est mon rôle de faire remonter l’information et d’alerter les différentes équipes, par exemple quand il y a un contexte politique spécifique, des petites phrases assassines, ou encore des hashtags qui montent, assure Audrey Herblin-Stoop. Je préviens en tout cas qu’il se passe quelque chose, qu’il faut surveiller et être réactif. »
Dans quelques cas, c’est même l’actualité française qui devient le sujet principal des équipes de Twitter, toutes langues confondues. C’est notamment ce qui s’est passé lors des attentats du 13 novembre, où même les non-francophones avaient été sollicités pour surveiller les tweets liés dans les autres langues. Privilégier l’urgence, où qu’elle soit, tel est le mot d’ordre de la politique de Twitter.
« Concurrence de fait » entre les signalements
Cette orientation stratégique explique en grande partie pourquoi des signalements pour du harcèlement, des menaces ou des propos sexistes semblent parfois prendre tant de temps à être traités : cela dépend de l’actualité du réseau social. « Nous avons des ressources humaines, et il y a une concurrence de fait », convient la responsable des relations publiques de Twitter France.
« Nous estimons que les tweets signalés doivent être évalués par des humains, ce qui suppose d’avoir des connaissances culturelles et historiques, cela ne peut pas être fait par des machines, donc il y a des contraintes de temps et de ressources. »
Equipes de modération à effectifs limités, concurrence de fait entre les sujets brûlants, différents niveaux de priorités… Pour un simple utilisateur témoin de tweets répréhensibles, le système de Twitter peut avoir des airs d’administration kafkaïenne. Dans laquelle certaines voix ont plus de portée que d’autres.
« On travaille avec des associations, mais la courroie de transmission la plus forte, c’est la demande des autorités. Quand un contenu est jugé par la police française illégale, ils nous font une demande, et cela va vite », assure Audrey Herblin-Stoop, citant l’exemple du cliché de l’intérieur du Bataclan après l’attentat du 13 novembre.
Twitter l’assure néanmoins, le rôle des utilisateurs lambda reste indispensable. « Si on ne nous signale pas le contenu, on ne sait pas qu’il existe, rappelle comme une évidence Mme Herblin-Stoop. C’est un chemin très long, et dont nous ne verrons jamais totalement la fin. »