Twitter a annoncé mardi 25 septembre qu’il interdirait désormais sur sa plate-forme le « langage qui déshumanise une personne en raison de son appartenance à un groupe identifiable », expliquant que « ce type de discours conduit à des violences hors ligne ». Sont visés explicitement les messages qui « nient la qualité humaine de quelqu’un », par exemple en l’assimilant à un animal ou un virus, ou en « réduisant un groupe à ses organes sexuels ».

Les « groupes identifiables », dans la terminologie employée par Twitter, désignent tous les groupes de personnes qui « peuvent être distingués par des caractéristiques communes, comme l’origine ethnique ou de nationalité, l’orientation sexuelle, le genre ou l’identité de genre, l’affiliation religieuse, l’âge, les handicaps ou maladies graves, l’emploi, les opinions politiques, la localisation, ou les pratiques sociales ».

L’avis des utilisateurs demandé

La règle n’est qu’à demi nouvelle : une partie de ce que Twitter appelle « discours déshumanisant » est déjà théoriquement prohibée sur la plate-forme par les règles contre le racisme, les insultes ou les incitations à la haine. Les critiques de Twitter notent par ailleurs depuis des années que les problèmes récurrents de modération du site ne sont que très partiellement liés à ses règles, mais résultent du fait qu’elles ne soient pas ou peu appliquées.

Twitter a également inauguré avec cette annonce une nouvelle procédure pour les modifications de ses règles, qui ne seront appliquées qu’à partir du 9 octobre : les internautes sont invités à donner leur avis sur le changement, en remplissant un formulaire. Ce procédé semble calqué sur les procédures de certains organismes fédéraux américains, qui recueillent l’avis des internautes avant la mise en application de changements réglementaires. Le processus mis en place par Twitter est cependant contraint : les champs « libres », dans lesquels les internautes peuvent présenter leurs arguments, sont limités à 280 caractères, la taille des messages sur le réseau social.