Cinq sanctions, et c’est la porte. Dans un article s’appuyant sur des documents de formation des modérateurs de Facebook, le site américain Motherboard livre les détails des procédures de sanction et de bannissement sur Facebook, en mettant pour la première fois des chiffres sur les principes appliqués par le plus grand réseau social au monde.

Facebook n’a jamais caché appliquer un système de sanctions graduées. Lorsqu’un même utilisateur publie régulièrement des messages contraires à la loi ou aux règles du réseau social, son compte peut être fermé. Le système est similaire pour les administrateurs de groupes ou les pages d’entreprise.

On ignorait, en revanche, à quel point les infractions devaient être nombreuses avant un bannissement. Les documents consultés par Motherboard détaillent de manière précise les règles appliquées, sans que l’on sache si elles n’ont pas été modifiées depuis la création – récente, selon le site – des documents. Ainsi, une page dont cinq posts ont été modérés pour incitation à la haine, sur une période de quatre-vingt-dix jours, sera fermée. La sanction est plus directe pour la prostitution : une page ou un groupe qui compte au moins deux « éléments » (messages, photo de profil, description…) identifiés par les modérateurs comme du racolage est fermée.

Les messages publiés par les administrateurs de pages ou de groupes ne sont pas les seuls critères pris en compte. Une page ou un groupe dans lesquels plus de 30 % des messages sont considérés comme contraires aux règles, là encore sur une période de quatre-vingt-dix jours, sont également susceptibles d’être fermés.

Une échelle de sanctions variées

Les règles varient également en fonction des infractions auxquelles se sont livrées les détenteurs des comptes. La publication d’images pédopornographiques, par exemple, est passible d’un bannissement immédiat. Dans d’autres cas, Facebook procède à des sanctions plus graduelles, en bloquant l’accès au compte pendant un temps limité, ou, pour les comptes qui propagent des théories du complot, en limitant leur visibilité. Dans les cas les plus graves – appels à la violence ou menaces de suicide par exemple –, Facebook contacte directement les autorités.

Un documentaire diffusé cette semaine par la chaîne britannique Channel4, partiellement filmé en caméra cachée chez un prestataire de modération de Facebook, montrait que, faute de temps, certains messages urgents pouvaient attendre plus de vingt-quatre heures avant d’être traités. Le réseau social avait reconnu que les pratiques de ce centre de modération n’étaient pas conformes à ses attentes, et s’est engagé à améliorer la situation.

Facebook fait très régulièrement l’objet de critiques pour ses pratiques de modération, jugées alternativement trop sévères, pas assez sévères, voire accusées d’être motivées politiquement. Ce 18 juillet, l’entreprise a annoncé que, contrairement à sa pratique actuelle, elle allait commencer à modérer les rumeurs et autres fausses informations qui contribuent à générer des violences physiques, en commençant par la Birmanie et le Sri Lanka.