Le réseau social a annoncé une augmentation sans précédent de ses équipes chargées de la modération des contenus. Actuellement 4 500, ils seront 3 000 de plus d’ici un an, a annoncé Mark Zuckerberg. | Noah Berger / AP

3 000 modérateurs supplémentaires : c’est le chiffre impressionnant qu’a annoncé Mark Zuckerberg mercredi 3 mai sur son compte Facebook. Le patron du plus grand réseau social au monde a fait savoir qu’il comptait, dans l’année qui vient, considérablement renforcer son équipe de modération, actuellement composée de 4 500 personnes – un chiffre que l’entreprise avait jusqu’ici jalousement gardé secret.

Mark Zuckerberg n’a pas donné de précision sur leur profil, ni précisé s’ils seraient salariés ou sous-traitants de Facebook, indiquant simplement qu’ils travailleront partout dans le monde. Ils auront pour mission d’analyser les contenus signalés par les internautes et de supprimer ceux que la plateforme interdit dans son règlement intérieur – comme les discours de haine, la pornographie ou encore l’apologie du terrorisme.

Facebook régulièrement critiqué pour sa modération

Cette annonce doit notamment répondre aux problèmes posés par les vidéos en direct, introduites par Facebook l’an dernier. Ces derniers mois, des suicides et des meurtres ont ainsi été diffusés en direct sur la plateforme. « Nous voulons faire en sorte que ces vidéos soient plus faciles à signaler, afin de pouvoir agir plus rapidement », explique Mark Zuckerberg sur Facebook. « Qu’il s’agisse de répondre rapidement quand quelqu’un a besoin d’aide ou de supprimer un post ».

Dans son message, le patron de Facebook annonce de futurs outils ayant pour but de simplifier le signalement de contenus et de rendre la modération plus rapide. Le patron du réseau social avait déjà révélé dans un long texte politique publié en février que l’intelligence artificielle serait amenée à jouer un rôle important dans la modération des contenus sur la plateforme et qu’un programme automatisé générait déjà un tiers des signalements envoyés à son équipe de modération.

Plus largement, Facebook est régulièrement critiqué pour les largesses de sa modération, accusée tour à tour d’être trop lente, trop sévère ou tout simplement incompréhensible pour l’utilisateur lambda.

Le réseau social a notamment essuyé une volée de bois vert lorsqu’il a décidé de supprimer, pour nudité, la célèbre photographie de la « fillette au Napalm », avant de faire machine arrière. Facebook a également été critiqué, notamment en France, pour son manque de réactivité face aux contenus faisant l’apologie du terrorisme ou face aux discours haineux (sexisme, homophobie…). Après des tests démontrant les lacunes de la modération de la plupart des grands réseaux sociaux, l’Allemagne travaille à un projet de loi augmentant sensiblement les amendes pour les réseaux sociaux qui ne retireraient pas rapidement de leur plateforme des contenus illégaux.