C’est un grand open space lumineux, dans lequel travaillent quatre-vingts personnes, installées à des bureaux flambant neufs. Le gris soutenu de la moquette est toujours intact, les murs encore trop blancs, impersonnels. A l’exception d’un grand sticker, dont la forme, connue du monde entier, apporte un indice sur ce qui se trame précisément dans cette pièce : un grand pouce bleu, celui de l’iconique « J’aime » de Facebook.

Dans cette tour rutilante de Barcelone, ils sont huit cents, répartis dans six open spaces sur plusieurs étages, à travailler pour le réseau social. Ou plus précisément, pour CCC (Competence Call Center), un sous-traitant de Facebook, à qui l’entreprise délègue, comme à d’autres, la modération des contenus publiés par les internautes.

Nettoyer la plateforme des publications interdites

Leur mission ? Nettoyer la plateforme des publications interdites par les règles de Facebook. Pornographie, contenus haineux, propagande terroriste… Dans le logiciel qu’ils utilisent, les contenus signalés par les internautes – mais aussi par un système d’intelligence artificielle – leur sont envoyés. Pour chacun d’entre eux, ils doivent trancher : supprimer le post ou le laisser en ligne. En cas de doute, en référer à la hiérarchie. Leur Bible : les « standards de la communauté » Facebook, les règles, très pointues, du réseau social, qui expliquent par exemple que l’on peut montrer des fesses à condition que le plan soit large, mais pas un téton, sauf s’il s’agit d’une œuvre d’art ou d’une campagne sur le cancer du sein.

Une parole sous contrôle

Ce logiciel, nous ne le verrons pas. Pas plus que nous ne verrons ces modérateurs travailler. A notre arrivée dans l’open space, un joyeux brouhaha emplit les lieux, celui des salariés papotant, toujours à leur poste, mais la main loin de leur souris. Sur leurs quatre-vingts écrans, la même image, immobile, celle de la page d’accueil colorée des standards de la communauté.

Une mise en scène : en présence d’une journaliste, tout doit s’arrêter. Hors de question, pour Facebook, que nous puissions ne serait-ce qu’apercevoir un écran en fonction. « C’est pour respecter la vie privée des utilisateurs, puisqu’on voit le nom des personnes qui ont publié les contenus », précise-t-on chez Facebook, qui a organisé la visite.

En présence de journalistes ou de photographes, les modérateurs cessent de travailler et affichent une image fixe sur leurs écrans. / Facebook

Interdiction de prendre la moindre photo

Lors de ce passage express – quelques minutes seulement dans l’open space –, pas moins de quatre personnes nous accompagnent. Interdiction de prendre la moindre photo. A la place, Facebook nous fournit ses propres images. Nous restons près des murs, à quelques mètres des modérateurs, à qui nous n’adressons pas la parole. Ce sera pour plus tard : on nous accordera un petit quart d’heure pour rencontrer cinq salariés triés sur le volet, sous contrôle de leur patron et d’une représentante de Facebook.

Nous ne faisons pas les difficiles. Cela fait trois ans que nous demandons au plus grand réseau social au monde (plus de 2 milliards d’utilisateurs actifs) de nous laisser accéder à un de ses centres de modération. Un droit qu’elle n’avait quasiment jamais accordé à aucun journaliste. En ce mois de novembre 2018, l’entreprise a finalement accepté d’entrouvrir très légèrement ses portes, en proposant à douze journalistes européens d’accéder à ce centre.

« On commence à s’ouvrir »

Un pas qui semble énorme pour Facebook. Jusqu’à récemment, le plus grand secret régnait autour de ses pratiques en la matière. Qu’il s’agisse des règles de modération, confuses et grossièrement résumées sur le site, ou du fonctionnement de ses équipes de modération, dont on ne savait rien. Pour l’entreprise américaine, le sujet est une question extrêmement sensible, qui lui a valu scandales et accusations de censure comme de laxisme.

Les attentats de 2015 ont marqué un tournant. L’utilisation de Facebook par l’organisation Etat islamique pour mener sa propagande et recruter a mis en lumière de gros manquements. Les gouvernements ont alors commencé à hausser le ton, menacer, et même, dans le cas de l’Allemagne, légiférer : dans le pays, depuis janvier, les plateformes risquent 50 millions d’euros d’amende si les contenus illégaux restent en ligne plus de 24 heures.

Facebook revendique 30 000 employés mobilisés sur les questions de modération

Face à l’urgence, Facebook s’est retroussé les manches. Trois ans plus tard, ses efforts ont fini par payer. La propagande terroriste est devenue rare sur le réseau social, même si d’autres problèmes graves sont apparus, comme la désinformation. Facebook est par exemple accusé par l’ONU d’avoir laissé des appels à la haine proliférer en Birmanie contre les Rohingya, victimes de massacres.

Face aux inquiétudes, l’entreprise a décidé de donner plus d’informations sur son processus de modération. L’an dernier, treize ans après sa création, Facebook lâchait enfin un chiffre : ses équipes de modération étaient composées de 4 500 personnes dans le monde. Aujourd’hui, l’échelle a changé. Facebook revendique 30 000 personnes mobilisées sur ces sujets, dont la moitié sont de petites mains de la modération, chargées d’examiner deux millions de contenus par jour.

« Il y a du secret, mais on commence vraiment à s’ouvrir, car on essaie, très sincèrement, de protéger les gens », assure David Geraghty, qui dirige, chez Facebook, les équipes de modération. Depuis le Competence Call Center de Barcelone, il évoque la mise en ligne des règles internes de modération, très détaillées, ou la publication, depuis mai, d’un « rapport de transparence » sur les contenus modérés.

Pourquoi a-t-il fallu attendre aussi longtemps ? « On est plus à l’aise avec nos chiffres, qui sont plus précis aujourd’hui », avance-t-il en guise d’explication. Mais la transparence a des limites. Combien de centres de ce type existent ? On n’en saura rien. Où se situent-ils ? Encore moins. Et quand on demande à Ulf Herbrechter, un des dirigeants de CCC, combien de Français compte le centre de Barcelone, il hésite à répondre, puis demande l’autorisation à David Geraghty, qui décline.

« On garde certaines choses secrètes, comme la localisation des centres, pour des raisons de sécurité. La fusillade chez YouTube [survenue en Californie en avril] visait des gestionnaires de contenus. C’est aussi pour ça qu’on ne donne pas leur nom. »

« Les salaires varient selon la nationalité »

Le centre que nous visitons a ouvert ses portes en mai, dans un quartier d’affaires de Barcelone. Ici, des salariés français, mais aussi espagnols, italiens, portugais, néerlandais ou scandinaves examinent les contenus issus de leurs pays respectifs. « Pour le marché français, on ne recrute que des Français, pas juste des francophones », tient à souligner Ulf Herbrechter :

« C’est crucial qu’ils connaissent la culture française, qu’ils comprennent le contexte politique par exemple. »

Le centre de modération de Facebook occupe plusieurs étages de cette tour de Barcelone. / Morgane Tual / LE MONDE

CCC, entreprise initialement consacrée aux centres d’appel, compte désormais 22 bureaux en Europe, dont deux entièrement consacrés à la modération de contenus Facebook. Les modérateurs sont payés « environ 25 000 euros par an », affiche Ulf Herbrechter. Du moins pour les Français. « Les salaires varient selon la nationalité », indique-t-il, évoquant une question d’offre et de demande.

Le modérateur doit mettre manteau, sac et smartphone au vestiaire

La journée type d’un modérateur ? Avant de pénétrer dans l’open space, il doit abandonner manteau, sac et smartphone dans un vestiaire, là encore « pour respecter la vie privée des utilisateurs », selon Facebook, et éviter que des documents ne quittent le centre. Une fois installé à son poste, la grande valse des contenus commence. Combien en modèrent-ils par jour ? « Ça dépend », répond Ulf Herbrechter. Ont-ils des objectifs chiffrés ?

« Il y a une rumeur selon laquelle ils n’ont que quelques secondes pour prendre une décision. Ce n’est pas ce qui se passe ici. Une décision sur une photo peut être immédiate, mais si vous devez lire un long post, ça prend du temps. »

Le contrat de Facebook avec CCC ne contiendrait donc aucun objectif concernant le volume de contenus traités ? « Notre contrat, c’est la qualité, pas les chiffres », assure David Geraghty de Facebook. « Notre priorité c’est de prendre la bonne décision. »

Impact psychologique

Même discours du côté des modérateurs. Réunis à cinq, en présence de leur patron, dans une « salle de repos » aux meubles colorés et aux corbeilles de fruits débordantes, ils se disent fiers de leur travail. « On rend service parce qu’on protège les gens. On fait le ménage », estime l’une d’entre eux – ils ne pourront témoigner sous leur nom, et ont signé à leur embauche une clause de confidentialité leur interdisant de parler à des journalistes.

L’une des « salles de repos » du centre. Les images ont été prises par l’équipe de Facebook, les journalistes n’étant pas autorisés à faire de photos. / Facebook

Comment vivent-ils la confrontation, au quotidien, à ces contenus parfois difficiles ? « On est prévenus dès le début. En général, on a la faculté de prendre nos distances pour que ça ne nous affecte pas », affirme l’un d’eux. « Il y a souvent une mauvaise conception de ce qu’on fait », complète une collègue. « On peut penser qu’on voit des vidéos de viols toute la journée, mais non », assure-t-elle. Les contenus haineux sont par exemple plus fréquents sur le « marché » français. « Mais on sait que certains pays voient des choses plus violentes », prévient un autre. Ainsi, les modérateurs arabophones ont bien plus souvent été confrontés à des vidéos de décapitation.

« Ce travail n’est pas aussi stressant que ce que l’on pourrait penser »

Cinq psychologues travaillent à temps plein dans le centre pour soutenir les salariés. Un peu partout dans le bâtiment, des autocollants incitent les modérateurs à faire appel à eux s’ils se sentent « stressés, bouleversés ». « Les gens peuvent venir après avoir vu un contenu qui les a choqués. Quand ça arrive, c’est souvent que ça leur rappelle quelque chose qu’ils ont vécu », explique Natalia, psychologue dans le centre. « Mais ce travail n’est pas aussi stressant que ce que l’on pourrait penser, ils ne sont pas tant que ça exposés à des choses très dures à voir. »

Tout le monde n’est toutefois pas du même avis. En septembre, une ancienne modératrice de Facebook a porté plainte contre l’entreprise, affirmant souffrir de stress post-traumatique après avoir été exposée « à des contenus hautement toxiques », selon ses avocats.

Quelle conclusion tirer d’une telle visite ? Ces bureaux modernes de Barcelone sont-ils représentatifs de l’ensemble des centres de modération de Facebook, dont on ne sait rien, et souvent tenus par d’autres sous-traitants ? « Oui », jure David Geraghty :

« On en a un pratiquement comme celui-là aux Philippines. Si vous allez là-bas, vous verrez qu’ils ne travaillent pas dans des sous-sols sombres, contrairement à ce qui a été dépeint. »

Une référence au documentaire Les Nettoyeurs du Web, diffusé cet été sur Arte, consacré aux modérateurs philippins des grandes plateformes, et peu flatteur pour les géants du numérique. Les rares témoignages que certains médias, dont le Monde, ont pu obtenir d’anciens modérateurs, reflètent une réalité plus difficile que celle présentée à Barcelone – objectifs chiffrés, temps compté à la seconde, dommages psychologiques pour ceux confrontés aux contenus les plus durs… Mais ces expériences datent souvent de quelques années. Aujourd’hui, le message qu’espère faire passer Facebook est clair : les temps ont changé.