Deux modérateurs de Microsoft, confrontés à des images violentes, affirment avoir été mal préparés et mal accompagnés par l’entreprise. | JEFF CHIU / AP

Regarder en continu d’innombrables photos et vidéos d’agressions, de meurtres, de viols, de pédopornographie… Tel est le travail des personnes qui modèrent les contenus publiés sur les différentes plates-formes Web. Le 30 décembre, deux anciens modérateurs de Microsoft ont porté plainte contre l’entreprise, l’accusant ne pas avoir fait le nécessaire en termes de soutien psychologique.

Les deux hommes, qui ont travaillé pour l’« online safety team », disent souffrir de stress post-traumatique après avoir été confrontés à des contenus « inhumains et répugnants », peut-on lire dans la plainte. Leur mission était de consulter les images signalées par les internautes ou par un programme informatique, et, si nécessaire, les supprimer et les rapporter aux autorités, comme l’exige la loi américaine depuis 2008.

Dépression, crises de panique, cauchemars, et même « hallucinations visuelles »… Le document affirme aussi que l’un des deux employés est aujourd’hui mal à l’aise avec les enfants, dont son propre fils, dont la présence lui rappelle « les violentes agressions contre les enfants dont il a été témoin ». L’autre se serait vu conseiller, après avoir exprimé son malaise auprès de l’entreprise, d’« aller se promener » ou de « jouer à des jeux vidéo » pour se distraire. Les plaignants assurent que Microsoft ne les aurait ni prévenus ni préparés aux dangers de ce type de travail.

Microsoft se défend

L’entreprise a répondu à ces accusations dans un communiqué transmis à plusieurs médias. Elle affirme que les personnes travaillant dans cette équipe ont accès à un « programme de bien-être », comprenant des rendez-vous réguliers avec des psychologues.

« Microsoft prend au sérieux sa responsabilité de retirer et signaler les images pédophiles partagées sur ses services, ainsi que la santé et la résilience des employés qui effectuent ce travail important. »

L’entreprise explique que des technologies sont employées pour « réduire le réalisme des images », en les floutant et en les passant en noir et blanc par exemple, dans de petits formats. Elle assure aussi que les modérateurs ne peuvent pas travailler avec leur ordinateur personnel et qu’ils sont, s’ils en expriment le souhait, assignés à d’autres postes.

Secret autour de la modération

La façon dont les grandes enseignes du Web modèrent leur contenu est entouré d’un grand mystère. La plupart de ces entreprises refusent de donner des détails sur les équipes qui travaillent sur le sujet : quel est le profil des employés ? Combien sont-ils ? A quoi ressemblent leurs tâches au quotidien ? Quelles sont leurs conditions de travail ?

En décembre, la Süddeutsche Zeitung avait dévoilé des documents internes de Facebook, donnant plus de précisions sur l’application de sa politique de modération. Le quotidien allemand avait échangé avec des modérateurs employés par un sous-traitant du réseau social, qui avaient témoigné sous couvert d’anonymat. « Un certain nombre d’employés ont aussi fait part d’importants problèmes psychologiques, à cause de leur exposition fréquente à des contenus choquants, comme des images de torture, de meurtre ou pédopornographiques », écrivait ainsi le journal.