Monika Bickert est directrice de la politique de contenus de Facebook. / Gary Cameron / REUTERS

Pour Facebook, le sujet n’est pas forcément aussi sensible que celui des données personnelles. Ce qui peut ou non être posté sur le réseau social est l’objet de débats et de critiques régulières, que ce soit sur les contenus haineux, la propagande djihadiste, le rôle du réseau social dans les violences en Birmanie ou la censure…

Pour répondre à ces critiques et alors que l’entreprise multiplie les opérations de transparence pour se racheter une conduite dans l’opinion publique, Facebook organise, mardi 15 mai à Paris, le premier « Content Summit », une conférence destinée à présenter et débattre de ses règles de modération. Ces dernières déterminent ce que plus de deux milliards d’utilisateurs peuvent ou non poster sur la plate-forme et sont fixées par Monika Bickert, directrice de la politique de contenus. Elle a répondu aux questions du Monde.

Comment résumeriez-vous ce qui est autorisé et ce qui ne l’est pas sur Facebook ?

Monika Bickert : Notre but numéro un, c’est la sécurité de notre communauté. Les gens vont voir des contenus avec lesquels ils ne sont pas d’accord, des choses qu’ils jugent choquantes, mais ce n’est pas parce que quelque chose est déplaisant ou offensant qu’il est contraire à nos règles. Nous préférons plutôt donner aux gens les moyens de contrôler ce qu’ils voient. Mais si quelque chose est potentiellement nocif ou vise les gens personnellement, nous intervenons.

L’existence de règles sur ce qui peut ou non être posté en ligne est, désormais, admise par Facebook et la Silicon Valley en général, alors que prévalait encore récemment la vision américaine de liberté d’expression…

Nos règles ne correspondent pas au droit américain. L’exemple le plus parlant est les propos haineux. Ils sont légaux aux Etats-Unis. Mais nos règles sont beaucoup plus proches des normes européennes : nous n’autorisons pas les attaques contre les gens sur la base de leur genre ou de leur orientation sexuelle par exemple. Nos règles ne seront jamais juste américaines ou françaises mais doivent s’adapter au monde entier.

Beaucoup ont, cependant, le sentiment que c’est encore la vision américaine qui prévaut, notamment en matière de nudité…

Nous n’avons pas toujours le contexte pour prendre la bonne décision, et nous devons parfois agir par précaution, surtout en matière de nudité. Notre politique en matière de nudité est la suivante : si c’est artistique, c’est autorisé. Lorsqu’il s’agit de photos de vraies personnes, c’est différent : parfois l’image peut être celle d’un mineur, parfois l’image peut être diffusée sans l’accord de la personne. Si c’est une photo d’une femme qui allaite, si c’est une photo d’une poitrine de femme destinée à alerter sur les risques du cancer, ou pour des raisons politiques, c’est autorisé. Ce n’est pas une ligne parfaite, pour personne, surtout quand on prend en compte la diversité des points de vue dans le monde.

Concernant la nudité, vous utilisez des systèmes de détection automatique. Qu’est-ce qui relève de l’humain et qu’est-ce qui relève de la machine ?

Cela dépend. Parfois, les outils techniques vont prendre seuls la décision : si quelqu’un essaie de publier une image pédopornographique déjà connue, nous la supprimons avant même sa publication grâce à une sorte d’empreinte cryptographique de l’image ou de la vidéo. Parfois, nous utilisons l’intelligence artificielle (IA) pour reconnaître des images de nudité : c’est à ce moment-là qu’il est important d’avoir des modérateurs humains. Ce type d’IA, même si elle se développe rapidement, est encore imparfait. Nous allons faire des erreurs, les machines comme les humains. C’est inacceptable et nous devons encore nous améliorer. Quand nous faisons une erreur, nous rétablissons les images et on regarde pourquoi cette décision a été prise et on essaie d’améliorer le système.

L’intelligence artificielle semble être utilisée plus que jamais. Est-ce que ce n’est pas trop optimiste compte tenu des capacités actuelles de l’IA ?

Il y a certains domaines où la technologie est déjà très utile. Notamment dans le champ de l’image : c’est facile pour une machine de reconnaître certains types de contenus comme des vidéos de décapitation ou de la pédopornographie. C’est beaucoup plus difficile pour du texte. Selon leur utilisation, les mêmes quatre mots peuvent être une attaque ou être totalement acceptables. C’est très dur pour nos outils automatiques de distinguer ces deux situations. Mais nous pensons y arriver. Actuellement, ils nous servent à repérer des contenus problématiques avant de les présenter à des modérateurs humains, qui prennent la décision. Cette dernière est ensuite incorporée à nos outils pour les améliorer.

Combien de gens modèrent les contenus pour la France ?

Je n’ai pas de nombres exacts. Nous avons plus de 7 500 modérateurs travaillant pour Facebook basés dans le monde entier, dont une partie a le français pour langue maternelle, mais parfois quelqu’un va modérer un contenu pour la France sans être francophone, par exemple, si c’est une image de nudité, une vidéo de décapitation ou quelqu’un en train d’être battu. Mais nous avons une couverture en français 24 heures sur 24.

Il y a eu de nombreuses critiques concernant le rôle de Facebook en Birmanie, accusé de nourrir les violences ethniques. Quelles sont les mesures que prend Facebook ?

A chaque fois qu’il y a de la violence, un conflit dans une zone donnée, la première chose que nous devons faire est nous informer. Cela veut dire travailler avec la société civile sur place pour comprendre la situation. C’est ce que nous faisons en Birmanie. Nous travaillons avec certains groupes depuis des années, mais la situation sur place a beaucoup changé ces derniers mois. Nous essayons aussi de mieux communiquer sur la manière dont il est possible de nous alerter, par exemple, en mettant à disposition des copies papier de nos règles pour signaler du contenu problématique dans les cybercafés.

Beaucoup vous reprochent de ne pas avoir vu venir la situation, prenez-vous des mesures pour vous assurer que ce type de situation arrive plus rapidement sur votre radar ?

Nous sommes en train d’augmenter le nombre de modérateurs qui parlent birman et nous resserrons nos relations avec les associations sur place. En Birmanie, la violence s’est propagée très vite et bien connaître le contexte est très important pour nos modérateurs lorsqu’ils vérifient des contenus.

La question de la lutte contre les contenus djihadistes s’est beaucoup posée. Où en êtes-vous de cette bataille ?

La technologie nous permet d’identifier des contenus terroristes proactivement. Désormais, plus de 99 % du contenu terroriste que nous supprimons est détecté avant que quiconque nous le signale. Mais il y a encore beaucoup à faire : nous allons voir de nouveaux groupes terroristes et de nouvelles tactiques sur les réseaux sociaux pour recruter et répandre leur idéologie.

En Europe et en France, on parle beaucoup de rendre les réseaux sociaux encore plus responsables de ce qui est publié. L’Allemagne a déjà commencé. Que pensez-vous de cette tendance ?

Je ne pense pas que la loi allemande soit une bonne réponse. Les gouvernements veulent souvent la même chose que nous en matière de sécurité. Le gouvernement français ou allemand ne veut pas de contenu terroriste ? Nous ne voulons pas non plus de contenus terroristes sur notre site. Notre intérêt économique est complètement compatible avec les exigences en matière de sécurité. Si quelque chose est illégal dans un pays mais ne contrevient pas à nos règles, nous avons un mécanisme : le pays doit nous montrer le contenu illégal, nos équipes juridiques l’inspectent et, le cas échéant, nous rendrons l’accès à ce contenu impossible depuis ce pays seulement.

En France, il y avait une image prise après l’attaque du Bataclan qui avait été jugée illégale par le gouvernement français. Une fois que nous avons été saisis par le gouvernement, nous avons restreint le contenu en France. La loi allemande externalise cette décision et nous demande de déterminer ce qui est légal ou non. Nous ne sommes pas en position de prendre cette décision. Et ce qu’il se passe, c’est qu’il y a une pression à trop censurer, même lorsqu’on n’est pas sûrs que cela viole la loi allemande.