Sous pression, Facebook détaille ses mesures contre l’apologie du terrorisme
Sous pression, Facebook détaille ses mesures contre l’apologie du terrorisme
Par Damien Leloup, Morgane Tual
Le réseau social va notamment s’appuyer sur l’intelligence artificielle pour détecter les contenus inappropriés avant même qu’ils soient publiés.
Sous la pression croissante des gouvernements, notamment français et britannique, Facebook a détaillé, jeudi 15 juin, ses mesures pour lutter contre l’apologie du terrorisme sur sa plateforme. Il est depuis longtemps reproché à ce réseau social – comme à d’autres –, de laisser proliférer ce type de contenus sur son site.
Mercredi, un texte issu de la rencontre, la veille, entre le président français Emmanuel Macron et la première ministre britannique Theresa May présentait des axes de travail pour lutter contre le terrorisme sur Internet, évoquant, sans les nommer, les grands réseaux sociaux.
Vingt-quatre heures plus tard seulement, la publication sur Facebook d’un long texte présentant une liste des dispositions – certaines nouvelles, la plupart déjà connues – apparaît comme une réponse aux propositions formulées par les deux dirigeants, même si le réseau social explique que sa communication était prévue depuis longtemps.
« Le contexte est important »
« Il n’y a pas de place pour le terrorisme sur Facebook », tient à rappeler en préambule l’entreprise, sans manquer de glisser que « la recherche a prouvé que la radicalisation des membres [de groupes] comme l’organisation Etat islamique [EI] ou Al Qaida a d’abord lieu hors-ligne ». Mais « nous savons qu’Internet joue un rôle » et « nous avons encore beaucoup à faire », admet-elle.
Dans ce document, Facebook annonce notamment utiliser des technologies d’intelligence artificielle (IA) pour repérer les contenus faisant l’apologie du terrorisme – une possibilité que Mark Zuckerberg, le fondateur de l’entreprise, avait déjà évoquée. Elle est désormais effective, explique au Monde, par visioconférence, Brian Fishman, chargé de la lutte contre le terrorisme à Facebook :
« Nous utilisons une série d’outils automatisés – dans certains cas, nous supprimons automatiquement les contenus, comme les vidéos de décapitation. Le contexte est important : une photo du drapeau de Daesh [acronyme arabe de l’EI] peut être utilisée pour de la propagande, mais il peut aussi illustrer un article de presse. Quand le contexte compte, ces outils servent à prioriser ces contenus pour nos équipes de modération. »
Excepté pour les contenus pédopornographiques, Facebook ne modérait jusqu’à il y a peu les contenus qu’a posteriori, le plus souvent après un signalement par un internaute.
Désormais, « la moitié des comptes supprimés pour apologie du terrorisme sont découverts directement par nous, sans signalement », précise Monika Bickert, qui dirige la politique publique du réseau social.
Facebook dit aussi utiliser les technologies d’apprentissage automatique pour détecter les textes relevant de l’apologie du terrorisme, en se basant sur des exemples de textes de ce genre déjà repérés par le site. C’est un procédé en cours d’expérimentation, précise l’entreprise, qui assure par ailleurs être devenue « bien plus rapide » pour détecter les nouveaux comptes créés à la chaîne par les personnes bannies du réseau social.
« Nous considérons que c’est une part très importante de notre travail : c’est un challenge de parvenir à identifier les récidivistes, mais nous avons fait d’importants progrès dans le domaine de l’IA pour détecter les personnes qui ont été bannies et qui créent de nouveau comptes », dit M. Fishman.
Importants enjeux
Concernant l’identification des comptes problématiques, Facebook annonce aussi avoir « commencé à travailler sur des systèmes permettant d’agir sur les comptes terroristes à travers toutes nos plateformes, y compris WhatsApp et Instagram ».
Le réseau social précise qu’« en raison des données limitées collectées par certaines de nos applications, la possibilité de partager des données à travers toute notre famille [de services] est indispensable à notre effort ». Une phrase loin d’être anodine, car derrière celle-ci se trouvent d’importants enjeux, qui dépassent la question de la lutte contre le terrorisme.
Facebook a racheté le service de messagerie WhatsApp en 2014. | PATRICK SISON / AP
L’entreprise est en effet régulièrement épinglée pour avoir permis le partage de données avec Facebook des utilisateurs de WhatsApp, société rachetée en 2014. Elle a été sanctionnée en mai dans cette affaire par l’Union européenne (UE), peu après avoir été condamnée en Italie, et après avoir subi les remontrances des gardiens européens des données personnelles du G29. « Nous sommes très attentifs au respect de la vie privée », dit Mme Bickert, expliquant que l’entreprise étudie les options juridiques à sa disposition sur ce point.
Le texte publié par Facebook laisse passer un message clair : si vous voulez que nous luttions efficacement contre le terrorisme, laissez-nous partager les données de nos utilisateurs comme nous le souhaitons.
Le document évoque aussi la partie « humaine » de la gestion de contenus, rappelant que 3 000 personnes supplémentaires vont s’ajouter dans l’année à venir à son équipe de modération, qui compte déjà 4 500 personnes. Car « l’IA ne peut pas tout détecter », « pour comprendre les cas les plus nuancés, nous avons besoin de l’expertise humaine ».
Facebook affirme que « 150 personnes sont exclusivement, ou prioritairement, concentrées sur la lutte contre le terrorisme », parmi lesquels des chercheurs, d’anciens procureurs ou agents, des analystes ou encore des ingénieurs.
Définition de ce qu’est un « message terroriste »
L’entreprise s’attarde aussi sur la question du chiffrement des communications, sur laquelle elle maintient le discours qu’elle a toujours tenu, face aux intentions peu claires des gouvernements.
Emmanuel Macron et Theresa May ont tous les deux souligné la nécessité pour les services d’enquête d’avoir un « accès au contenu chiffré », comme celui des messages transmis par WhatsApp. Si le texte franco-britannique prend soin de préciser qu’il « n’est pas question ici de “portes dérobées” ou d’interdiction du chiffrement » – deux options un temps évoquées par Londres –, le texte ne se montre guère disert sur la manière de réaliser ce qui, selon tous les experts, est une impossibilité technique.
« Etant donné la façon dont fonctionne le chiffrement de bout-en-bout, nous ne pouvons pas lire les contenus des messages chiffrés, rappelle Facebook. Mais nous pouvons transmettre les informations que nous détenons après demande des autorités habilitées, dans le respect de la loi et de nos règles. »
Si les annonces de Facebook peuvent affecter la diffusion de contenus faisant l’apologie du terrorisme, elles soulèvent d’autres questions. A commencer par la plus difficile : qu’est-ce qu’un « contenu terroriste » ? Le réseau social ne se pose pas la question en ces termes, assure Mme Bickert. « Nos règles prévoient que tous les groupes violents sont interdits, même s’ils ne font pas d’appel à la violence – une organisation terroriste qui créerait un groupe dans lequel il ne ferait que parler de nourriture serait fermé. »
« Nous sommes entièrement impliqués »
Une réponse qui pourrait donner satisfaction à Emmanuel Macron et Theresa May, dont le « plan d’action » hésite sur la définition précise à donner aux « contenus terroristes ».
Mais les mesures listées par Facebook, si elles correspondent sur les principes aux demandes des deux gouvernements, semblent assez éloignées des outils de « suppression automatique » que la France et le Royaume-Uni appellent de leurs vœux.
« Personne ne veut qu’il y ait de la propagande terroriste en ligne, s’agace Mme Bickert. Nous sommes préoccupés par ces questions, et nous sommes entièrement impliqués. Ce que nous voulons, c’est aider à faire d’Internet une “no go zone” pour les terroristes. »
Et peut-être aussi d’éviter, en chemin, que les gouvernements durcissent des lois antiterroristes déjà nombreuses.
Facebook Live : que faire quand la mort frappe en direct ?
Durée : 02:25