Monika Bickert est la directrice des politiques publiques de Facebook, et Brian Fishman est chargé de la lutte contre le terrorisme sur le réseau social. Jeudi 15 juin, Facebook a publié un long texte dans lequel il détaille ses techniques de lutte contre la propagande, et notamment des outils de modération partiellement automatisés, basés sur l’intelligence artificielle.

Pourquoi avez-vous décidé de dévoiler vos méthodes de lutte contre la propagande terroriste maintenant ? Jusqu’alors, Facebook laissait entendre que ces méthodes étaient plus efficaces si elles n’étaient pas connues.

Monika Bickert : Il y a deux raisons. D’abord parce que nous avons malheureusement vu se multiplier les attaques terroristes, et cela a fait émerger des discussions dans la communauté, sur le rôle de chacun pour combattre le terrorisme. Que peut-on faire, les uns, les autres ? Que font les réseaux sociaux ? Il nous tient à cœur de préserver nos communautés, qu’elles se sentent en sécurité. C’est pourquoi c’est important d’expliquer ce que l’on fait pour ça.

La deuxième raison, c’est que nous travaillons sur ces technologies depuis longtemps, et elles ont progressé cette année. Puisqu’on a vu que ça commençait à devenir efficace, on a voulu le faire savoir.

Ces technologies sont-elles déjà utilisées ?

Brian Fishman : Nous utilisons une série d’outils automatisés – dans certains cas, nous supprimons automatiquement les contenus, comme les vidéos de décapitation. Dans d’autres cas, le contexte est important : une photo du drapeau de Daesh peut être utilisée pour de la propagande, mais il peut aussi illustrer un article de presse. Dans ces cas où le contexte compte, ces outils servent à prioriser ces contenus pour nos équipes de modération.

M. B. : C’est très différent de la question de la pédopornographie, pour laquelle l’image est toujours criminelle, elle contrevient toujours à nos règles, même si la personne veut la partager avec une bonne intention, comme permettre l’identification de l’enfant. C’est plus facile d’utiliser cette technologie dans cette situation. On doit utiliser les ordinateurs pour ce qu’ils savent bien faire, et les humains pour ce qu’ils savent bien faire.

B. F. : Nos techniques, les terroristes essaient de les contourner, nous devons constamment les mettre à jour.

L’automatisation concerne-t-elle aussi le contenu écrit ?

B. F. : Nous utilisons des outils de compréhension du langage naturel pour détecter de potentielles violations, qui sont transmises à nos équipes de modération. Mais nous n’avons pas assez confiance dans cette technologie pour l’autoriser à prendre une décision sans humain dans la boucle.

Pour lutter contre le terrorisme, Facebook dit avoir besoin de croiser les données de WhatsApp, Facebook et Instagram. Pourtant, lors du rachat de WhatsApp, ses utilisateurs avaient reçu la promesse que leurs données ne seraient pas partagées…

M. B. : Nous gardons toutes nos obligations sur le partage de données à l’esprit. Nos avocats ont des discussions avec les autorités compétentes pour s’assurer que nous respectons la loi. Ce sont des aspects sur lesquels nous commençons seulement à travailler, ce n’est pas un système opérationnel. Mais débarrasser Facebook de la propagande terroriste ne nous suffirait pas. Nous voulons faire de tout Internet une no-go zone pour les terroristes. Nous devons faire tout ce qui est en notre pouvoir sur toutes nos plate-formes, y compris Instagram et WhatsApp.

Comment définissez-vous la propagande ou les « contenus terroristes » ?

M. B. : Aucun groupe qui a la violence pour but, ou qui s’est rendu coupable d’actes violents, n’est autorisé à avoir une présence sur Facebook. Même si c’est pour parler de choses qui n’ont pas de lien avec la violence. Par exemple, si Boko Haram créait une page sur Facebook pour discuter de cuisine, nous fermerions cette page. Nous n’autorisons pas non plus l’apologie de ces groupes, de leurs membres ou de leurs actions. Quand on réfléchit à ce qu’est la propagande terroriste, c’est tout ce qui aide la cause ou le but de ces groupes. Si quelqu’un dit : « Daesh c’est génial, rejoignez-les », c’est contraire à nos règles. Si quelqu’un publie, après une attaque comme celle de Magnanville, un message « c’était marrant » ou « je suis content que ça soit arrivé », nous considérons que c’est un soutien à un groupe terroriste, et nous supprimons aussi ces messages.

Sur la pédopornographie, il existe une alliance entre Facebook, YouTube, Twitter… Une collaboration similaire est-elle prévue sur le terrorisme ?

M. B. : Nous essayons déjà de partager nos meilleures pratiques et des empreintes d’images avec d’autres entreprises. Nous avons commencé il y a deux ans : nous travaillons avec une vingtaine de réseaux sociaux qui discutent régulièrement entre eux.

B. F. : Ces discussions se déroulent depuis très longtemps de manière informelle. Mais avec Twitter, Microsoft et YouTube, nous partageons les empreintes de vidéos et d’images terroristes. A chaque fois qu’une nouvelle empreinte est placée dans la base de données, nous vérifions tous que cette vidéo n’est pas présente sur nos plate-formes. Dans certains cas, nous ne trouvons rien, dans d’autres, nous découvrons qu’une vidéo ou une photo était parvenue à se glisser entre les mailles du filet. Nous avons beaucoup de systèmes différents, et il n’y a pas de réponse unique. Nous ne sommes pas parfaits, nous ne promettons pas que toute la propagande terroriste va disparaître du jour au lendemain, mais nous travaillons à faire de Facebook un endroit hostile pour les terroristes.

Partagez-vous aussi des informations sur les utilisateurs problématiques ?

M. B. : Nous sommes toujours à la recherche de nouvelles manières de collaborer avec d’autres entreprises. Mais nous devons aussi faire très attention au respect de la vie privée, et nous assurer que nous agissons de manière responsable. On me demande souvent : « Est-ce que les réseaux sociaux en ont vraiment quelque chose à faire ? » Oui, bien sûr. Ce n’est pas bon pour personne d’avoir des terroristes dans sa communauté en ligne. Tout le monde veut se débarrasser de ces contenus.

Allez-vous changer les règles de modération de Facebook ?

M. B. : Nous ne changeons pas nos règles. Nous mettons juste en place des moyens de trouver ces contenus plus rapidement, pour mieux faire respecter ces règles.

La propagande terroriste sur Facebook, nous n’en voulons pas. La technologie va nous aider à la trouver plus rapidement, et nous voulons le faire sur tous nos services. Et nous continuerons de travailler avec nos partenaires, les associations, les universitaires qui travaillent sur ces sujets, pour comprendre comment nous pouvons avoir une longueur d’avance sur une menace en évolution constante.

Nous travaillons aussi sur différentes initiatives sur la manière dont les gens peuvent lutter contre la radicalisation, nous avons fait des recherches pour voir comment le contre-discours peut fonctionner, en France comme en Europe.

« Il n’existe pas de filtre magique »

Paris et Londres ont présenté, mardi 13 juin, un plan d’action conjoint contre la propagande terroriste en ligne. Les gouvernements français et britannique disent notamment vouloir automatiser la suppression de ces contenus. « Nous le faisons déjà. Nous investissons dans des technologies qui suppriment rapidement ces contenus, et nous le faisons depuis des années », répond Monika Bickert, directrice des politiques publiques de Facebook, interrogée sur ce sujet.

« C’est important de dire que ce n’est pas aussi facile que d’appuyer sur un bouton, qu’il n’existe pas de filtre magique qui supprimera ces contenus », ajoute-t-elle, précisant que Facebook entretient « un dialogue continu » avec les gouvernements. « Si nous voyons quelque chose qui représente une menace imminente, nous le communiquons aux autorités compétentes, en France comme ailleurs, dit-elle. Nous avons des personnes issues des forces de l’ordre qui travaillent dans notre équipe légale, et qui gèrent ces relations. Pour les affaires de terrorisme, il y a parfois des demandes urgentes ; nous sommes en mesure d’y répondre vingt-quatre heures sur vingt-quatre, sept jours sur sept. »