L’homme qui a tué 50 personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande, a diffusé en direct sur Facebook son massacre. / Stephen Lam / REUTERS

Comment faire pour éviter que se reproduisent, sur Facebook, des diffusions en direct de vidéos abominables comme celles du 15 mars dernier ? Ce jour-là, un homme a assassiné cinquante personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande, et a retransmis les images en direct sur Facebook – sans que rien ne vienne entraver la diffusion, pendant dix-sept minutes, de la vidéo.

Ce n’est pas la première fois que le service « Facebook Live », permettant aux internautes de diffuser des vidéos en direct sur le réseau social, pose problème : il a par le passé servi à retransmettre des meurtres, des suicides, des viols ou des tortures.

En réponse à ce problème, l’entreprise a annoncé, mercredi 15 mai, plusieurs mesures dans un communiqué. La première consiste à interdire l’utilisation de « Facebook Live » à toute personne qui aurait enfreint les « politiques les plus sensibles » du réseau social. Si Facebook ne liste pas lesquelles, l’entreprise précise : « Par exemple, quelqu’un qui partage un lien vers un communiqué d’un groupe terroriste sans élément de contexte se verra immédiatement interdire l’utilisation de Facebook Live pour une période déterminée. » Facebook cite, pour cet exemple, une interdiction d’une durée de trente jours pour l’utilisateur concerné.

Si cette mesure peut potentiellement limiter certains abus, elle n’est toutefois pas de nature à les empêcher, puisque la restriction d’accès sera temporaire. Qui plus est, seules les personnes ayant déjà enfreint les règles de Facebook seront privées de retransmission en direct, ce qui ne sera pas forcément le cas de toutes les personnes s’apprêtant à diffuser des images interdites ou problématiques à travers l’option « Facebook Live » de leur profil.

Limiter les copies

Facebook dit aussi vouloir s’attaquer à une autre partie du problème : les copies de ces vidéos. Dans le cas de Christchurch, la vidéo a engrangé 200 vues en direct, et 4 000 avant d’être supprimée. Mais la vidéo a été téléchargée, copiée et a continué à circuler sur Facebook et d’autres plates-formes comme YouTube, qui ont peiné à les faire disparaître. Facebook avait alors annoncé avoir supprimé, en 24 heures, 1,5 million de copies. Parmi elles, des versions parfois modifiées du massacre (extraits seulement, recadrages, ajouts de textes…), « ce qui a rendu leur détection difficile pour nos systèmes », souligne Facebook.

Pour remédier à ce problème, l’entreprise a décidé d’investir dans la recherche afin de développer des technologies plus efficaces pour détecter automatiquement des copies modifiées de vidéos. Et annoncé des partenariats avec des chercheurs des universités du Maryland, Cornell et Berkeley, « pour un total de 7,5 millions de dollars », précise Facebook, soit 6,7 millions d’euros.

L’entreprise ajoute que ces recherches permettront plus largement de lutter « contre les contenus manipulés », et notamment les « Deepfakes ». Il s’agit de vidéos modifiées à l’aide de systèmes d’intelligence artificielle qui permettent assez facilement, par exemple, d’insérer un visage à la place d’un autre.

Un appel présenté à Paris

Le jour qu’a choisi le réseau social pour annoncer ces mesures ne doit rien au hasard. Ce mercredi 15 mai, Emmanuel Macron et Jacinda Ardern, la première ministre de Nouvelle-Zélande, doivent présenter conjointemen, depuis Paris, « l’appel de Christchurch » contre le terrorisme en ligne. Celui-ci mentionne justement les problèmes posés par la diffusion de vidéos terroristes en direct, à travers les fonctionnalités de vidéos « Live » qui sont apparues sur plusieurs réseaux sociaux publics ces dernières années (Facebook, Twitter, Youtube…).

Cet « appel de Christchurch », non contraignant, énonce plusieurs principes pour lutter contre les contenus terroristes en ligne, et appelle les entreprises du Web, notamment, à limiter les impacts négatifs de la diffusion d’images en direct.