Facebook cherche encore la bonne solution contre les « fake news »
Facebook cherche encore la bonne solution contre les « fake news »
Par Alexandre Piquard, Martin Untersinger
Les atermoiements de Mark Zuckerberg sur le négationnisme et la volonté du réseau social de supprimer certaines « fausses informations » montrent que la question est loin d’être résolue.
Facebook commence à céder à la pression sur les fausses informations. Le réseau social a annoncé mercredi 18 juillet qu’il allait supprimer certaines « fake news », si ces dernières étaient susceptibles de déboucher sur des actes violents. Le réseau social est accusé de laisser se propager des rumeurs à l’origine de heurts, tout particulièrement en Birmanie et au Sri Lanka.
« Dans certains pays, nous avons constaté que de fausses informations pouvaient déboucher sur de la violence physique. Au Sri Lanka, par exemple : nous aurions pu faire plus et nous allons faire plus » a expliqué Tessa Lyons, une des responsables de l’équipe chargée de la lutte contre les fausses informations, devant des journalistes – dont Le Monde – invités au siège californien de l’entreprise.
L’entreprise a donc mis à jour ses règles et a déjà commencé à supprimer de fausses informations aux effets potentiellement violents. Au Sri Lanka, le réseau social explique avoir ainsi supprimé des messages affirmant que les musulmans empoisonnaient de la nourriture consommée par des bouddhistes. Ces règles devraient être progressivement élargies à la Birmanie, puis au monde entier.
Facebook amorce un changement de politique
Cette annonce est une inflexion par rapport à la politique plus permissive appliquée jusqu’ici par Facebook sur les fake news, et qui a valu quelques critiques à Mark Zuckerberg. En effet, Facebook a choisi jusqu’à maintenant de ne pas dépublier de sa plateforme les fausses informations mais plutôt de « réduire » leur propagation sur la plateforme. Une politique différente de celle appliquée pour les contenus haineux ou terroristes, qui sont, eux, supprimés.
Dans le cas des fausses nouvelles, le réseau social dit chercher l’équilibre entre le besoin de « protéger sa communauté » et le respect de la libre expression. Mark Zuckerberg, dans un long entretien au site Recode, s’est lancé dans une métaphore sensible pour expliquer sa position :
« Je suis juif et il y a un groupe de gens qui nient que l’Holocauste a existé. Je trouve cela très choquant mais au bout du compte, je ne crois pas que notre plateforme devrait dépublier ce genre d’argument, parce qu’à mon sens il y a des choses sur lesquelles certaines personnes se trompent. »
L’argumentaire de Mark Zuckerberg épouse la conception anglo-saxonne de la liberté d’expression, plus extensive aux Etats-Unis qu’en Europe. Interrogé sur ce sujet a posteriori, Facebook a reconnu qu’il y avait des différences culturelles et juridiques dans la modération, et précisé que des contenus négationnistes seraient dépubliés en France et en Allemagne, où ils ont illégaux, mais pas aux Etats-Unis.
Là, ils seraient simplement rendus moins visibles sur la plateforme, et éventuellement assortis de liens vers des articles de vérification écrit par l’un des 27 médias – issus de 17 pays – spécialisés dans le fact-checking et partenaires de Facebook (comme Le Monde ou l’AFP).
Les propos de M. Zuckerberg sur l’Holocauste ont déclenché de vives réactions aux Etats-Unis et le patron s’est retrouvé sur la « une » du Daily News, avec le titre : « Les négationnistes méritent de s’exprimer ». Il a dû ensuite préciser sa position, réaffirmant qu’il ne souhaitait « en aucune manière défendre les intentions des [négationnistes] ».
Quelques jours auparavant, Facebook s’était déjà vu accuser d’être trop laxiste en refusant de supprimer la page d’un site pro-Trump connu pour avoir diffusé des fake news aux Etats-Unis : Infowars, un média complotiste édité par Alex Jones. Celui-ci aurait toutefois vu la diffusion sur Facebook de ses contenus réduite de 30 %, assure le réseau.
Une recette introuvable contre les « fake news »
Le changement de politique annoncé jeudi, et les critiques qu’a dû essuyer Mark Zuckerberg, montrent que l’entreprise peine encore à trouver la bonne formule pour faire face aux fausses informations.
Le réseau social n’a ainsi pas expliqué comment seront déterminées les fausses informations susceptibles d’engendrer des actions violentes, se bornant à mentionner l’implication d’ONG et d’acteurs de la société civile sur le terrain. De même, les limites entre ce type particulier de fausse information et les discours haineux, qui sont déjà, en théorie, bannis sur le réseau social, restent encore floues.
Depuis plusieurs semaines, Facebook avait, sur ce dossier, le dos au mur. Dans certains pays, le réseau social est fortement critiqué pour laisser se propager des articles, des images et des vidéos qui, sans contenir d’appel direct à la haine, servaient de terreau à des actions violentes.
A tel point qu’au Sri Lanka, les autorités ont choisi, en avril, de bloquer l’accès au réseau social dans l’espoir de limiter les dégâts. Des violences liées à des rumeurs, sur Facebook ou Whatsapp (messagerie possédée par Facebook), sont aussi survenus en Birmanie et en Inde, notamment.
Plus largement, le réseau social est confronté de manière de plus en plus pressante à l’épineuse question de la modération des contenus indésirables. Le mastodonte s’est construit sur la conception américaine très permissive de la liberté d’expression, mais tente depuis quelques années de trouver une voie alternative, compatible avec ses deux milliards d’utilisateurs dont seulement un sur dix est nord-américain.
Soumis à d’importantes pressions politiques et soucieux de trouver l’équilibre entre liberté d’expression et la protection de ses utilisateurs, le réseau social tente de s’adapter : il réfléchit par exemple à généraliser – y compris par le biais d’une structure indépendante – les « procédures d’appel » qui permettent aux utilisateurs de contester la suppression de leurs messages.
Facebook devrait faire des annonces sur ce sujet « d’ici à six mois ». « Sur les fausses nouvelles ou la modération des contenus, il n’y a pas de solution miracle. C’est une longue bataille », a expliqué John Hegeman, le responsable du newsfeed, cette page d’accueil personnalisée de Facebook qui concentre les débats.