Analyse. C’est un éternel recommencement : lundi 3 juin, le New York Times publiait une longue enquête montrant que des vidéos familiales d’enfants peu habillés, publiées sur YouTube, ont accumulé des centaines de milliers de vues après avoir été proposées par l’outil de recommandation de la plate-forme à des internautes intéressés par des vidéos d’enfants dénudés. Le problème n’est pas franchement nouveau : il est clairement identifié depuis plus d’un an, et malgré les mesures annoncées en 2018 par YouTube, dont une amélioration des outils de modération et la fermeture des commentaires sous les vidéos de mineurs, il est toujours là.

Même scénario, ou presque, pour les messages anti-vaccination sur Facebook : alors que le réseau social a pris plusieurs mesures, en mars, pour limiter les contenus mensongers des groupes et militants « antivax », une enquête du Wall Street Journal montre que ces efforts n’ont eu qu’un impact très limité. La responsable des contenus de Facebook, Monica Bickert, le reconnaît elle-même : « Nous n’en sommes pas au point que nous souhaitons atteindre, et nous le savons », a-t-elle dit.

On pourrait multiplier les exemples à l’infini : à l’exception des images de propagande de l’organisation Etat islamique, dont les contenus sont bloqués automatiquement avec un fort taux de succès sur toutes les grandes plates-formes, et dans une moindre mesure des images pédopornographiques, tous les géants du Web sont empêtrés dans les affres de la modération. Tour à tour accusés de censurer des opinions légitimes et d’inaction coupable contre les contenus illégaux, Google, Twitter ou Facebook ont multiplié les changements de règles, annoncé avoir musclé leurs équipes de modération, et investi des dizaines de millions d’euros dans le développement de systèmes automatisés pour mieux détecter les contenus à supprimer.

Et pourtant. Avec plusieurs milliards d’utilisateurs combinés, ces efforts, que l’on peut juger tardifs et timorés mais qui sont réels, n’ont fait que doter les nettoyeurs des écuries d’Augias de pelles d’un peu meilleure qualité. Les appels à la haine sont toujours aussi nombreux sur Twitter, les vidéos virales de désinformation fonctionnent toujours sur Facebook ou YouTube.

Un problème d’amplification plus que de modération

En grande partie parce que les grandes plates-formes ont jusqu’à présent choisi le mauvais outil pour l’aborder, avec la bénédiction des gouvernements du monde entier – notamment européens. En se focalisant, comme l’a fait Emmanuel Macron lors de sa récente rencontre avec Mark Zuckerberg, sur le retrait des contenus illégaux, ces derniers se trompent en partie de cible, à en croire le consensus qui émerge depuis des mois chez les spécialistes de la diffusion des contenus en ligne et des réseaux sociaux.

Les grandes plates-formes n’ont pas tant un problème de modération qu’un problème d’amplification, arguent des chercheurs comme l’Américaine Renée di Resta, qui a notamment travaillé sur la diffusion des messages anti-vaccination. La suppression en masse des contenus ne marche pas, et est potentiellement attentatoire à la liberté d’expression, arguent ces experts, qui défendent majoritairement la conception américaine très extensive de la liberté de parole.

Les bons outils – et la responsabilité des réseaux sociaux – sont à chercher ailleurs : dans la manière dont ces plates-formes amplifient naturellement les discours extrémistes, choquants, ou provocateurs. La lutte contre les contenus haineux n’est pas tant une question de modération que d’algorithmes, arguent-ils.

Et ces arguments, convaincants, touchent au modèle même des plates-formes sur lesquelles chaque détail, de la couleur des boutons aux choix des images d’aperçu, est conçu pour maximiser « l’engagement » de l’utilisateur, le fait qu’il passe plus de temps connecté, qu’il regarde davantage de vidéos, qu’il partage toujours plus de contenus.

Mécanismes de la viralité

YouTube le reconnaît bien volontiers : ses recommandations de vidéos à regarder sont la plus importante source de trafic. Mais lorsqu’un système ultraperfectionné fait tout son possible pour nous inciter à rester connectés et actifs, il appuie, sans nécessairement que cela résulte d’une volonté délibérée, sur une série de ressorts psychologiques qui ne sont pas franchement vertueux : la colère, l’excitation sexuelle, la peur... Ces mécanismes de la viralité sont bien connus, et ont été exploités avec un certain talent, en 2016, par les campagnes de désinformation qui ont perturbé la campagne présidentielle américaine.

Ces systèmes de recommandation sont centraux dans le fonctionnement – et les statistiques de fréquentation – des grandes plates-formes, et ces dernières défendent jalousement le code informatique qui les régissent, considéré comme l’un de leurs plus importants secrets industriels. Les appels à plus de transparence sur leur fonctionnement ont été accueillis jusqu’à présent avec un silence poli, même si de plus en plus de voix se font entendre pour dire que le rôle majeur que jouent les réseaux sociaux dans le débat public justifierait que ces algorithmes puissent être, a minima, audités par des experts indépendants.

La question de la transparence des algorithmes

Petit à petit, pourtant, les attitudes évoluent, tant du côté des décideurs politiques qui se penchent de plus en plus sur la question de la transparence des algorithmes, que des géants du Web, qui ont montré ces derniers mois qu’ils étaient, au moins dans certains cas précis, prêts à faire évoluer leurs outils de recommandation pour la santé du débat public.

Facebook a ainsi annoncé en mars qu’il réduirait la viralité de certains contenus anti-vaccination, et YouTube affirmait en janvier qu’il modifierait la manière dont les vidéos d’enfants sont gérées par son algorithme de recommandation. La démarche est louable, le degré de transparence moins : aucune des deux plates-formes n’a détaillé ce qui allait changer, et les résultats se font encore attendre.