Renée DiResta est chercheuse, spécialiste de la désinformation et « fellow » de la fondation Mozilla, qui finance des recherches sur les manières d’améliorer le Web dans divers domaines. Pixels l’a interrogée lors d’un passage à Paris sur les risques que fait peser la désinformation sur la vie politique, à quelques semaines des élections européennes, mais aussi sur les informations liées à la santé, et notamment les vaccins.

Vous avez témoigné à deux reprises devant le Congrès américain depuis 2016 pour décrire l’ampleur des tentatives de manipulation de l’information russes aux Etats-Unis. Aujourd’hui, les grandes plates-formes, dont Facebook, jugent que la plupart des tentatives sont d’origine nationale. Est-ce que vous constatez cette évolution ?

Facebook a bien sûr beaucoup plus de visibilité que moi sur la quantité de contenus qui sont publiés sur leur plate-forme et, surtout, beaucoup plus d’informations leur permettant d’attribuer une campagne à un acteur donné.

Une chose que l’on peut dire, c’est que l’on observe des différences dans la manière dont ces opérations se déroulent par rapport à 2016. Beaucoup de choses que nous avions vues à l’époque, et que nous avons identifiées par la suite comme d’origine russe, impliquaient par exemple le fait de faire ses propres sites Web. Ce n’est pas quelque chose que nous constatons actuellement.

En revanche, nous voyons régulièrement des comptes étrangers sur les réseaux sociaux qui amplifient des contenus partisans ou hyperpartisans publiés par des médias locaux. C’est un phénomène global, qui ne se retrouve pas qu’aux Etats-Unis. Si vous regardez le mouvement des « gilets jaunes » en France, il y a une véritable colère populaire et des médias hyperpartisans, pro ou anti- « gilets jaunes ». Des comptes amplifient ces positions pour faire croire que la crise est plus importante qu’elle ne l’est réellement, ou pour faire croire que telle ou telle opinion sur le mouvement est majoritaire.

Dans le mouvement des « gilets jaunes », « Russia Today » joue un rôle spécifique : ce média d’Etat russe est très populaire auprès des « gilets jaunes »…

Russia Today et certains autres sites de propagande officiels financés par l’Etat russe sont moins contraints par la précision factuelle, ils peuvent facilement jouer sur des ressorts émotionnels. Or, le cœur des réseaux sociaux, c’est la capacité à capter l’attention. Une position outrée va créer une controverse, les gens vont avoir une réaction forte, et les contenus qui adoptent ce point de vue auront plus de visibilité.

« Une vidéo n’a pas du tout besoin d’être falsifiée pour être instrumentalisée »

C’est encore mieux s’il s’agit d’une vidéo. On l’a vu à plusieurs reprises récemment : ce n’est pas parce que vous avez une preuve vidéo que cette vidéo dit toute l’histoire. Il y a eu un exemple criant aux Etats-Unis récemment, à Covington. Selon la vidéo que vous regardiez, selon le moment de la rencontre qui était filmé, les images montraient des histoires très différentes. Une vidéo n’a pas du tout besoin d’être falsifiée pour être instrumentalisée !

Pour limiter les risques, les grandes plates-formes jugent que la meilleure solution est la transparence. Facebook et Google ont annoncé le déploiement d’outils de transparence des publicités politiques en Europe.

C’est insuffisant. Aux Etats-Unis, nous avons pu voir ces outils de transparence des publicités politiques en action durant les élections de mi-mandat en 2018. L’outil ne remplace pas le besoin de supervision : l’information est là, mais cela ne veut pas dire que quelqu’un la regarde !

Aux Etats-Unis, ce sont les journalistes d’investigation qui ont pris en charge cette supervision. Ces outils permettront de bloquer un certain pourcentage de mauvais acteurs, qui vont buter sur le processus de vérification qui leur est imposé. Mais qui va se charger de vérifier ce qui se cache derrière un nom ou une adresse ?

Si vous êtes un Etat qui cherche à influencer une élection, vous pouvez toujours faire transiter vos fonds par un tiers – c’est pourquoi Facebook doit continuer à observer les comportements de ces annonceurs pour pouvoir détecter les tentatives de manipulation.

Roger McNamee, qui figurait parmi les premiers investisseurs de Facebook, a publié récemment un livre, Zucked (non traduit), dans lequel il explique avoir été très déçu de constater que Facebook considérait en 2016 la désinformation comme un problème de relations publiques, et non un problème structurel. La situation a-t-elle changé ?

Oui. Facebook et les autres entreprises ont beaucoup évolué. Pendant longtemps, quand nous essayions de soulever ces problèmes, il n’y avait aucune manière d’engager une conversation formelle avec ces grandes entreprises. Après les auditions parlementaires, elles ont compris que cela n’allait pas s’arrêter là, que ce n’était pas juste un problème temporaire d’articles négatifs. Le sujet est plus important que ce qu’elles imaginaient, mais cela leur a aussi fourni l’occasion de travailler de manière plus collaborative.

Facebook peut voir, avec une profondeur incroyable, ce qui se passe sur sa plate-forme. Mais en tant que chercheuse externe, je peux voir plus clairement qu’eux comment une campagne de désinformation sur Facebook est liée à ce qui se passe sur d’autres plates-formes, à la manière dont elle est coordonnée.

De même, Facebook a supprimé des comptes en 2018 après avoir reçu des informations des forces de l’ordre. Le FBI a ses propres informations et preuves, notamment sur les flux financiers – s’ils les partagent avec les plates-formes, ces dernières peuvent enquêter de manière beaucoup plus efficace.

Certains arguent que toute idée est protégée par la liberté d’expression (« free speech »), mais que cela ne veut pas dire qu’elle doive bénéficier du même degré d’exposition que les autres (« free reach »).

Je suis très contente que le débat se porte sur ces questions. Il y a plusieurs facteurs : le premier, c’est l’éducation. Les personnes qui ne travaillent pas dans la technologie ne comprennent pas nécessairement comment leur flux d’information est construit. C’est un point sur lequel il faut plus de transparence, et plus de contrôle offert aux utilisateurs.

« Les moteurs de recommandation amplifient les théories du complot »

L’autre point important, c’est de savoir ce qui est recommandé. Les plates-formes ont servi d’outils de tri pendant très longtemps : leur promesse, c’est qu’elles vous proposent des contenus susceptibles de vous intéresser. C’est une amplification gratuite. Mais ces plates-formes n’ont-elles pas une responsabilité dans la manière dont elles recommandent des messages ? Il y a beaucoup de preuves scientifiques qui suggèrent que ces moteurs de recommandation jouent un rôle dans la radicalisation et la polarisation du débat public. Ils amplifient les théories du complot, les contenus sensationnalistes qui suscitent des réactions. Je pense qu’ils ont une responsabilité, mais elle n’est pas si simple à définir.

Vous travaillez depuis plusieurs années sur les mouvements antivaccination en ligne. Fin février, Amazon et YouTube ont pris des mesures pour amoindrir la visibilité de ces théories. Les choses changent-elles ?

J’ai créé une organisation de soutien à la vaccination en 2015, et j’ai suivi de très près ce sujet. Il a fallu des années d’efforts et l’apparition de plusieurs épidémies – il y a actuellement trois épidémies de rougeole dans trois Etats différents aux Etats-Unis – pour que les choses bougent. Les activistes provaccin ont écrit à de multiples reprises sur la manière dont les algorithmes des réseaux sociaux ont impacté leur mouvement : ces algorithmes suggéraient de manière proactive des contenus antivaccin au grand public. Des entités ont eu le droit de publier des publicités disant que les vaccins tuent des bébés, ce qui est fou : c’est de la désinformation dans sa forme la plus pure. Mais ces plates-formes le permettaient, alors qu’elles refusent, par exemple, l’argent de l’industrie du tabac ! Il y a une sorte de déconnexion.

Il a fallu plusieurs années pour expliquer et documenter ce qui se passait. Ces efforts ont débuté à une époque où l’on croyait, spécialement aux Etats-Unis, que l’antidote aux « mauvais discours » était « davantage de discours », et que s’il y avait plus de discours provaccin nous aurions de meilleurs résultats. Mais les algorithmes veulent du contenu sensationnel, émotif, ce qui veut dire qu’un communiqué du Centre pour le contrôle et la prévention des maladies pour rassurer les citoyens, basé sur un langage factuel et scientifique, n’avait pas du tout autant de visibilité que des messages sensationnalistes.

Cela nous amène à une question très importante, et on a vu des professionnels de la santé qui se demandaient comment faire des vidéos virales plutôt que de se concentrer sur leur véritable travail ! L’autre option était de payer des publicités, simplement pour donner au grand public des informations de base. Le fait de pouvoir diffuser ces informations ne devrait pas être conditionné à votre capacité à jouer la carte du sensationnalisme sur les réseaux sociaux.

Après toutes les campagnes que nous avons vues, les élus comprennent bien mieux comment la structure des réseaux sociaux facilite la diffusion de la désinformation. Des députés commencent à demander aux plates-formes de se pencher sur les conséquences de ce qu’elles font. Nous ne voulons pas que nos informations médicales, qu’il s’agisse des vaccins ou du cancer, soient tributaires de la capacité d’acteurs à manipuler un algorithme.

Ne pourrait-on pas utiliser le même argument pour les contenus politiques ?

Les plates-formes commencent à classer la désinformation médicale comme un danger public, comme elles le font depuis un moment pour le suicide ou l’anorexie. La politique est un sujet beaucoup plus épineux et, au-delà des questions de censure, beaucoup plus complexe. Le débat ne peut être tranché que si nous savons à quoi nous voulons que notre débat public ressemble – et aujourd’hui, les questions d’hyperpolarisation sont au cœur de ces discussions.