« L’algorithme de recommandation de YouTube, qui suggère les vidéos à regarder, présente un biais net en faveur de Mélenchon, Le Pen et Asselineau. » C’est en ces termes qu’est présentée la conclusion d’une récente étude de Data for Good, une association regroupant développeurs et scientifiques spécialisés dans la collecte de données.

Pendant deux semaines, du 27 mars au 10 avril, plusieurs de ses membres ont testé un programme (disponible par ailleurs en open source). Il avait pour mission de chercher chaque jour sur YouTube le nom des onze candidats à la présidentielle française. Il naviguait ensuite sur les vidéos dites « suggérées », c’est-à-dire celles contenues dans l’onglet « à suivre », qui figure à droite de l’écran sur la plate-forme.

15,8 % des suggestions concernent François Asselineau

Résultat, parmi les candidats les plus cités, quelle que soit la recherche de départ, on trouve Jean-Luc Mélenchon, Marine Le Pen, et François Asselineau. Ce dernier est par exemple dans 15,8 % des vidéos suggérées qui comportent le nom d’un candidat dans leur titre. C’est environ trois fois plus que Benoît Hamon, « tandis que, souligne un communiqué de presse, les intentions de vote respectives de ces candidats, telles que rapportées par les sondages, varient inversement ».

22,9 % des vidéos suggérées comportant le nom d’un candidat évoquaient Jean-Luc Mélenchon dans leur titre. | AlgoTransparency / Data for Good

Ces chiffres apparaissent, selon les auteurs du rapport, d’autant plus suspects que certaines vidéos suggérées n’ont qu’assez peu de vues.

« Le 12 avril, pour “Emmanuel Macron”, la deuxième vidéo la plus suggérée par YouTube était “Pourquoi vais-je voter Asselineau ?” », cette vidéo était 10,4 fois plus suggérée que la moyenne des vidéos suggérées sur cette requête, alors qu’elle comptabilise seulement 1 227 vues. Elle était l’une des vidéos les plus suggérées par YouTube sur de nombreux candidats. »

Sur quels critères se base l’algorithme ?

En réalité, si l’algorithme de YouTube prend largement en compte le nombre de vues pour la construction de son onglet « Tendances », c’est très peu le cas lorsqu’il s’agit de la colonne « à suivre » observée par l’étude. Ce sont d’autres critères qui prédominent, parmi lesquels :

  • les préférences individuelles, qui se basent sur les vidéos que l’on a regardées ou aimées précédemment, ou sur nos abonnements (pour sa mesure, Data for Good a utilisé un « compte neutre », cela ne saurait donc faire office d’explication) ;
  • les « avis » donnés sur les vidéos, obtenus grâce au ratio de « j’aime » ou par des sondages réalisés directement par YouTube ;
  • les recherches effectuées par d’autres personnes. Si les internautes ont cherché plus de contenus sur Jean-Luc Mélenchon, Marine Le Pen et François Asselineau que sur d’autres candidats durant les quinze jours de la durée de l’étude, cela pourrait ainsi expliquer en partie les chiffres obtenus ;
  • le nombre de vidéos postées à ce moment-là par chacun des candidats ou leur étant consacrées, ou leur « qualité ». Par exemple, un titre accrocheur et une miniature soignée peuvent booster un contenu dans les suggestions.

« Une large diversité de contenus »

Contacté, YouTube n’a pas souhaité dire quelle pourrait être l’explication à privilégier dans ces exemples. L’entreprise s’est contentée de rappeler que « les utilisateurs de YouTube s’intéressent à une large diversité de contenus », ce dont les recommandations seraient « le reflet » :

« Toute insinuation selon laquelle notre algorithme serait biaisé en faveur de certains candidats est fausse. En réalité, notre algorithme recommande toutes sortes de contenus, issus des chaînes officielles des candidats, de médias ou de créateurs, reflétant toutes les opinions politiques. »

Pas sûr que cela suffise à convaincre Data for Good, qui reproche justement à la plate-forme le manque de transparence de son algorithme. Un non-dit jugé d’autant plus problématique que, selon les chiffres de Médiamétrie, YouTube aurait compté, rien qu’en février 2017, en France, 28 millions de visiteurs uniques.

Dans la liste des vidéos suggérées lorsqu’on tape le nom de Philippe Poutou sur YouTube, 28 % de contenus comportant le nom d’un candidat concernaient François Asselineau. | AlgoTransparency

Critères « suspects »

En janvier déjà, L’Express relayait une réunion entre la direction interministérielle des systèmes d’information et de communication de l’Etat (Dinsic) et Google. Elle avait pour objet d’aborder, à ce stade de manière très informelle, la question d’éventuelles manipulations de l’algorithme du grand groupe américain qui possède YouTube.

« Il se passe des choses anormales. Lorsque vous regardez des vidéos sur les réseaux sociaux, ceux-ci vous proposent d’autres vidéos supposées correspondre à vos centres d’intérêt et qui ont été beaucoup regardées. »

Le directeur de l’Agence nationale de la sécurité des systèmes d’information (Anssi) estimait alors que certains critères faisant que certaines vidéos étaient suggérées ou non étaient « suspects ». Il avait, devant les sénateurs, parlé d’opération d’« influence », « relativement déloyale ». Sans détailler pour autant comment ces suggestions auraient pu être manipulées, ni au profit de qui.