En 2014, jusqu’à 15 % de toutes les contributions sur Wikipédia étaient effectuées par des « bots ». | Quentin Hugon / Le Monde

Quand vous vous rendez aujourd’hui sur la page Wikipédia de Donald Trump, un message d’avertissement s’affiche, annonçant qu’une « guerre d’édition » y a récemment eu lieu. Ce type de conflit intervient quand des contributeurs en désaccord se livrent un bras de fer sur une information et ne cessent de modifier la page, et d’annuler les contributions de l’autre, espérant avoir le dernier mot. Il n’est pas très étonnant qu’un personnage aussi controversé que Donald Trump soit l’objet d’un de ces conflits. Ce qui l’est plus, c’est que des « bots », eux aussi, se livrent des guerres d’édition sur Wikipédia.

Ce phénomène a fait l’objet d’une étude publiée jeudi 23 février dans la revue Plos One, par des chercheurs de l’Oxford Internet Institute et de l’Alan Turing Institute. Ces scientifiques ont étudié comment ces petits programmes informatiques, censés effectuer des tâches automatiques sur Wikipédia, interagissaient entre eux, en regardant comment ils avaient modifié l’encyclopédie entre 2001 et 2010, dans treize langues.

« En ligne, le monde s’est transformé en un écosystème de bots. Et pourtant, notre connaissance sur la façon dont ces agents interagissent entre eux est très limitée », peut-on lire dans l’étude. Ces programmes sont développés par des contributeurs de Wikipédia, selon des règles prédéfinies, et doivent être validés par d’autres wikipédiens avant d’être lancés sur la plate-forme. Ils agissent ensuite de façon autonome pour des tâches de maintenance sur l’encyclopédie : selon la façon dont ils sont programmés, ils peuvent par exemple repérer le vandalisme, identifier les violations de droits d’auteur, mais aussi intervenir directement dans les articles, comme les contributeurs humains, pour corriger des fautes d’orthographe ou créer des liens entre différents articles.

Ces « “batailles” stériles durent parfois des années »

Seulement voilà, si au début ces bots étaient rares et effectuaient chacun leurs tâches de leur côté, ils se sont peu à peu multipliés, jusqu’à effectuer, en 2014, près de 15 % de toutes les contributions, selon une autre étude menée par un chercheur de Google. Résultat : ils ont parfois fini par interagir, en modifiant les contributions des autres. Chacun étant programmé différemment, il se peut que les règles qui les animent ne soient pas toutes compatibles entre elles, et mènent à des guerres d’édition. « Bien que les bots de Wikipédia soient censés aider l’encyclopédie, ils défont souvent ce que d’autres ont fait, et ces “batailles” stériles durent parfois des années », expliquent les chercheurs.

« Les articles les plus contestés sont souvent ceux sur les pays étrangers et sur les personnalités », notent les auteurs de l’étude. Deux bots ont notamment passé beaucoup de temps à s’affronter, souligne le Guardian : Xqbot et Darknessbot se sont battus sur 3 629 articles différents entre 2009 et 2010, les deux ayant annulé environ 2 000 contributions de l’autre, sur des articles extrêmement divers.

Mais contrairement aux guerres d’édition entre humains, pas de grand conflit idéologique dans les batailles entre bots. Il s’agit en fait souvent de batailles très techniques :

« Nous avons remarqué que la plupart des désaccords interviennent entre des bots spécialisés dans la création et la modification de liens entre différentes langues de Wikipédia. Ce manque de coordination pourrait s’expliquer par le fait que les différentes éditions de Wikipédia ont des règles et des conventions sensiblement différentes sur les questions de dénomination. »

Xqbot et Darknessbot ont, de leur côté, tous les deux pour tâche de corriger les « doubles redirections ». Une redirection est par exemple quand la page « e-mail » redirige vers la page « courrier électronique ». La double redirection, qui crée des dysfonctionnements, intervient dans le cas où la page « e-mail » renverrait vers « courriel », qui elle-même renverrait vers « courrier électronique ».

Contrairement aux humains, les bots ne discutent pas, ne tentent pas de convaincre, ne se lassent pas et ne se fatiguent pas. Ce qui explique que ces conflits s’étendent parfois sur plusieurs années. D’autant plus que ces programmes sont parfois assez lents à réagir : ils ne reçoivent pas de notification leur indiquant qu’une modification, qu’ils pourraient souhaiter annuler, a été faite.

Des implications en intelligence artificielle

Rien de très polémique, donc. Mais ce constat montre, selon les chercheurs, « que même des bots relativement “bêtes” peuvent mener à des interactions complexes, ce qui peut avoir d’importantes implications dans la recherche en intelligence artificielle ». Ils précisent :

« Un nombre de plus en plus important de décisions, options, choix et services dépend désormais du bon fonctionnement de bots. Et pourtant, nous en savons encore très peu sur la vie et l’évolution de nos “serviteurs numériques”. Plus particulièrement, prévoir la façon dont les interactions entre bots vont évoluer, même s’ils se basent sur des algorithmes très simples, représente déjà un défi. »

Un défi qui pourrait avoir, selon eux, des conséquences dans des domaines aussi divers que la cybersécurité, les réseaux sociaux ou encore les voitures autonomes. Dans le Guardian, Taha Yasseri, coauteure de l’étude, souligne que les conflits existent souvent entre des bots créés par des wikipédiens de différents pays et cultures. « Cette complexité est un aspect fondamental qui doit être pris en compte dès qu’on parle d’automatisation et d’intelligence artificielle », assure-t-elle.

En attendant, l’étude précise qu’une grande partie des conflits observés entre 2001 et 2010 n’ont plus lieu d’être aujourd’hui : depuis 2013, des modifications apportées à l’encyclopédie collaborative en ligne facilitent la création de liens entre ses différentes éditions, l’une des sources les plus fréquentes des guerres d’édition entre bots, selon cette étude.