Le robot MAARS, de la société QinetiQ, conçu pour des missions de reconnaissance.

« Les armes autonomes mortelles menacent de devenir la troisième révolution de la guerre », écrit Toby Walsh dans une lettre ouverte aux Nations unies, rendue publique le 20 août 2017. Ce chercheur australien est professeur en intelligence artificielle à l’université de Nouvelle-Galles du Sud, à Sydney, et une figure mondialement reconnue dans le domaine.

« Ces armes peuvent être des armes de terreur, des armes que des despotes et des terroristes utilisent contre des populations innocentes, et des armes piratées pour agir de façon indésirable. Nous n’avons pas longtemps pour agir. Une fois que la boîte de Pandore est ouverte, il est très difficile de la refermer. »

Par « arme autonome mortelle », on désigne des robots militaires capables d’ouvrir le feu sans intervention humaine — et qui vont d’armes ouvrant automatiquement le feu sur des intrus à des robots et drones beaucoup plus complexes.

Cette lettre, à la rhétorique très alarmiste, a été signée par cent seize fondateurs d’entreprises dans la robotique et l’intelligence artificielles de vingt-six pays, et demande l’interdiction pure et simple des armes autonomes. Parmi les noms les plus connus se trouvent Elon Musk, le fondateur de Tesla, et Mustafa Suleymane, fondateur de DeepMind, chez Google.

« Ce sont les intelligences artificielles stupides qui nous inquiètent »

La présentation de la lettre a eu lieu lors de la cérémonie d’ouverture de l’International Joint Conference on Artificial Intelligence (IJCAI) qui se déroule du 21 au 25 août à Melbourne. La ICJAI rassemble chefs d’industrie et chercheurs en intelligence artificielle et abordera les questions de l’automatisation du travail, des robots tueurs et de la singularité, cette théorie selon laquelle une superintelligence artificielle dépassant notre entendement apparaîtra dans les prochaines décennies, avec des conséquences radicales pour l’espèce humaine.

Toutefois, « plutôt que les intelligences artificielles intelligentes, ce sont les intelligences artificielles stupides qui nous inquiètent en ce moment », déclare Toby Walsh sur la chaîne américaine ABC. Les armes autonomes sont pour la plupart au stade de prototypes. Mais contrairement aux scénarios de science-fiction, il est sûr qu’elles arriveront sur le marché de la guerre — et ce d’ici deux à trois ans, prédit le chercheur. Toby Walsh vient d’ailleurs de publier un livre sur la question : It’s Alive ! : Artificial Intelligence from the Logic Piano to Killer Robots.

C’est la deuxième fois qu’une lettre ouverte de Toby Walsh est publiée sur le site du Future of Life Institute, une fondation soutenue entre autres par Elon Musk, par le scientifique Stephen Hawking — et par l’acteur Morgan Freeman. La première date de juillet 2015. Elle s’inquiétait déjà des armes autonomes qui « pourraient inclure, par exemple, des quadcoptères armés qui peuvent chercher et éliminer des personnes correspondant à des critères prédéfinis, mais elles n’incluent pas les missiles de croisière ou des drones pilotés à distance, situations dans lesquelles des humains prennent la décision de tirer ».

A l’époque, les Nations Unies avaient balayé ces inquiétudes, déclarant au Guardian que « la loi internationale humanitaire réglemente déjà suffisamment ce domaine ». Mais les débats restent vifs sur ce sujet, y compris au sein des états-majors.