« Jusqu’à il y a peu, cet homme n’existait pas », plaisante Nick Thomson, le rédacteur en chef du magazine Wired, en désignant l’homme assis en face de lui. Cet homme, c’est William Roper. Il dirige le Strategic Capabilities Office (SCO), une section du ministère de la défense américain chargée d’imaginer et d’anticiper les conflits armés du futur, de « faire le lien entre la science et le champ de bataille ». L’existence même de ce département était, encore récemment, classifiée.

William Roper prévient : ses équipes se concentrent sur le futur proche. « Je suis incapable de voir à vingt ou trente ans », lance-t-il. Ce qui rend son exposé d’une heure, tenu lundi 13 mars lors du festival SXSW à Austin (Etats-Unis), encore plus vertigineux, tant il semble nous parler d’un futur lointain et dystopique.

Le jeu vidéo invité sur le champ de bataille

M. Roper, qui se dit « fasciné par le monde des jeux vidéo », explique que son ministère est « très actif dans ce domaine ». Il imagine notamment un système de réalité augmentée qui permettrait aux soldats d’apposer dans l’espace un marqueur, par exemple s’ils repèrent un ennemi caché derrière un mur. Ce marqueur serait ensuite visible de tous les autres soldats de leur bataillon. M. Roper rêve aussi que les soldats puissent voir dans leur champ de vision une carte miniature signalant les alliés et les ennemis, à la manière de ce qui se fait couramment dans les jeux vidéo de tir et de guerre. Le tout sans trop « distraire » le soldat qui doit continuer à pouvoir faire la guerre.

« Les jeux vidéo tentent d’imiter la guerre le mieux possible. Je ne serais pas surpris qu’on commence à faire la guerre comme dans les jeux vidéo, les capacités en termes de stratégie qui sont développées à haut niveau [par les joueurs] peuvent nous être précieuses. »

Il imagine ainsi que la ligne de front des théâtres d’opération soit peuplée par « des machines contrôlés par des humains en retrait ». Une évolution qu’il estime être « la base de la guerre du futur ».

Des guerres entre robots

Un éloignement de l’humain du champ de bataille déjà entamé par les drones, et qu’il estime même devoir aboutir à une automatisation d’une partie des tâches guerrières. Cette automatisation est en marche. Il évoque ainsi le test récent de « nuées de drones » : volant en groupe, ils s’adaptent à l’ajout ou à la perte de nouveaux drones. Complètement autonomes, « ils travaillent en équipe, sans leader » et peuvent être déployés depuis des avions de chasse en plein vol, notamment pour des missions de surveillance.

« L’automatisation va réellement changer notre manière de penser la guerre », explique M. Roper :

« Le drone tel qu’on le connaît aujourd’hui, qui fonctionne certes à distance mais avec un pilote, n’est pas une idée nouvelle : le concept remonte à la deuxième guerre mondiale. Là, on va pouvoir déléguer la prise de décision. C’est une des choses sur lesquelles il faudra se pencher : la manière dont on fait de l’humain un bon quarterback [le poste de stratège dans une équipe de football américain] d’une équipe de machines, qui agissent de manière autonome, sous sa supervision. »

« Je ne pense pas qu’on va voir des guerres entre machines immédiatement », nuance-t-il toutefois. Et puisque l’obsession des armées modernes est de minimiser les pertes humaines dans leurs rangs, « comment penser la guerre quand ceux qui se battront seront principalement des robots ? »

Quel rôle pour l’humain ?

Faut-il pour autant sortir l’humain du cycle de décision ? Non, répond M. Roper. L’argument est moins éthique que pragmatique : « Nos cerveaux sont des processeurs qui détectent des schémas ou font du calcul de risque qu’on a du mal à faire faire à des ordinateurs. Il faut rassembler les deux », explique-t-il.

Y a-t-il, alors, un risque de voir l’arme se retourner contre son créateur ? On aimerait une réponse négative et franche. Raté : « on y réfléchit en permanence », répond-t-il. Faut-il donc renoncer à développer certaines technologies dangereuses à long terme ? Même espoir, même déception : « si nous pouvons le construire, nous devons le faire car quelqu’un va le faire de toute façon ».

M. Roper tente une allégorie pour rassurer l’audience, développant que l’idée est que l’être humain garde une certaine forme de maîtrise sur le fonctionnement global d’une arme autonome :

« Prenez votre système immunitaire : il est extrêmement complexe, et vous n’avez jamais espéré le contrôler directement. Mais il fonctionne. Le médecin, cependant, dispose de certains moyens généraux pour le contrôler. Nous essayons de répliquer cette logique : faire en sorte que l’opérateur ait le contrôle sans avoir à diriger individuellement chaque composant. »

Concrètement, les drones autonomes que son département a imaginés disposent d’un garde-fou qui les fait s’éteindre s’ils s’aventurent en dehors d’une zone donnée.

Les données, carburant de la guerre du futur

Un des autres axes de travail du SCO, c’est la donnée. Pour M. Roper, « le Pentagone n’a pas encore réalisé que les données seront le principal outil et carburant de la guerre du futur ». Selon lui, l’armée américaine voit davantage la donnée comme un actif à protéger que comme une ressource à utiliser : « on ne la considère pas comme le font par exemple Google ou Amazon, ou ceux qui travaillent sur le machine learning », poursuit-il.

Concrètement, explique M. Roper, l’analyse des données pourrait optimiser le fonctionnement de l’armée : « Nous avons de formidables logisticiens capables de monter de toutes pièces une ville en Afghanistan. Mais si on analysait toutes les données comme le fait par exemple UPS, on pourrait optimiser encore le fonctionnement de nos bases ».

Plus fondamentalement, les mécanismes d’automatisation sont intrinsèquement dépendants de l’analyse de grandes quantités de données passées, dont se nourrissent les mécanismes d’intelligence artificielle :

« Le Pentagone devrait traiter les données comme un actif stratégique et se mettre à stocker toutes les données de tous les tests, de tous les vols, toutes les données qu’il produit : nous nous battons avec des systèmes qui n’apprennent pas. Mais que se passera-t-il si nous affrontons une armée plus intelligente au fil des jours de combats car elle apprend de ses données ? »

Manipulations génétiques

Ces temps-ci, M. Roper « lit beaucoup de livres de biologie », « une des choses qui m’empêchent de dormir la nuit » :

« On ne sait pas ce que la modification génétique pourra faire. Faire un soldat parfait, lui donner des capacités qu’il n’a pas naturellement… Cela sera le Far West pendant un moment. Si on peut rendre les gens plus forts, plus rapides, doit-on pour autant le faire et jusqu’à quel point ? Mais on ne pourra pas éviter la question. »

« Nous respectons la vie humaine : les pays qui n’ont pas les mêmes valeurs auront un avantage comparatif car ils feront des expérimentations sur des humains [pour les améliorer] », estime ainsi M. Roper.

Cette armée technologique dopée à l’intelligence artificielle évitera-t-elle les morts civiles, à l’inverse des drones, fleuron technologique actuel de l’armée américaine ? L’armée du XXIsiècle n’évitera pas les erreurs sanguinaires de celles qui l’ont précédée, selon M. Roper :

« Quelle que soit l’intelligence des machines et la qualité des soldats, il y a aura toujours des bavures. Nous devons en diminuer le nombre au maximum, mais la guerre sera toujours l’enfer. »

Elle sera toujours aussi une manœuvre psychologique, dont la présence de M. Roper à SXSW est une partie intégrante. « Nous ne voulons pas aller à la guerre, nous voulons même l’empêcher » : pour dissuader les ennemis de l’oncle Sam, rien de mieux que de vanter les prouesses technologiques de son armée. Dans une certaine mesure : une part importante des projets du SCO sont secrets. Au cas où.