L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
La Darpa, prestigieuse agence de recherche de l’armée, veut développer des machines qui seront « comme des collègues » pour les militaires.
« La prochaine étape dans la guerre impliquera des systèmes autonomes de plus en plus efficaces, mais avant que nous puissions permettre à de telles machines de collaborer avec des soldats, elles doivent devenir bien plus intelligentes. » C’est pour cette raison que la Darpa (Defense Advanced Research Projects Agency), l’agence de recherche de l’armée des Etats-Unise, a annoncé vendredi 7 septembre un investissement de 2 milliards de dollars (1,73 milliard d’euros), en cinq ans, dans le domaine de l’intelligence artificielle (IA).
La Darpa, une agence de recherche à la pointe sur les technologies, avait déjà notamment contribué au développement de Boston Dynamics, l’une des entreprises de robotique les plus avancées au monde, qui avait conçu le célèbre robot-chien BigDog, initialement conçu pour l’armée.
Doter les machines de sens commun
« La Darpa envisage un futur dans lequel les machines sont bien plus que de simples outils exécutant des règles programmées par des humains (…). Les machines que la Darpa envisage fonctionneront plus comme des collègues que comme des outils », selon les termes employés par l’agence un communiqué présentant ce nouveau programmé, baptisé AI Next.
« Intégrer ces technologies dans des systèmes militaires qui collaborent avec des militaires facilitera la prise de décision dans des zones de combats complexes et où le temps manque ; permettra de comprendre et partager des informations massives, incomplètes et contradictoires ; et de développer des systèmes sans humain pour réaliser certaines missions critiques de façon sécurisée, avec un haut niveau d’autonomie. »
Pour y parvenir, la Darpa compte, entre autres, s’attaquer à de grands défis de l’IA, comme l’« explicabilité » (explainability, en anglais) ou « le sens commun ». La première consiste à rendre les décisions des programmes compréhensibles. Aujourd’hui, les ingénieurs ne sont pas en mesure d’expliquer pourquoi un système basé sur un réseau de neurones artificiels – la technologie à l’origine des grandes avancées de ces dernières années – a pris telle ou telle décision. Or, pour être acceptées par l’armée (et la société en général), ces technologies doivent inspirer confiance. Et cela passe par leur capacité à expliquer leurs décisions et à prouver qu’elles sont rationnelles.
Quant au sens commun, il est indispensable pour que « les machines acquièrent une façon de communiquer et de raisonner proche de celle des humains », et pour qu’elles « soient capables de s’adapter à de nouvelles situations et environnement », explique la Darpa.
La crainte d’une course à l’armement
La façon dont l’IA pourrait être utilisée sur les terrains de guerre est une question très délicate. Alors que de nombreux chercheurs s’inquiètent depuis des années d’une « course à l’armement », peu d’informations circulent sur les systèmes déjà existants, ni sur ceux en cours de développement, aux Etats-Unis ou ailleurs.
Au printemps, le débat a de nouveau surgi quand les employés de Google ont appris que leur entreprise collaborait avec le Pentagone pour le projet Maven, visant à analyser les images fournies par des drones. Face au tollé, Google s’est finalement retiré du projet et s’est engagé à ne pas mettre ses technologies d’IA au service de l’armement.
En juillet, c’était au tour de plus de 2 400 chercheurs, ingénieurs et entrepreneurs du secteur de s’engager à « ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l’usage d’armes létales autonomes ». Cela signifie-t-il qu’ils ne pourront pas participer à l’ambitieux projet de la Darpa ? Toute la subtilité de ce message reposait toutefois dans l’usage des mots « létal » et « autonome ». Le premier leur laisse une grande marge de manœuvre (Google s’est ainsi défendu en expliquant qu’analyser des images de drones n’était pas létal). Quand au second, il porte lui aussi son lot de questions : à partir de quel degré d’indépendance une arme est-elle considérée comme autonome ?