Le film de science-fiction Terminator peut-il devenir réalité ? Selon un rapport de l’organisation non gouvernementale PAX, les entreprises américaines Amazon et Microsoft pourraient chercher à participer au développement des armes de destruction autonomes.

L’organisation néerlandaise a sondé les principaux acteurs du secteur hautement stratégique de l’intelligence artificielle et a classé cinquante entreprises selon trois critères :

  • Développent-elles des technologies permettant de créer des « robots tueurs » ?
  • Travaillent-elles sur des projets militaires liés à ces technologies ?
  • Ont-elles promis de s’abstenir d’y contribuer dans le futur ?

« Tuer sans implication humaine »

L’usage de l’intelligence artificielle pour permettre à des systèmes d’armement d’automatiquement choisir et attaquer des cibles a provoqué d’importants débats éthiques au cours des dernières années. Pour certains critiques, on pourrait même assister à la troisième révolution de l’art de la guerre après les inventions de la poudre et de la bombe nucléaire.

« Pourquoi est-ce que les entreprises comme Microsoft et Amazon ne nient pas qu’elles sont actuellement en train de développer ces armes hautement controversées qui pourraient décider d’elles-mêmes de tuer, sans implication humaine ? », demande Frank Slijper, principal auteur du rapport publié lundi 19 août.

Vingt-deux entreprises représentent une « inquiétude moyenne » pour les auteurs du rapport, dont l’analyse se porte sur douze pays à travers le monde. Parmi elles, Apple pour son système de reconnaissance faciale et vocale.

La catégorie « haute inquiétude » compte vingt-et-une entreprises, dont Intel mais aussi Amazon et Microsoft qui essaient tous les deux de passer un contrat avec le Pentagone pour fournir à l’armée américaine l’infrastructure de son « cloud » (service de stockage de données en ligne).

Google, bon élève

« Les armes autonomes deviendront inévitablement des armes de destruction massives », prédit à l’Agence France-Presse, Stuart Russell, professeur de sciences informatiques à l’université californienne de Berkeley. « Des travaux sont actuellement entrepris pour que tout ce qui constitue actuellement une arme chars, avions de chasse, sous-marins ait sa version autonome », ajoute-t-il.

Google et six autres entreprises sont dans la catégorie « bonne pratique ». L’année dernière, Google a renoncé à courir pour le contrat du Pentagone sur le « cloud », car il pourrait être en contradiction avec ses « principes » en matière d’intelligence artificielle.

Le géant californien avait expliqué ne pas vouloir s’impliquer dans des « technologies qui sont ou pourraient être nocives » et « des armes ou d’autres technologies dont le but principal ou la mise en œuvre causeraient ou faciliteraient l’atteinte physique aux personnes ».

Pas de consensus

Mardi, aux Nations unies à Genève, un panel d’experts gouvernementaux a débattu des options politiques pour encadrer les armes autonomes, même s’il s’est avéré jusqu’ici très difficile de parvenir à un consensus autour de cette question.

Selon le rapport de PAX, des employés de Microsoft ont également signalé leur opposition à un contrat avec l’armée américaine concernant des lunettes de réalité augmentée HoloLens destinées à l’entraînement et au combat.

Beaucoup d’inquiétudes entourent également le futur de l’armement autonome, des armes qui n’ont pas encore été inventées mais sont présentées dans certains films de science-fiction, comme les mini-drones.

« Avec ce genre d’armes, vous pourriez en envoyer un million dans un container ou un avion-cargo et elles auraient la capacité destructrice d’une bombe nucléaire, mais laisseraient tous les immeubles intacts derrière elles », notamment grâce à la reconnaissance faciale, explique Stuart Russell.

En avril, la Commission européenne a proposé une série de règles éthiques pour le secteur de l’intelligence artificielle. La liste de propositions fournie rappelait le besoin de placer « l’humain » au cœur des technologies liées à l’IA et la nécessité de favoriser la « non-discrimination », ainsi que le « bien-être de la société et l’environnement ».

Pour Stuart Russell, la prochaine étape est une interdiction internationale des intelligences artificielles tueuses. « Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées », résume-t-il.