Amazon et Microsoft pointés du doigt pour leur rôle dans le développement des armes autonomes
Amazon et Microsoft pointés du doigt pour leur rôle dans le développement des armes autonomes
Le Monde.fr avec AFP
Selon le rapport d’une ONG, les deux entreprises font partie des géants de la tech qui pourraient mener une gigantesque course aux armements dans le secteur de l’intelligence artificielle.
Le film de science-fiction Terminator peut-il devenir réalité ? Selon un rapport de l’organisation non gouvernementale PAX, les entreprises américaines Amazon et Microsoft pourraient chercher à participer au développement des armes de destruction autonomes.
L’organisation néerlandaise a sondé les principaux acteurs du secteur hautement stratégique de l’intelligence artificielle et a classé cinquante entreprises selon trois critères :
- Développent-elles des technologies permettant de créer des « robots tueurs » ?
- Travaillent-elles sur des projets militaires liés à ces technologies ?
- Ont-elles promis de s’abstenir d’y contribuer dans le futur ?
« Tuer sans implication humaine »
L’usage de l’intelligence artificielle pour permettre à des systèmes d’armement d’automatiquement choisir et attaquer des cibles a provoqué d’importants débats éthiques au cours des dernières années. Pour certains critiques, on pourrait même assister à la troisième révolution de l’art de la guerre après les inventions de la poudre et de la bombe nucléaire.
« Pourquoi est-ce que les entreprises comme Microsoft et Amazon ne nient pas qu’elles sont actuellement en train de développer ces armes hautement controversées qui pourraient décider d’elles-mêmes de tuer, sans implication humaine ? », demande Frank Slijper, principal auteur du rapport publié lundi 19 août.
Vingt-deux entreprises représentent une « inquiétude moyenne » pour les auteurs du rapport, dont l’analyse se porte sur douze pays à travers le monde. Parmi elles, Apple pour son système de reconnaissance faciale et vocale.
La catégorie « haute inquiétude » compte vingt-et-une entreprises, dont Intel mais aussi Amazon et Microsoft qui essaient tous les deux de passer un contrat avec le Pentagone pour fournir à l’armée américaine l’infrastructure de son « cloud » (service de stockage de données en ligne).
Google, bon élève
« Les armes autonomes deviendront inévitablement des armes de destruction massives », prédit à l’Agence France-Presse, Stuart Russell, professeur de sciences informatiques à l’université californienne de Berkeley. « Des travaux sont actuellement entrepris pour que tout ce qui constitue actuellement une arme – chars, avions de chasse, sous-marins – ait sa version autonome », ajoute-t-il.
Google et six autres entreprises sont dans la catégorie « bonne pratique ». L’année dernière, Google a renoncé à courir pour le contrat du Pentagone sur le « cloud », car il pourrait être en contradiction avec ses « principes » en matière d’intelligence artificielle.
Le géant californien avait expliqué ne pas vouloir s’impliquer dans des « technologies qui sont ou pourraient être nocives » et « des armes ou d’autres technologies dont le but principal ou la mise en œuvre causeraient ou faciliteraient l’atteinte physique aux personnes ».
Pas de consensus
Mardi, aux Nations unies à Genève, un panel d’experts gouvernementaux a débattu des options politiques pour encadrer les armes autonomes, même s’il s’est avéré jusqu’ici très difficile de parvenir à un consensus autour de cette question.
Selon le rapport de PAX, des employés de Microsoft ont également signalé leur opposition à un contrat avec l’armée américaine concernant des lunettes de réalité augmentée HoloLens destinées à l’entraînement et au combat.
Beaucoup d’inquiétudes entourent également le futur de l’armement autonome, des armes qui n’ont pas encore été inventées mais sont présentées dans certains films de science-fiction, comme les mini-drones.
« Avec ce genre d’armes, vous pourriez en envoyer un million dans un container ou un avion-cargo et elles auraient la capacité destructrice d’une bombe nucléaire, mais laisseraient tous les immeubles intacts derrière elles », notamment grâce à la reconnaissance faciale, explique Stuart Russell.
En avril, la Commission européenne a proposé une série de règles éthiques pour le secteur de l’intelligence artificielle. La liste de propositions fournie rappelait le besoin de placer « l’humain » au cœur des technologies liées à l’IA et la nécessité de favoriser la « non-discrimination », ainsi que le « bien-être de la société et l’environnement ».
Pour Stuart Russell, la prochaine étape est une interdiction internationale des intelligences artificielles tueuses. « Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées », résume-t-il.