Des milliers d’experts en intelligence artificielle s’engagent à ne pas participer à la création d’armes
Des milliers d’experts en intelligence artificielle s’engagent à ne pas participer à la création d’armes
Elon Musk, les dirigeants de Google DeepMind et des milliers de chercheurs ont promis qu’ils ne s’impliqueraient pas dans le développement d’armes létales autonomes.
« La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. » Dans une lettre ouverte publiée mercredi 18 juillet, plus de 2 400 chercheurs, ingénieurs et entrepreneurs dans le secteur de l’intelligence artificielle (IA) se sont engagés à « ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l’usage d’armes létales autonomes ».
Parmi les signataires, le PDG de Tesla, Elon Musk (connu pour ses déclarations alarmantes sur les dangers de l’IA), les dirigeants de Google DeepMind (l’entreprise de pointe à l’origine de la victoire de la machine sur l’humain au jeu de go), et d’éminentes personnalités du secteur, telles que Stuart Russell, Yoshua Bengio ou encore Toby Walsh.
« Nous appelons les gouvernements à bâtir un avenir encadré par des normes, des règles et des lois internationales solides contre les armes létales autonomes. Etant donné que cela n’existe pas encore, nous avons décidé de nous en tenir à ce principe. »
Le précédent Google
Les signataires appellent les entreprises du secteur à signer à leur tour cette lettre. Si les signatures de quelques employés de Google, d’Amazon et de Microsoft apparaissent, aucune ne vient de ceux de Facebook ou d’Apple.
La question de l’implication des chercheurs en intelligence arficielle, et notamment des entreprises du secteur, dans le développement d’armes, est revenue sur le devant de la scène en mars, quand les employés de Google ont appris que leur entreprise collaborait avec le Pentagone sur un projet d’analyse d’images filmées par les drones. Sous la pression, l’entreprise avait finalement mis un terme à ce projet, et annoncé dans la foulée une série de principes éthiques. Elle s’engageait notamment à ne pas mettre ses technologies d’IA au service de l’armement. Les autres se sont gardées de lui emboîter le pas.
Cette lettre, publiée sur le site du Future of Life Institute, un organisme états-unien à but non lucratif habitué aux mises en garde sur l’IA, vise à accentuer la pression, alors que se tient à Stockholm l’IJCAI, une grande conférence sur l’intelligence artificielle.