Google s’engage à ne pas mettre ses technologies d’intelligence artificielle au service de l’armement
Google s’engage à ne pas mettre ses technologies d’intelligence artificielle au service de l’armement
Par Morgane Tual
L’entreprise américaine a mis au point sept grands principes qu’elle promet d’appliquer dans son développement des technologies d’intelligence artificielle.
Google a publié sept grands principes pour guider la façon dont elle compte développer l’IA. / CHARLES PLATIAU / REUTERS
Sept grands principes, couchés sur papier : pour Google, il s’agit d’une première. Jeudi 7 juin, l’entreprise américaine a dévoilé les règles qui encadreront désormais la façon dont elle continuera à développer ses technologies d’intelligence artificielle (IA). Elle a aussi inscrit, dans le même document, auquel Le Monde a eu accès, ce qu’elle s’engageait à ne pas faire, et c’est sans doute dans cette partie que résident les éléments les plus notables.
Ainsi, Google s’engage à ne pas contribuer à développer « d’armes ou autres technologies dont le principal objectif est de causer, ou de faciliter directement, des blessures ». La question, particulièrement sensible, a mis Google en difficulté ces dernières semaines, après la révélation en mars d’un partenariat avec le Pentagone.
Le projet Maven, auquel Google participait, exploitait des programmes d’intelligence artificielle afin d’analyser des images de drone. Ce partenariat a généré de houleux débats en interne, ainsi que la démission de douze salariés et une pétition signée par plus de 4 000 employés exigeant une « politique claire affirmant que ni Google ni ses partenaires ne fabriqueront jamais des technologies de guerre ». Google s’était défendu en assurant que ces technologies étaient destinées à un « usage non offensif ». Avant de finalement céder, vendredi 1er juin, en annonçant qu’elle mettrait fin, en mars 2019, à ce contrat.
« Nous continuerons à travailler avec l’armée »
Cette affaire a-t-elle précipité la publication de ces grands principes ? Du côté de Google, en tout cas, on affirme étudier la question depuis des mois, voire des années. Et on assure qu’en vertu de ces nouveaux garde-fous, l’accord passé avec le Pentagone ne pourrait plus avoir lieu aujourd’hui.
Toutefois, l’entreprise l’écrit noir sur blanc :
« Bien que nous ne développions pas d’IA pour être utilisée dans les armes, nous continuerons à travailler avec les gouvernements et l’armée dans bien d’autres domaines. Cela inclut la cybersécurité, l’entraînement, le recrutement, la santé des vétérans et les secours. »
Google s’engage aussi à ne pas développer de technologies d’IA « qui rassemblent ou utilisent des données à des fin de surveillance violant les grands principes internationaux des droits humains », ni « dont l’objectif s’oppose aux grands principes du droit international ».
Des propos suffisamment vagues pour que Google conserve une large marge de manœuvre, mais dont l’existence même pourrait potentiellement lui compliquer la vie. Ces règles donnent en effet à ses détracteurs, ou à ses employés mécontents, des arguments plus concrets sur lesquels s’appuyer en cas de désaccord.
Sept grands principes
Google a donc défini ce qu’il s’engageait à ne pas faire. Mais il a aussi établi « sept grands principes pour guider [son] travail », explique l’entreprise. L’intelligence artificielle devrait ainsi, selon Google :
« Bénéficier à la société. » L’entreprise précise : « Nous prendrons en compte un large éventail de facteurs économiques et sociaux, et nous effectuerons des analyses pour déterminer si les bénéfices potentiels excèdent substantiellement les risques et mauvais côtés prévisibles. »
« Eviter de créer et de renforcer des biais injustes. » Actuellement, de nombreux systèmes d’IA, fondés sur des données humaines, tendent à reproduire les préjugés racistes, sexistes ou autres de leurs modèles.
« Etre conçue et testée pour la sécurité », pour « éviter des résultats inattendus qui puissent présenter des risques ».
« Pouvoir rendre des comptes. » L’un des grands problèmes des programmes d’IA, notamment ceux reposant sur les méthodes d’apprentissage profond, est que leurs concepteurs ne sont pas capables d’expliquer les décisions qu’ils prennent. Cette question fait l’objet de recherches, notamment chez Google.
« Incorporer des principes de respect de la vie privée. » Un certain nombre de technologies d’IA nécessitent, pour fonctionner, d’importantes masses de données, ce qui soulève des questions concernant le respect des données personnelles.
« Se maintenir aux hauts standards de l’excellence scientifique. » Dans les méthodes de recherche et de développement, mais aussi en publiant les résultats de ses travaux scientifiques, précise Google.
« Etre mise à disposition des autres pour des usages en accord avec ces principes. » Google dit ainsi qu’elle se « réserve le droit d’empêcher ou de mettre un terme à l’usage de [ses] technologies » si elle découvre « des usages incompatibles avec ces principes ».
Des entreprises jusqu’ici frileuses
Comment s’assurer que ces principes seront bien respectés ? Google évoque des processus internes de vérification, qui s’appliquent déjà aux questions de cybersécurité ou de vie privée par exemple. Mais pour le moment, pas de comité d’éthique en vue.
Jusqu’ici, les géants du Web comme Google s’étaient montrés relativement frileux à l’idée de graver dans le marbre de grands principes de ce type, qui pourraient nuire à l’innovation dans un secteur clé évoluant très vite. Ces acteurs ont souvent renvoyé la balle à la société civile et aux gouvernements, plus à même, selon eux, que des entreprises privées à se prononcer sur de grands enjeux éthiques et sociétaux.
Face aux progrès considérables de l’intelligence artificielle ces dernières années, et aux inquiétudes qu’ils ont pu soulever, quelques initiatives ont vu le jour, comme le Partnership on AI, qui réunit depuis 2016 les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ainsi qu’une cinquantaine d’entreprises, ONG et centres de recherche autour de ces questions.
Google fait partie des entreprises les plus à la pointe dans le domaine de l’intelligence artificielle. Elle possède notamment DeepMind, une entreprise londonienne qu’elle a rachetée en 2014, qui a réussi l’exploit, deux ans plus tard, de créer un programme capable de battre les champions au jeu de go — une performance qui n’était pas attendue avant une ou deux décennies.
La publication de ces règles permet de redorer l’image de Google, écornée par son partenariat avec le Pentagone, et de se positionner comme leadeur sur les questions d’éthique, en prenant les devants face à la concurrence. Elle vise peut-être aussi à rassurer ceux qui s’étaient émus que la devise du Google des débuts, « Don’t be evil » (« ne pas faire le mal »), voie sa place significativement diminuée dans le nouveau code de conduite de l’entreprise publié au printemps. Enfin, ces sept principes entendent peut-être également apaiser la grogne interne, alors que dans la Silicon Valley, les espoirs idéalistes des débuts ont été noircis, scandale après scandale, par les doutes.