Eric Horvitz : « Microsoft ne veut pas fournir d’outils qui pourraient violer les droits de l’homme »
Eric Horvitz : « Microsoft ne veut pas fournir d’outils qui pourraient violer les droits de l’homme »
Propos recueillis par Morgane Tual
Le directeur de Microsoft Research, le centre de recherche de l’entreprise américaine, répond aux questions éthiques imposées par les récents progrès de l’intelligence artificielle.
Eric Horvitz, dans les locaux de Microsoft, à Issy-les-Moulineaux (Hauts-de-Seine), le 21 juin. / ERIC PIERMONT / AFP
Alors que l’intelligence artificielle (IA) prend une place grandissante dans la société, les questions éthiques préoccupent de plus en plus le secteur. Eric Horvitz, spécialiste en IA et directeur de Microsoft Research, le centre de recherche de l’entreprise, a cofondé le Partnership on AI, qui rassemble depuis 2016 les plus grandes entreprises du numérique autour de ces questions. Il détaille au Monde sa philosophie et répond à la récente polémique qui a touché Microsoft.
Google a annoncé en juin sept grands principes pour encadrer le développement de ses technologies d’intelligence artificielle. Que fait Microsoft ?
Microsoft réfléchit aux questions d’éthique. Le groupe a sorti en janvier un livre appelé The Future Computed. Nous avons travaillé à la rédaction d’une série de principes comme l’équité, la fiabilité, l’ouverture de ces technologies. Ça fait bientôt vingt-cinq ans que je travaille chez Microsoft, c’est comme une famille pour moi, et régulièrement on discute avec la direction des valeurs et du rôle de Microsoft dans le monde.
Il y a deux ans, j’ai dit que j’aimerais que nous mettions en place un comité sur les questions liées aux données et à l’IA, et à leur influence potentielle sur la société. La direction a soutenu l’idée et finalement nous avons créé sept comités, comme celui sur les « utilisations sensibles de l’IA », un autre sur « biais et équité », un troisième sur la « collaboration humain-IA »… C’est un début. On étudie des cas concrets, sur lesquels on travaille beaucoup, on effectue des recherches et on délibère. Nos recommandations remontent à la direction. Et jusqu’ici, elles ont toutes été acceptées.
Quel type de recommandation par exemple ?
Microsoft travaille sur un système pour les appels d’urgence, leur distribution… Il y a tout un travail sur comment utiliser ces technologies pour aider à organiser les camions de pompiers, les ambulances, véhicules de police, etc. Des villes comme New York l’utilisent. Nous avons eu une demande d’une grande ville, dans une région du monde qui n’est pas réputée pour son respect des droits de l’homme. Le comité s’est réuni, a beaucoup réfléchi, et nous avons décidé de dire non. Microsoft ne veut pas prendre le risque de fournir des outils qui pourraient servir à violer les droits de l’homme. Dans certains cas, nous réfléchissons à fournir des produits aux capacités limitées, dépourvues, par exemple, des technologies de reconnaissance faciale permettant d’identifier le genre ou la couleur de peau.
Google s’est engagé à ne pas mettre ses technologies d’IA au service de l’armement. Qu’en est-il pour Microsoft ?
J’adorerais vivre dans un monde sans armée. Et peut-être que ce sera possible un jour. Mais malheureusement, nous avons vu que les armées, dans les pays démocratiques, ont été nécessaires pour protéger les libertés. Je n’aime pas du tout imaginer ce qui se serait passé lors de la seconde guerre mondiale sans l’armée américaine.
Quand j’entends des gens se demander si l’armée américaine, française ou autre s’apprête à utiliser l’IA dans les armes, il faut rappeler que l’IA fait référence à de nombreuses technologies initialement déployées dans l’armée, depuis les années 1930 ou 1940, et je pense que ça va continuer. Cela posé, que faut-il en penser ?
Je pense que si un ingénieur ne souhaite pas travailler sur ce type d’application, il devrait pouvoir le dire. Mais personnellement, l’idée que les armées de pays démocratiques, dont l’arsenal est conçu à des fins de défense et pour la protection des droits de l’homme, utilisent les derniers progrès de l’informatique ne me pose pas particulièrement de problème. Mais ce n’est là que mon propre point de vue, je ne parle pas au nom de Microsoft. Et ça ne m’empêche pas de travailler sur les questions que soulève l’IA, en ce qui concerne de potentielles violations des droits de l’homme ou de la Convention de Genève.
En juin, des employés ont demandé à Microsoft de mettre fin à son contrat avec la police de l’immigration américaine (ICE), après le scandale des enfants séparés de leurs parents…
Je suis sûr que nous allons discuter de ce problème en comité. Nous prenons ces questions très au sérieux. L’ICE est une agence fédérale d’un pays démocratique. Elle a décidé de transférer sur notre service cloud Azure sa gestion des e-mails, des documents et messages. Elle utilise les services standards d’Office 365, comme le font plein d’autres agences publiques, dans d’autres pays. Par ailleurs, un président élu démocratiquement fait quelque chose que beaucoup de personnes jugent abject, mais qui est légal. Nous avons des centaines de milliers d’employés. Certains sont choqués. Devons-nous pour autant interdire à d’autres l’utilisation d’outils comme les messageries mails ?
Il ne s’agissait que de ce type de services, pas d’IA ? Sur le site de Microsoft, un communiqué de janvier annonçait que ses technologies d’IA permettraient à l’ICE d’« accélérer la reconnaissance faciale et l’identification ».
Non, il n’y a pas d’IA. C’était une erreur. Mais ça ne veut pas dire qu’on ne devrait pas se poser la question ! Et s’ils utilisaient vraiment ce genre de technologie ? Il faut y réfléchir sérieusement. Nous sommes très soucieux de l’application qui pourrait être faite de la reconnaissance faciale en termes de surveillance. Si jamais nous devions réfléchir à des contrats avec des villes par exemple, il faudrait le faire avec beaucoup de précaution, en lançant des expérimentations limitées, en travaillant avec des tierces parties pour mieux saisir l’équilibre entre la sécurité publique et le risque d’enfreindre les droits de l’homme. Nous devons continuer à apprendre, et nous savons que c’est délicat.
Certaines personnes, comme Tim Berners-Lee, le père du Web, appellent les Etats à réguler l’IA. Qu’en pensez-vous ?
Mon point de vue personnel, c’est que la régulation, si elle est mal faite, peut nuire à l’innovation. Mais elle peut aussi la stimuler. Par exemple, j’aime beaucoup l’idée que l’IA puisse être utilisée pour sauver des vies, notamment en évitant les erreurs humaines. Sur la route, 1,2 million de personnes sont tuées chaque année. J’aimerais que l’IA contribue à ce que ça s’arrête. Cette année, une personne a été tuée dans une Tesla [une voiture autonome]. J’avais demandé à une époque à quelqu’un chez Tesla s’ils pouvaient partager leurs données avec Microsoft Research, car j’adorerais savoir à quel moment les gens reprennent la main sur le volant, quelles sont les situations problématiques… Mais il m’a répondu « non, nous ne partageons pas les données ».
Et si un gouvernement disait : « Nous vous demandons de partager avec des chercheurs vos données sur les accidents, les problèmes, les moments où les gens pensent que la voiture n’agit pas correctement, etc. » ? Ça stimulerait la recherche et ça améliorerait la sécurité de tous. On avancerait plus vite. Regardez ce que la régulation a fait pour l’aéronautique : elle l’a rendu incroyablement sûre.