Un programme de Google aide le Pentagone à analyser les images filmées par les drones
Un programme de Google aide le Pentagone à analyser les images filmées par les drones
L’entreprise a mis à disposition du Pentagone des technologies d’intelligence artificielle permettant d’identifier des éléments dans des vidéos.
Une technologie d’IA de Google est utilisée par le Pentagone. / SERGIO PEREZ / REUTERS
Google ne l’avait pas annoncé publiquement. Mardi 6 mars, le site américain Gizmodo a révélé l’existence d’un partenariat entre l’entreprise et le Pentagone, destiné à aider ce dernier à analyser des images de drones.
Cette démarche s’inscrit dans le projet Maven du ministère américain de la défense, lancé en avril 2017, visant à « intégrer plus efficacement l’intelligence artificielle et l’apprentissage automatique à travers les opérations pour maintenir nos avantages face à des adversaires de plus en plus compétents », précisait alors une note du Pentagone. Sa priorité : « rendre rapidement intelligible l’énorme volume de données accessibles au ministère de la défense », notamment les images filmées par les drones, à des fins de renseignement.
Identifier des cibles
Google est à la pointe en matière d’intelligence artificielle, notamment dans le secteur de l’apprentissage automatique et de la vision par ordinateur. Des compétences utiles au projet Maven. Dans un communiqué transmis à la presse américaine, Google explique travailler « depuis longtemps avec les agences gouvernementales pour leur fournir des solutions technologiques ».
Cette fois, l’entreprise met à disposition du Pentagone des accès à TensorFlow, un outil d’intelligence artificielle qu’elle a rendu open source – c’est-à-dire que n’importe qui peut y accéder et l’utiliser comme bon lui semble. Objectif annoncé : « aider à la reconnaissance d’objets dans des données non classifiées ». Mais Google ne donne pas plus de précisions sur son niveau d’implication dans ce projet : l’entreprise se contente-t-elle juste de faciliter l’usage de cette technologie ouverte au Pentagone ? L’aide-t-elle à le personnaliser ? Ou développe-t-elle des outils, s’appuyant sur TensorFlow, spécifiques à l’analyse d’images de drones pour l’armée américaine ?
Ce type de technologie peut permettre d’identifier automatiquement, dans des photos et des vidéos, des bâtiments, des véhicules ou des humains par exemple ; ce qui peut aider l’armée et le renseignement américain à surveiller des zones, identifier des cibles et affiner leurs stratégies.
« Garde-fous »
Pour désamorcer les critiques, Google l’assure : « La technologie labellise des images qui seront analysées par des humains, et ne sert qu’à un usage non offensif. » L’entreprise reconnaît que l’utilisation de technologies d’intelligence artificielle au service de l’armée « soulève des inquiétudes légitimes ». « Nous discutons activement de cet important sujet en interne et avec d’autres, tout en continuant à créer des règles et des garde-fous autour du développement et de l’usage de nos technologies d’apprentissage automatique. »
Les liens entre Google et l’armée sont délicats. Le secteur militaire est intéressé par ses technologies, mais cela peut s’avérer périlleux pour l’image de l’entreprise. Eric Schmidt, qui était jusqu’à décembre président de la maison mère de Google Alphabet, siège dans un comité du ministère de la défense américain consacré à l’innovation. La question s’est faite pressante quand Google a acquis, au début des années 2010, plusieurs entreprises de robotique, dont la prestigieuse Boston Dynamics, qui développe des robots à destination de l’armée. Google s’en est finalement séparé l’an dernier. Aujourd’hui, les progrès impressionnants des technologies d’intelligence artificielle, et plus particulièrement d’apprentissage automatique, soulèvent de nouvelles craintes, notamment liées aux usages militaires qui pourraient en être fait.