Intelligence artificielle : « Le rapport Villani pousse pour le développement des technologies d’IA dans de nombreux secteurs »
Intelligence artificielle : « Le rapport Villani pousse pour le développement des technologies d’IA dans de nombreux secteurs »
Nos journalistes David Larousserie, du service Sciences, et Morgane Tual, du service Pixels, ont répondu aux questions des internautes lors d’un tchat, jeudi.
Le mathématicien Cédric Villani a remis au gouvernement, mercredi 28 mars, son rapport sur l’IA. / Quentin Hugon / Le Monde
Emmanuel Macron a dévoilé, jeudi 29 mars, son plan pour l’intelligence artificielle (IA), au lendemain de la remise d’un rapport sur le sujet par le député et mathématicien Cédric Villani. Nos journalistes David Larousserie, du service Sciences, et Morgane Tual, du service Pixels, ont répondu aux questions des internautes.
Fab : A quel niveau se situe la France face aux grandes nations sur le sujet de l’IA ?
David Larousserie : La France a des atouts, essentiellement en recherche avec ses universités, ses organismes de recherche (Inria, CNRS). Beaucoup sont d’ailleurs recrutés par les fameux Gafam (Google, Apple, Facebook, Amazon, Microsoft) comme Yann LeCun (Facebook), Olivier Bousquet (Google)…
Ces Gafam installent aussi des centres de recherche en France. Les raisons sont que les technologies de l’IA sont très liées aux mathématiques, une discipline où la France dispose de grands viviers. Au niveau mondial, Etats-Unis, Canada, Chine et nos voisins européens sont des leaders.
Ugo : Finalement, ne va-t-on pas vers une IA partout, toujours ? Le rapport y incite-t-il ou au contraire va-t-il vers une restriction de l’utilisation de l’IA, notamment quand celle-ci met en danger des emplois ?
Morgane Tual : Le rapport de Cédric Villani pousse en effet pour le développement des technologies d’IA, dans de nombreux secteurs. Le député et mathématicien n’est pas dans une logique de frein, bien au contraire. Concernant l’emploi, je vous copie la réponse qu’il nous a donnée à ce sujet, lors d’un entretien mené lundi :
« Si nous ne faisons rien, nos entreprises vont perdre en compétitivité et l’économie dégringolera encore. Personne ne sait trop comment le travail va évoluer. Les économistes font des prédictions très variées, mais c’est extrêmement dur de savoir quelles tâches seront automatisables. »
Lyrink : L’IA est souvent présentée comme synonyme de progrès et ses applications pratiques sont souvent louées. Cependant, cette technologie soulève des questions. Qu’en est-il donc des annonces du gouvernement à propos des problèmes éthiques et juridiques ?
M. T. : Emmanuel Macron a évoqué, dans son discours, la dimension éthique de l’IA, et a annoncé la mise en place d’un « GIEC » de l’IA – en référence au Groupe d’experts intergouvernemental sur l’évolution du climat. Il s’agira d’un organisme chargé de réfléchir aux impacts éthiques de l’IA.
Par ailleurs, le président de la République souhaite que les algorithmes utilisés par l’Etat soient pour la plupart rendus publics, comme celui de Parcoursup.
Zap : Rattraper le retard dans la recherche de l’IA sans rémunérer les chercheurs à leur juste valeur, pensez-vous que c’est possible ?
D. L. : Le rapport Villani recommandait en effet le doublement des salaires des jeunes chercheurs (qui est d’environ 1,7 smic selon le même rapport). La proposition n’a pas été retenue par le président de la République. En revanche, les chercheurs pourront augmenter leur rémunération en travaillant pour partie pour des entreprises. Ce genre d’activité est aujourd’hui plafonné à 20 % du revenu ; le plafond passerait à 50 % lors d’un prochain projet de loi économique. Le risque est de multiplier les situations de conflits d’intérêts : pour les discussions éthiques ou réglementaires, trouvera-t-on des chercheurs indépendants des parties prenantes ?
Des chaires d’excellence (en fait qui existent déjà) seront également créées, permettant d’offrir un « paquet » à un chercheur (salaire, moyens financiers pour la recherche, capacité à recruter des thésards et post-doc…). Là aussi le privé est généralement partenaire de ces chaires.
Lui : Si j’ai bien compris la proposition de Cédric Villani de favoriser les échanges de données, notamment en Europe, le rapport précise un échange de données axé sur la santé, etc. Cette proposition ne peut-elle pas engendrer des excès comme le vol de données personnelles ?
M. T. : La mutualisation de grandes masses de données personnelles présente en effet un risque potentiel, aucun système informatique ne pouvant être considéré comme inviolable. Cette inquiétude est particulièrement pertinente concernant les données de santé, extrêmement sensibles. Si une plate-forme de partage de données de santé est effectivement créée, elle devra être mise en œuvre de façon très rigoureuse, avec de fortes garanties concernant l’anonymisation des données et la sécurité du système. La réglementation européenne, et surtout française, en matière de données de santé est extrêmement stricte.
Sébastien : L’IA a-t-elle conscience d’elle-même ?
D. L. : Non, quand elle conduit une voiture ou joue au Go, elle ne sait même pas ce qu’elle est en train de faire.
Ce sont des algorithmes, des programmes, des logiciels… sans conscience. On les qualifie d’« intelligents » car leurs paramètres ont été souvent « appris » (lors d’une phase de confrontation avec des exemples connus) et qu’ils font mieux que nous dans certaines tâches.
Lampion : Le rapport fait-il mention de limitations quant au développement de certains types d’IA ? Je pense notamment à l’interdiction de développer des « armes autonomes ».
M. T. : Le rapport de Cédric Villani reste relativement évasif sur la question des armes autonomes. Il en appelle au « débat de société » et ne s’engage pas sur la question de leur interdiction ou d’un moratoire. En août, une lettre ouverte aux Nations unies signée par 116 fondateurs d’entreprises de robotique et d’IA avait réclamé l’interdiction des robots tueurs autonomes. D’autres initiatives visant à alerter sur les dangers de ces technologies ont eu lieu par le passé.
Jean Noël : Pourrait-il être envisagé une IA pluri ou multidisciplinaire (capable d’intervenir en secteur hospitalier, de gérer financièrement une intervention, de gérer des moyens humains et matériels pour une opération, etc.) ?
D. L. : Cela relève largement de la science-fiction.
Déjà, mettre au point et évaluer un algorithme capable d’aider un médecin à fournir un diagnostic, à trouver le meilleur traitement possible, n’est pas aisé. En outre, les robots (avec deux bras et deux jambes) sont aussi délicats à mettre au point, y compris en milieu hospitalier. On en est à des « robots » de téléprésence, d’accompagnement…
Quentin Cordelier : Faut-il avoir peur de l’IA ?
M. T. : Vaste question ! Je me permets, pour y répondre, de vous renvoyer vers cet article, qui liste les problèmes très concrets que pose aujourd’hui l’IA – au-delà des fantasmes de science-fiction bien connus.
Hubert_Dreyfus : Le cycle se répète régulièrement, l’investissement sur l’IA explose, on nous annonce quasiment un nouveau monde en préparation (le traducteur universel était prévu, en 1970, pour l’an 2000) mais les problèmes fondamentaux liés à la cognition sont toujours les mêmes, et la science est, depuis bientôt 60 ans, dans l’incapacité absolue d’envisager une solution (récréer artificiellement les mécanismes de la pensée). Ne croyez-vous pas que l’on s’achemine plutôt vers un nouvel « Hiver de l’Intelligence Artificielle » (AI Winter), 3e ou 4e du nom ?
M. T. : C’est ce que craignent certains chercheurs. Depuis le début des années 2010, ces technologies ont énormément progressé, et les investissements avec, mais jusqu’à quand ? Rien n’assure que ces progrès se poursuivront au même rythme dans les années à venir. A force d’en faire « trop » sur l’IA, ne risque-t-on pas de créer une déception, par rapport aux promesses immenses régulièrement avancées ? Auquel cas, les investissements pourraient être amenés à baisser drastiquement, ce qui pénaliserait fortement la recherche.