« A l’université, un de mes bons amis est venu me voir et m’a dit que je faisais disjoncter son logiciel de reconnaissance faciale. Parce qu’apparemment, toutes les images qu’il avait utilisées [pour l’entraîner] montraient des personnes avec beaucoup moins de mélanine que moi. » Le 14 février, Charles Isbell, chercheur en intelligence artificielle (IA) à Georgia Tech (Géorgie), et noir, témoignait devant les députés américains lors d’une audition consacrée à ces technologies. Il a parfaitement résumé, en quelques mots, l’un des principaux problèmes de son secteur : le manque de diversité des personnes qui le composent et l’impact que cela peut avoir sur les technologies elles-mêmes.

« Ces algorithmes échouent plus souvent pour les femmes, les migrants, les personnes qui ne savent pas lire »

Que ce soit dans les universités ou dans les grandes entreprises du numérique, les chercheurs et ingénieurs en IA sont principalement des hommes blancs — même si la Chine est devenue un acteur majeur du secteur. Et cela n’est pas sans conséquence. « Ces algorithmes échouent plus souvent pour les femmes, les migrants, les personnes qui ne savent pas lire… Il ne faut pas qu’ils fonctionnent seulement pour ceux qui les ont conçus, mais pour tout le monde », expliquait la mathématicienne Cathy O’Neil, auteure d’un livre très critique sur l’impact sociétal des algorithmes, lors du sommet sur l’intelligence artificielle organisé par le gouvernement français, à Paris, le 29 mars.

Les exemples sont légion. Il a été démontré que des programmes de reconnaissance faciale étaient moins efficaces sur les femmes et les personnes non blanches. Que des technologies effectuaient des associations de mots sexistes, liant par exemple « femmes » à « foyer ». Que d’autres considéraient les personnes blanches comme plus belles que les autres, etc.

Des problèmes qui viennent généralement des données à partir desquelles ces algorithmes ont « appris ». Or, ces lots de données sont souvent biaisés, représentatifs des préjugés des personnes qui en sont à l’origine. Par exemple, si on « entraîne » un algorithme à sélectionner des CV en se fondant sur le travail effectué par des humains, des directeurs des ressources humaines, les biais de ces derniers seront reproduits par le programme. Ce que regrette Mme O’Neil :

« Les algorithmes ne font pas ce qui est juste, ils répètent les erreurs du passé, ils exacerbent le passé. »

« Ma présence force les autres à se poser des questions »

« Cette technologie va prendre tellement de place dans nos vies, dans nos sociétés, notre travail… Si elle n’est créée que par un seul type de personnes, elle ne nous ressemblera pas et ne répondra pas à nos besoins », soutient Joëlle Pineau, responsable du laboratoire de recherche en IA de Facebook (FAIR, pour Facebook Artificial Intelligence Research) à Montréal. Alors étudiante, elle avait déjà pu le constater lors d’un stage centré sur la reconnaissance vocale des pilotes d’hélicoptère :

« Un chercheur s’est dit à un moment que ce serait intéressant de tester la technologie aussi pour les femmes. Je me suis retrouvée aux commandes de l’hélicoptère, et on s’est rendu compte que la technologie fonctionnait un peu moins bien pour moi. Or, c’est crucial pour la sécurité ! C’est là où le simple fait d’avoir une femme dans l’équipe, ça pousse à se poser des questions. Ce n’est pas moi qui l’ai posée, c’est ma présence qui a forcé les autres à se la poser. »

Inciter les femmes à se lancer dans l’IA est, depuis, devenu l’une de ses batailles. Si des labos comme le sien n’en comptent que quatre sur dix-huit employés, c’est en grande partie, dit-elle, « parce que l’informatique n’a pas la cote auprès des jeunes filles ». Elles sont encore très rares dans les écoles d’informatique — autour de 10 % en France — et les entreprises peinent à recruter. Pour Mme Pineau, c’est donc d’abord du côté de la formation qu’il faut agir.

Montrer patte blanche

Et côté Facebook ? « Il y a des cours en interne pour mieux gérer l’inclusion, prendre conscience de nos biais, les neutraliser lors du recrutement… » Elle explique également que des personnes des ressources humaines assistent à de nombreuses réunions pour s’assurer qu’aucun biais ne nuit à une personne en particulier, quel que soit son genre, sa couleur de peau, son orientation sexuelle, sa religion, son handicap, etc. Parmi les autres leviers d’action évoqués, le soutien financier à « toutes sortes d’activités de réseautage », réunissant des femmes du secteur. « Cela permet d’ouvrir des portes, de normaliser ! », assure la responsable.

Pas question d’établir des quotas à l’embauche

En revanche, pas question d’établir des quotas à l’embauche. « Qu’on soit à parité, on s’en fiche, chacun fait ce qu’il veut dans la vie ! Mais que l’environnement soit sain, qu’il n’y ait pas de freins et de comportements malsains tolérés, c’est ce qui compte. »

La plupart des grandes entreprises du secteur affichent des mesures similaires. Une manière aussi de montrer patte blanche après plusieurs situations embarrassantes, comme en 2015, quand Google avait dû s’excuser à cause d’un programme ayant confondu des personnes noires avec des gorilles. Mais pour Joëlle Pineau, ces décisions ne relèvent pas simplement du vernis. Elles ont, assure-t-elle, un réel intérêt pour le « business » :

« C’est purement de la compétitivité ! Presque tous les produits de Facebook reposent sur l’IA. Donc Facebook a intérêt à ce que les algorithmes fonctionnent bien, dans les centaines de pays où il est présent. Si l’entreprise ne reste pas en avance, la qualité de ses produits va diminuer et les gens vont passer à d’autres plates-formes. »

La diversité, « un élément de langage »

Ce type de discours laisse pourtant sceptique Timnit Gebru, chercheuse américaine en IA et fondatrice du collectif Black in AI, qui rassemble d’autres chercheurs noirs du secteur. Pour elle, la question de la diversité n’est pas réellement prise au sérieux et demeure « un élément de langage » à la mode.

« Par exemple, l’organisateur d’une conférence a publié une photographie de l’événement en disant à quel point il avait été réussi. Tout ce que je remarquais, c’était l’assemblée la plus homogène que je n’avais jamais vue. Et ils ne s’en sont même pas rendu compte en publiant l’image. Et quand vous le pointez, ils vous disent “que faut-il faire ?”, alors qu’énormément de personnes ont déjà parlé ou écrit à ce sujet ! »

Le pire, soutient-elle, est que la communication de ces entreprises sur la diversité a un effet pervers : « Les gens pensent que nous avons des privilèges. J’entends des gens dire que c’est plus facile d’être embauché si vous êtes une femme, et encore plus si vous êtes une femme noire. Même si, étude après étude, statistique après statistique, tout montre que l’inverse est vrai. »

Et en France ? A l’occasion du sommet AI for Humanity organisé par le gouvernement, au printemps, une grande attention avait été apportée à ce que de nombreuses femmes soient présentes. Le sujet de la diversité fut même évoqué sur scène par Emmanuel Macron lui-même :

« Il ne faut pas que les acteurs de l’intelligence artificielle soient par trop un peu [sic] ce que je suis devant vous, c’est-à-dire des mâles blancs quadragénaires. (…) Nous devons donc mobiliser davantage de formations scientifiques pour aller chercher justement plus de femmes, aller chercher aussi plus d’égalité, plus de diversité sociale. »

« Peu ou pas d’action » dans la réalité

Mais dans les faits, qu’en est-il resté ? Alors que le rapport du député Cédric Villani sur l’IA, commandé par le gouvernement, prônait par exemple des actions pour atteindre, d’ici à 2020, 40 % d’étudiantes dans les filières du numérique, aucune annonce en ce sens n’a été faite par le président de la République.

« Il y a une volonté de communication, mais peu ou pas d’action », de la part du gouvernement et en général, déplore Laurence Devillers, professeure en IA à Paris-Sorbonne, chercheuse au Limsi-CNRS et auteure de l’ouvrage Des robots et des hommes (Plon, 2017).

Elle aussi a pu observer, tout au long de son parcours, les problèmes posés par le manque de diversité, qu’il s’agisse de chercheurs travaillant sur la compréhension de voix d’hommes seulement, ou de la surreprésentation de prénoms féminins donnés à des chatbots (logiciel pouvant dialoguer avec un individu) peu malins.

Elle dénonce également « une vraie discrimination », notant que « très peu de femmes atteignent des postes de pouvoir dans l’intelligence artificielle ». Si elle salue « l’effort » du gouvernement lors du sommet sur l’IA, il reste, selon elle, encore d’énormes progrès à accomplir : « Je ne pense pas que l’importance du problème soit prise à sa juste mesure. »