Une étude démontre les biais de la reconnaissance faciale, plus efficace sur les hommes blancs
Une étude démontre les biais de la reconnaissance faciale, plus efficace sur les hommes blancs
Par Perrine Signoret
Lorsqu’il s’agit de reconnaître le genre d’un homme blanc, des logiciels affichent un taux de réussite de 99 %. La tâche se complique lorsque la peau d’une personne est plus foncée, ou s’il s’agit d’une femme.
Les logiciels de reconnaissance faciale sont efficaces pour déterminer le genre d’une personne… à condition d’être un homme et d’avoir la peau blanche, à en croire une étude publiée jeudi 8 février sur le site du MIT Media Lab.
A l’origine de cette étude, la chercheuse Joy Buolamwini du prestigieux Massachusetts Institute of Technology (MIT). Fondatrice de l’Algorithmic Justice League, un collectif qui dénonce les biais des algorithmes, elle avait donné une conférence TED (Technology, Entertainment and Design) en mars dernier. Elle y expliquait que les logiciels de reconnaissance faciale identifiaient beaucoup plus facilement ses amis blancs que son propre visage de femme noire.
A l’époque, Joy Buolamwini croyait que le problème allait rapidement être résolu. Quelques années plus tard, elle démontre pourtant que les logiciels sont toujours moins efficaces avec les peaux foncées, mais aussi avec les femmes.
C’est en confrontant les logiciels de trois entreprises (IBM, Microsoft et Face ++) à 1 270 portraits officiels de personnalités politiques que la chercheuse a confirmé ce biais. Dans sa sélection de clichés, elle avait inclus les visages de Rwandais, Sénégalais, de Sud-Africains, de Finlandais, d’Islandais et de Suédois. Elle a mis au défi ces programmes d’intelligence artificielle de déterminer leur genre. Les résultats se sont révélés globalement satisfaisants : 93,7 % de taux de réussite pour Microsoft, 90 % pour Face ++, et 87,9 % pour IBM. Mais derrière ce chiffre, note la chercheuse, se cachent des disparités « notables ».
Gender Shades
Durée : 05:00
Des résultats variables selon la couleur de peau
Ainsi, les trois entreprises ont affiché de meilleurs résultats avec les sujets masculins qu’avec les sujets féminins. Face ++, par exemple, a vu juste pour 99,3 % des hommes, mais seulement 78,7 % des femmes.
Les résultats varient également selon la couleur de peau. Pour les personnes à peau claire, le genre trouvé par l’intelligence artificielle est le bon dans au moins 95 % des cas. Pour celles à peau foncée, ce taux est bien moins élevé. Il atteint 77,6 % avec le logiciel développé par IBM.
L’étude révèle que 93,6 % des erreurs faites par Microsoft concernaient ses sujets à la peau foncée, et 95,9 % de celles de Face ++ concernaient des femmes.
Selon Joy Buolamwini, cela s’expliquerait par les bases de données d’images sur lesquelles s’appuient les entreprises pour « entraîner » leurs programmes d’intelligence artificielle. « Les hommes à la peau claire y sont surreprésentés, et aussi les personnes à la peau claire de manière générale », regrette-t-elle.
Un problème pris « très au sérieux »
L’aspect discriminant des logiciels de reconnaissance faciale avait déjà été dénoncé par le passé. En 2015 par exemple, Google avait dû présenter ses excuses après que l’une de ses applications, Google Photos, a confondu des personnes noires avec des gorilles.
En réaction à cette nouvelle étude, Microsoft a publié un communiqué, dans lequel elle assure prendre le problème « très au sérieux ». « Nous avons déjà franchi quelques étapes pour améliorer la fiabilité de notre technologie […] et nous continuons à investir dans la recherche pour identifier, comprendre et supprimer les biais. »
IBM s’est dit également « engagé à proposer des services qui soient non biaisés […] et transparents ». L’entreprise a affirmé travailler sur plusieurs projets, comme l’élargissement de sa base de données. « Nous sommes en train d’en créer [une] avec un million de portraits », a expliqué IBM, qui dit trouver ces clichés sur la plate-forme FlickR. « Nous avons l’intention de rendre nos données publiques », promet l’entreprise. De son côté, Face ++ n’a pas encore réagi.