Epinglé pour biais raciste, Microsoft modifie son logiciel de reconnaissance faciale
Epinglé pour biais raciste, Microsoft modifie son logiciel de reconnaissance faciale
Par Nicolas Six
Il était auparavant plus efficace sur les hommes blancs que sur les personnes de couleur et les femmes. Microsoft dit l’avoir amélioré.
La reconnaissance faciale de Microsoft reconnaît désormais mieux les visages à la peau sombre. / QUENTIN HUGON / « LE MONDE »
Epinglé en février par les chercheurs du MIT Media Lab, le logiciel de reconnaissance faciale de Microsoft identifiait mal le genre des femmes et des personnes non blanches – tout comme les systèmes d’IBM et de Face++. Les chercheurs et les chercheuses du MIT (dont l’une travaille pour Microsoft) avaient soumis plus d’un millier de visages à ce logiciel, baptisé Face API : 93,6 % des erreurs impliquaient des visages à la peau sombre, qui ne représentaient pourtant qu’une petite moitié des visages étudiés.
Microsoft a finalement affirmé, mardi 26 juin sur son blog, être parvenu à améliorer son logiciel. Selon l’entreprise américaine, le taux d’erreur aurait été divisé jusqu’à vingt pour les hommes et les femmes à la peau foncée. Pour les visages de femmes, il aurait été divisé par neuf.
Comment Microsoft est-il parvenu à ces améliorations ? Son logiciel Face API « s’entraîne » en puisant dans une vaste collection de photos de visages. Or, comme c’est souvent le cas dans les bases de données utilisées pour entraîner les systèmes d’intelligence artificielle (IA), celle-ci était biaisée : elle ne comprenait pas assez de visages de femmes et de personnes non blanches pour permettre à l’algorithme de les identifier correctement. Microsoft s’est donc employé à l’élargir.
Les biais racistes de l’IA, question centrale
Hannah Wallach, chercheuse chez Microsoft et experte en questions d’équité dans l’intelligence artificielle, citée sur le blog de l’entreprise, voit dans cet épisode « une opportunité de penser aux valeurs que nous reproduisons dans nos systèmes : sont-elles vraiment les valeurs que nous souhaitons refléter ? (…) Si nous entraînons des [logiciels] à imiter les décisions faites par une société biaisée, en employant des données générées par cette société, ces logiciels vont nécessairement reproduire ces biais ».
La question des biais, notamment racistes et sexistes, des programmes conçus à partir de bases de données humaines, est un des grands problèmes éthiques auxquels sont confrontés les ingénieurs travaillant dans le domaine de l’intelligence artificielle. Elle fait désormais l’objet de travaux de recherche, dans les universités et les entreprises du numérique. Les résultats affichés par Microsoft sur la reconnaissance faciale n’ont toutefois pas, pour le moment, été validés par un organisme tiers, comme le MIT.