Cette application est aussi simple que populaire. FaceApp, lancée en janvier, transforme les photos de ses utilisateurs pour les faire artificiellement sourire, vieillir, rajeunir ou se transformer en homme ou femme. Mais un autre de ses filtres lui a valu un certain nombre de critiques : celui censé rendre ses modèles plus beaux, appelé « hot » (sexy). Certains utilisateurs noirs ont remarqué qu’une fois appliqué, ce filtre blanchissait leur peau.

D’autres ont remarqué que les yeux bridés étaient aussi modifiés.

Pixels a essayé de son côté à partir d’une photo de l’acteur américain Idris Elba, avec un résultat sans appel.

Le filtre « sexy » de FaceApp a blanchi la peau du comédien Idris Elba sur cette photo. | Jessica Lea/DFID/CC BY 2.0

Une intelligence artificielle mal « entraînée »

Contacté par le site spécialisé Mashable, lundi 24 avril, le fondateur de FaceApp, Yaroslav Goncharov, a reconnu le problème et présenté ses excuses, évoquant « un problème sérieux ». En attendant d’y apporter une solution « qui devrait arriver bientôt », il a décidé de renommer le filtre, « pour retirer toute connotation positive ». Celui-ci est désormais baptisé « spark » (étincelle).

Yaroslav Goncharov a aussi esquissé une explication liée à la technologie d’intelligence artificielle sur laquelle repose son application : « Il s’agit d’un effet pervers malheureux (…) causé par des biais dans les données d’entraînement. » Pour qu’un programme soit capable de transformer les visages aussi efficacement que FaceApp, il doit pour cela qu’il « s’entraîne » en analysant au préalable des milliers d’images de visages souriants, jeunes, vieux… ou beaux. Le fondateur de l’application, sans donner de détail, laisse entendre que les photos ayant servi à entraîner le programme seraient à la base du problème. En clair, les images labellisées « sexy » utilisées représentaient majoritairement des personnes blanches – la machine en a alors déduit qu’un teint clair était plus attirant.

Ce n’est pas la première fois que se pose ce problème. En septembre 2016, un programme d’intelligence artificielle, utilisé comme jury d’un concours de beauté, avait éliminé la plupart des candidats noirs pour les mêmes raisons. La question du biais des bases de données utilisées pour entraîner l’intelligence artificielle, qu’il s’agisse d’images ou de texte par exemple, prend une place grandissante dans les débats consacrés à l’éthique de l’intelligence artificielle : à mesure que ces technologies se développent, on se rend compte qu’elles reproduisent souvent des biais humains, comme le racisme ou le sexisme.