Facebook utilise notamment des technologies d’intelligence artificielle dans le cadre de la modération de contenus sur sa plateforme. / Quentin Hugon / Le Monde

Pour Facebook, vos selfies, photos de chats ou de nourriture publiées sur Instagram représentent une mine d’or. Le réseau social a expliqué mercredi 2 mai, lors de sa grande conférence annuelle F8, qu’il les utilisait pour entraîner des programmes d’intelligence artificielle, rapporte le site spécialisé The Verge.

Facebook, qui a racheté Instagram en 2012, a expliqué avoir collecté au total plusieurs milliards d’images publiques. Ce qui est particulièrement précieux pour Facebook sont les mots-clés que les utilisateurs associent à leurs clichés, indispensables pour développer des programmes de reconnaissance d’image.

En effet, si une machine dispose de 100 000 images associées au hashtag #sunset (coucher de soleil), elle apprendra au fur et à mesure à identifier des couchers de soleil dans de nouvelles images. Certaines équipes de recherche sont obligées de passer par une labellisation manuelle des images, un travail long et relativement coûteux – avec Instagram, Facebook dispose donc déjà, grâce aux internautes, d’une base de données d’images et de mots-clés.

Des IA pour mieux modérer ?

Selon Mike Schroepfer, directeur technique de Facebook, le système de reconnaissance d’images développé avec Instagram produit des résultats « de 1 à 2 % meilleurs » que s’ils avaient été entraînés avec un autre système comme ImageNet – une base de données constituée de plusieurs millions d’images labellisées manuellement, et destinée à la recherche sur la reconnaissance d’images.

De tels programmes d’intelligence artificielle peuvent notamment servir à Facebook pour modérer les contenus publiés sur le réseau social, a expliqué Mike Schroepfer : « Jusqu’à présent, nous devions souvent compter sur les signalements [effectués par les utilisateurs]. Nous devions attendre qu’un contenu soit repéré par quelqu’un pour agir. »

Les technologies d’intelligence artificielle peuvent permettre d’agir plus en amont, en repérant automatiquement des contenus non autorisés par les règles d’utilisation de Facebook, comme la nudité ou des images violentes. Actuellement, l’entreprise trie les contenus qui sont postés sur le réseau social grâce à une équipe d’environ 20 000 modérateurs, qui analysent ce que leur signalent les utilisateurs, mais aussi, depuis quelques mois, des programmes automatisés.