L’intelligence artificielle est-elle la solution à tous les problèmes de Facebook ?
L’intelligence artificielle est-elle la solution à tous les problèmes de Facebook ?
Par Morgane Tual
Lors de ses auditions devant le Congrès américain, Mark Zuckerberg, le patron de Facebook, a évoqué à de nombreuses reprises l’intelligence artificielle comme solution aux problèmes de son réseau social.
Mark Zuckerberg a, plus d’une trentaine de fois, évoqué l’intelligence artificielle comme une solution aux problèmes récurrents de modération que rencontre Facebook. / MARCIO JOSÉ SANCHEZ / AP
L’intelligence artificielle (IA) a-t-elle réponse à tout ? C’est en tout cas ce que semble croire Mark Zuckerberg, le patron de Facebook – ou du moins ce qu’il a laissé entendre, mardi 10 et mercredi 11 avril, devant les sénateurs et les députés américains qui l’ont longuement interrogé après le scandale Cambridge Analytica.
Qu’il s’agisse des contenus djihadistes, des discours haineux, des publicités discriminantes, des faux comptes russes, d’usurpation d’identité et même d’annonces de vente de drogue, l’IA a été présentée par Mark Zuckerberg comme une solution pleine de promesses, au moins une trentaine de fois :
« A long terme, développer des outils d’intelligence artificielle sera la meilleure façon d’identifier et de se débarrasser, à grande échelle, de ces contenus dangereux. »
L’IA pour modérer les contenus
En cela, Mark Zuckerberg ne s’éloigne pas de la ligne annoncée depuis des mois par Facebook. L’entreprise investit massivement dans ce secteur dont les avancées, ces dernières années, se sont montrées spectaculaires.
Ces technologies sont notamment de plus en plus utilisées dans la modération de certains contenus publiés sur la plate-forme. Concrètement et dans certains cas, des programmes d’IA peuvent signaler des publications problématiques à un modérateur humain.
Une technologie très efficace sur la question de la propagande terroriste, a assuré Mark Zuckerberg aux sénateurs :
« Aujourd’hui, 99 % du contenu issu de l’Etat islamique ou d’Al-Qaida que nous supprimons sur Facebook, nos systèmes d’IA les ont signalés avant qu’aucun humain ne les voie. »
Le patron de Facebook loue aussi régulièrement l’impact de l’IA dans la détection des faux comptes, en particulier avant les élections :
« Depuis l’élection de 2016, il y a eu un certain nombre d’élections d’importance, comme l’élection présidentielle française (…). Et les outils d’IA que nous avons déployés pour ces élections ont réussi à supprimer des dizaines de milliers de faux comptes. »
« Au bout d’un moment, les algorithmes ne fonctionnent plus »
Mark Zuckerberg a été interrogé pendant plus de dix heures cumulées, mardi 10 et mercredi 11 avril, par le Congrès américain. / CHIP SOMODEVILLA / AFP
Cela signifie-t-il que ces systèmes sont, effectivement, sur le point de régler les principaux problèmes de Facebook ? Rien n’est moins sûr. Mark Zuckerberg reconnaît d’ailleurs les limites de l’IA :
« Certains problèmes se prêtent plus à des solutions d’intelligence artificielle que d’autres. Le discours haineux est l’un des plus difficiles, car déterminer si quelque chose relève du discours haineux est très nuancé, d’un point de vue linguistique. »
Les technologies d’IA sont encore à leurs balbutiements quand il s’agit d’analyser le langage. Et quand un programme informatique réussit à identifier correctement un type de contenu, il est aussitôt contourné par les utilisateurs, comme l’expliquait le 13 mars, au festival SXSW d’Austin, Brian Fishman, responsable du contre-terrorisme chez Facebook :
« Les algorithmes commencent par marcher très bien et puis au bout d’un moment, ils ne fonctionnent plus du tout, car le comportement des terroristes change. »
Un espoir hasardeux
Qui plus est, pour modérer efficacement, ces systèmes d’IA devraient en fait pouvoir comprendre le langage, le contexte, les sous-entendus, l’intention… bref, le sens. Or, ces technologies en sont aujourd’hui incapables – et le seront peut-être toujours.
L’exemple de Perspective, cet outil développé l’an dernier par Google et Jigsaw (qui appartiennent tous les deux à Alphabet, la maison mère de Google), est assez représentatif : censé évaluer le niveau de « toxicité » d’un message, il se trompe régulièrement. « Putain mec, je t’aime », était ainsi considéré comme très toxique, alors que « certaines races sont inférieures à d’autres » l’était peu, avait à l’époque relevé le site Quartz.
« Dès qu’on a affaire au sens, c’est très délicat. Des formes d’expression, l’humour ou la dérision risquent d’être censurés par ces technologies », explique au Monde Jean-Gabriel Ganascia, professeur au laboratoire d’informatique de l’université Pierre-et-Marie-Curie (Paris-VI) et président du comité d’éthique du CNRS.
Aujourd’hui, même les modérateurs humains peinent à identifier correctement ce que Facebook définit comme problématique. L’hypothèse d’un système d’IA capable d’y parvenir, même dans « une période de cinq à dix ans », comme le prédit Mark Zuckerberg, semble très hasardeux.
« L’IA est elle-même la cause du mal »
Mark Zuckerberg a dû expliquer au Congrès pourquoi certains contenus, comme ici des annonces de vente de drogue, restaient en ligne. / AARON P. BERNSTEIN / REUTERS
Qui plus est, si les technologies d’IA sont présentées comme une solution, Mark Zuckerberg évite de rappeler qu’elles sont aussi à l’origine d’un certain nombre de problèmes de Facebook. « Les systèmes automatiques de Facebook choisissent 100 ou 150 publications à vous montrer chaque jour, qui doivent être les plus utiles et engageantes », expliquait Yann LeCun, directeur des laboratoires d’IA de Facebook, le 23 janvier lors d’une conférence à Paris.
Or, c’est précisément ce type de technologie qui a permis, par exemple, aux fausses informations de se répandre si efficacement pendant la campagne américaine. Avec des titres souvent provocateurs ou choquants, les fausses informations sont des contenus très « engageants », c’est-à-dire qui génèrent beaucoup de réactions, et sont donc valorisés par l’algorithme de Facebook. Ainsi Jean-Gabriel Ganascia dénonce :
« Facebook nous explique qu’il va tout régler avec l’IA, alors que l’IA est elle-même la cause du mal, dans le cas des “fake news” par exemple. (…) Mark Zuckerberg laisse entendre que la technologie peut être une solution au problème, alors que c’est une question beaucoup plus compliquée. Il faudrait revoir tout le modèle économique. »
Formule magique
Pour Sarah Jeong, chroniqueuse pour le site spécialisé dans les technologies The Verge, l’IA est même « une excuse permettant à Facebook de continuer à faire n’importe quoi ». « L’intelligence artificielle n’est pas une solution contre la vue à court terme et le manque de transparence, écrit-elle. L’IA ne peut pas résoudre le problème de n’avoir aucune idée de ce que vous êtes en train de faire, et de s’en ficher totalement. »
Pour elle, l’IA a presque valeur d’« invocation », comme une formule magique brandie par Facebook comme réponse à tout. De quoi convaincre les élus américains ? « L’IA est pratique, estime Jean-Gabriel Ganascia. La technophilie est extrêmement forte aux Etats-Unis. C’est un trait de la culture américaine, et en même temps il y a une grande confiance dans l’entreprise privée. C’est un argument qui doit certainement porter, en particulier auprès des élus. Il y a une sympathie générale pour ces solutions technologiques. »