La « dictée par la pensée » sur laquelle travaille Facebook n’est pas encore pour demain
La « dictée par la pensée » sur laquelle travaille Facebook n’est pas encore pour demain
Par Damien Leloup
Le très ambitieux projet dévoilé par Facebook lors de la conférence F8 devra résoudre plusieurs difficultés majeures pour fonctionner.
« Et si vous pouviez taper directement depuis votre cerveau ? » Regina Dugan, vice-présidente chargée de l’ingénierie, durant la conférence F8 de Facebook, le 19 avril. | STEPHEN LAM / REUTERS
L’annonce a fait fureur, le 19 avril, lors de la conférence Facebook F8, durant laquelle le premier réseau social au monde présente chaque année ses nouveaux projets. Sur scène, Regina Dugan, de Building 8 – la division de Facebook qui travaille sur des « moonshots », des projets ambitieux à long terme – a dévoilé un projet qui doit permettre de taper sur son téléphone directement par la pensée.
Un « système de parole silencieux, capable de décoder directement nos discours », a détaillé Mme Dugan. « Notre cerveau crée à chaque seconde plus d’informations que n’en représentent quatre films en HD, a dit Mme Dugan. Comment faire pour que toutes ces informations puissent en sortir ? Lorsque je parle, je communique avec l’équivalent d’un modem téléphonique – le langage est comme un algorithme de compression, avec beaucoup de pertes. »
La solution, pour les chercheurs de Facebook, consiste donc à « décoder directement le langage », tout en conservant, assure Mme Dugan, « la confidentialité du texte tapé [sur un clavier] ». « Il ne s’agit pas de décoder vos pensées passagères. Vous prenez beaucoup de photos au quotidien, mais vous choisissez de n’en partager que certaines : nous travaillons sur le même principe, vous avez beaucoup de pensées, et vous choisirez lesquelles partager. » Objectif : permettre à un utilisateur de « taper », par la pensée, jusqu’à cent mots par minute directement par la pensée, sans capteurs intrusifs. De la science-fiction ? Tout en restant prudente sur les délais nécessaires pour parvenir à ce résultat, Mme Dugan assure que « cela a l’air impossible, mais c’est beaucoup plus près de nous que ce que vous pensez ».
Une prédiction qui peut être en partie crédible, mais qui nécessite de résoudre plusieurs problèmes majeurs, estime Jérémie Mattout, chercheur en neurosciences à l’Inserm et spécialiste des interfaces cerveau-machine. D’abord parce que décoder le langage directement depuis le cerveau est loin d’être trivial : la plupart des dispositifs fonctionnels existants fonctionnent d’une manière très différente. Ils « ne décodent pas réellement les mots : on fait des propositions à l’écran, et on observe la réaction du cerveau. » En pratique, les interfaces utilisées notamment par des personnes paralysées ne « comprennent » pas la sémantique : elles mesurent simplement des réactions, ce qui suffit pour guider une souris, par exemple, mais pas pour « comprendre » réellement la parole.
« C’est possible de décoder de la parole, mais même avec des implants dans le cerveau, le faire à la vitesse et avec la précision que souhaite atteindre Facebook, c’est un gigantesque challenge », explique-t-il. « Avec un capteur en surface du cortex juste sous le crâne, l’électrocorticographie (ECoG), on obtient des résultats impressionnants, mais qui sont très loin des 100 mots par minute, renchérit Fabien Lotte, chercheur à l’Inria et spécialiste des interfaces cerveau-machine. Un travail récent dans ce domaine est parvenu à reconnaître des mots dans les signaux ECoG – mais le système reconnaît correctement les mots au mieux 75 % des fois, sur un dictionnaire de dix mots. Donc reconnaître des mots imaginés, parmi des centaines de mots, et faire en sorte que cela marche à tous les coups, on en est encore très loin. » Difficulté supplémentaire : dans cette expérience, les mots étaient réellement prononcés par la personne, et non simplement pensés, comme veut le faire Facebook.
Principale difficulté : créer des capteurs précis
Mais la principale difficulté de ce qu’a imaginé Facebook vient du dispositif de mesure lui-même. Pour que son outil soit utilisable facilement et par tout le monde, l’entreprise veut développer un capteur « non intrusif » – pas de sondes crâniennes ni même d’électrodes à placer. Or, les capteurs externes actuels, qui utilisent en général une dizaine d’électrodes, sont très imprécis. « Avec les capteurs non invasifs actuels, notamment l’électroencéphalographie ou la spectroscopie proche par infrarouge, on n’a qu’une mesure floue et bruitée de ce qui se passe dans le cerveau, un capteur mesurant en fait l’activité de milliers, voire de millions de neurones, détaille Fabien Lotte. Si Facebook arrive à construire les capteurs qu’ils évoquent, ce sera vraiment une révolution pour les neurosciences, quelque chose qui pourrait être digne d’un prix Nobel. »
Même constat pour Jérémie Mattout, qui juge crédible la piste de travail évoquée par le géant du Net – l’amélioration des mesures optiques. « Qu’on y arrive à terme ne semble pas impossible. Mais quand ? » Durant sa présentation, Regina Dugan s’est bien gardée de mentionner une date pour l’arrivée de ce fameux dispositif, tout en laissant entendre qu’il pourrait être fonctionnel dans quelques années. Un délai très optimiste, estiment les deux spécialistes français, pour un outil qui devra résoudre plusieurs difficultés majeures.
Questions éthiques
D’autant plus que le décodage de la « parole silencieuse » peut présenter des difficultés aussi techniques qu’éthiques. Regina Dugan a affirmé que l’outil sur lequel travaillent ses équipes ne saurait « lire » que les pensées que l’utilisateur choisirait de lui partager. En l’état de la recherche, il est pourtant difficile de pouvoir le promettre, juge M. Mattout. « Il n’est pas garanti que l’on ne puisse pas décoder des choses que la personne n’avait pas envie d’envoyer », estime-t-il, à partir du moment où un dispositif « écoute » une partie de notre activité cérébrale. « Dans les systèmes actuels, on analyse le signal qui vient des aires du langage mais aussi des aires motrices du cerveau, car quand on prononce un mot ou que l’on imagine un mot, cela implique les aires du cerveau liées au contrôle des mouvements de la bouche, par exemple, détaille M. Lotte. Ce n’est pas forcément le cas si on se parle avec notre voix intérieure ; donc cela dépend de la manière dont on analyse le signal. Pour l’instant, on n’est pas du tout capables de décoder dans l’activité cérébrale notre voix intérieure, alors qu’on peut, un petit peu, décoder des lettres et mots prononcés. »
Malgré les difficultés prévisibles, le fait que Facebook investisse de manière massive dans ce domaine – Mme Dugan a évoqué une équipe d’une soixantaine de personnes consacrée à ce projet – ne peut qu’être une bonne chose, estiment les deux chercheurs. « Il y a une part de marketing dans cette présentation, bien sûr, juge M. Mattout. Mais il y a aussi des bases scientifiques solides ». « Sur le long terme, cela pourra peut-être accélérer la recherche dans le domaine », renchérit M. Lotte.
Reste, malgré tout, une question théorique à trancher : avons-nous vraiment besoin de pouvoir dicter plus vite que la parole ? Dans sa présentation, Regina Dugan rendait hommage aux poètes, aux écrivains, et à tous les artistes capables de faire passer plus d’émotions par le langage que la plupart d’entre nous. « C’est un peu paradoxal, s’amuse M. Mattout. La force des poètes, c’est justement de réfléchir longtemps pour écrire une ligne ! »