1800 personnes travaillent dans les bureaux de Google à Zurich. | ARND WIEGMANN / REUTERS

Espaces de travail design, cantine à toboggan et salle de massage : c’est dans ses bureaux de Zurich, dont Google est si fier, qu’est basé le nouveau groupe de recherche consacré à l’intelligence artificielle mis en place par l’entreprise. Lancée officiellement jeudi 16 juin, cette équipe d’ingénieurs se focalisera notamment sur l’apprentissage des machines, et plus particulièrement sur le « deep learning », une technologie qui a, ces dernières années, bouleversé le champ de l’intelligence artificielle.

« Tout cela est tellement important pour moi, a affirmé Eric Schmidt, ancien PDG de Google et actuel président de sa maison mère Alphabet, par vidéoconférence devant les journalistes rassemblés pour l’occasion dans les locaux suisses du géant américain. Nous implémentons cette technologie dans tous les aspects de nos opérations, même dans nos centres de données, pour améliorer nos techniques de refroidissement. Même les choses les plus routinières sont revues par cette technologie. »

Après Google Brain, son équipe consacrée au deep learning, et DeepMind, l’entreprise rachetée par Google et à l’origine d’AlphaGo, le premier programme capable de battre l’humain au jeu de go, cette équipe se présente comme le troisième grand pôle de recherche de l’entreprise sur l’intelligence artificielle et plus particulièrement l’apprentissage des machines (machine learning). Le premier est basé dans la Silicon Valley, le deuxième à Londres et le troisième dans son centre de Zurich, qui compte déjà 1 800 employés dont une grande majorité d’ingénieurs.

« Depuis que Sundar Pichai a pris la tête de Google, il a changé la politique d’embauche, explique le Français Emmanuel Mogenet, à la tête de cette nouvelle équipe, qui devrait compter plusieurs centaines de membres dans les années à venir. Il s’est rendu compte qu’en grossissant de façon massive dans la Silicon Valley, on ignorait une quantité phénoménale de talents ailleurs dans le monde. L’Europe est un des endroits les plus riches en talents, notamment pour la recherche en deep learning. »

« Aider les ordinateurs à mieux comprendre le langage »

Si Google investit si massivement dans le deep learning, c’est qu’il a considérablement fait progresser ses produits. Qu’il s’agisse de reconnaissance vocale, de traduction automatique ou de reconnaissance d’images, toutes ces fonctionnalités auxquelles nous nous sommes récemment habitués ont été rendues possibles par cette technologie, comme l’explique Emmanuel Mogenet :

« Il s’est passé quelque chose ces dix dernières années : la combinaison de la puissance de calcul des ordinateurs, qui a augmenté de façon exponentielle, et quelques découvertes théoriques ont vraiment transformé l’apprentissage des machines. Ça a été le trou dans la digue, et la digue s’est effondrée. Toutes ces tâches sur lesquelles les humains sont très bons mais que les machines étaient incapables de réaliser sont soudain devenues possibles. »

L’équipe se focalisera sur trois principaux axes. Le premier consiste à améliorer la compréhension et la production de langage naturel, afin de construire des applications capables de « comprendre » le langage et ne plus se contenter d’analyser des mots-clés. Le second sera consacré à la perception artificielle. « Il est très difficile pour un ordinateur de comprendre le langage naturel car les ordinateurs ne comprennent pas le monde », explique l’ingénieur. « Un enfant de quatre ans sait que les vaches ne volent pas, même si on ne le lui a jamais dit. Il l’a appris en observant le monde. Nos machines vont donc analyser une quantité phénoménale d’images, de vidéos et de sons pour essayer de calculer la probabilité qu’une vache et un avion apparaissent en même temps. Et ce, pour aider les ordinateurs à mieux comprendre le langage. »

« Ça fonctionne, mais on ne sait pas pourquoi »

Le troisième axe se focalisera exclusivement sur le machine learning et notamment sur… la tentative de le comprendre. « Le deep learning fonctionne, mais on ne sait pas vraiment pourquoi », admet Emmanuel Mogenet. Il développe :

« La recherche en machine learning est un peu au point où en était l’alchimie au Moyen-Âge. Les alchimistes mélangeaient une poudre bleue et une poudre rose, et ils voyaient que ça explosait. Ils accumulaient des connaissances empiriques comme ça, sans avoir la chimie derrière, qui explique pourquoi ça explose. On en est au même point aujourd’hui. On voudrait mieux comprendre comment ça marche, pour que nos ingénieurs puissent construire de nouveaux systèmes de manière plus efficaces en étant guidés par la théorie. »

La mise en place de cette équipe intervient un an après le lancement du laboratoire de recherche en intelligence artificielle de Facebook à Paris, à la tête duquel a été nommé Yann LeCun, l’un des pionniers et experts renommés du deep learning. Comme Google, les principales entreprises de la Silicon Valley investissent massivement dans ces technologies et communiquent abondamment sur leurs avancées. Pas une semaine ne se passe sans de nouvelles annonces dans ce qui prend parfois des allures de guerre de communication dans ce secteur si stratégique.

« Etre le plus transparent possible sur notre travail »

Des avancées qui génèrent certaines inquiétudes. Des personnalités comme le physicien britannique Stephen Hawking ou le chef d’entreprise américain Elon Musk ont ainsi exprimé leurs craintes concernant les risques potentiels de ces technologies. Une lettre ouverte, signée par des centaines de chercheurs du secteur, a elle aussi mis en garde l’an dernier contre « les pièges » de l’intelligence artificielle.

Depuis, le débat sur l’éthique est ouvert, mais encore balbutiant. Si DeepMind, dont l’objectif affiché est de « résoudre l’intelligence artificielle », dispose d’un comité d’éthique, la nouvelle équipe de Zurich n’a rien de tel. « Notre objectif est de faire de la recherche appliquée, l’horizon des problèmes sur lesquels on va travailler ici est d’un ou deux ans, explique Emmanuel Mogenet. Je vais essayer d’être le plus transparent possible sur ce que nous faisons, en partageant notre travail, en publiant nos articles en dehors de Google et en rendant nos outils open source [accessibles à tous]. De façon à ce qu’on puisse avoir une conversation informée avec tous les acteurs impliqués : les gens qui développent la technologie, les régulateurs, les associations, les politiciens, les philosophes… Il faut absolument qu’on discute. »