Elon Musk quitte le conseil d’administration de son centre sur l’intelligence artificielle
Elon Musk quitte le conseil d’administration de son centre sur l’intelligence artificielle
Le patron de Tesla a créé le centre de recherche OpenAI à la fin de 2015. L’organisation estime que son départ va « écarter tout potentiel conflit d’intérêts ».
Elon Musk le 6 février 2018. / JOE SKIPPER / REUTERS
« Notre but est de faire progresser l’intelligence numérique dans une direction plus à même de bénéficier à l’humanité. » C’est en ces termes que se définit l’organisation OpenAI, fondée à la fin de 2015 par Elon Musk, l’emblématique patron du constructeur Tesla, et Sam Altman, président du puissant incubateur de start-up Y Combinator.
Mardi 20 février, OpenAI a annoncé par un communiqué laconique le départ d’Elon Musk de son conseil d’administration. En guise d’explication, cette simple phrase : « Alors que Tesla se concentre de plus en plus sur l’IA, cela écartera tout potentiel conflit d’intérêts pour Elon ». Ce dernier continuera à faire des dons à l’association et à la conseiller, souligne Open AI.
Un milliard de dollars
Une déclaration étonnante, puisque Tesla travaillait déjà sur l’intelligence artificielle avant même la création d’OpenAI. Elon Musk, qui a souvent alerté ces dernières années sur les dangers de l’IA (intelligence artificielle, Artificial Intelligence), avait imaginé cette organisation comme un rempart contre ces risques. OpenAI est un centre de recherche sur l’intelligence artificielle à but non lucratif, ayant pour but de développer des technologies accessibles à tous et de publier des articles de recherche sur le sujet.
L’organisation, qui a levé un milliard de dollars (810 millions d’euros), a réussi à s’installer en deux ans dans le paysage de l’intelligence artificielle, entre autres grâce au soutien de grands noms du secteur, comme Peter Thiel (cofondateur de PayPal) ou de grandes entreprises comme Amazon Web Services. Mardi, plusieurs de ses experts ont cosigné avec des universitaires de Stanford, de Cambridge ou encore de Yale un rapport remarqué sur les risques potentiels d’une utilisation malveillante de l’intelligence artificielle.