Une enceinte connectée d’Amazon envoie une conversation privée par erreur
Une enceinte connectée d’Amazon envoie une conversation privée par erreur
Par Nicolas Six
Un couple a vu sa conversation enregistrée à son insu par l’enceinte Echo, qui l’a transmise à un employé du mari. Amazon a reconnu le problème.
Echo Dot, la plus petite des enceintes connectées d’Amazon. / ELAINE THOMPSON/AP
« Avec mon mari, nous plaisantions régulièrement : “Je suis certains qu’elles nous écoutent.” » Danielle, une habitante de Portland, aux Etats-Unis, qui n’a pas souhaité communiquer son nom de famille, ne croyait pas si bien dire en évoquant son enceinte connectée Echo. Dans une interview diffusée jeudi 24 mai par la chaîne de télévision locale Kiro7, elle rapporte qu’une conversation privée avec son mari a été enregistrée par l’enceinte d’Amazon, puis envoyée à un contact de son carnet d’adresses, sans qu’elle s’en aperçoive. Echo est pourtant censé n’activer l’enregistrement que quand le mot « Alexa » – le nom de l’assistante vocale – est prononcé.
Danielle a ensuite reçu un appel de ce contact, un employé de son mari, lui recommandant de débrancher l’enceinte en urgence. L’employé avait compris qu’il n’aurait jamais dû recevoir cet enregistrement audio. « Au départ, nous n’y croyions pas », a déclaré l’Américaine à Kyro7. Jusqu’à ce que l’employé révèle les détails de leur conversation privée.
« Un mot qui sonnait comme “Alexa” »
Pensant être piratée, elle a alors contacté Amazon, qui a mené l’enquête avant d’écarter la piste de l’intrusion informatique. Le grand groupe américain a confirmé le problème, et livré ses explications à la chaîne :
« Echo s’est réveillée après avoir entendu un mot de la conversation qui sonnait comme “Alexa”. Puis elle a interprété la conversation suivante comme la demande “envoie un message”. A ce moment, Alexa a répondu à voix haute “à qui ?”. L’enceinte a ensuite interprété la conversation comme le nom d’un contact. Alexa a alors prononcé à voix haute le nom du contact, puis une demande de confirmation “c’est bien ça ?”. Après quoi Alexa a interprété la conversation suivante comme “c’est bien ça”. »
Selon Amazon, ce type d’enchaînement est extrêmement rare, et l’entreprise travaille à le rendre encore plus rare. Amazon a vendu plusieurs dizaines de millions d’enceintes intelligentes Echo aux Etats-Unis. Son enceinte connectée devrait sortir dans le courant de l’année en France.
Une explication qui n’a pas convaincu la propriétaire de l’enceinte – celle-ci dit ne pas avoir entendu l’enceinte parler alors qu’elle était réglée sur un volume plutôt élevé et qu’elle était proche d’elle. Cet incident fait suite à plusieurs autres affaires impliquant des enceintes connectées. A la sortie de l’enceinte Google Home Mini, en 2017, un journaliste avait remarqué qu’elle enregistrait presque toutes ses paroles, un problème rapidement corrigé. Par ailleurs, une étude américaine a montré qu’en 2015 et 2016, on pouvait pirater une enceinte connectée pour la transformer en micro espion à distance.