Une conversation privée enregistrée et envoyée sans l’accord des propriétaires — Amazon Alexa

L’assistant Amazon Alexa a enregistré une discussion privée et l’a envoyée à un contact au hasard

Etats-Unis: Une enceinte connectée envoie la conversation privée d’un couple à son insu

Ce dernier les rappelle immédiatement pour leur dire que leur appareil a été piraté et qu'il a entendu l'ensemble de leur conversation. "Vous êtes en train de vous faire pirater".

Danielle, l'épouse, a tout d'abord cru à une plaisanterie, mais cela a très vite changé lorsque l'employé de son mari a commencé à lui révéler le contenu des différents fichiers audio reçus dans sa boîte à lettres électroniques.

"Je me suis sentie complètement envahie, a expliqué Danielle à la presse locale". Une invasion totale de ma vie privée.

Face à ce concours de circonstances surréaliste, la confiance des utilisateurs d'enceintes intelligentes risque d'être sérieusement ébranlée, d'autant plus qu'il ne s'agit pas de la première situation embarrassante provoquée par ces appareils destinés à épauler leurs propriétaires dans la vie de tous les jours. En janvier 2017, une fillette de 6 ans au Texas avait profité de l'absence de ses parents pour commander une maison de poupées en demandant simplement à l'appareil: "Alexa, commande-moi une maison de poupées". Amazon aurait expliqué au couple " nos ingénieurs ont parcouru vos logs, et ils ont vu exactement ce que vous nous avez dit, ils ont vu exactement ce que vous avez dit, et nous sommes désolés". "Il s'est excusé 15 fois en l'espace de 30 minutes et il nous a dit qu'ils appréciaient vraiment que nous leur en parlions, que c'était quelque chose qu'ils devaient corriger!".

Cet incident est un vrai désaveu pour Amazon, qui a toujours assuré que ses assistants vocaux n'écoutaient pas les conversations de ses utilisateurs. L'appareil enregistre pourtant bien les voix humaines mais normalement après seulement la prononciation du prénom "Alexa", qui permet de l'allumer. Un mot que Danielle pense ne pas avoir prononcé ce soir-là lorsqu'elle discutait avec son mari. Le coupable? L'Amazon Echo, l'enceinte connectée du géant américain. L'enceinte Echo s'est mise à écouter (et donc enregistrer) la conversation car elle a repéré un mot "ressemblant à Alexa " dans le bruit de fond.

"Ensuite, l'appareil a entendu dans la conversation une requête pour " envoyer un message", poursuit Amazon". À ce moment là, Alexa a demandé à voix haute "à qui?".

Selon un employé d'Amazon auquel Danielle a parlé après l'incident, le haut-parleur intelligent aurait interprété des paroles de la discussion comme une commande vocale. Pour Amazon il n'y a donc pas de piratage, seulement une erreur technique, fermez le ban.

Dernières nouvelles