27.5.18

Asistente de voz de Amazon envía conversaciones sin autorización.

Una pareja en Portland acusa al asistente de voz de Amazon, Alexa de hacer exactamente lo que mucho gente temía que hiciera algún día. 

El asistente de voz de Amazon grabó una conversación entre ambos y se la envió a un contacto al azar suyo, en este caso, de los empleados del marido.

La mujer, de nombre Danielle pero cuyo apellido no se ha divulgado, dice que hace dos semanas recibió una llamada del empleado de su marido, quien le dijo lo siguiente: “Desconecta inmediatamente tus dispositivos Alexa ahora mismo. Te están pirateando”
Los desenchufamos todos y el empleado nos dijo que había recibido varios archivos de audio de grabaciones desde el interior de nuestra casa. Al principio, mi esposo no se lo podía creer, pero fue así. El empleado nos confirmó que estábamos hablando de pisos de madera. Realmente Alexa ha invadido nuestra privacidad.
Danielle escuchó posteriormente la conversación cuando el empleado se las envió, y no podía creer que alguien a cientos de kilómetros de distancia estuviera escuchando sus conversaciones privadas. “Me sentí invadida. Una invasión de privacidad total. Inmediatamente dije: ‘Nunca volveré a enchufar este dispositivo, porque no puedo confiar en él’”.

La mujer también ha explicado que un ingeniero de Amazon investigó el caso y le pidió disculpas repetidamente. Sin embargo, la compañía no arrojó luz sobre cómo o por qué sucedió esto. 

Un representante de Amazon le dijo en un correo electrónico a The Outline que el problema se debió a que Alexa malinterpretó una serie de palabras que lo dirigieron a enviar varios mensajes de audio:

Echo se despertó debido a una palabra en una conversación de fondo que sonaba como ‘Alexa’. Luego, la conversación posterior se escuchó como una solicitud de “enviar mensaje”. En ese momento, Alexa dijo en voz alta ‘¿A quién?’ En ese momento, la conversación de fondo se interpretó como un nombre en la lista de contactos de los clientes. Alexa luego preguntó en voz alta, ‘[nombre de contacto], ¿verdad?’ Alexa luego interpretó la conversación de fondo como ‘correcta’. Por improbable que sea esta cadena de eventos, estamos evaluando opciones para hacer que este caso sea aún menos probable.