Alexa y Siri pueden escuchar órdenes secretas
Craig Smith en el New York Times (vía SBS):
Este mes, investigadores de Berkeley publicaron un trabajo de investigación que fue más allá, en el que aseguraban ser capaces de insertar comandos directamente en grabaciones de música o texto hablado. Mientras una persona escucha a alguien hablando o música, el asistente de Amazon podría escuchar una instrucción para agregar algo a su lista de compras.
Es un problema que se ha discutido antes y la mayoría de altavoces cuentan con medidas de protección para evitar este tipo de ataques, pero no por ello dejan de ser sorprendentes. Más adelante en el artículo:
Carlini y sus colegas de Berkeley incorporaron comandos en audio reconocidos por el software de traducción de voz a texto DeepSpeech de Mozilla, una plataforma de código abierto. Pudieron ocultar el comando "OK, Google, abre la web evil.com" en una grabación que sonaba como "Sin el conjunto de datos, el artículo es inútil". Los humanos no podían discernir el comando.
El grupo de Berkeley también incluyó el comando en archivos de música, incluido un clip de cuatro segundos del "Requiem" de Verdi.