DolphinAttack: La vulnerabilidad que afecta a los asistentes virtuales

Los asistentes virtuales están cobrando cada vez más protagonismo. Además, cada vez contamos con más asistentes disponibles en el mercado, lo cual hace que sea complicado poder elegir el mejor para nosotros. Entre los asistentes virtuales más destacados que nos encontramos en el mercado se encuentran Bixby, Google Assistant, Alexa, Cortana y Siri. Los asistentes se han anunciado siempre como algo útil y seguro, aunque esto último está ya en duda.

Unos investigadores de la Universidad de Zhejiang en China han descubierto una vulnerabilidad que afecta a todos los asistentes de voz. Se trata de una vulnerabilidad que consiste en hablarles en una frecuencia que el oído humano no puede escuchar. Se ha llevado a cabo con una técnica llamada DolphinAttack (ataque delfín). Os contamos más a continuación.

Vulnerabilidad en los asistentes de voz

A través de esta técnica se logra inyectar comandos de voz inaudibles en siete asistentes de voz. Gracias a esto se han podido llevar a cabo distintos tipos de ataque. Entre ellos se ha podido activar Siri para hacer una llamada de FaceTime en el iPhone. Todo esto sin que el dueño del teléfono se de cuenta de ello. También se han podido llevar a cabo otras acciones, como poner el teléfono en modo avión o hasta manipular el sistema de GPS de un Audi Q3.

Lee también:  ¿Te está llamando el 876662016? Bloquéalo de inmediato: es una estafa peligrosa

La técnica de DolphinAttack consiste en modular la frecuencia de los comados de voz hechos por el ser humano. Y las convierten en frecuencias de ultrasonido. Esto es algo que un humano no puedo detectar, aunque los micrófonos y los dispositivos de los asistentes virtuales sí pueden. Los investigadores llevaron a cabo estas pruebas con Google Now, Siri de Apple, Alexa de Amazon, S Voice de Samsung, Cortana y HiVoice de Huawei.

Si bien el ataque no ha logrado llevar a cabo acciones maliciosas de momento, muchos ven potencial para los hackers en este área. Aunque, también es necesario que la persona que posea el dispositivo con el asistente esté cerca del hacker. Algo que limita y mucho el peligro. Pero es posible que si un hacker se encuentra cerca de tí puede hacer que tu teléfono se conecte a una web que provoca la infección de algún tipo de malware. De momento, una de las soluciones que se recomienda es que no se permita que los asistentes virtuales se activen por voz, aunque eso haga que el asistente no tenga sentido alguno entonces.

Fuente | BGR