Tecnología | Noticias | 11 MAY 2018

Siri, Alexa, Google... ¿Pueden los asistentes de voz convertirse en cómplices enemigos?

Investigadores han podido activar en secreto los sistemas de inteligencia artificial en 'smartphones' y altavoces inteligentes provocando que éstos realicen acciones ordenadas desde otro elemento.
Amazon Echo altavoz hogar
Redacción

Contar con un asistente de voz en el el hogar empieza a ser algo habitual, las personas se han acostumbrado a hablar con los dispositivos. Pero parece que estos aparatos podrían escuchar algo más

En los últimos años, investigadores de China y Estados Unidos vienen trabajando en demostrar que pueden enviar a Siri de Apple, Alexa de Amazon y Asistente de Google comando ocultos, imperceptibles para el oído humano

Investigadores, tal y como explica en un artículo el diario New York Times, han podido activar en secreto los sistemas de inteligencia artificial en smartphones y altavoces inteligentes provocando que éstos realicen acciones como marcar números de teléfono o abrir sitios webs. Esta tecnología puede convertirse en un serio peligro dependiendo de las manos en las que caíga.

En 2016 un grupo de estudiantes de la Universidad de California, Berkeley y la Universidad de Georgetown mostraron que podían ocultar comandos en ruido blanco reproducidos por altavoces y vídeos de Youtube para que los dispositivos inteligentes activaran el modo avión o abrieran un sitio web. 

Ahora, algunos de los investigadores de Berkeley han ido más allá y han publicado un trabajo de investigación explicando que podían insertar comandos directamente en las grabaciones de música. Esto significa que mientras una persona está escuchando por ejemplo una canción, el asistente podría estar recibiendo una instrucción para realizar alguna acción.  Uno de los autores del proyecto, Nicholas Carlini, perteneciente a la universidad de Berkeley, explicó que buscaban hacer el asistente "aún más sigiloso". Además Carlini agregó que si bien esto aún no ha salido del laboratorio, "es cuestión de tiempo". "Mi suposición es que las personas malintencionadas ya emplean personas para hacer lo que hago", añade. 

Esto es un ejemplo de como aunque la inteligencia artificial avance, sigue pudiendo ser manipulada para un uso fraudulento. Se puede engañar a los ordenadores para que identifiquen un avión como un gato con solo cambiar unos pocos píxeles de una imagen digital, mientras que los investigadores pueden hacer que un coche se desvíe o acelere simplemente pegando pequeñas pegatinas en las señales de tráfico y confundiendo el sistema de visión por ordenador del vehículo .

Con los ataques de audio, los investigadores están explotando la brecha entre el reconocimiento de voz humano y máquina. Los sistemas de reconocimiento de voz típicamente traducen cada sonido a una letra, y eventualmente los compila en palabras y frases. Al hacer pequeños cambios en los archivos de audio, los investigadores pudieron cancelar el sonido que se suponía que escucharía el sistema de reconocimiento de voz y reemplazarlo por un sonido que las máquinas transcribirían de manera diferente, al tiempo que sería prácticamente indetectable para el oído humano.

Según la firma de investigación Ovum, los teléfonos y altavoces inteligentes que usan asistentes digitales como el Alexa de Amazon o el Siri de Apple superarán en número a las personas para el año 2021. Y más de la mitad de todos los hogares estadounidenses tendrán al menos un altavoz inteligente para entonces, según Juniper Research.

¿Cómo han respondido los fabricantes a esta amenaza?

Amazon ha indicado que no revelará medidas de seguridad específicas, pero si ha tomado medidas para garantizar la seguridad de Echo. 

Google se escuda alegando que la seguridad es un elemento de contínuo trabajo y que su asistente tiene las características para mitigar los comandos indetectables. Los asistentes de ambas compañías emplean tecnología de reconocimiento de voz para evitar que los dispositivos actúen en ciertos comandos a menos que reconozcan la voz del usuario.

Por su parte Apple también ha diseñado a Siri y HomePod para evitar que los comandos hagan cosas por cuenta ajena. En estos casos es necesario desbloquear los dispositivos antes de darle las órdenes. 



Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios