Entrevista
Robótica
Inteligencia artificial
IA
ENTREVISTAS
Robot
Especial IA ComputerWorld 2023

"Me preocupa que la gente desarrolle relaciones con las máquinas que puedan ser explotadas con fines comerciales o por los gobiernos"

Kate Darling es una investigadora y científica del MIT que ha dedicado su vida a estudiar los vínculos emocionales que las personas generan con los robots y sus consecuencias éticas y sociales. Éstas son sus conclusiones (y advertencias).

Kate Darling, investigadora y científica del MIT Media Lab.
Kate Darling, investigadora y científica del MIT Media Lab.

Aterradoras consecuencias”, “profundos riesgos para la humanidad”, “el fin del juego para los seres humanos”, “puede conducir a la extinción de la humanidad”. Con el vertiginoso avance de la inteligencia artificial (IA) en los últimos meses, han llegado también apocalípticos mensajes y advertencias por parte de los expertos y grandes empresarios sobre el futuro de la humanidad. La alerta hace recordar ficciones como 2001: Una odisea del espacio, Terminator o Matrix, donde las máquinas, evolucionadas al punto de pensar por sí mismas, toman el control y subyugan a la raza humana. 

Si ese escenario terminará por cumplirse, lo dirá el tiempo. Pero la presencia cotidiana de máquinas y robots en los hogares levanta una preocupación distinta en Kate Darling, investigadora y científica del MIT Media Lab. Su línea de investigación también la cuenta el cine. Películas como Her, A.I. Inteligencia Artificial o El hombre bicentenario muestran el otro lado de la moneda, la de la relación emocional entre los humanos y las máquinas, y mientras estas cintas provocan ternura entre los espectadores, este vínculo y sus consecuencias sociales y éticas se ha transformado para Darling en el centro de sus estudios académicos. 

 

"Nos encanta tratar a las máquinas automatizadas como si estuvieran vivas, aunque sabemos que son sólo máquinas, darles nombres y hablar con ellos"

 

En el marco de su próxima visita a España, invitada por la consultora SEIDOR para participar en el Sónar +D en Barcelona, Darling conversó con ComputerWorld sobre cómo deberíamos relacionarnos con las máquinas, las implicaciones sociales e interpersonales que estos vínculos generan y sus preocupaciones en torno a la manipulación de estas relaciones por parte de empresas y gobiernos. 

 

¿Cómo ha evolucionado nuestra relación emocional con las máquinas, especialmente con el auge de la IA?

Gran parte de mi trabajo se ha centrado en cómo y por qué la gente desarrolla relaciones emocionales con las máquinas, y hay un montón de investigaciones en este campo que han demostrado durante mucho tiempo que nos encanta tratar a las máquinas automatizadas como si estuvieran vivas, aunque sabemos que son sólo máquinas, e incluso con las tecnologías más primitivas, los primeros chatbots, o la aspiradora Roomba, la gente les daba nombres y hablaba con ellos. Sabemos desde hace mucho tiempo que esto ocurre y que es un fenómeno que no va a desaparecer y creo que lo que está ocurriendo ahora con modelos de aprendizaje del lenguaje más avanzados y aplicaciones más complejas e interesantes para mantener conversaciones de verdad, creo que vamos a ver que esto va a ocurrir mucho en la práctica y la sociedad va a ser más consciente de que esto ocurre. Va a ocurrir, no son solo unos pocos locos, es todo el mundo. Nos encanta relacionarnos con estas máquinas y vamos a tener que encontrar la manera de lidiar con ello, porque plantea algunas cuestiones éticas, también plantea muchas posibilidades, pero no podemos ignorar que está ocurriendo. 

 

Estamos viendo cómo se utiliza la IA para llenar algunos vacíos emocionales, como por ejemplo, muchos sitios web ofrecen servicios de chat con novias de IA. ¿Podrá algún día la IA sustituir a un ser humano como apoyo emocional o social? ¿Debería (en casos excepcionales, como ancianos sin familia, por ejemplo)?

No creo que sea un sustituto directo uno a uno, pero hay muchas investigaciones que demuestran que puede ayudar a las personas cuando se sienten solas. Incluso si volvemos a las relaciones de las personas con objetos, que ni siquiera están animados, que no pueden hablar contigo, cuando las personas se sienten muy solas desarrollan más relaciones con los objetos que les rodean, los antropomorfizan y proyectan cualidades humanas, oficios y emociones en ellos y eso puede ayudarles realmente a sobrevivir en esos casos. Ahora bien, los robots y la IA son muy interesantes porque imitan muchos comportamientos que asociamos automáticamente con señales sociales, por lo que la gente los antropomorfiza mucho más fácilmente. Eso puede ser muy útil en algunas circunstancias. Sin embargo, no creo que sea un buen sustituto de las personas, porque hay muchas diferencias entre cómo se comunican los humanos y cómo se comunica la IA, y creo que no debería usarse o comercializarse como un sustituto directo. Siempre me gusta utilizar la analogía de los animales y las mascotas con los que hemos desarrollado relaciones emocionales, y que no han sustituido a las relaciones humanas, sino que han ofrecido algo diferente que realmente puede ayudar a la gente. Ese es el verdadero potencial de esta tecnología, ofrecer algo diferente que pueda servir de puente o que pueda ayudar a la gente, pero no es un gran sustituto uno a uno.

 

“¿Está bien ser violento con un objeto robótico muy parecido a un ser vivo? ¿O es algo que desensibiliza y necesitaríamos reglas sobre lo que está bien y lo que no?”

 

¿Deberían regularse estos tipos de relaciones con las máquinas que estamos viendo ahora o que veremos en el futuro, para no llegar a un escenario tipo Westworld?

Es complicado y creo que necesitamos una reflexión y una regulación cuidadosas al respecto. La violencia hacia los objetos robóticos es una cosa, pero también una de las grandes diferencias entre robots y animales es que los robots pueden contarle a la gente sus secretos o pueden ser controlados por empresas, y la gente puede ser manipulada emocionalmente cuando se encuentra en un espacio muy vulnerable. Necesitamos una regulación que proteja al consumidor, debemos ser muy cautos sobre cómo las empresas estructuran los modelos de negocio en torno a las relaciones con la IA y los robots.

Además, hay muchas dudas sobre el comportamiento humano ante los objetos que imitan comportamientos reales. Has mencionado Westworld. ¿Está bien ser violento con un objeto robótico muy parecido a un ser vivo? ¿Es algo que realmente puede ayudar a la gente porque es una salida saludable para el comportamiento violento? ¿O es algo que desensibiliza y necesitaríamos algunas reglas sobre lo que está bien y lo que no? Desde el punto de vista de la investigación, realmente no lo sabemos, así que es algo que requiere mucha reflexión y mucha investigación para asegurarnos de que estamos creando una política pública basada en pruebas.

 

Hace poco entrevisté a un alto ejecutivo de Microsoft que me dijo que, siempre que le pedía al chatbot que hiciera algo, le decía por favor, por si acaso. ¿Cómo debería ser el tono de nuestras interacciones con robots, máquinas o IA?

Sé que mucha gente, sobre todo padres, se ha preocupado por cómo interactúan sus hijos con los asistentes de voz digitales que tenemos en casa, como Alexa o Google Home, y ha habido suficientes quejas y preocupación al respecto como para que algunas empresas, como Amazon y Google, hayan lanzado funciones que puedes activar para que te animen a decir por favor y gracias, porque les preocupaba que sus hijos estuvieran aprendiendo malos patrones. Es una cuestión de investigación muy interesante porque no sabemos si las personas y los niños, que también son inteligentes, distinguen en su mente ‘oh, esto es una IA y así no es como interactúo con un humano’ o si se mezcla en su subconsciente y si tiene un efecto en su comportamiento. Creo que deberíamos ser un poco cautos, porque no sabemos exactamente qué efecto puede tener en el comportamiento de las personas la interacción con la IA. Me gusta la idea de tener estas interfaces que te animan a decir por favor, especialmente para los niños que son muy maleables y están todavía en desarrollo. Pero, sinceramente, no lo sabemos y es un campo que requiere mucha investigación.

 

¿Cuáles son las implicaciones éticas de que las máquinas se parezcan cada vez más a los humanos?

Hay muchas implicaciones éticas, pero a mí lo que más me preocupa es el hecho de que la gente desarrolle relaciones con las máquinas y que esas relaciones puedan ser explotadas con fines comerciales o por los gobiernos con fines de vigilancia. Creo que hasta ahora la gente no se ha tomado muy en serio esta cuestión de que la gente desarrollará estas conexiones y que muchos de nosotros desarrollaremos estas conexiones, no sólo unas pocas personas al margen, así que creo que tenemos que prestar mucha más atención a la cuestión ética de que la gente se encariñe mucho con las máquinas y lo que eso puede significar en un entorno comercial. 

 

“Me preocupa menos que mis hijos jueguen con robots que el hecho de que estén sentados frente a una pantalla todo el día sin moverse”

 

Claro, porque el discurso que estamos viendo con la IA está más relacionado con un escenario de ciencia ficción en el que la IA tomará el control y eliminará a los humanos, pero este es un tema más actual, es algo que ya está ocurriendo y que va a empeorar con el tiempo.

Lo es, va a empeorar con el tiempo y además hay problemas adicionales, y es que las aplicaciones actuales todavía generan muchos errores o incluso información perjudicial, así que cuanto más confíe la gente en estas máquinas para que les den respuestas correctas o les aconsejen, más problemas éticos y daños puede haber también. Sabemos que algunos de estos sistemas pueden producir resultados racistas, sexistas o dañinos. Hubo un caso en el que Alexa, de Amazon, le dijo a un niño que metiera una moneda en un enchufe. Las empresas no tienen un control total sobre lo que sale y por eso creo que tenemos que ser un poco más cautelosos, y esas son cosas que están ocurriendo ahora mismo. Sí, creo que hay gente inteligente que piensa en el futuro, en lo que ocurrirá cuando las máquinas sean aún más inteligentes. Creo que eso sigue siendo una cuestión filosófica, porque no sabemos exactamente cómo será, pero hay cosas que están ocurriendo ahora mismo que requieren nuestra atención.

 

¿Y cuáles son las consecuencias sociales o interpersonales? Si ya vemos que las generaciones más jóvenes interactúan cada vez menos cara a cara con las redes sociales, ¿qué ocurrirá cuando la IA sea algo ubicuo?

Lo que me gusta de los robots físicos es que, cuando sólo te comunicas con una pantalla, se pierde mucho de la forma en que nos comunicamos los humanos, el lenguaje corporal, la expresión, y es una comunicación más plana que la comunicación con algo en tu espacio físico o con alguien, Así que lo que me gusta de los robots físicos es que vuelven a añadir este elemento físico. De hecho, me preocupa menos que mis hijos jueguen con robots que el hecho de que estén sentados frente a una pantalla todo el día sin moverse, pero no sabemos cuál será el efecto en las nuevas generaciones. Pienso mucho en ello porque tengo hijos e intento educarles, no sólo sobre el funcionamiento de los robots, sino también sobre algunas de las implicaciones sociales de los robots, e intento que piensen un poco sobre ello. Creo que es un trabajo muy importante. En el MIT y en otros lugares se está trabajando con niños y robots sociales para estudiar los efectos de las interacciones, pero desde una perspectiva social más amplia, no sabemos realmente qué va a pasar.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

Webinars

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital