Inteligencia artificial
IA
Chatbots
Elon Musk

Musk, Wozniak y otros 1.100 líderes tecnológicos piden frenar el despliegue de la inteligencia artificial

En una carta abierta, los firmantes han advertido de una posible "pérdida de control de nuestra civilización" a causa de la IA descontrolada.

robot inteligencia artificial ia
Foto de Tara Winstead (Pexels).

Más de 1.100 personalidades, líderes y científicos tecnológicos han emitido una advertencia contra los laboratorios que realizan experimentos a gran escala con inteligencia artificial (IA) más potente que la de ChatGPT, diciendo que la tecnología plantea una grave amenaza para la humanidad.

En una carta abierta publicada por Future of Life Institute, una organización sin ánimo de lucro con la misión de reducir los riesgos catastróficos y existenciales globales para la humanidad, el cofundador de Apple, Steve Wozniak, y el consejero delegado de SpaceX y Tesla, Elon Musk, se unieron a otros firmantes para coincidir en que la IA plantea "profundos riesgos para la sociedad y la humanidad, como demuestran extensas investigaciones y reconocen los principales laboratorios de IA".

La petición pide una pausa de seis meses en las actualizaciones de las plataformas de IA generativa, como GPT-4, que es el gran modelo de lenguaje (LLM) que impulsa el popular chatbot de procesamiento de lenguaje natural ChatGPT. La carta describe en parte un futuro distópico que recuerda a los creados por las redes neuronales artificiales en películas de ciencia ficción como Terminator y Matrix. También cuestiona directamente si la IA avanzada podría llevar a una "pérdida de control de nuestra civilización".

En la misiva también se advierte de las disrupciones políticas "especialmente a la democracia" derivados de la IA: los chatbots que actúan como humanos podrían inundar las redes sociales y otras plataformas con propaganda y falsedades. Y advierte de que la IA podría "automatizar todos los trabajos, incluidos los satisfactorios".

La carta pide a los líderes cívicos -no a la comunidad tecnológica- que tomen las riendas de las decisiones sobre la amplitud del despliegue de la IA.

Los tomadores de decisiones deben trabajar con la comunidad de la inteligencia artificial para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA que, como mínimo, incluyan nuevas autoridades reguladoras de esta tecnología, supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional. La carta también sugiere que se utilicen sistemas de procedencia y marca de agua para ayudar a distinguir el contenido real del sintético y rastrear las filtraciones de modelos, junto con un sólido ecosistema de auditoría y certificación.

"Los sistemas de inteligencia artificial contemporáneos ya compiten con los humanos en tareas generales", afirma la carta. "¿Debemos desarrollar mentes no humanas que con el tiempo puedan superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos que no han sido electos".

(El gobierno británico ha publicado hoy un libro blanco en el que esboza sus planes para regular la IA de propósito general, afirmando que "evitará una legislación de mano dura que podría ahogar la innovación" y que, en su lugar, se basará en las leyes existentes).

Avivah Litan, vicepresidenta y distinguida analista de Gartner Research, dijo que la advertencia de los líderes tecnológicos es acertada y que actualmente no existe ninguna tecnología que garantice la autenticidad o la exactitud de la información generada por herramientas de IA como GPT-4. La mayor preocupación, dijo, es que la IA de propósito general no se convierta en una amenaza.

Lo más preocupante es que OpenAI tiene previsto lanzar GPT-4.5 dentro de seis meses y GPT-5 seis meses después. "Supongo que ésa es la urgencia de seis meses que se menciona en la carta", afirma Litan. "Están avanzando a toda máquina".

Lo que se espera de GPT-5 es que sea una inteligencia general artificial, o AGI, en la que la IA se vuelva sensible y pueda empezar a pensar por sí misma. A partir de ese momento, seguirá aumentando exponencialmente su inteligencia. 

"Una vez que se llega a la AGI, es como el fin del juego para los seres humanos, porque una vez que la IA es tan inteligente como un ser humano, es tan inteligente como [Albert] Einstein, y una vez que se vuelve tan inteligente como Einstein, se vuelve tan inteligente como 100 Einsteins en un año", dijo Litan. "Cuando se llega a la AGI, la situación se descontrola por completo. Ése es el gran temor. En ese punto, los humanos no tenemos ningún control. Se nos escapa de las manos".

Anthony Aguirre, catedrático de Física de la Universidad de California en Santa Cruz y vicepresidente ejecutivo de Future of Life, afirma que sólo los propios laboratorios saben qué cálculos están ejecutando.

"Pero la tendencia es inequívoca", afirma en un correo electrónico enviado a Computerworld. "Los cálculos a mayor escala están aumentando de tamaño unas 2,5 veces al año". Los parámetros de GPT-4 no fueron revelados por OpenAI, pero no hay razón para pensar que esta tendencia se haya detenido o incluso ralentizado".

El Future of Life Institute argumentó que los laboratorios de IA están atrapados en una carrera fuera de control para desarrollar y desplegar "mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable".

Entre los firmantes figuran científicos de DeepMind Technologies, un laboratorio británico de investigación en IA y filial de la empresa matriz de Google, Alphabet. Google anunció recientemente Bard, un chatbot conversacional basado en IA que desarrolló utilizando la familia LaMDA de LLM.

Los LLM son algoritmos de aprendizaje profundo -programas informáticos para el procesamiento del lenguaje natural- que pueden producir respuestas de tipo humano a las consultas. La tecnología de IA generativa también puede producir código informático, imágenes, vídeo y sonido.

Microsoft, que ha invertido más de 10.000 millones de dólares en OpenAI, creadora de ChatGPT y GPT-4, dijo que no tenía comentarios que hacer por el momento. OpenAI y Google tampoco respondieron de inmediato a una solicitud de comentarios.

Jack Gold, analista principal de la firma de investigación J. Gold Associates, cree que el mayor riesgo es formar a los LLM con prejuicios. Así, por ejemplo, un desarrollador podría entrenar a propósito un modelo con prejuicios contra el ‘wokeness’ o contra el conservadurismo, o hacerlo socialista o partidario de la supremacía blanca.

"Son ejemplos extremos, pero es posible (y probable) que los modelos tengan sesgos", afirma Gold en un correo electrónico a Computerworld. "Lo considero un riesgo mayor a corto y medio plazo que la pérdida de puestos de trabajo, especialmente si asumimos que la Gen AI es precisa y fiable. Así que la cuestión fundamental de la confianza en el modelo es, en mi opinión, fundamental para saber cómo utilizar los resultados".

Andrzej Arendt, director general de la consultora informática Cyber Geeks, afirmó que, aunque las herramientas de IA generativa aún no son capaces de ofrecer por sí solas un software de la máxima calidad como producto final, "su ayuda a la hora de generar fragmentos de código, configuraciones del sistema o pruebas unitarias puede acelerar considerablemente el trabajo del programador".

"¿Hará redundantes a los desarrolladores? No necesariamente, en parte porque los resultados que ofrecen estas herramientas no pueden utilizarse sin cuestionarse; es necesaria la verificación del programador", prosigue Arendt. "De hecho, los cambios en los métodos de trabajo han acompañado a los programadores desde el principio de la profesión. El trabajo de los programadores simplemente pasará a interactuar en cierta medida con los sistemas de IA".

Los mayores cambios llegarán con la introducción de sistemas de IA a gran escala, según Arendt, que puede compararse con la revolución industrial del siglo XIX, que sustituyó a una economía basada en la artesanía, la agricultura y la fabricación.

"Con la IA, el salto tecnológico podría ser igual de grande, si no mayor. De momento, no podemos predecir todas las consecuencias", afirmó.

Vlad Tushkanov, principal científico de datos de la empresa de ciberseguridad Kaspersky, con sede en Moscú, afirmó que la integración de algoritmos LLM en más servicios puede traer consigo nuevas amenazas. De hecho, los tecnólogos de LLM ya están investigando ataques, como la inyección de prompt, que pueden utilizarse contra los LLM y los servicios que alimentan.

"Como la situación cambia rápidamente, es difícil estimar qué ocurrirá a continuación y si estas peculiaridades de los LLM resultan ser el efecto secundario de su inmadurez o si son su vulnerabilidad inherente", afirma Tushkanov. "Sin embargo, es posible que las empresas quieran incluirlas en sus modelos de amenazas cuando planeen integrar los LLM en aplicaciones orientadas al consumidor".

Dicho esto, los LLM y las tecnologías de IA son útiles y ya están automatizando una enorme cantidad de "trabajo rutinario" que es necesario pero que no es agradable ni interesante que hagan las personas. Los chatbots, por ejemplo, pueden cribar a diario millones de alertas, correos electrónicos, probables páginas web de phishing y ejecutables potencialmente maliciosos.

"Este volumen de trabajo sería imposible de realizar sin la automatización", afirmó Tushkanov. "A pesar de todos los avances y tecnologías punteras, sigue habiendo una aguda escasez de talentos en ciberseguridad. Según las estimaciones, la industria necesita millones de profesionales más, y en este campo tan creativo, no podemos desperdiciar a las personas que tenemos en tareas monótonas y repetitivas".

La IA generativa y el aprendizaje automático no sustituirán a todos los trabajos de TI, incluidas las personas que luchan contra las amenazas de ciberseguridad, dijo Tushkanov. Las soluciones para esas amenazas se están desarrollando en un entorno adverso, donde los ciberdelincuentes trabajan contra las organizaciones para evadir la detección.

"Esto hace que sea muy difícil automatizarlas, porque los ciberdelincuentes se adaptan a cada nueva herramienta y enfoque", dijo Tushkanov. "Además, con la ciberseguridad la precisión y la calidad son muy importantes, y ahora mismo los grandes modelos lingüísticos son, por ejemplo, propensos a las alucinaciones (como demuestran nuestras pruebas, las tareas de ciberseguridad no son una excepción)". 

El Future of Life Institute afirma en su carta que, con guardarraíles, la humanidad puede disfrutar de un futuro floreciente con la IA. 

"Diseñen estos sistemas para el claro beneficio de todos y den a la sociedad la oportunidad de adaptarse", dice la carta. "La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos desprevenidos hacia un otoño [caída]".



TE PUEDE INTERESAR...

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital