Inteligencia artificial
IA generativa

¿Debemos temer la llegada de la inteligencia artificial general?

Las capacidades de la inteligencia artificial se doblan por año, y eso podría conducir a un sistema que se perpetúe a sí mismo, cuyo impacto aún se desconoce.

inteligencia artificial
Foto de ThisIsEngineering (Pexels).

La semana pasada, un grupo de tecnólogos entre los que se encontraba Elon Musk pidió a los laboratorios de inteligencia artificial (IA) que dejaran de entrenar a los sistemas más poderosos durante al menos seis meses, alegando “riesgos para la sociedad y la humanidad”. En una carta abierta, que ya han firmado más de 3.100 personas, también Steve Wozniak, cofundador de Apple, estos se centran particularmente en el nuevo algoritmo GPT-4 de OpenAI que, según el escrito, debería dejar de ser alimentado hasta que cumpla con los estándares de supervisión. Este objetivo cuenta, además de con estas personalidades, con el respaldo de técnicos, directores ejecutivos, financieros, estudiantes, psicólogos, médicos, ingenieros de software y docentes de todo el mundo.

El viernes, Italia se convirtió en el primer país occidental en prohibir un mayor desarrollo de ChatGPT por cuestiones de privacidad. Además, la herramienta experimentó una brecha de datos el mes pasado que exponía conversaciones con usuarios e informaciones respecto a pagos de un pequeño porcentaje de clientes. De hecho, las autoridades italianas investigan si el chatbot vulnera el Reglamento General de Protección de Datos (GDPR, de sus siglas inglesas) europeo. Aunque, según un informe de la BBC se concluye que OpenAI cumple con la ley.

Las expectativas de la industria pasan por que GPT se convierta pronto en GPT-5, una versión de una IA que puede pensar por sí misma. En ese punto, el algoritmo se haría más inteligente con el tiempo. Y, es que, sobre el año 2016, una tendencia en los modelos de entrenamiento de IA intenta pronosticar el desarrollo de estos servicios.

Actualmente, no hay sistemas más importantes que GPT-4 en términos de cómputo de entrenamiento, según Jaime Sevilla, director de Epoch. Pero esto cambiará. Anthony Aguirre, profesor de física en UC Santa Cruz, cree que no hay razones para creer que GPT-4 no continuará doblando sus capacidades anualmente. “Solo los propios laboratorios saben qué cálculos están ejecutando, pero la tendencia es inconfundible”.

Por otra parte, en su blog corporativo, Microsoft anunció AGI (IA que puede pensar por sí misma), una IA que es capaz de aprender cualquier tarea o temática, como el “gran sueño de la industria informática”. “AGI aún no existe; hay un fuerte debate en la industria sobre cómo crearlo y si se puede hacer”, dijo Bill Gates, cofundador de la tecnológica de Redmond. “Ahora, con la llegada del aprendizaje automático y el poder de cómputo, las IA sofisticadas son una realidad y mejorarán muy rápido”.

Muddu Sudhakar, director general de Aisera, expresa que solo hay unas pocas empresas enfocadas en lograr AGI, como OpenAI y DeepMind. Aun así tienen un largo camino por recorrer. “Hay tantas tareas que los sistemas de IA no pueden hacer que los humanos pueden lograr de forma natural, como razonar con sentido común, saber qué es un hecho y comprender conceptos abstractos como justicia, política y filosofía. Se necesitarán muchos avances e innovaciones para AGI. Pero si esto se logra, parece que este sistema podrá reemplazar a los humanos”.

"Esto sin duda sería disruptivo y tendría que haber muchas medidas de protección para evitar que el AGI tome el control total", dijo Sudhakar. "Pero por ahora, es probable que esto ocurra en un futuro lejano. Está más en el ámbito de la ciencia ficción". Aunque no todo el mundo está de acuerdo.

La tecnología de inteligencia artificial y los asistentes de bots conversacionales han logrado y continuarán incursionando en casi todas las industrias. La tecnología puede crear eficiencias y hacerse cargo de tareas mundanas, liberando a los trabajadores del conocimiento y a otros para que se concentren en trabajos más importantes. Por ejemplo, los modelos de lenguaje extenso (LLM, por sus siglas en inglés), los algoritmos que impulsan los chatbots, pueden analizar millones de alertas, chats en línea y correos electrónicos, además de encontrar páginas web de phishing y ejecutables potencialmente maliciosos. Los chatbots con tecnología LLM pueden escribir ensayos, campañas de marketing y sugerir código de computadora, todo desde simples indicaciones del usuario.

Los chatbots impulsados por LLM son procesadores de lenguaje natural que básicamente predicen las siguientes palabras después de que un usuario les pregunte. Entonces, si un usuario le pidiera a uno que creara un poema sobre una persona sentada en una playa en Nantucket, la IA simplemente encadenaría palabras, oraciones y párrafos que son las mejores respuestas según la capacitación previa de los programadores. Pero los LLM también han cometido errores de alto perfil y pueden producir "alucinaciones" en las que los motores de próxima generación se descarrilan y producen respuestas extrañas.

Si la IA basada en LLM con miles de millones de parámetros ajustables puede descarrilarse, ¿cuánto mayor sería el riesgo cuando la IA ya no necesite que los humanos la enseñen y pueda pensar por sí misma? La respuesta es mucho mayor, según Avivah Litan, vicepresidente y distinguido analista de Gartner Research. Litan cree que los laboratorios de desarrollo de IA están avanzando a una velocidad vertiginosa sin ninguna supervisión, lo que podría hacer que AGI se vuelva incontrolable. Los laboratorios de IA, argumenta, han “avanzado sin implementar las herramientas adecuadas para que los usuarios monitorizan lo que está sucediendo. "Creo que va mucho más rápido de lo que nadie esperaba”.

La preocupación actual es que la tecnología de inteligencia artificial para uso de las corporaciones se está lanzando sin las herramientas que los usuarios necesitan para determinar si la tecnología está generando información precisa o inexacta.

“En este momento, estamos hablando de todos los buenos que tienen toda esta capacidad innovadora, pero los malos también la tienen”, dijo Litan. “Entonces, tenemos que tener estos sistemas de marcado de agua y saber qué es real y qué es sintético. Y no podemos confiar en la detección, tenemos que tener autenticación de contenido. De lo contrario, la información errónea se extenderá como la pólvora”.

Por ejemplo, Microsoft lanzó esta semana Security Copilot , que se basa en el modelo de lenguaje grande GPT-4 de OpenAI. La herramienta es un chatbot de IA para expertos en ciberseguridad que los ayuda a detectar y responder rápidamente a las amenazas y a comprender mejor el panorama general de amenazas.

El problema es que “usted, como usuario, debe ingresar e identificar cualquier error que cometa”, dijo Litan. “Eso es inaceptable. Deberían tener algún tipo de sistema de puntuación que diga que es probable que esta salida sea un 95% verdadera, por lo que tiene un 5% de posibilidades de error. Y este tiene un 10% de posibilidades de error. No te dan ninguna idea del rendimiento para ver si es algo en lo que puedes confiar o no”. Una preocupación mayor en un futuro no muy lejano es que el creador de GPT-4, OpenAI, lanzará una versión compatible con AGI. En ese momento, puede ser demasiado tarde para controlar la tecnología.

Una posible solución, sugiere Litan, es lanzar dos modelos para cada herramienta de IA generativa: uno para generar respuestas y el otro para verificar la precisión del primero. “Eso podría hacer un muy buen trabajo para garantizar que una modelo esté publicando algo en lo que pueda confiar. No se puede esperar que un ser humano revise todo este contenido y decida qué es cierto o no, pero si le das otros modelos que están verificando… eso permitiría a los usuarios monitorear el desempeño”.

En 2022, Time informó de que OpenAI había subcontratado servicios a trabajadores de bajos salarios en Kenia para determinar si su GPT LLM estaba produciendo información segura. Según los informes, a los trabajadores contratados por Sama, una empresa con sede en San Francisco, se les pagó $ 2 por hora y se les pidió que revisaran las respuestas de la aplicación GPT "que eran propensas a soltar comentarios violentos, sexistas e incluso racistas".

¿Y así es como nos estás protegiendo? Pagar a las personas dos dólares por hora y que están enfermando. Es totalmente ineficiente y totalmente inmoral”, expresa Litan.

“Los desarrolladores de IA deben trabajar con los formuladores de políticas, y estos deben incluir, como mínimo, autoridades reguladoras nuevas y capaces”, continua Litan. “No sé si alguna vez llegaremos allí, pero los reguladores no pueden seguir el ritmo de esto, y eso fue predicho hace años. Necesitamos idear un nuevo tipo de autoridad”.

 



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital