Inteligencia artificial
IA generativa

La IA podría llevar a la “extinción humana”

Trece empleados actuales y antiguos de OpenAI, Google DeepMind y Anthropic, proveedores líderes de tecnología de IA generativa, han dado la voz de alarma sobre esta tecnología que tanto está evolucionando.

IA generativa

Más de una docena de empleados actuales y antiguos de la industria de la IA han firmado una carta abierta en la que advierten de que los peligros de dicha tecnología podrían provocar la “extinción humana”.

Dicha carta está escrita por personas que han trabajado en OpenAI, Google DeepMind y Anthropic, todos ellos grandes proveedores de IA generativa. En concreto, lanzaban alarmas sobre una serie de riesgos derivados de la IA, que van desde “un mayor afianzamiento de las desigualdades existentes, a la manipulación y la desinformación, pasando por la pérdida de control de los sistemas autónomos de IA que podría desembocar en la extinción humana”.

Los firmantes de la carta exponen que “las propias empresas de IA han reconocido estos riesgos, al igual que Gobiernos de todo el mundo y otros expertos en IA”. En ella también piden garantías de que los empleados que planteen sus preocupaciones no serán objeto de represalias por parte de sus empresas.

Entre otros, la carta ha recibido el apoyo del científico especializado en IA Yoshua Bengio, del informático y psicólogo británico-canadiense Geoffrey Hinton y del profesor de Informática de la Universidad de California Stuart Russell.

Esta misiva se hace eco de una carta abierta publicada en marzo de 2023, en la que más de 150 destacados investigadores de IA y otras personas pedían a las empresas de IA generativa que se sometieran a evaluaciones independientes de sus sistemas, cuya ausencia ha suscitado preocupación por las protecciones básicas. Ese mismo mes, más de 1.000 firmantes, entre los que se encontraban expertos de la industria, científicos, especialistas en ética y otros, publicaron una carta abierta en la que advertían de la posible “pérdida de control de nuestra civilización” a causa de una IA fuera de cualquier control.

A esto hay que unir otra carta abierta publicada en mayo de 2023, en la que muchos de los creadores de IA más destacados de la tecnología afirmaban que controlarla era “una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear”.

Dicha carta señalaba que no existe una supervisión gubernamental eficaz de las empresas que crean y venden soluciones de IA. "Los empleados actuales y antiguos están entre las pocas personas que pueden hacerles rendir cuentas al público. Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las propias empresas que pueden estar fallando a la hora de abordar estas cuestiones", señalaron los firmantes.

"Las protecciones ordinarias de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que nos preocupan aún no están regulados. Algunos de nosotros tememos razonablemente diversas formas de represalias, dado el historial de casos de este tipo en todo el sector. No somos los primeros en encontrar o hablar de estos temas".

En opinión de los empleados, se deberían establecer estas cuatro medidas específicas para garantizar la seguridad de la IA generativa:

· La empresa no suscribirá ni aplicará ningún acuerdo que prohíba “menospreciar” o criticar a la empresa por preocupaciones relacionadas con el riesgo, ni tampoco tomará represalias por críticas relacionadas con el riesgo obstaculizando cualquier beneficio económico adquirido.

· La empresa facilitará un proceso anónimo verificable para que los empleados actuales y anteriores puedan plantear sus preocupaciones relacionadas con los riesgos al consejo de administración de la empresa, a los reguladores y a una organización independiente adecuada con la experiencia pertinente.

· La empresa apoyará una cultura de crítica abierta y permitirá a sus empleados actuales y antiguos plantear preocupaciones relacionadas con los riesgos de sus tecnologías al público, al consejo de administración de la empresa, a los reguladores o a una organización independiente adecuada con la experiencia pertinente, siempre que los secretos comerciales y otros intereses de propiedad intelectual estén debidamente protegidos.

· La empresa no tomará represalias contra los empleados actuales y anteriores que compartan públicamente información confidencial relacionada con riesgos después de que hayan fracasado otros procesos.

·Aceptamos que las preocupaciones se planteen inicialmente a través de un proceso de este tipo. Sin embargo, mientras no exista tal proceso, los empleados actuales y antiguos deben conservar su libertad para comunicar públicamente sus preocupaciones", dice la carta.

Ya a principios de este año, más de 200 empresas y organizaciones acordaron participar en el AI Safety Institute Consortium para crear directrices que garanticen la seguridad de los sistemas de IA. Pero hasta la fecha la participación ha sido voluntaria, y EE.UU. va muy por detrás de otros esfuerzos por frenar los problemas potenciales de la IA. Por ejemplo, la Unión Europea terminó de redactar la Ley de IA de la UE hace más de un año, que se aprobó en junio de 2023.

La Ley de IA de la UE exigía que los sistemas de IA generativa cumplieran unas normas de transparencia para ayudar a los reguladores y otros organismos a distinguir las imágenes falsas de las reales. La medida también prohibía los sistemas de puntuación social y la IA manipuladora.

En Estados Unidos se han hecho varios esfuerzos para frenar la IA, pero el Congreso no ha promulgado ninguna ley significativa. Por ejemplo, en octubre de 2023, el presidente de los Estados Unidos, Joe Biden, emitió una orden ejecutiva que establecía normas claras y medidas de supervisión para garantizar que la IA se mantuviera bajo control, al tiempo que proporcionaba vías para su crecimiento. Entre las más de dos docenas de iniciativas, la orden de Biden Safe, Secure, and Trustworthy Artificial Intelligence (Inteligencia Artificial Segura y de Confianza) se hizo esperar, según los expertos del sector de la IA que llevan observando el auge de las herramientas y plataformas de IA generativa desde finales de 2022.



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital