Inteligencia artificial
IA
Estados Unidos
IA generativa

Sam Altman (OpenAI) sobre la capacidad de ChatGPT de manipular las elecciones: "Es uno de los aspectos que más me preocupan"

Dos comités del Senado estadounidense se reunieron el martes por separado con expertos del sector, entre ellos el CEO de OpenAI, para debatir sobre cómo controlar la IA a medida que avanza a toda velocidad por la autopista del desarrollo, amenazando la privacidad y los derechos a su paso.

Sam Altman, CEO de OpenAI, durante su comparecencia en el Congreso de EE.UU.
Sam Altman, CEO de OpenAI, durante su comparecencia en el Congreso de EE.UU.

Hay intereses nacionales vitales en el avance de la inteligencia artificial (IA) para agilizar los servicios públicos y automatizar las tareas mundanas realizadas por los empleados del Gobierno. Pero éste carece tanto de talento informático como de sistemas para apoyar estos esfuerzos.

"El Gobierno federal en su conjunto sigue encontrando obstáculos a la hora de contratar, gestionar y retener personal con conocimientos técnicos avanzados, los mismos que se necesitan para diseñar, desarrollar, desplegar y supervisar los sistemas de IA", afirma Taka Ariga, data scientist jefe de la Oficina de Rendición de Cuentas del Gobierno de Estados Unidos.

Daniel Ho, director asociado del Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI, por sus siglas en inglés) de la Universidad de Stanford, coincidió en que, según una estimación, el Gobierno federal necesitaría contratar a unos 40.000 trabajadores de TI para abordar los problemas de ciberseguridad que plantea la IA.

Las herramientas de inteligencia artificial fueron objeto de dos audiencias distintas en el Capitolio. Ante el Comité de Seguridad Nacional y Asuntos Gubernamentales, un grupo de cinco expertos en IA declaró que, si bien la adopción de esta tecnología es inevitable, eliminar la supervisión humana de la misma plantea enormes riesgos. Y en una audiencia del subcomité judicial del Senado sobre privacidad, tecnología y legislación, Sam Altman, CEO de OpenAI, se unió a Christina Montgomery, ejecutiva de IBM, y Gary Marcus, profesor emérito de la Universidad de Nueva York, para dar su testimonio.

En las comparecencias, que se solaparon, se trataron diversos temas y preocupaciones sobre el rápido auge y evolución de las herramientas basadas en IA. Más allá de la necesidad de más trabajadores cualificados en la Administración estadounidense, los funcionarios plantearon su preocupación por los prejuicios de los organismos públicos basados en datos defectuosos o corruptos de los algoritmos de IA, el temor a la desinformación electoral y la necesidad de una mayor transparencia sobre el funcionamiento real de las herramientas de IA y los grandes modelos lingüísticos subyacentes. 

En su discurso de apertura, el presidente de la comisión de Seguridad Nacional y Asuntos Gubernamentales, el senador demócrata Gary Peters, afirmó que EE.UU. debe asumir el liderazgo mundial en el desarrollo y la regulación de la IA estableciendo normas que puedan "abordar los riesgos y daños potenciales".

¿Una de las amenazas más evidentes? Los datos que utilizan los chatbots de IA, como ChatGPT de OpenAI, para generar respuestas suelen ser inaccesibles para cualquier persona ajena a la comunidad de proveedores, e incluso los ingenieros que diseñan los sistemas de IA no siempre entienden cómo llegan los sistemas a sus conclusiones.

En otras palabras, los sistemas de IA pueden ser cajas negras que utilizan tecnología patentada a menudo respaldada por datos erróneos para producir resultados erróneos.

 

¿Malos datos de entrada, malos resultados de salida?

Peters señaló un estudio reciente de la Universidad de Stanford que descubrió un algoritmo de IA defectuoso del Servicio de Impuestos Internos utilizado para determinar quién debe ser auditado. El sistema elegía a los contribuyentes negros cinco veces más que a los de otras razas.

Peters también se refirió a los sistemas basados en IA desplegados por al menos una docena de estados para determinar la elegibilidad para las prestaciones por discapacidad, "lo que dio lugar a que el sistema negara a miles de beneficiarios esta asistencia crítica que les ayuda a vivir de forma independiente", dijo Peters.

Como el sistema de prestaciones por discapacidad era considerado "tecnología patentada" por los estados, los ciudadanos no podían saber por qué se les denegaban las prestaciones ni recurrir la decisión, según Peters. Las leyes de privacidad que mantenían ocultos los datos y el proceso no estaban diseñadas para gestionar aplicaciones y problemas de IA.

"A medida que las agencias utilizan más herramientas de IA, deben asegurarse de que están securizando y utilizando adecuadamente cualquier entrada de datos para evitar divulgaciones accidentales o usos no intencionados que perjudiquen los derechos o las libertades civiles de los estadounidenses", dijo Peters.

Richard Eppink, abogado de la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés) de Idaho, señaló que la fundación ha presentado una demanda colectiva en representación de unos 4.000 ciudadanos de Idaho con discapacidades intelectuales y de desarrollo a los que el programa estatal de Medicaid denegó fondos debido a un sistema basado en IA. "No podemos permitir que la IA patentada tome como rehenes los derechos procesales", dijo Eppink.

En la otra audiencia sobre IA, se preguntó a Altman si los ciudadanos deberían preocuparse por la posibilidad de que los grandes modelos lingüísticos (LLM) como GPT-4 y su aplicación chatbot, ChatGPT, puedan manipular las elecciones.

"Es uno de los aspectos que más me preocupan", respondió. "La capacidad más general de estos modelos para manipular, persuadir, proporcionar desinformación interactiva uno a uno, dado que vamos a enfrentarnos a unas elecciones el próximo año y estos modelos están mejorando, creo que es un área de preocupación significativa".

La regulación, dijo Altman, sería "sabia" porque la gente necesita saber si está hablando con un sistema de IA o mirando contenido -imágenes, videos o documentos- generado por un chatbot. "Creo que también necesitaremos normas y directrices sobre lo que se espera en términos de divulgación por parte de una empresa que proporcione un modelo que podría tener este tipo de capacidades de las que estamos hablando. Así que me pone nervioso".

La gente, sin embargo, se adaptará rápidamente, añadió, señalando el software Photoshop de Adobe como algo que al principio engañó a muchos hasta que se dieron cuenta de sus capacidades. "Y entonces, rápidamente, la gente se dio cuenta de que las imágenes podían haber sido retocadas con Photoshop", afirma Altman. "Esto será así, pero con esteroides".

 

Marcas de agua para designar los contenidos de IA

Lynne Parker, directora de la Iniciativa AI Tennessee de la Universidad de Tennessee, dijo que un método para identificar los contenidos generados por herramientas de IA es incluir marcas de agua. Esta tecnología permitiría a los usuarios conocer la procedencia de los contenidos.

Maggie Hassan (demócrata de Nueva Hampshire), miembro del Comité, dijo que en el futuro se celebraría una audiencia sobre el tema de las marcas de agua en los contenidos de IA.

Altman también sugirió que el Gobierno estadounidense siguiera un plan de supervisión de la IA de tres puntos:

  • Formar una agencia gubernamental encargada de conceder licencias a grandes modelos de IA y revocar las que no cumplan las normas gubernamentales.
  • Crear normas de seguridad para los LLM que incluyan la capacidad de evaluar si son peligrosos o no. Al igual que otros productos, los LLM tendrían que superar pruebas de seguridad como la de no ser capaces de "autorreplicarse", volverse rebeldes y empezar a actuar por su cuenta.
  • Crear un marco independiente de auditoría de IA supervisado por expertos independientes.

Altman, sin embargo, no abordó las preocupaciones de transparencia sobre cómo se entrenan los LLM, algo que la senadora Marsha Blackburn (republicana de Tennessee) y otros miembros del comité han sugerido.

Parker también reclamó una actuación federal: directrices que permitan al Gobierno estadounidense aprovechar la IA de forma responsable. Enumeró diez, entre ellas la protección de los derechos de los ciudadanos, el uso de normas establecidas como el marco de gestión de la IA propuesto por el NIST y la creación de un consejo federal de IA.

Parker argumentó que no se necesita una supervisión onerosa o de mano dura que obstaculice el desarrollo y despliegue de los sistemas de IA. En su lugar, las directrices propuestas, como el Plan para una Declaración de Derechos de la IA de la Oficina de Ciencia y Tecnología, abordarían las cuestiones de alto riesgo.

También es importante definir el uso responsable de la IA, algo de lo que deberían responsabilizarse organismos como la Oficina de Gestión y Presupuesto.

Una preocupación: los proveedores de chatbot y otras tecnologías de IA están trabajando duro para obtener información pública como registros de teléfonos móviles y direcciones de ciudadanos de agencias estatales y federales para ayudar en el desarrollo de nuevas aplicaciones. Esas aplicaciones podrían rastrear a las personas y sus hábitos en línea para comercializar mejor con ellas.

 

China apuesta por la inteligencia artificial

La comisión del Senado también escuchó la preocupación de que China esté a la cabeza tanto en el desarrollo como en los estándares de la IA. "Parece que estamos atrapados en una trampa", dijo Jacob Siegel, redactor jefe de noticias de Tablet Magazine. "Hay un interés nacional vital en promover el avance de la IA, sin embargo, en la actualidad, el uso principal que el Gobierno hace de la IA parece ser como arma política para censurar la información que él o sus socios terceros consideran perjudicial".

Siegel, cuya revista online se centra en noticias y cultura judías, fue oficial de inteligencia y veterano de las guerras de Irak y Afganistán.

La gobernanza estadounidense de la IA hasta la fecha, argumentó, está emulando el modelo chino con un control social verticalista e impulsado por los partidos políticos. "Seguir en esta dirección significará el fin de nuestra tradición de autogobierno y del modo de vida estadounidense".

Siegel dijo que sus experiencias en la guerra contra el terrorismo le permitieron "vislumbrar la revolución de la IA". Dijo que la tecnología ya está "rehaciendo el sistema político y la cultura de Estados Unidos en formas que ya han demostrado ser incompatibles con nuestro sistema de democracia y autogobierno y que pronto pueden llegar a ser irreversibles".

Hizo referencia al testimonio ofrecido a principios de este mes por Jen Easterly, directora de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras (CISA), quien afirmó que China ya ha establecido barandillas para garantizar que la IA representa sus valores. "Y Estados Unidos debería hacer lo mismo", afirmó Siegel.

El Comité Judicial celebró una audiencia en marzo para debatir el potencial transformador de la IA, así como sus riesgos. La audiencia de hoy se centró en cómo la IA puede ayudar al Gobierno a ofrecer servicios de manera más eficiente, evitando al mismo tiempo intrusiones en la privacidad, la libertad de expresión y la parcialidad.

 

Preocupación por la censura

El senador Rand Paul (republicano de Kentucky) describió un escenario particularmente siniestro y orwelliano en el que la IA, como ChatGPT, no sólo actúa a partir de datos erróneos, sino que también puede producir desinformación a sabiendas y censurar la libertad de expresión en función de lo que el Gobierno determine que es para un bien mayor.

Por ejemplo, Paul describió cómo durante la pandemia de COVID una asociación público-privada trabajó en colaboración con empresas privadas, como Twitter, para utilizar la IA para automatizar el descubrimiento de mensajes polémicos sobre el origen de las vacunas y los tratamientos no aprobados y eliminarlos.

"El propósito, según decían, era combatir la influencia maligna extranjera. Pero, en realidad, el Gobierno no estaba suprimiendo la desinformación extranjera. Trabajaba para censurar el discurso nacional de los estadounidenses", dijo Paul. "George Orwell estaría orgulloso".

Desde 2020, dijo Paul, el Gobierno federal ha otorgado más de 500 contratos para sistemas de IA patentados. El senador afirmó que los contratos fueron a empresas cuya tecnología se utiliza para "minar Internet, identificar conversaciones indicativas de narrativas dañinas, rastrear esas amenazas y desarrollar contramedidas antes de que los mensajes se vuelvan virales".



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital