Legislación
Inteligencia artificial
IA
IA generativa

Gobiernos de todo el mundo tantean regulaciones para frenar los peligros de la IA

A medida que la IA generativa revoluciona la tecnología, los países intentan elaborar normativas que fomenten sus beneficios y minimicen al mismo tiempo riesgos como los sesgos y la desinformación.

legislación

Desde que la IA generativa irrumpió en la conciencia pública con el lanzamiento de ChatGPT a finales del año pasado, los llamamientos a regular la tecnología para evitar que cause daños indebidos han alcanzado su punto álgido en todo el mundo. Es mucho lo que está en juego: la semana pasada, los líderes tecnológicos firmaron una carta pública en la que afirmaban que si los funcionarios se equivocan, la consecuencia podría ser la extinción de la raza humana.

Aunque la mayoría de los consumidores sólo se divierten probando los límites de grandes modelos lingüísticos como ChatGPT, han circulado varias historias preocupantes sobre la tecnología inventando supuestos hechos (también conocidos como "alucinaciones") y haciendo sugerencias inapropiadas a los usuarios, como cuando una versión de Bing potenciada por IA le dijo a un periodista del New York Times que se divorciara de su cónyuge.

Expertos del sector tecnológico y del ámbito jurídico también señalan otros motivos de preocupación, como la capacidad de la IA generativa para mejorar los ataques de los actores de amenazas a las defensas de ciberseguridad, la posibilidad de que se produzcan violaciones de los derechos de autor y de la privacidad de los datos -ya que los grandes modelos lingüísticos se entrenan con todo tipo de información- y el potencial de discriminación, ya que los humanos codifican sus propios prejuicios en los algoritmos. 

Posiblemente, el mayor motivo de preocupación es que los programas de IA generativa son esencialmente autodidactas, demostrando una capacidad cada vez mayor a medida que ingieren datos, y que sus creadores no saben exactamente lo que está ocurriendo en su interior. Esto puede significar, como ha dicho Geoffrey Hinton, exlíder de IA de Google, que la humanidad puede ser sólo una fase pasajera en la evolución de la inteligencia y que los sistemas de IA podrían desarrollar sus propios objetivos que los humanos desconocen.

Todo esto ha llevado a gobiernos de todo el mundo a reclamar normativas protectoras. Pero, como ocurre con la mayoría de las normativas tecnológicas, rara vez existe un enfoque único que sirva para todos los casos, y los distintos gobiernos tratan de regular la IA generativa de la forma que mejor se adapte a su propio panorama político.

 

Los países crean sus propias normativas

"[Cuando se trata de] cuestiones tecnológicas, aunque cada país es libre de elaborar sus propias normas, en el pasado lo que hemos visto es que ha habido algún tipo de armonización entre Estados Unidos, la Unión Europea (UE) y la mayoría de los países occidentales", afirma Sophie Goossens, socia del bufete de abogados Reed Smith especializada en cuestiones de IA, derechos de autor y propiedad intelectual. "Es raro ver una legislación que contradiga por completo la de otro país".

Aunque los detalles de la legislación presentada por cada jurisdicción pueden diferir, hay un tema general que une a todos los gobiernos que han esbozado propuestas hasta ahora: cómo pueden aprovecharse los beneficios de la IA minimizando al mismo tiempo los riesgos que presenta para la sociedad. De hecho, los legisladores de la UE y EE.UU. están elaborando un código de conducta de la IA para salvar las distancias hasta que se apruebe legalmente cualquier legislación.

La IA generativa es un término genérico para cualquier tipo de proceso automatizado que utilice algoritmos para producir, manipular o sintetizar datos, a menudo en forma de imágenes o texto legible por humanos. Se llama generativo porque crea algo que antes no existía. No es una tecnología nueva, y las conversaciones en torno a su regulación tampoco lo son.

Podría decirse que la IA generativa existe (en forma de chatbot muy básico, al menos) desde mediados de los años 60, cuando un profesor del MIT creó ELIZA, una aplicación programada para utilizar la concordancia de patrones y la metodología de sustitución del lenguaje para emitir respuestas diseñadas para que los usuarios se sintieran como si estuvieran hablando con un terapeuta. Pero la reciente llegada de la IA generativa al dominio público ha permitido a personas que antes no tenían acceso a la tecnología crear contenidos sofisticados sobre casi cualquier tema, a partir de unas pocas instrucciones básicas.

A medida que las aplicaciones de IA generativa se hacen más potentes y prevalentes, crece la presión para regularlas.

"El riesgo es definitivamente mayor porque ahora estas empresas han decidido lanzar herramientas extremadamente potentes en Internet abierto para que todo el mundo las utilice, y creo que definitivamente existe el riesgo de que la tecnología pueda ser utilizada con malas intenciones", dijo Goossens.

 

Primeros pasos hacia una legislación sobre IA

Aunque los debates de la Comisión Europea en torno a una ley reguladora de la IA comenzaron en 2019, el Gobierno del Reino Unido fue uno de los primeros en anunciar sus intenciones, publicando un libro blanco en marzo de este año que esbozaba cinco principios que quiere que las empresas sigan: seguridad, protección y solidez; transparencia y explicabilidad; equidad; responsabilidad y gobernanza; y contestabilidad y compensación.

Sin embargo, en un esfuerzo por evitar lo que denominó "legislación de mano dura", el Gobierno británico ha pedido a los organismos reguladores existentes que utilicen la normativa vigente para garantizar que las aplicaciones de IA se ajustan a las directrices, en lugar de redactar nuevas leyes.

Desde entonces, la Comisión Europea ha publicado el primer borrador de su Ley de IA, que se retrasó debido a la necesidad de incluir disposiciones para regular las aplicaciones de IA generativa más recientes. El proyecto legislativo incluye requisitos para que los modelos de IA generativa mitiguen razonablemente los riesgos previsibles para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho, con la participación de expertos independientes.

La legislación propuesta por la UE prohibiría el uso de IA cuando pudiera convertirse en una amenaza para la seguridad, los medios de subsistencia o los derechos de las personas, con estipulaciones en torno al uso de inteligencia artificial cada vez menos restrictivas en función del riesgo percibido que pudiera suponer para alguien que entrara en contacto con ella; por ejemplo, la interacción con un chatbot en un entorno de atención al cliente se consideraría de bajo riesgo. Los sistemas de IA que presentan riesgos tan limitados y mínimos pueden utilizarse con pocos requisitos. Los sistemas de IA que presenten mayores niveles de sesgo o riesgo, como los utilizados para los sistemas gubernamentales de puntuación social y los sistemas de identificación biométrica, no estarán permitidos en general, salvo contadas excepciones.

Sin embargo, incluso antes de que la legislación estuviera finalizada, ChatGPT en particular ya había sido objeto de escrutinio por parte de varios países europeos por posibles violaciones del GDPR en materia de protección de datos. El regulador de datos italiano prohibió inicialmente ChatGPT por supuestas violaciones de la privacidad relacionadas con la recopilación y almacenamiento de datos personales por parte del chatbot, pero restableció el uso de la tecnología después de que OpenAI, el creador de ChatGPT respaldado por Microsoft, aclarara su política de privacidad y la hiciera más accesible, y ofreciera una nueva herramienta para verificar la edad de los usuarios.

Otros países europeos, entre ellos Francia y España, han presentado quejas sobre ChatGPT similares a las emitidas por Italia, aunque no se ha tomado ninguna decisión al respecto.

 

Diferentes enfoques de la regulación

Toda regulación refleja la política, la ética y la cultura de la sociedad en la que uno se encuentra, afirma Martha Bennett, vicepresidenta y analista principal de Forrester, señalando que en EE.UU., por ejemplo, existe una reticencia instintiva a regular a menos que haya una tremenda presión para hacerlo, mientras que en Europa hay una cultura mucho más fuerte de regulación por el bien común.

"No hay nada malo en tener un enfoque diferente, porque sí, no se quiere ahogar la innovación", dijo Bennett. En alusión a los comentarios del Gobierno británico, Bennett dijo que es comprensible no querer ahogar la innovación, pero no está de acuerdo con la idea de que basándose en gran medida en las leyes actuales y siendo menos estricto que la Ley de IA de la UE, el Gobierno británico pueda proporcionar al país una ventaja competitiva, sobre todo si esto se hace a expensas de las leyes de protección de datos.

"Si el Reino Unido adquiere la reputación de jugar a la ligera con los datos personales, eso tampoco es apropiado", dijo.

Aunque Bennett cree que los distintos enfoques legislativos pueden tener sus ventajas, señala que las normativas sobre IA aplicadas por el Gobierno chino serían totalmente inaceptables en Norteamérica o Europa Occidental.

Según la legislación china, las empresas de IA deberán presentar evaluaciones de seguridad al Gobierno antes de lanzar sus herramientas de IA al público, y cualquier contenido generado por IA generativa debe estar en consonancia con los valores socialistas fundamentales del país. El incumplimiento de las normas dará lugar a multas, suspensión de servicios o investigaciones penales.

 

Los retos de la legislación sobre IA

Aunque varios países han empezado a redactar normativas sobre IA, estos esfuerzos se ven obstaculizados por la realidad de que los legisladores tienen que ponerse constantemente al día con las nuevas tecnologías, intentando comprender sus riesgos y recompensas.

"Si nos remontamos a la mayoría de los avances tecnológicos, como Internet o la inteligencia artificial, es como un arma de doble filo, ya que se puede utilizar tanto con fines lícitos como ilícitos", afirma Felipe Romero Moreno, profesor titular de la Facultad de Derecho de la Universidad de Hertfordshire, cuyo trabajo se centra en cuestiones jurídicas y en la regulación de las tecnologías emergentes, incluida la IA.

Los sistemas de IA también pueden hacer daño inadvertidamente, ya que los humanos que los programan pueden tener prejuicios, y los datos con los que se entrenan los programas pueden contener sesgos o información inexacta. "Necesitamos inteligencia artificial entrenada con datos imparciales", afirma Romero Moreno. "De lo contrario, las decisiones tomadas por la IA serán inexactas, además de discriminatorias".

La rendición de cuentas por parte de los proveedores es esencial, dijo, afirmando que los usuarios deberían poder impugnar el resultado de cualquier decisión de inteligencia artificial y obligar a los desarrolladores de IA a explicar la lógica o los fundamentos del razonamiento de la tecnología. (Un ejemplo reciente de un caso relacionado es una demanda colectiva presentada por un hombre de EE.UU. que fue rechazado de un trabajo porque un software de vídeo de IA lo juzgó poco fiable).

Las empresas tecnológicas deben hacer que los sistemas de inteligencia artificial sean auditables para que puedan someterse a controles independientes y externos por parte de los organismos reguladores, y los usuarios deben tener acceso a recursos legales para impugnar el impacto de una decisión tomada por la inteligencia artificial, con la supervisión final siempre a cargo de un humano, no de una máquina, dijo Romero Moreno.

 

Los derechos de autor, principal problema para las aplicaciones de IA

Otro problema normativo importante que hay que resolver es el de los derechos de autor. La Ley de Inteligencia Artificial de la UE incluye una disposición que obligaría a los creadores de herramientas de IA generativa a revelar cualquier material protegido por derechos de autor utilizado para desarrollar sus sistemas.

"Los derechos de autor están en todas partes, así que cuando se tiene una cantidad gigantesca de datos en algún lugar de un servidor y se van a utilizar para entrenar un modelo, lo más probable es que al menos algunos de esos datos estén protegidos por derechos de autor", afirma Goossens, quien añade que las cuestiones más difíciles de resolver girarán en torno a los conjuntos de entrenamiento sobre los que se desarrollan las herramientas de IA.

Cuando surgió este problema, los legisladores de países como Japón, Taiwán y Singapur hicieron una excepción para el material protegido por derechos de autor que se incluyera en los conjuntos de entrenamiento, afirmando que los derechos de autor no debían obstaculizar los avances tecnológicos.

Sin embargo, según Goossens, muchas de estas excepciones a los derechos de autor tienen ya casi siete años. La cuestión se complica aún más por el hecho de que en la UE, aunque existen estas mismas excepciones, cualquiera que sea titular de derechos puede optar por que no se utilicen sus datos en conjuntos de entrenamiento.

En la actualidad, al no existir ningún incentivo para que se incluyan sus datos, un gran número de personas optan por no hacerlo, lo que significa que la UE es una jurisdicción menos deseable para que operen los proveedores de IA.

En el Reino Unido existe actualmente una excepción para fines de investigación, pero el plan para introducir una excepción que incluya las tecnologías comerciales de IA se ha desechado, y el Gobierno aún no ha anunciado un plan alternativo.

 

¿Cuál es el futuro de la regulación de la IA?

Hasta ahora, China es el único país que ha aprobado leyes y emprendido acciones judiciales en relación con la IA generativa: en mayo, las autoridades chinas detuvieron a un hombre en el norte de China por utilizar presuntamente ChatGPT para escribir artículos de noticias falsas.

Por otra parte, el Gobierno británico ha declarado que los reguladores publicarán orientaciones prácticas para las organizaciones, en las que se establecerá cómo aplicar los principios esbozados en su libro blanco en los próximos 12 meses, mientras que se espera que la Comisión de la UE vote de forma inminente para finalizar el texto de su Ley de IA.

En comparación, EE.UU. parece encontrarse todavía en la fase de investigación, aunque el presidente Joe Biden y la vicepresidenta Kamala Harris se reunieron recientemente con ejecutivos de empresas líderes en IA para debatir los peligros potenciales de la IA.

El mes pasado, dos comités del Senado también se reunieron con expertos del sector, entre ellos el CEO de OpenAI, Sam Altman. En declaraciones a los legisladores, Altman dijo que la regulación sería "sabia" porque la gente necesita saber si está hablando con un sistema de IA o mirando contenido -imágenes, videos o documentos- generado por un chatbot.

"Creo que también necesitaremos normas y directrices sobre lo que se espera en términos de divulgación de una empresa que proporciona un modelo que podría tener este tipo de habilidades de las que estamos hablando", dijo Altman.

Bennett, de Forrester, está de acuerdo con esta opinión y afirma que el mayor peligro que presenta la IA generativa para la sociedad es la facilidad con la que se puede crear desinformación e información errónea.

"Esta cuestión va de la mano de la necesidad de garantizar que los proveedores de estos grandes modelos lingüísticos y herramientas de IA generativa respeten las normas vigentes en materia de derechos de autor, propiedad intelectual, datos personales, etc., y de estudiar cómo podemos asegurarnos de que esas normas se cumplen realmente", afirma.

Romero Moreno sostiene que la educación es la clave para hacer frente a la capacidad de la tecnología para crear y difundir desinformación, especialmente entre los jóvenes o las personas con menos conocimientos tecnológicos. Las notificaciones emergentes que recuerdan a los usuarios que el contenido podría no ser exacto animarían a la gente a pensar de forma más crítica sobre cómo se relacionan con el contenido en línea, dijo, añadiendo que algo como los actuales mensajes de renuncia de cookies que aparecen en las páginas web no sería adecuado, ya que a menudo son largos y enrevesados y por lo tanto rara vez se leen.

En última instancia, dijo Bennett, independientemente de cómo sea la legislación final, los reguladores y los gobiernos de todo el mundo tienen que actuar ya. De lo contrario, acabaremos en una situación en la que la tecnología se habrá explotado hasta tal extremo que estaremos librando una batalla que nunca podremos ganar.



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital