IA generativa

Mientras Bruselas refina su ley de inteligencia artificial, Estados Unidos comienza a dar sus primeros pasos

La Unión Europea está dando los toques finales a la legislación que responsabilizaría a las empresas que crean plataformas de IA generativa, como ChatGPT, que pueden coger el contenido que generan de fuentes no identificadas.

robot inteligencia artificial ia
Foto de Tara Winstead (Pexels).

Un borrador de un conjunto de normas propuesto por la Unión Europea (UE) permitirá a los creadores originales de contenido que se utiliza en aplicaciones de inteligencia artificial (IA) generativa compartir las ganancias resultantes de los derechos de autor. En cualquier caso, la de Bruselas es la primera regulación en torno a esta tecnología. Y la proposición de ley se basa en gran medida en normas existentes como el Reglamento General de Protección de Datos (GDPR, de sus siglas inglesas), y las leyes de servicios y mercados digitales.

Esta normativa también exigirá que los modelos de lenguaje extenso (LLM) como GPT-4 se diseñen con las garantías adecuadas contra la generación de contenido que viole las leyes de la UE, según el acceso que ha tenido a la copia del borrador The Washington Post. Las infracciones podrían conllevar multas de hasta 30 millones de euros o el 6% de los beneficios globales.

No obstante, y según Avivah Litan, analista de Gartner, mantener la honestidad de la IA no es una tarea fácil. Es probable que los creadores de LLM como OpenAI necesiten desarrollar sistemas más poderosos para verificar que no haya materiales con derechos de autor. “Es probable que los sistemas basados en reglas para filtrar documentos sean ineficaces”.

Mientras tanto, cree el experto, la UE está refinando su legislación y adoptando un enfoque líder para todo el mundo. “Los reguladores deberían considerar que los LLM funcionan como una caja negra, y que es poco probable que los algoritmos brinden a las organizaciones la transparencia necesaria para realizar la evaluación de impacto requerida en la privacidad. Esto debe abordarse”.

El 1 de abril, Italia se convirtió en la primera nación occidental en prohibir un mayor desarrollo de ChatGPT por cuestiones de privacidad (aunque simplemente revirtió esa decisión); la prohibición inicial se produjo después de que la aplicación de procesamiento de lenguaje natural experimentara una violación de datos relacionada con las conversaciones de los usuarios y la información de pago. ChatGPT es el popular chatbot creado por OpenAI y respaldado por miles de millones de dólares de Microsoft.

A principios de este mes, los gobiernos de EE. UU. y China emitieron anuncios relacionados con las regulaciones para el desarrollo de IA, algo que ninguno de los dos países ha establecido hasta la fecha. “Estados Unidos y la UE están alineados en conceptos cuando se trata de querer lograr una IA confiable, transparente y justa, pero sus enfoques han sido muy diferentes”, expresa Litan.

Hasta ahora, EE.UU. ha adoptado lo que Litan llamó un "enfoque muy distribuido para la gestión de riesgos de IA" y aún tiene que crear nuevas regulaciones o infraestructura regulatoria EE.UU. se ha centrado en directrices y un marco de gestión de riesgos de IA.

En enero, el Instituto Nacional de Estándares y Tecnología (NIST) lanzó el  Marco de Gestión de Inteligencia Artificial . En febrero, la Casa Blanca emitió una Orden Ejecutiva instruyendo a las agencias federales para garantizar que su uso de la IA promueva la equidad y los derechos civiles. El Congreso de EE.UU. está considerando la Ley de responsabilidad algorítmica federal  que, de aprobarse, requeriría que los empleadores realicen una evaluación de impacto de cualquier sistema automatizado de toma de decisiones que tenga un efecto significativo en el acceso, los términos o la disponibilidad de empleo de una persona. 

Microsoft y el propietario de Google, Alphabet, han estado en una carrera para llevar chatbots generativos de inteligencia artificial a empresas y consumidores. Los motores de IA generativa más avanzados pueden crear su propio contenido en función de las indicaciones o entradas del usuario. Entonces, por ejemplo, la IA puede encargarse de crear campañas publicitarias o de marketing, escribir ensayos y generar imágenes fotográficas y videos realistas.

La clave de la Ley de IA de la UE es un  sistema de clasificación  que determina el nivel de riesgo que una tecnología de IA podría representar para la salud y la seguridad o los derechos fundamentales de una persona. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo, según el Foro Económico Mundial .



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital