Inteligencia artificial
IA
Unión Europea
IA generativa

La Unión Europea endurece el borrador de normas para la inteligencia artificial

Los reguladores han aprobado un nuevo paquete de enmiendas más estrictas en materia de transparencia y gestión de riesgos para los sistemas de IA con el fin de garantizar su desarrollo ético y antropocentrista.

inteligencia artificial

Un paso adelante hacia una normativa pionera sobre inteligencia artificial (IA) en el Viejo Continente. La Comisión de Mercado Interior y la Comisión de Libertades Civiles han aprobado, con holgada mayoría, un nuevo mandato de negociación sobre las primeras reglas de la historia para la IA. Los eurodiputados pretenden garantizar con este nuevo paquete de enmiendas que los sistemas de IA estén “supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medioambiente”. De igual forma aspiran a contar con una definición uniforme del concepto de IA diseñada para ser “tecnológicamente neutra”, de tal modo que pueda aplicarse a los sistemas de hoy y de mañana. Precisamente por esto han decidido acotar los límites de la IA generativa, definiendo nuevos requisitos para sistemas como ChatGPT, entre otras novedades.

Las enmiendas deberán ser ratificadas en el pleno de junio; a partir de entonces, darán comienzo las negociaciones entre la Eurocámara y el bloque de los Veintisiete para pactar una normativa definitiva. Un reglamento que, según se estima, debería estar previsto antes de las elecciones europeas de 2024.

 

Niveles de riesgo: una etiqueta con voz de alarma

Las normas, tal y como se determinó originalmente, seguirán un enfoque basado en el riesgo y establecen obligaciones para proveedores y usuarios en función del nivel de inseguridad que pueda generar la IA. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que despliegan técnicas subliminales o de manipulación intencionada que explotan las vulnerabilidades de las personas o se utilizan para el scoring social (clasificación de las personas en función de su comportamiento social, estatus socioeconómico o características personales). En este sentido, los eurodiputados modificaron sustancialmente la lista elaborada por la Comisión para incluir prohibiciones de usos intrusivos y discriminatorios de sistemas de IA. Entre ellos:

 

  • Sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público.
  • Sistemas de identificación biométrica remota “a posteriori”, con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial.
  • Sistemas de categorización biométrica que utilicen características sensibles (sexo, raza, religión, etnia, estatus de ciudadanía, orientación política…).
  • Sistemas predictivos basados en perfiles, localización o comportamientos delictivos anteriores.
  • Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas.
  • Extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad).

 

Asimismo, los reguladores ampliaron la clasificación de áreas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales de las personas o el medio ambiente. También añadieron a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de medios sociales, con más de 45 millones de usuarios según la Ley de Servicios Digitales.

 

Revelar contenido generado por IA

Siguiendo esta misma estela proteccionista, los eurodiputados incluyeron obligaciones para los proveedores de modelos de cimentación -un desarrollo nuevo y en rápida evolución en el campo de la IA-, que tendrían que garantizar una sólida protección de los derechos fundamentales, la salud, la seguridad, el medio ambiente, la Democracia y el Estado de Derecho. Deberán así evaluar y mitigar los riesgos, además de registrarse en una base de datos de la UE.

Por otra parte, apuntando a la actualidad más mediática, los reguladores han apostado por restringir las libertades de la IA generativa. De hecho, los modelos de base generativa, como ChatGPT, tendrán que cumplir requisitos adicionales de transparencia como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital