Legislación
Inteligencia artificial
IA
Unión Europea

La Ley de IA europea recibe un nuevo respaldo antes de la votación de abril

La legislación, destinada a crear raíles de seguridad basados en el riesgo para el uso y desarrollo de tecnología de inteligencia artificial, parece en vías de ser ratificada plenamente esta primavera.

Unión Europea
Créditos: Guillaume Perigois (Unsplash).

La legislación de la Unión Europea (UE) que establecería límites para el uso y desarrollo de la tecnología de inteligencia artificial (IA), más conocida como Ley de IA, parece estar en un camino claro hacia la ratificación, ya que dos grupos clave de legisladores en el Parlamento Europeo aprobaron este martes un acuerdo provisional sobre las normas propuestas. 

La Comisión de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) y la Comisión de Mercado Interior y Protección del Consumidor (IMCO) del Parlamento Europeo aprobaron la Ley de IA con un "voto abrumadoramente favorable", poniendo las normas "en vías de convertirse en ley", tuiteó en X Dragos Tudorache, miembro del Parlamento Europeo y presidente de la Comisión Especial de la UE sobre Inteligencia Artificial.

Las normas, que el Parlamento de la UE votará formalmente en abril, exigen que las organizaciones y los desarrolladores evalúen las capacidades de la IA y las clasifiquen en una de las cuatro categorías de riesgo: riesgo mínimo, limitado, alto e inaceptable. Se trata de la primera ley gubernamental exhaustiva que supervisa el desarrollo y el uso de la IA, y ha sido recibida con aprobación y cautela por parte de los tecnólogos. 

"La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente", afirma la UE al describir la legislación en su web. "Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales". 

 

En búsqueda de la simplicidad

En esencia, la normativa es sencilla, según Nader Henein, investigador de privacidad de la información y vicepresidente de protección de datos y privacidad de Gartner. "Requiere que las organizaciones (y los desarrolladores) evalúen sus capacidades de IA y las sitúen en uno de los cuatro niveles definidos por la ley", explicó. "Dependiendo del nivel, hay diferentes responsabilidades que recaen en el desarrollador o en el usuario". 

Sin embargo, algunos grupos de defensa e incluso un análisis del Gobierno estadounidense se han opuesto a la Ley de IA. Digital Europe, un grupo de defensa que representa a las industrias digitales de todo el continente, publicó en noviembre una declaración conjunta antes de las últimas semanas de negociaciones de la Ley en la que advertía de que un exceso de regulación podría obstaculizar la innovación y provocar la salida de empresas emergentes de la región. El grupo instó a los legisladores a no "regular" los nuevos agentes de la IA en la UE "hasta hacerlos desaparecer" antes de que tengan siquiera una oportunidad. 

Henein argumentó que los mandatos de la ley "no son en modo alguno un obstáculo para la innovación. La innovación, por naturaleza, encuentra la forma de trabajar dentro de los límites de la normativa y convertirla en una ventaja", afirmó. 

La adopción de las normas "debería ser sencilla" siempre que los desarrolladores y distribuidores faciliten a los clientes la información que necesitan para realizar una evaluación o cumplir la normativa, afirmó Henein. 

Aun así, un experto en tecnología dijo que algunas críticas sobre la naturaleza prescriptiva de la Ley de IA y la vaguedad de su lenguaje son válidas, y que su relevancia podría no durar porque a menudo es difícil que las normativas avancen al ritmo de la tecnología. 

Hay algunas partes de la normativa que tienen mucho sentido, como la prohibición de la 'policía predictiva', en la que se ordena a la policía que persiga a alguien solo porque un sistema de IA se lo indica", explica Jason Soroko, vicepresidente sénior de producto de Sectigo, una empresa de gestión del ciclo de vida de los certificados. "Pero, también hay partes de la regulación que podrían ser difíciles de interpretar, y podrían no tener longevidad, como regulaciones especiales para sistemas de IA más avanzados". 

 

¿Más restricciones en perspectiva?

Además, las empresas podrían enfrentarse a desafíos de cumplimiento en el proceso de descubrimiento a medida que construyen un catálogo de casos de uso de IA existentes, y la posterior categorización de esos casos de uso en la estructura de niveles de la Ley, dijo Henein. 

"Muchas organizaciones piensan que son nuevas en la IA cuando, de hecho, no hay casi ningún producto que tengan hoy en día que no tenga capacidades de IA", dijo Henein. "Las herramientas de detección de malware y los filtros de spam se han basado en el aprendizaje automático desde hace más de una década, entran en la categoría de bajo riesgo de los sistemas de IA y no requieren la debida diligencia".  

Si la UE vota a favor de la ley en abril, como parece probable, otros países podrían seguirle. Varios de ellos -como Estados Unidos, Reino Unido y Australia- ya han creado grupos dirigidos por el Gobierno para supervisar el desarrollo de la IA. 

Aun así, es probable que las nuevas normas sólo se apliquen a los casos más extremos en los que la IA suponga un daño significativo para la humanidad o de otro tipo. Los casos en los que se utiliza de forma responsable e incluso presenta beneficios, como la productividad de los trabajadores -lo que es cierto en el caso de los actuales chatbots de IA generativa basados en grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI- probablemente no serán objeto de mucha supervisión. 

"Lo que estamos viendo a ambos lados del Atlántico es la necesidad de restringir totalmente determinados casos de uso, que entran en la categoría de prohibidos por la Ley de IA y suponen un grave perjuicio", afirma Henein. 



Contenido Patrocinado

Revistas Digitales

DealerWorld Digital

 



Registro:

Eventos: