Inteligencia artificial
Unión Europea

Europa prohibirá la identificación biométrica remota en espacios públicos

Su uso solo podrá realizarse en excepciones y con autorización judicial. La medida se recoge en el primer marco jurídico sobre la inteligencia artificial de la historia: el futuro Reglamento sobre la IA de la Unión Europea, que ha presentado la Comisión.

inteligencia artificial
Créditos: Gabriella Clare Marino (Unsplash)

La Unión Europea trabaja desde hace tiempo para promover el desarrollo y el uso de la inteligencia artificial desde el punto de vista ético y humanista que caracteriza al Viejo Continente. La Comisión ha dado un paso firme en este sentido con la presentación de una propuesta de Reglamento que recoge las que serán las normas y medidas destinadas a regular este tipo de sistemas y aplicaciones con el objetivo de “convertir a Europa en el centro mundial de una inteligencia artificial digna de confianza”. 

Este paso es significativo porque se trata de la primera vez en la historia que se afronta la elaboración de un marco jurídico sobre la inteligencia artificial que, además, estará acompañado de la aprobación de un nuevo plan que estará coordinado con los Estados miembros y persigue garantizar la seguridad y los derechos fundamentales de las personas y las empresas, a la vez que refuerza la adopción, la inversión y la innovación en esta tecnología en toda la UE.

Para la vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital, Margrethe Vestager, en lo que respecta a la inteligencia artificial, “la confianza es una obligación, no un adorno”. Según sus palabras, "al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva”. Asegura que estas normas, “a prueba de futuro y propicias a la innovación”, solo “intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”.

 

Una regulación de la IA “centrada en el ser humano”

El nuevo Reglamento sobre la IA incorpora normas que abordarán los riesgos específicos que plantean los sistemas de IA. Las nuevas normas, que se aplicarán directamente de la misma manera en todos los Estados miembros, siguen, por tanto, un planteamiento basado en el riesgo: inadmisible, alto, limitado, mínimo o nulo.

Así, se prohibirán los sistemas de IA cuyo riesgo sea inadmisible y que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Por ejemplo, los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios y sistemas que permitan la puntuación social por parte de los Gobiernos (como se hace en China).

En lo que respecta a los sistemas de IA considerados de alto riesgo, estos estarán sujetos a obligaciones estrictas antes de que puedan comercializarse. Dichos sistemas abarcan las tecnologías de IA empleadas en infraestructuras críticas; formación educativa o profesional; componentes de seguridad de los productos; empleo, gestión de trabajadores y acceso al trabajo por cuenta propia; servicios públicos y privados esenciales; aplicación de las leyes, que pueden interferir con los derechos fundamentales de las personas; gestión de la migración, el asilo y el control de las fronteras; administración de justicia y procesos democráticos… 

En especial, se consideran de alto riesgo y estarán sujetos a requisitos estrictos todos los sistemas de identificación biométrica remota. Su uso en directo, según reza la propuesta de reglamento, en espacios de acceso público con fines policiales está “prohibido en principio”. Obviamente, hay excepciones: por ejemplo, cuando sea estrictamente necesario para la búsqueda de un menor desaparecido, para prevenir una amenaza terrorista concreta e inminente, o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave. En todo caso, su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.

En aquellos sistemas de IA cuyo riesgo sea limitado, se establecen obligaciones específicas de transparencia (por ejemplo, al utilizar robots conversacionales, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no).

En el caso de sistemas o aplicaciones con riesgo mínimo o nulo, la propuesta de reglamento permite el uso gratuito de soluciones como videojuegos basados en la IA o filtros de correo basura. En realidad, reconocen desde la Comisión, “la inmensa mayoría de los sistemas de IA entra en esta categoría”. Dado que estos sistemas de IA solo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos, el proyecto de Reglamento no interviene en este terreno.

La UE también trabaja en la creación de un Comité Europeo de Inteligencia Artificial que facilitará la aplicación de estas normas e impulsará otras nuevas.

 



Revista Digital

Contenidos Destacados

Revista Digital abril

Portada CW 1387 Tendencias

Webinar

Cloudscape 2021 OK Webinars
Registro IDG España:

Eventos IDG:

 

Accelerate Digital Now

Be Data Ready

evento innovación

Modern Data Experience

Partnerzones IDG
Especiales IDG:
Revistas Digitales IDG

ComputerWorld Digital

CSO España Digital

DealerWorld Digital

IDG Research

 

Ya disponible en IDG Research: