Tendencias | Noticias | 09 ABR 2019

La UE elabora unas directrices para el desarrollo de la IA ética

La inteligencia artificial debe respetar los derechos fundamentales, la normativa aplicable y los principios básicos, además de ser una herramienta técnicamente robusta y fiable, según las siete directrices.
inteligencia artificial europa
Redacción

El objetivo de las directrices es abordar los problemas oscuros y difusos que la sociedad encuentra cuando la IA se integra en la salud, la educación y la tecnología de consumo. Las directrices fueron elaboradas por un grupo de 52 expertos. Los siete puntos son los siguientes:

1. Agencia humana y visión general: los sistemas de IA deben permitir sociedades equitativas apoyando la agencia humana y los derechos fundamentales y no reduciendo, limitando o engañando la autonomía humana.

2. Robustez y seguridad: la inteligencia artificial confiable requiere que los algoritmos sean lo suficientemente seguros, confiables y robustos para manejar los errores e inconsistencias durante todas las fases de los ciclos de vida de los sistemas de inteligencia artificial.

3. Privacidad y control de los datos: los ciudadanos deben tener un control completo sobre sus propios datos, mientras que los datos que giran en torno a ellos no se utilizan para perjudicarlos ni discriminarlos.

4. Transparencia: se debe garantizar la trazabilidad de los sistemas de IA.

5. Diversidad, no discriminación y equidad: los sistemas de AI deben tener en cuenta todas las habilidades y requisitos humanos, y garantizar la accesibilidad.

6. Bienestar social y ecológico: los sistemas de inteligencia artificial deben utilizarse para mejorar los cambios sociales positivos, así como la sostenibilidad y la responsabilidad ambiental.

7. Responsabilidad: los mecanismos deben implementarse para garantizar la responsabilidad y la responsabilidad de los sistemas de inteligencia artificial y sus resultados.

El informe que acompaña a las directrices también contiene una "Lista de evaluación confiable de la IA", una lista de preguntas que pueden ayudar a los expertos a encontrar posibles vulnerabilidades o peligros en el software de IA. La lista contiene preguntas como "¿Ha verificado cómo se comporta su sistema en situaciones y entornos inesperados? ¿Ha evaluado el tipo y el alcance de los datos en su conjunto?"

Las listas de evaluación son todavía temporales, pero la UE recogerá los comentarios de las empresas en los próximos años. Un informe final sobre la utilidad de las listas de evaluación se publicará en 2020.



Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios