Inteligencia artificial
IA generativa

Un nuevo grupo de expertos reclama más transparencia en la evaluación de la inteligencia artificial

Coordinado por miembros de la Universidad Politècnica de València, el grupo ha remitido un escrito a Science en el que proponen un nuevo modelo para el buen uso de esta tecnología.

José Hernández-Orallo
José Hernández-Orallo, investigador del Instituto VRAIN de la UPV.

Un grupo de 16 expertos globales en inteligencia artificial (IA), entre los que se encuentran los investigadores del Instituto VRAIN de la Universitat Politècnica de València (UPV) Fernando Martínez, Wout Schellaert y José Hernández-Orallo –este último coordinador del equipo–, ha publicado una carta en la revista Science en la que reclama una mayor transparencia en la evaluación de los sistemas inteligentes. “Los recientes avances basados en herramientas que requieren enormes cantidades de datos y cálculo, como GPT-4, han puesto de manifiesto las dificultades para comprender las capacidades y debilidades de estos sistemas”, dice la misiva que también cuenta con la participación de personal investigador de las universidades de Cambridge, Harvard, Stanford y Leed, el Imperial College de Londres y Google. “No sabemos dónde es seguro utilizarlos ni cómo podrían mejorarse. Y esto se debe a la forma en que se evalúa hoy la IA, que requiere de un cambio urgente”.

En el escrito, titulado Rethink reporting of evaluation results in AI, se propone una nueva hoja de ruta de los modelos de IA, en la que sus resultados se presenten de forma más matizada y los resultados de la evaluación caso por caso se pongan a disposición del público. Actualmente, asegura, el rendimiento de estos modelos se mide con estadísticas agregadas, lo que supone un riesgo, “porque si bien pueden dar una visión de su buen rendimiento global, pueden ocultar también una baja fiabilidad y utilidad en casos concretos, más minoritarios, y sin embargo se da a entender que es igualmente válido en todos los casos cuando en realidad no es así”.

Lo que pedimos es que cada vez que se publique un resultado en IA, se desglose lo máximo posible, porque si no se hace, no es posible saber su utilidad real y reproducir el análisis. En el artículo publicado en Science hablamos también de un sistema de IA de reconocimiento facial que daba un 90% de acierto y después se comprobó que para hombres blancos el porcentaje de acierto era del 99.2%, pero para mujeres negras solo llegaba al 65,5%. Por ello, en algunas ocasiones, los resultados que se venden sobre la utilidad de una herramienta de IA no son del todo transparentes y fiables. Si no te dan el detalle, crees que los modelos funcionan muy bien y no es la realidad. No tener ese desglose con toda la información posible sobre el modelo de IA supone que aplicarlo podría comportar riesgos”, apunta Hernández-Orallo. “Hay laboratorios que quieren pasar del 93% al 95% como sea y eso va en contra de la aplicabilidad y fiabilidad final de la IA. Lo que queremos, en definitiva, es contribuir a que, entre todos, entendamos mejor cómo funciona la IA, cuáles son las limitaciones de cada modelo, para garantizar un buen uso de esta tecnología”

 

Polémica en España

La Agencia Española de Protección de Datos (AEPD) ya ha iniciado una investigación sobre los problemas que estos sistemas encuentran en la privacidad, y ha pedido un análisis al organismo europeo de protección de datos quien, a su vez, ha constituido un grupo de trabajo con todos los estados miembro.

Por otra parte, y en lo referente a este uso ético, recientemente tres miembros del consejo asesor de ética sobre la IA dependiente del Gobierno de España: Carles Serra, director del Instituto de IA del CSIC; Lorena Jaume-Palasí, miembro del consejo asesor internacional del panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo; y Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experiencial de Northeastern University en Silicon Valley presentaron su dimisión por el reciente acuerdo de colaboración refrendado entre la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) y el Gobierno de los Emiratos Árabes Unidos que tiene como propósito levantar un centro de investigación en Granada bajo el sello de ADIA Lab,



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital