Legislación
Inteligencia artificial
Open source

Un grupo de expertos denuncia que la regulación europea de IA podría perjudicar a los desarrolladores de código abierto

En un comunicado, el grupo asegura que los controles que el texto propone a la comunidad podrían causar que las grandes corporaciones ganarán más soberanía en torno a esta tecnología.

Europa

El pasado mes de mayo, la Unión Europea (UE) reafirmó su compromiso de ser el primer bloque geopolítico en contar con una regulación específica sobre inteligencia artificial (IA). Lo hizo aprobando un informe, que servirá como hoja de ruta, que, entre otros artículos, insta a su desarrollo bajo “estándares democráticos” y con el fin de que la tecnología “complete el trabajo humano”. El texto, que se prevé que entre en vigor en enero de 2024, ya está siendo testado en España, que será el país en implementarlo. No obstante, la complejidad de la materia ha generado voces discrepantes en cuanto a temas como el reconocimiento facial, que fue el gran escollo que se tuvo que votar en el Parlamento Europeo (PE) y que salió adelante con muy poco margen.

Y, ahora, tal y como se hace eco TechCrunch, un grupo de expertos denominado Brookings ha denunciado públicamente que las normas propuestas podrían socavar el desarrollo de herramientas de código abierto como GPT-3. El grupo entiende que lo propuesto creará responsabilidades legales añadidas para los sistemas de IA de carácter general. Según el borrador de la ley, los desarrolladores de open source tendrían que cumplir con un número de pautas sobre gestión de riesgos, gobierno de datos, documentación técnica y transparencia y estándares de precisión y seguridad.

El comunicado, bastante directo, destaca que si una organización implementa un sistema de IA que no da resultados, podría desviar su responsabilidad hacia la comunidad de desarrolladores que crean el producto. “Esto podría concentrar aún más el poder de la IA en las grandes corporaciones tecnológicas, lo que evitaría procesos de investigación, que son fundamentales para su comprensión pública”. En conclusión, dice Alex Engler, analista de Brookings y autor del artículo, el intento de regular el código abierto podría crear un conjunto de requisitos que pone en peligro a la comunidad de técnicos con la amenaza final de que no se mejoren los sistemas de IA de interés general.

El experto también hace referencia a excepciones que contiene la legislación, como en materia de investigación y control de uso indebido. Engler señala que es muy difícil evitar que estos proyectos no acaben siendo comercializados. Y pone el ejemplo de Stable Diffusion, un sistema de IA en código abierto que fue creado para generar imágenes a partir de indicaciones de texto y que sirvió para crear deep fakes pornográficos de celebridades a pesar de que su licencia de distribución prohibía expresamente ciertos tipos de contenido.



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital