Inteligencia artificial
IA generativa

La Casa Blanca emitirá reglas de uso de IA para sus empleados federales

Se espera que el presidente Biden anuncie nuevas reglas que requieran que las agencias gubernamentales evalúen más completamente las herramientas de inteligencia artificial para garantizar que sean seguras y no expongan información confidencial.

Casa Blanca

Después de que los esfuerzos anteriores por controlar la inteligencia artificial (IA) generativa fueran criticados por ser demasiado vagos e ineficaces, se espera que la Administración Biden anuncie reglas nuevas y más restrictivas para el uso de esta tecnología por parte de los empleados federales. La orden ejecutiva, que se dará a conocer el próximo lunes, también cambiaría los estándares de inmigración para permitir una mayor afluencia de perfiles técnicos para ayudar a acelerar los esfuerzos de desarrollo de los Estados Unidos.

La IA generativa, que ha avanzado a velocidades vertiginosas y ha hecho sonar las alarmas entre los expertos de la industria, impulsó a Biden a emitir una orientación el pasado mes de mayo. La vicepresidente Kamala Harris también se reunió con los directores ejecutivos de Google, Microsoft y OpenAI para discutir posibles problemas de privacidad, seguridad y gobernanza.

Incluso antes del lanzamiento de ChatGPT en noviembre de 2022, la administración había presentado un plan para la llamada Declaración de Derechos de la IA, así como un marco gestión de riesgos y uno hoja de ruta para crear un recurso nacional de investigación.

Se espera que la nueva orden eleve las defensas nacionales de ciberseguridad al exigir que los modelos de lenguaje grandes (LLM; de sus siglas inglesas) se sometan a evaluaciones antes de que puedan ser utilizados por las agencias gubernamentales, incluidas el Departamento de Defensa, de Energía y organismos de inteligencia.

Las nuevas reglas reforzarán lo que fue un compromiso voluntario de 15 empresas de desarrollo de IA para hacer todo lo posible para garantizar que la evaluación de estos sistemas consienten el uso responsable. "Me temo que no tenemos un muy buen historial allí; quiero decir, consulte Facebook para obtener más detalles", asegura Tom Siebel, director ejecutivo del proveedor de aplicaciones de IA empresarial C3 AI  y  fundador de Siebel Systems, a una audiencia en la Conferencia EmTech del MIT. En mayo pasado: “Me gustaría creer que la autorregulación funcionaría, pero el poder corrompe, y el poder absoluto corrompe absolutamente”.

Si bien ofrece amplios beneficios con su capacidad para automatizar tareas y crear sofisticadas respuestas de texto, imágenes, videos e incluso código de software, también se sabe que la tecnología se vuelve deshonesta, una anomalía conocida como alucinaciones.

"Las alucinaciones ocurren porque los LLM, en su forma más básica, no tienen una representación estatal interna del mundo", dice Jonathan Siddharth, director ejecutivo de Turing, una empresa de Palo Alto, California, que utiliza inteligencia artificial para encontrar, contratar e incorporar. ingenieros de software de forma remota. "No hay ningún concepto de hecho. Están prediciendo la siguiente palabra basándose en lo que han visto hasta ahora; es una estimación estadística".

La IA generativa también puede exponer inesperadamente datos confidenciales o de identificación personal. En su nivel más básico, las herramientas pueden recopilar y analizar cantidades masivas de datos de Internet, corporaciones e incluso fuentes gubernamentales para ofrecer contenido a los usuarios de manera más precisa y profunda. El inconveniente es que la información recopilada por la IA no necesariamente se almacena de forma segura. Las aplicaciones y redes de IA pueden hacer que esa información sensible sea vulnerable a la explotación de datos por parte de terceros.

Los teléfonos inteligentes y los vehículos autónomos, por ejemplo, rastrean la ubicación y los hábitos de conducción de los usuarios. Si bien ese software de seguimiento está destinado a ayudar a la tecnología a comprender mejor los hábitos para atender a los usuarios de manera más eficiente, también recopila información personal como parte de grandes conjuntos de datos utilizados para entrenar modelos de IA.

"Sin embargo, alinearse con los estándares nacionales también podría agilizar los procesos de adquisición federal de sus productos y fomentar la confianza entre los consumidores privados", dijo Masood. "En última instancia, si bien la regulación es necesaria para mitigar los riesgos de la IA, debe equilibrarse delicadamente con el mantenimiento de un entorno propicio para la innovación.

"Si inclinamos demasiado la balanza hacia una supervisión restrictiva, particularmente en investigación, desarrollo e iniciativas de código abierto, corremos el riesgo de sofocar la innovación y ceder terreno a jurisdicciones más indulgentes a nivel mundial", continuó Masood. "La clave está en crear regulaciones que salvaguarden los intereses públicos y nacionales y al mismo tiempo sigan alimentando los motores de la creatividad y el avance en el sector de la IA".

Masood dijo que las próximas regulaciones de la Casa Blanca han tardado "en llegar, y es un buen paso en un momento crítico en el enfoque del gobierno de Estados Unidos para aprovechar y contener la tecnología de IA".

"Tengo reservas acerca de extender el alcance regulatorio a los ámbitos de la investigación y el desarrollo", expresa Masood. "La naturaleza de la investigación en IA requiere un nivel de apertura y escrutinio colectivo que puede ser sofocado por una regulación excesiva. En particular, me opongo a cualquier limitación que pueda obstaculizar las iniciativas de IA de código abierto, que han sido una fuerza impulsora detrás de la mayoría de las innovaciones en el campo. Estas plataformas colaborativas permiten una rápida identificación y corrección de fallas en los modelos de IA, fortaleciendo su confiabilidad y seguridad".

La IA generativa también es vulnerable a sesgos incorporados , como las aplicaciones de contratación asistidas por IA que tienden a elegir hombres frente a mujeres, o candidatos blancos en lugar de minorías. Y, a medida que las herramientas genAI mejoren a la hora de imitar el lenguaje natural, las imágenes y los vídeos, pronto será imposible distinguir los resultados falsos de los reales; eso está llevando a las empresas a establecer “barandillas” contra los peores resultados, ya sean esfuerzos accidentales o intencionales de malos actores.

 



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital