Seguridad
IA

Frontier Model Forum: la iniciativa de grandes tecnológicas para segurizar la IA

Google, Microsoft, OpenAI y Anthropic impulsan un foro por valor de 10 millones de dólares con el fin de garantizar el desarrollo seguro y responsable de los modelos de inteligencia artificial. Chris Meserole será el nuevo director ejecutivo.

Inteligencia artificial

La popularización y el avance irrefrenable de la inteligencia artificial (IA) han llevado a grandes nombres propios dentro del sector tecnológico a tomar cartas en el asunto con el fin de brindar garantías a los usuarios. En este contexto nace el Frontier Model Forum, una iniciativa impulsada por Google, Microsoft, OpenAI y Athropic para apoyar a investigadores independientes que creen herramientas para evaluar y probar los modelos de IA más potentes. Un proyecto que toma forma con la insuflación de los primeros fondos y el nombramiento de un nuevo director ejecutivo. La financiación inicial cuenta con una partida de 10 millones de dólares, mientras que Chris Meserole será, de ahora en adelante, el máximo comisionado del foro. “Los modelos de IA más potentes son muy prometedores para la sociedad, pero para aprovechar su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura. Estoy encantado de afrontar este reto de la mano de Frontier Model Forum”, ha asegurado públicamente.

Con este paso adelante, las empresas consideran que dan respuesta a parte de los compromisos suscritos con la Casa Blanca en materia de IA segura. Así lo confirmaban comunicado mediante. “A principios de este año, los miembros del foro firmaron compromisos voluntarios de IA en la Casa Blanca, que incluían el compromiso de facilitar el descubrimiento por parte de terceros y la notificación de vulnerabilidades en nuestros sistemas de IA. El foro considera que el Fondo de Seguridad de la IA es una parte importante para cumplir este compromiso al proporcionar financiación a la comunidad externa para evaluar y comprender mejor los sistemas más avanzados”.

 

Prioridades

El objetivo principal del Fondo para la Seguridad de la IA será apoyar el desarrollo de nuevas evaluaciones de modelos y técnicas de red teaming de modelos de IA para ayudar a desarrollar y probar técnicas de evaluación de las capacidades potencialmente peligrosas de los sistemas fronterizos. “Creemos que una mayor financiación en este ámbito contribuirá a elevar los estándares de seguridad y proporcionará información sobre las medidas de mitigación y control que la industria, los gobiernos y la sociedad civil necesitan para responder a los retos que plantean los citados sistemas”, han defendido desde la organización.

Para ello, el fondo lanzará una convocatoria de propuestas en los próximos meses. El Instituto Meridian será el encargado de administrarlo, cuya labor contará con el apoyo de un comité asesor formado por expertos externos independientes, expertos de empresas de IA y personas con experiencia en la concesión de subvenciones.

 

Sobre el nuevo director ejecutivo

Meserole llega al Frontier Model Forum con una profunda experiencia en política tecnológica, habiendo trabajado ampliamente en la gobernanza y seguridad de las tecnologías emergentes y sus futuras aplicaciones. Recientemente ha sido director de la iniciativa sobre Inteligencia Artificial y Tecnologías Emergentes de la Brookings Institution. 

En este nuevo cargo, Meserole será responsable de ayudar al foro al cumplimiento de sus diversas misiones: impulsar la investigación sobre seguridad de la IA para promover el desarrollo responsable de modelos de vanguardia y minimizar los riesgos potenciales; identificar las mejores prácticas de seguridad para los modelos de vanguardia; compartir conocimientos con los responsables políticos, el mundo académico, la sociedad civil y otros agentes para impulsar el desarrollo responsable de la IA, y apoyar los esfuerzos para aprovechar la IA para abordar los mayores retos de la sociedad.



Webinar ondemand

Revistas Digitales

DealerWorld Digital

 



Registro:

Eventos: