Legislación
Inteligencia artificial
Estados Unidos

Estados Unidos estudia posibles vías para regular la inteligencia artificial

Washington ha anunciado que está barajando posibles medidas de responsabilidad para los sistemas de inteligencia artificial similares a ChatGPT debido a reticencias sobre seguridad y educación.

gpt-3 chatbot

La Administración Biden ha anunciado públicamente que está barajando posibles medidas de responsabilidad para los sistemas de inteligencia artificial (IA), ya que se plantean interrogantes sobre su impacto en la seguridad nacional y la educación. ChatGPT, el chatbot firmado por OpenAI que captó la atención del público por su capacidad para redactar rápidamente respuestas a una amplia gama de consultas, ha atraído especialmente la atención de los legisladores estadounidenses. El principal motivo que ha dirigido el foco hacia esta tecnología tiene que ver con que se ha convertido en la aplicación de consumo de más rápido crecimiento por usuario de la historia, con más de 100 millones de usuarios activos mensuales.

En este sentido, la Administración Nacional de Telecomunicaciones e Información (NTIA), organismo dependiente del Departamento de Comercio que asesora a la Casa Blanca en política de telecomunicaciones e información, quiere conocer su opinión, ya que existe un "creciente interés regulador" en un "mecanismo de responsabilidad" de la IA. En concreto, la agencia pretende averiguar si existen medidas que podrían ponerse en marcha para proporcionar garantías "de que los sistemas de IA son legales, eficaces, éticos, seguros y, por lo tanto, dignos de confianza”.

"Los sistemas de IA responsables podrían aportar enormes beneficios, pero sólo si abordamos sus posibles consecuencias y daños. Para que estos sistemas alcancen todo su potencial, las empresas y los consumidores deben poder confiar en ellos", declaró Alan Davidson, administrador de la NTIA. Por su parte, el presidente demócrata, defendió que aún está por ver si la IA es peligrosa. "En mi opinión, las empresas tecnológicas tienen la responsabilidad de asegurarse de que sus productos son seguros antes de hacerlos públicos".

 

Investigación a la vista

La NTIA tiene previsto redactar un informe en el que analizará "los esfuerzos para garantizar que los sistemas de IA funcionen como se afirma y sin causar daños". Asimismo incidió en sus esfuerzos por informar sobre el trabajo en curso al Gobierno Biden para "garantizar un enfoque cohesivo y global del gobierno federal frente a los riesgos y oportunidades relacionados con la IA”.

Un grupo de ética tecnológica, el Center for Artificial Intelligence and Digital Policy, pidió a la Comisión Federal de Comercio de EE.UU que impidiera a OpenAI publicar nuevas versiones comerciales de GPT-4 por considerarlo "tendencioso, engañoso y un riesgo para la privacidad y la seguridad pública".



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital