Inteligencia artificial
IA generativa

OpenAI crea un marco para dar forma a la inteligencia artificial responsable

Este documento, el primero de su tipo, describe los principios que guían el comportamiento del modelo en su API y ChatGPT.

OpenAI ChatGPT
Foto de Levart_Photographer (Unsplash).

En un intento por mejorar la responsabilidad y la transparencia en el desarrollo de la inteligencia artificial (IA), OpenAI ha publicado un borrador preliminar de Model Spec. Este documento, el primero en su tipo, describe los principios que guían el comportamiento del modelo en su API y ChatGPT, según ha anunciado la compañía.

“Creemos que es importante que las personas puedan comprender y discutir las opciones prácticas involucradas en la configuración del comportamiento del modelo”, asegura la firma en un blog. “Nuestra investigación y experiencia en el diseño del comportamiento del modelo y el trabajo en progreso para informar de modelos futuros es una continuación de nuestro compromiso para mejorar el comportamiento de la IA utilizando la aportación humana y complementa nuestro trabajo colectivo y un enfoque sistemático más amplio de seguridad”.

El comportamiento del modelo (cómo estos responden a las entradas del usuario, y abarca varios aspectos como el tono, la personalidad y la duración de la respuesta) juega un papel fundamental entre las interacciones entre esta tecnología y las personas. Es una tarea compleja de moldear, ya que los modelos aprenden de diversos conjuntos de datos y pueden encontrar objetivos contradictorios en la práctica. Dar forma a este comportamiento es todavía una ciencia incipiente, ya que los modelos no se programan explícitamente, sino que aprenden de una amplia gama de datos, según OpenAI.

 

Un enfoque de tres niveles para dar forma a una IA responsable

El borrador del documento esboza un enfoque triple que especifica el "comportamiento del modelo deseado" de OpenAI y cómo la empresa evalúa las compensaciones cuando "surgen conflictos".

La primera parte de las especificaciones del modelo se centra en los objetivos centrales. Estos son principios amplios que guían el comportamiento del modelo, incluida la asistencia a los usuarios para lograr sus objetivos, el beneficio de la humanidad y una reflexión positiva sobre OpenAI. Estos principios fundamentales también exigen que el comportamiento modelo se adhiera a las “normas sociales y la ley aplicable”.

Más allá de estos objetivos generales, el documento también proporciona instrucciones claras, a las que el blog se refiere como "reglas". Estas reglas están diseñadas para abordar situaciones complejas y “ayudar a garantizar la seguridad y la legalidad” de las acciones de la IA. Algunas de estas reglas incluyen seguir instrucciones de los usuarios, cumplir con las leyes, evitar la creación de riesgos en la información, respetar los derechos y la privacidad de los usuarios y evitar la generación de contenido inapropiado o NSFW (no seguro para el trabajo).

Finalmente, la especificación del modelo reconoce que puede haber situaciones en las que estos objetivos y reglas "entren en conflicto". Para sortear estas complejidades, el documento sugiere comportamientos predeterminados a seguir por el modelo de IA. Estos comportamientos predeterminados incluyen asumir las mejores intenciones de los usuarios, ser útiles sin "sobrepasar" los límites y fomentar interacciones respetuosas.

"Esta es la dirección ideal que deberían tomar los modelos y es fantástico ver a OpenAI haciendo el esfuerzo con esta nueva especificación sobre cómo debe comportarse un modelo según el usuario con mayor contexto y personalización, pero más "responsablemente", dijo Neil Shah. Vicepresidente de investigación y socio de Counterpoint Research, una firma global de investigación y consultoría.

 

El énfasis de OpenAI en la transparencia y la colaboración

OpenAI, en la publicación del blog, reconoce la especificación del modelo como un "documento vivo", lo que significa que está abierto a comentarios y evolucionando junto con el campo de la IA. "Nuestra intención es utilizar la especificación del modelo como guía para que los investigadores y etiquetadores de datos creen datos como parte de una técnica llamada aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)", decía otro documento de OpenAI que detalla la especificación del modelo. "La especificación, al igual que nuestros propios modelos, se actualizará continuamente en función de lo que aprendamos al compartirla y escuchar los comentarios de las partes interesadas".

RLHF impulsará cómo un modelo se adaptará mejor al comportamiento humano real, pero también lo hará transparente con objetivos, principios y reglas establecidos. Esto lleva el modelo OpenAI al siguiente nivel, haciéndolo más responsable y útil, afirmó Shah. "Aunque será un objetivo en constante movimiento para ajustar las especificaciones, ya que hay muchas áreas grises con respecto a cómo se interpreta una consulta y cuál es el objetivo final, y el modelo tiene que ser lo suficientemente inteligente y responsable para detectar si la consulta y la respuesta son menos responsables”.

La especificación del modelo representa un paso significativo hacia el logro de una IA ética. La empresa enfatiza la importancia de generar confianza con los usuarios y el público, que interactúan cada vez más con los sistemas de IA en su vida diaria.



Webinar ondemand

Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital