Inteligencia artificial
IA
Tecnología
Chatbots
IA generativa

Q&A: ChatGPT no es consciente, es un motor de predicción de palabras

La consultora Ernst & Young ya está formando a sus clientes sobre cómo crear modelos de negocio en torno a motores de IA generativa como ChatGPT. Pero la exaltación está creando expectativas poco realistas, dice Dan Diasio, líder global de consultoría de inteligencia artificial de EY.

Chat GPT 3

ChatGPT ha arrasado en todo el mundo gracias a su capacidad para generar respuestas textuales que pueden ser indistinguibles de las respuestas humanas. La plataforma de chatbot y su gran modelo de lenguaje subyacente, GPT-3, pueden ser valiosas herramientas para automatizar funciones, ayudar con ideas creativas e incluso sugerir nuevos códigos informáticos y correcciones para aplicaciones estropeadas. 

La tecnología de IA generativa -o chatbots- se ha exaltado en exceso y en algunos casos se ha llegado a afirmar que tiene sensibilidad o una forma de conciencia. La tecnología también ha tenido su parte de errores embarazosos. Bard, de Google, tropezó este mes al proporcionar respuestas erróneas a las preguntas de los usuarios.

Para no ser menos, el recién lanzado chatbot Bing de Microsoft, durante una conversación en línea con un periodista, confesó su amor por el reportero y trató de convencerle de que su relación con su esposa estaba en realidad en ruinas, entre otras extrañas alucinaciones. 

Ahora hay muchos ejemplos bien documentados de ChatGPT y otros chatbot tecnológicos que arrojan información incorrecta y sin sentido, para disgusto de los inversores que han financiado con miles de millones de dólares el desarrollo de la tecnología. 

La organización mundial de servicios profesionales Ernst & Young (EY) ha estado trabajando para desarrollar tecnología de chatbot para sus clientes y para ayudarles a desplegar los productos existentes. La empresa se ha encontrado en el punto de mira de lo que la tecnología es realmente capaz de hacer y lo que es pura fantasía.

Dan Diasio, líder global de consultoría de inteligencia artificial de EY, trabaja con CIO de empresas incluidas en la lista Fortune 500 y tiene un profundo conocimiento de la IA generativa y de cómo puede beneficiar a las empresas. También conoce los principales impulsores de la actual fiebre por la IA y cómo el mundo empresarial ha llegado hasta aquí.

Diasio habló con Computerworld sobre el papel de la IA generativa y otras formas de IA y cómo puede (o no) aumentar la eficiencia empresarial, cómo los CIO pueden implementarla en sus organizaciones y cómo los CEO y los CIO deben prepararse para debatir sobre la IA con su junta directiva.

Los siguientes son extractos de ese debate:

 

¿Cómo trabaja EY con la tecnología de IA generativa como ChatGPT? 

En general, apoyamos a nuestros clientes en muchos aspectos del uso de datos e IA para impulsar su negocio en el futuro. Pero en lo que respecta específicamente a la IA generativa, lo que creemos que está resultando útil para nuestros clientes es que les hemos involucrado en un debate que empieza a dar forma a una estrategia para su negocio que pueden llevar a sus consejos de administración y a sus directivos.

Lo interesante de ChatGPT es que, en el pasado, sólo los científicos de datos dirigían el debate sobre la IA en una empresa. Pero ahora, todo el mundo participa en la IA. Se ha democratizado hasta tal punto que ahora todo el mundo tiene un punto de vista sobre cómo se puede utilizar. Y el consejo de administración probablemente tenga un punto de vista, porque han experimentado la tecnología o han jugado con ChatGPT. Por lo tanto, las empresas que están a la vanguardia tendrán una estrategia en torno a lo que eso significa para el negocio y no sólo para hablar de los objetos brillantes que están haciendo en la organización. Ayudamos a nuestros clientes a construir una estrategia que hable de cambios en el modelo operativo o empresarial.

Lo segundo que hacemos es ayudarles a crear esas soluciones. Por lo tanto, no se trata solo de OpenAI o ChatGPT, sino que hay una variedad de modelos fundacionales, hay una variedad de técnicas y enfoques diferentes que en muchos casos están mejor probados que algunas de las tecnologías que estamos viendo en las noticias de hoy.

 

Los chatbots no son nuevos. ¿Cuáles eran algunos de los más populares antes de ChatGPT? 

La mayoría de las interacciones que se producían entre los chatbots y las personas tenían lugar en el ámbito de la atención al cliente. Y hay una gran variedad de proveedores que proporcionan herramientas que permiten a las empresas entrenarlos en el lenguaje que requiere el dominio.

Por ejemplo, si hablas de un tema específico de nóminas, podrás entrenarlo en este tema. Si se trata de algo relacionado con las devoluciones y el negocio directo al consumidor, entonces aprende el lenguaje en ese espacio.

Pero hay una gran variedad de proveedores que han desplegado herramientas para permitir que los chatbots faciliten de forma más fluida e instantánea una conversación entre un consumidor y una empresa. Por lo general, es en el espacio de servicio al cliente, y se utiliza cuando algo va mal o cuando tienes una pregunta. No ha habido un proveedor dominante en ese espacio como ha ocurrido con ChatGPT.

Hay una gran variedad de proveedores que ofrecen sus propias capacidades únicas. Eso es en gran medida para lo que se han utilizado los chatbots. En algunos casos, con algunas empresas más avanzadas, no tiene por qué ser a través de una interfaz de chat, también puede ser a través de una interfaz de voz. Ese sería el ejemplo de alguien que llama a una empresa y primero se le pide que describa el motivo de su llamada y luego un sistema automatizado le responde. Es un chatbot que se sienta detrás de ese sistema que literalmente toma el discurso y lo traduce en texto, se lo da al chatbot y luego el chatbot responde en texto y el sistema responde en voz.

 

¿Hasta qué punto está madura la tecnología ChatGPT? La mayoría de las empresas parecen estar probándola en fase beta. ¿Cuándo estará lista para el primetime y qué hará falta para ello?

Creo que la verdadera pregunta es: cuando hablamos de ella como una tecnología, ¿de qué estamos hablando? Esta forma de inteligencia artificial se basa en un documento creado en 2017 que creó esta arquitectura llamada Transformer. El Transformer es una pieza de tecnología bastante madura que muchas organizaciones están utilizando, muchas de las organizaciones tecnológicas, así como organizaciones que hacen desarrollo de IA en torno al procesamiento del lenguaje natural. Esa es la forma predominante.

Lo que ha ocurrido con esta tecnología en los dos últimos años es que en ese Transformer -pensemos en él como el esquema de cómo se diseña la IA- los creadores de estos modelos no han dejado de darle más y más datos. Y llegó a un punto de inflexión hace bastante poco tiempo en el que empezó a funcionar mucho mejor que en el pasado y la razón por la que se ha vuelto tan omnipresente.

Una de las pruebas de esto fue creada por la empresa OpenAI y GPT 3.0 (GPT son las siglas en inglés de Transformador Generativo Preentrenado). Resulta curioso que, si miras el historial de búsquedas de GPT 3.0 en relación con ChatGPT, te das cuenta de que nadie hablaba realmente de GPT 3.0. Pero cuando cogieron una versión de GPT 3.0 y la codificaron para estas interacciones para convertirla en un chatbot, entonces explotó.

El constructo ChatGPT, al estar basado en el modelo Transformer, está maduro para algunas cosas y no lo está en la mayoría de los casos de uso actuales. El marco subyacente -Transformer o GPT 3.0- está maduro para muchos casos de uso diferentes. Así que nuestros equipos han estado trabajando con los modelos GPT para resumir texto. Le das un montón de párrafos largos y le pides que los resuma. Llevamos tiempo trabajando en ello y cada vez es mejor, y ahora vemos que muchas organizaciones están aprovechando esa capacidad.

Hay muchas cosas, como estamos viendo hoy en las noticias, que son muy incipientes y están en fase de pruebas beta. Suelen ser los nuevos productos que se lanzan, como el propio ChatGPT. Esas cosas todavía están pasando por muchas pruebas.

A medida que pasa el tiempo seguimos introduciendo cada vez más datos en estos modelos, que mejoran mucho más de lo que lo hacían con menos datos. Hay un fenómeno detrás de esto y un gran trabajo de investigación escrito sobre ello, llamado ‘Habilidades emergentes de grandes modelos lingüísticos’. Lo que se dice en ese artículo es que cuando se dan más datos a los grandes modelos lingüísticos, de repente empiezan a desarrollar todas estas nuevas capacidades, pero también sospechamos que hay nuevos riesgos en el uso de la tecnología. Por eso creo que estamos empezando a ver muchas más noticias relacionadas con la IA de Bing de Microsoft de las que vimos con ChatGPT en sus inicios.

 

¿Por qué vemos más noticias sobre Bing que sobre ChatGPT? ¿Estaba menos desarrollada que el gran modelo lingüístico de OpenAI?

Aún no tenemos una respuesta clara. No puedo decir que fuera menos completo. Lo que sí sabemos es que OpenAI dedicó mucho tiempo a delimitar lo que el sistema podía y no podía hacer. Pasaron mucho tiempo probándolo antes de lanzarlo. No puedo decir cuánto tiempo pasó Microsoft probando Bing antes de lanzarlo.

Pero lo que tengo entendido por las personas que han interactuado con la IA de Bing es que dirían que es un cambio gradual con respecto a lo que han visto en las capacidades de ChatGPT. Pero con todas estas nuevas habilidades también viene la capacidad de tener nuevos problemas e imprecisiones, como las 'alucinaciones'.

 

¿Una alucinación relacionada con un programa de IA generativa tiene más que ver con dar información inexacta o hay algún proceso de pensamiento tipo HAL 9000, sináptico, sucediendo en segundo plano para hacer que dé respuestas erróneas?

Lo mejor que entendemos ahora mismo es que estos modelos son intrínsecamente motores de predicción de palabras. En su nivel más básico, sólo predicen la siguiente mejor palabra. En algunos casos, cuando predice la siguiente palabra, esa palabra ya no es exacta para la pregunta en cuestión. Pero dada esa palabra, la siguiente mejor palabra dada después continúa por ese camino y entonces se construye una serie de palabras que van por un camino que ya no es exacto, pero es muy convincente en la forma en que se ha escrito.

Así que el reto que creo que tenemos con las alucinaciones es que el sistema no te dice si cree que está alucinando. Empieza a alucinar en términos bastante convincentes, del mismo modo que lo haría si sus respuestas fueran 100% exactas. Así que nos obliga a tener una mirada crítica hacia todo lo que veamos de él y a tratar todo lo que salga de esta tecnología de IA como un buen primer borrador.

 

Entonces, ¿sueñan realmente los robots de IA con ovejas eléctricas? 

Se habla mucho de los antropomorfismos que están ocurriendo con la tecnología hoy en día y creo que la mejor manera de describir estas tecnologías de IA es que son realmente buenas prediciendo la siguiente mejor palabra.

Ahí es donde surgen dudas sobre si estamos realmente preparados para el lanzamiento generalizado, porque aún no hemos aprendido a interactuar con esta tecnología. Estamos viendo titulares sobre cómo la gente cree que está interactuando con IA consciente. ¿Y qué es la consciencia? Y ese tipo de diálogo. Lo mejor es pensar en esto como algo que cuando se le da una serie de palabras, predice la siguiente mejor palabra y a veces eso te lleva a un lugar realmente bueno, y a veces tienes que volver atrás y editarlo. Hasta que mejore, así es como deberíamos usarlo.

Uno de los mayores casos de uso de ChatGPT o de la tecnología de IA generativa es el servicio de atención al cliente. Esto se debe a que las métricas tradicionales para medir la eficiencia de un centro de servicio se basan en algo llamado tiempo medio de gestión. El tiempo medio de gestión es el tiempo que tarda alguien en responder a una llamada telefónica y terminar el trabajo posterior a la llamada.

Si alguna vez ha paseado por estos centros de servicio, verá que hay mucha gente que está tecleando y ya no habla. Ese es todo el trabajo que hay que hacer para mecanografiar el resumen de la conversación que acaba de tener lugar con el cliente en esa llamada para que tengan un registro de ella. La tecnología de IA está demostrando ser muy buena a la hora de generarlo rápidamente, para que el agente de servicio, en lugar de teclearlo todo, pueda revisarlo rápidamente y enviarlo.

Ahí es donde hemos estado trabajando con algunos de nuestros clientes, en el desarrollo de casos de uso también.

 

Así que, tal y como me lo han explicado, GPT-3 es el gran modelo lingüístico en el que se basa ChatGPT y no se puede cambiar ese modelo, pero literalmente se le puede ayudar a aprender para que responda a una necesidad empresarial específica. ¿Cómo funciona? 

Hay un campo de habilidades, uno nuevo conocido como prompt engineering. Consiste en dar contexto a ese gran modelo lingüístico para activar una parte determinada de su conjunto de datos, de modo que se pueda preparar y aprovechar ese conjunto de datos y la respuesta. Esa es una de las formas que utilizan las empresas para centrarse en el contexto. Tal vez preparándolo con ejemplos de cómo responder y luego haciéndole una pregunta para que responda de esa manera.

Así, la prompt engineering es una forma en que las empresas puedan adaptarla a sus casos de uso específicos.

Otro ejemplo que vemos, y no creo que esté disponible de forma generalizada todavía, pero sé que muchas de estas empresas se están preparando para poder crear un subconjunto y copias de datos específicos para su negocio, añadiendo datos para enriquecer ese gran modelo lingüístico. Así, los datos de su empresa se añadirían a ese gran modelo lingüístico y, por tanto, podrían obtener respuestas muy específicas para su organización.

Eso es algo que veremos mucho más en el futuro, porque a medida que empecemos a trabajar en casos de uso más centrados en poder responder a preguntas sobre las políticas de una empresa o sobre su negocio, va a tener que estar preparado con muchos datos sobre esa empresa. Y no se quiere poner eso en el modelo general de gran lenguaje, porque si no todo el mundo tendría acceso a ello también.

Esta idea de copias locales de datos que trabajan conjuntamente con el modelo general es algo que probablemente veremos mucho más en el futuro. Sé que muchos de los grandes hiperescalares están planeando lanzar esa capacidad en un futuro no muy lejano.

 

¿Cree que la prompt engineering se está convirtiendo en una habilidad comercializable, algo que los trabajadores TI deberían considerar aprender? 

Al igual que la programación y la visualización excelentes pueden considerarse obras de arte, la prompt engineering será una habilidad comercializable y diferenciadora en el futuro. Esencialmente, es donde la creatividad humana se encuentra con la IA. A medida que las escuelas incorporen un plan de estudios basado en la inteligencia artificial, es probable que incluyan la creación de estímulos como forma de expresar la creatividad y el pensamiento crítico.

 

¿Alojar esta tecnología de chatbot basada en IA consume muchos ciclos de CPU y energía? ¿O ChatGPT y otros bots se alojarán principalmente a través de un servicio en la nube? 

Actualmente, es un modelo muy grande que consume muchos recursos informáticos. La idea para el futuro es que creemos estas versiones más pequeñas y localizadas para las empresas que ya no necesiten el modelo completo y más grande. Creo que sería poco práctico coger todo el modelo GPT-3 o 3.5 o 4 y decir: ‘Vale, vamos a coger el modelo fundacional de EY y añadirle esto encima’. Estos hiperescalares probablemente encontrarán la forma de crear un conjunto de datos para una empresa que se asiente sobre el modelo grande, de modo que tengan una versión privada más pequeña, o encontrarán la forma de comprimir el modelo más grande de modo que pueda introducirse en las redes en la nube de las empresas.



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital