Workday apunta a un modelo de IA generativa federado

La compañía implementará sus herramientas de IA generativa en los próximos meses y desde la dirección apuntan a la adopción de un modelo federado por su seguridad, fiabilidad y coste.

Workday Rising 2023

Workday celebra estos días en Barcelona Workday Rising EMEA 2023, su evento anual más importante en la región. Es a tercera vez que la compañía elige la Ciudad Condal como anfitriona, una oportunidad que ha aprovechado para dar a conocer casos de éxito con clientes locales y para arrojar más luz sobre su estrategia relativa a la IA generativa.

Y es que competidores directos de la firma como SAP ya han dado grandes pasos en la incorporación de esta tecnología en sus soluciones. Workday, consciente de que no puede quedarse atrás en esta carrera, anunció hace unos meses nuevas capacidades de IA generativa aplicadas a la creación de artículos personalizados sobre gestión de conocimiento, análisis y corrección de contratos para un reconocimiento de ingresos más rápido y preciso, generación de descripciones de puestos en menos tiempo, agilización de cobros o conversión de texto en código para el desarrollo de aplicaciones. Todas ellas están aún en ciernes y se implementarán en los próximos meses, "en primavera de 2024", ha confirmado su CTO global, Jim Stratton, a esta cabecera. Se sumarán a las más de 40 funcionalidades de IA y machine learning con las que ya cuenta la firma.

 

LLM federado por regiones y aplicaciones

Más allá de los anuncios hechos hasta la fecha, el copresidente de la compañía, Sayan Chakraborty, ha defendido el modelo de LLM federado, por su fiabilidad, efectividad y coste.

Los modelos de lenguaje de gran tamaño (LLM) son modelos de aprendizaje profundo preentrenados con grandes cantidades de datos. Un modelo LLM federado es un modelo de lenguaje de gran tamaño que se implementa utilizando el conocido como “aprendizaje federado”.  Se trata de una forma alternativa de creación de modelos de inteligencia artificial que, básicamente, trae los modelos de aprendizaje automático a la fuente de datos, en lugar de llevar los datos al modelo. Esto implica, en última instancia, que el modelo se entrena en múltiples dispositivos locales, lo que permite conservar la privacidad y personalizar las respuestas del modelo para el usuario del dispositivo.

Si nos fijamos en algo como las descripciones de puestos, podemos tomar un conjunto de datos de descripción de puestos y entrenar modelos mucho más pequeños, mucho más ajustados y específicos”, declaró durante la celebración del Rising en EE. UU. Esta aproximación aborda, defendió entonces, los problemas más recurrentes de los LLM, que son las “alucinaciones” o invenciones y sesgos no deseados. Además, al ser más restringido es mucho más seguro.

Siguiendo esta línea, Chakraborty ha dicho en Barcelona que un modelo federado es más barato de ejecutar. El foco, ha dicho, está en reducir los costes de inferencia. El abaratamiento ocurrirá, ha confiado, como con tantas tecnologías hasta le fecha. Es por eso que el equipo de Stratton trabaja en la creación de un modelo de IA generativa adaptada por regiones y por aplicaciones que será, comenta con ComputerWorld en una charla privada en el marco del evento, más eficiente en términos de sostenibilidad y más seguro en relación a la gestión de datos y cumplimiento normativo.

Y el tiempo apremia. Las nuevas generaciones utilizan día a día herramientas de inteligencia artificial generativa. “Van a llegar con muchas expectativas sobre herramientas que, si las empresas no cumplen, quedarán atrás”, ha alertado Chakraborty.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital