Cloud Computing
Centro de datos
Inteligencia artificial
IA generativa

¿Tienen los servicios de IA generativa en la nube futuro empresarial?

A medida que las empresas continúan poniendo a prueba proyectos de IA generativa, muchas descubren que el costo de implementar la tecnología en sus propios centros de datos puede ser prohibitivo.

centro de datos

Aunque se espera que los modelos de inteligencia artificial (IA) generativa se reduzcan en tamaño para adaptarse a las necesidades y presupuestos corporativos, un gran número de proveedores de servicios todavía están trazando su rumbo de ingresos, basándose en la prestación de esta tecnología en la nube.

En su carta anual a los accionistas de la semana pasada, Andy Jassy, director ejecutivo de AWS, dijo que la compañía se centrará menos en crear aplicaciones de IA generativa orientadas al consumidor y más en ofrecer modelos a través de servicios web a clientes empresariales. “A veces la gente nos pregunta: ‘¿Cuál es vuestro próximo pilar?’ Elegiría la IA generativa. Somos optimistas de que gran parte de esta IA que cambiará el mundo se construirá en AWS”.

Las expectativas de Jassy sobre las fuentes de ingresos procedentes de los servicios de IA no están fuera de lugar. Las organizaciones planean invertir entre un 10 y un 15% más en iniciativas de este tipo durante el próximo año y medio en comparación con 2022, según la consultora IDC. En otoño pasado, AWS lanzó Bedrock, que ofrece una variedad de modelos de lenguaje grande (LLM, de sus siglas inglesas) a través de su nube para que las empresas puedan crear aplicaciones de IA generativa. Y, recientemente presentó Amazon Q, un asistente de codificación de software asistido por IA.

Actualmente, la computación en la nube lidera todos los demás métodos para ofrecer aplicaciones de IA generativa. Esto se debe al alto coste de construir una infraestructura patentada. AWS, Google, IBM, Microsoft y Oracle han invertido miles de millones desde que OpenAI desató la tormenta de la IA generativa con ChatGPT en noviembre de 2022.

“Nadie, excepto los hiperescalares, puede darse el lujo de capacitar y operar los LLM y los modelos básicos de gran tamaño”, asegura, Avivah Litan, analista vicepresidente de Gartner. “Los costes ascienden a cientos de millones de dólares. Sin embargo, a medida que las empresas siguen aumentando sus pilotos de aplicaciones de IA generativa, el coste de los servicios en la nube puede convertirse en un factor limitante. En cambio, muchas organizaciones buscan implementar LLM locales más pequeños destinados a tareas específicas.

De hecho, los modelos más pequeños de dominio específico desafiarán eventualmente el dominio de los LLM líderes en la actualidad, como GPT 4, LLaMA 2 o PaLM 2. Hasta 2025, el 30% de los proyectos de IA generativa se abandonarán después de la prueba de concepto debido a la mala calidad de los datos, controles de riesgo inadecuados, costes crecientes o valor comercial poco claro, según Gartner. Y, para 2028, más de la mitad de las empresas que han creado sus propios LLM desde cero abandonarán sus esfuerzos debido a los costes, la complejidad y la deuda técnica en sus implementaciones.

Los modelos actuales de precios de proveedores que trasladan el alto costo de la innovación y el desarrollo, la capacitación y la ejecución de LLM también podrían significar que las empresas no verán el retorno de la inversión en sus proyectos de IA, según un informe reciente de Gartner. Incluso cuando los proveedores subsidian los precios con la esperanza de ganar una participación de mercado temprana, a menudo no es suficiente para producir una recuperación rápida, dijo Gartner. En cambio, las organizaciones deberían adoptar un enfoque a largo plazo para lograr ganancias de productividad y retorno de la inversión gracias a la IA generativa.

Lee Sustar, analista principal de Forrester Research, dice que los servicios de inteligencia artificial a través de la nube seguirán creciendo a medida que productos como AWS Bedrock, Azure AI y Google Cloud Vertex reduzcan la barrera de entrada. “Dada la gravedad de los datos en la nube, suele ser el lugar más fácil para comenzar con los datos de entrenamiento. Sin embargo, habrá muchos casos de uso para LLM más pequeños e inferencia de IA en el extremo. Además, los proveedores de la nube seguirán ofreciendo opciones de plataforma de inteligencia artificial para crear sus propias opciones a través de las plataformas Kubernetes, que los científicos de datos han utilizado durante años”, indica. “Algunas de estas implementaciones se llevarán a cabo en el centro de datos en plataformas como Red Hat OpenShift AI. Mientras tanto, las nuevas nubes orientadas a GPU como Coreweave ofrecerán una tercera opción. Estamos en los primeros días, pero los servicios de IA gestionados por proveedores de nube seguirán siendo fundamentales para el ecosistema de IA”.

Y aunque hay LLM más pequeños en el horizonte, las empresas seguirán utilizando los servicios en la nube de IA de las grandes empresas cuando necesiten acceso a LLM muy grandes, según Litan. Aun así, con el tiempo más organizaciones utilizarán LLM pequeños que se ejecutan en hardware mucho más pequeño, “incluso tan pequeño como una computadora portátil común.

"Y veremos el aumento de empresas de servicios que admitan esa configuración junto con los servicios de privacidad, seguridad y gestión de riesgos que serán necesarios", dijo Litan. "Habrá mucho espacio para ambos modelos: el modelo básico muy grande de entrega de servicios en la nube y el modelo básico pequeño de entrega de servicios en la nube privada en la GPU/CPU de su elección".



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital