Análisis
Empresa

¿Puede alguien detener a Nvidia?

Nvidia, el monstruo de las GPU, se ha hecho con una posición dominante en la IA de los centros de datos con una cartera que abarca chips, software y servicios y un ecosistema de socios estratégicamente ensamblado.

el CEO de Nvidia, Jensen Huang
El CEO de Nvidia, Jensen Huang (créditos: Nvidia).

Cuando el fabricante de chips para videojuegos Nvidia anunció hace una década que planeaba un cambio estratégico hacia la inteligencia artificial (IA) para centros de datos, se plantearon muchas preguntas: ¿Podrían crear una oferta empresarial completa? ¿Existía siquiera un mercado para la IA?

Tras el último informe de resultados de la compañía, la pregunta es si alguien puede desafiar a Nvidia como el principal proveedor de plataformas de IA para centros de datos empresariales y de hiperescala.

Mediante adquisiciones inteligentes, desarrollo interno de hardware/software y alianzas estratégicas, Nvidia se posicionó perfectamente para aprovechar el frenesí de IA generativa creado por el lanzamiento de ChatGPT a finales del año pasado. Ni la escasez de chips en todo el sector, ni el fracaso de su propuesta de compra por 40.000 millones de dólares de Arm, su rival en chips, han tenido ningún efecto apreciable en el fenomenal crecimiento de Nvidia.

"Ha comenzado una nueva era informática. Las empresas de todo el mundo están pasando de la computación de propósito general a la acelerada y la IA generativa", afirma el fundador y CEO de Nvidia, Jensen Huang, en el comunicado de resultados de la compañía. "Las GPU de Nvidia conectadas por nuestras tecnologías de red y conmutación Mellanox y ejecutando nuestra pila de software CUDA AI conforman la infraestructura informática de la IA generativa".

Las cifras le respaldan. Los ingresos de Nvidia en el segundo trimestre aumentaron de 6.700 millones de dólares a 13.500 millones, es decir, los ingresos interanuales se duplicaron. Los ingresos netos aumentaron de 656 millones de dólares a 6.100 millones, lo que supone un incremento del 854% con respecto a hace un año y del 202% con respecto al trimestre anterior. Los márgenes alcanzaron el 70%, ya que Nvidia pudo cobrar a las empresas y a los hiperescaladores una prima por las GPU más demandadas.

Los ingresos procedentes de los centros de datos ascendieron a 10.300 millones de dólares (un 141% más en un solo trimestre) y ahora constituyen el 76% de los ingresos totales. Nvidia va camino de superar a Cisco en ingresos totales a finales del próximo trimestre. Sus acciones cotizan en torno a los 490 dólares por acción. Y, según IDC, tiene una cuota de mercado estimada del 90% en GPU empresariales, los componentes básicos de los sistemas de IA.

Los analistas del sector son optimistas. Ross Seymore, de Deutsche Bank, afirma: "Seguimos creyendo que Nvidia está especialmente preparada para beneficiarse del crecimiento de la IA en hardware y, potencialmente, en software". Atif Malik, de Citi, predice que el mercado de aceleradores de IA "crecerá a un ritmo vertiginoso", y Nvidia presume de "una ventaja sustancial en rendimiento de IA frente a AMD".

Matthew Ramsay, de Cowen & Co, vaticina que los ingresos de Nvidia podrían alcanzar los 46.000 millones de dólares en 2024 y los 65.000 millones en 2025. "Estas revisiones al alza se concentran por completo en el segmento de los centros de datos", afirma Ramsay. Y añade: "Aunque reconocemos que estas cifras son extraordinarias, creemos que hay demanda y oferta más que suficientes para respaldar un crecimiento de los ingresos de esta magnitud”.

Alexander Harrowell, analista principal de Omdia, considera que "hay muchas empresas que tienen un potente chip acelerador de redes neuronales, pero sólo hay una que tenga el ecosistema de software de Nvidia". Siguiendo esta misma línea defiende que la capacidad de Nvidia para crear una sólida comunidad de desarrolladores en torno a su tecnología principal le da una clara ventaja, no muy diferente de lo que Apple ha hecho con los iPhones. "Desarrolladores, desarrolladores, desarrolladores" ha sido siempre una estrategia ganadora en todo lo digital. Es muy difícil revertirla una vez que se ha producido", afirma Harrowell.

 

El ecosistema de Nvidia

Huang ha declarado que Nvidia no pretende arrebatar cuota de mercado a los operadores tradicionales del sector, sino abrir camino a medida que las empresas añaden capacidades de IA a sus actuales centros de datos basados en CPU. Esta estrategia parece estar funcionando, ya que en lugar de alienar a los pesos pesados del sector, Nvidia ha conseguido enhebrar la aguja creando una red de asociaciones y alianzas.

¿Quieres mantener tus datos en casa y desarrollar tus propias capacidades de IA? Nividia se ha aliado con Dell para ofrecer a las empresas un paquete completo de IA generativa on-prem que integra las GPU, la red, el software y el marco de trabajo NeMo large language model (LLM) de Nvidia con los servidores, el almacenamiento y los diseños preconfigurados de Dell para casos de uso específicos.

Si prefieres aprovechar la escalabilidad de la nube y la velocidad con la que puedes ponerte en marcha, Nvidia lo tiene cubierto con su servicio DGX cloud, que ya funciona en la nube de Oracle y se espera que esté disponible pronto en Microsoft Azure y Google Cloud. DGX cloud es un paquete completo de hardware y software que permite a las empresas crear modelos generativos de IA utilizando la tecnología de Nvidia dentro del entorno del hiperescalador.

Para las organizaciones preocupadas por los riesgos de seguridad asociados al envío de datos confidenciales a la nube pública, Nvidia se ha asociado con VMware en una oferta denominada VMware Private AI Foundation, una plataforma de IA generativa totalmente integrada y lista para usar que las empresas pueden ejecutar en sus instalaciones, en instalaciones de colocación o en nubes privadas.

En cuanto a las aplicaciones empresariales basadas en IA, Nvidia colabora con ServiceNow y Accenture en el desarrollo de AI Lighthouse, que combina la plataforma y el motor de automatización empresarial ServiceNow, la supercomputación y el software de IA de NVIDIA y los servicios de consultoría e implantación de Accenture para ayudar a las empresas a crear aplicaciones y modelos de inteligencia artificial generativa personalizados.

En cuanto a los desarrolladores, además de su propia comunidad, Nvidia se ha asociado con Hugging Face, una comunidad de desarrolladores de IA de código abierto, para dar acceso a la nube DGX a los desarrolladores de Hugging Face que crean grandes modelos lingüísticos. Esto permitirá a los desarrolladores entrenar y ajustar modelos avanzados de IA en la infraestructura de supercomputación de Nvidia.

¿Qué hay de las aplicaciones industriales como el gemelo digital y la robótica? Nvidia ha desarrollado su plataforma de colaboración gráfica 3D en tiempo real Omniverse. Patrick Moorhead, CEO de Moor Insights, afirma: "La disponibilidad de Omniverse de Nvidia en la nube Microsoft Azure es un gran paso adelante para Nvidia y para las empresas que quieren aprovechar las ventajas de las tecnologías de gemelo digital".

Y añade: "Muy pocas empresas pueden hacer lo que Nvidia está haciendo con Omniverse. En esencia, Nvidia está aprovechando sus potentes ventajas en hardware para hacer posible esta increíble plataforma de software impulsada por IA. Eso convierte a Omniverse en una valiosa herramienta para las empresas que buscan agilizar sus operaciones y mantenerse a la vanguardia en un panorama tecnológico en rápida evolución".

¿Coches inteligentes? El sector de la automoción, cada vez más impulsado por el software, también está en el punto de mira de Nvidia. La compañía se ha asociado con MediaTek para desarrollar sistemas de automoción en chips (o chiplets) para los fabricantes de equipos originales.

 

El campo de batalla de las GPU

Nvidia domina el mercado de las GPU, muy por delante de sus rivales AMD e Intel, y sigue actualizando su cartera de productos con lanzamientos periódicos de chips aún más potentes. En el último trimestre, anunció el superchip GH2000 Grace Hopper para complejas cargas de trabajo de inteligencia artificial y computación de alto rendimiento, y la GPU L40S, un procesador universal para centros de datos diseñado para acelerar las aplicaciones más intensivas en cálculo.

Pero AMD no se queda de brazos cruzados. Está desafiando a Nvidia con sus nuevos chips Instinct MI300X y está construyendo un potente acelerador de IA combinando múltiples chiplets MI300X con chiplets de CPU Zen4. "La IA generativa, los grandes modelos de lenguaje han cambiado el panorama", dijo la CEO de AMD, Lisa Su, en un evento en San Francisco en junio. "La necesidad de más computación está creciendo exponencialmente, tanto si hablas de entrenamiento como de inferencia".

"Si comparamos MI300X con la competencia, MI300X ofrece 2,4 veces más memoria y 1,6 veces más ancho de banda de memoria, y con toda esa capacidad de memoria adicional, realmente tenemos una ventaja para los modelos de lenguaje de gran tamaño porque podemos ejecutar modelos más grandes directamente en la memoria", detalló Su.

Sin embargo, los nuevos chips de AMD no se comercializarán en grandes cantidades hasta 2024. Intel sigue a la zaga. En marzo, Intel anunció que había cancelado la generación de GPU Rialto Bridge y que posponía la arquitectura de GPU Falcon Shores hasta 2025.

"No hay competencia significativa para las GPU de alto rendimiento de Nvidia hasta que AMD empiece a comercializar sus nuevos aceleradores de IA en grandes volúmenes a principios de 2024", afirma Raj Joshi, vicepresidente sénior de Moody's Investors Services.

Jim Breyer, consejero delegado de Breyer Capital, agrega: "En un plazo de tres años, Nvidia es imparable; tiene un año y medio de ventaja en GPU".  Breyer defiende que, desde su punto de vista, el mayor reto de Nvidia no viene de AMD o Intel, sino de Google. Dice que Google tuvo un comienzo lento, pero sus fundadores, Sergey Brin y Larry Page, han salido de su retiro y están de vuelta en la sede de la tecnológica trabajando en el proyecto de IA de la compañía llamado Gemini.

Google aborda la IA más desde la perspectiva del motor de búsqueda, tratando de mantener su dominio de Chrome frente al desafío de Microsoft, que ha integrado ChatGPT en su navegador Edge. (La tecnología ChatGPT de Microsoft/OpenAI funciona con chips Nvidia).

Google también utiliza GPU de Nvidia, pero ha desarrollado sus propias TPU (unidades de procesamiento tensorial), ASIC de aplicación específica diseñadas para el aprendizaje automático y la IA. Y es muy posible que Google aumente la producción de sus TPU y cree una oferta completa de IA generativa basada en su propio modelo de lenguaje PaLM 2 large.

Del mismo modo, Amazon está desarrollando sus propias GPU. En 2015, Amazon compró la startup israelí de diseño de chips Annapurna Labs por 350 millones de dólares y ha desarrollado dos tipos de GPU: Trainium (diseñada para gestionar el entrenamiento intensivo en computación de modelos de lenguaje de gran tamaño) y TPU.

El CEO de Amazon, Andy Jassy, afirma que AWS utiliza Trainium e Inferentia para sí misma, pero también ha puesto a disposición de los clientes sus aceleradores más rentables. Añade que los modelos de IA entrenados con Trainium "son hasta un 140% más rápidos" que los sistemas GPU similares "a un coste hasta un 70% inferior".

Amazon todavía compra la gran mayoría de sus chips de IA a Nvidia, por lo que no está claro cuánto podría morder Amazon en la cuota de mercado de chips de la firma. Sin embargo, nunca hay que subestimar a Google o AWS. Tienen conocimientos técnicos, grandes bolsillos, sus propios modelos de lenguaje, sus propios mercados y comunidades de desarrolladores y, por supuesto, centros de datos capaces de satisfacer las demandas de las aplicaciones de IA.

Sin embargo, se enfrentan a un reto importante si deciden desafiar directamente a Nvidia. Stacy Rasgon, analista senior de Bernstein Research, señala: "Los chips Nvidia tienen un ecosistema de software masivo que se ha construido a su alrededor en los últimos 15 años que nadie más tiene".

 

Peligros potenciales

Ninguna tecnología o proveedor tecnológico aparentemente dominante es invencible, como puede atestiguar cualquiera que haya tenido una Blackberry. Hay varios factores que podrían llevar a los competidores a arrebatar cuota de mercado a Nvidia.

En la actualidad, Nvidia es prácticamente el único competidor en la ciudad, por lo que puede aplicar importantes sobreprecios a sus chips: una sola GPU puede costar hasta 40.000 dólares. Cuando AMD e Intel se pongan las pilas, ofrecerán sin duda alternativas más baratas.

Además, a las empresas siempre les preocupa la dependencia de un solo proveedor, por lo que, con el tiempo, es probable que añadan un segundo fabricante de GPU a la mezcla. Estos factores podrían restar cuota de mercado a Nvidia, pero como mínimo le obligarían a bajar los precios, lo que presionaría sobre sus ingresos y beneficios.

Otros peligros potenciales para Nvidia serían convertirse en víctima de su propio éxito, extenderse demasiado, fracasar en la ejecución, volverse demasiado arrogante o perder el contacto con los clientes. No es que esté ocurriendo nada de esto, pero no sería la primera vez que una empresa sufre heridas autoinfligidas.

Un punto fuerte de Nvidia es el firme liderazgo de Huang. Huang es un conferenciante habitual en eventos del sector y tiene una presencia carismática. A sus 60 años, no está cerca de la edad de jubilación, pero si decidiera retirarse por cualquier motivo, la empresa podría enfrentarse a un vacío de liderazgo.

Otro aspecto de la IA generativa que está ganando atención es el consumo de energía. "Nvidia tiene el honor de haber fabricado el primer chip del mundo que consume más de un kilovatio de energía. La era de la IA está demostrando ser extremadamente derrochadora en energía justo en el momento en que menos podemos permitírnoslo", afirma Harrowell.

Glenn O'Donnell, analista de Forrester, señala que los líderes tecnológicos de una gran empresa pueden estar entusiasmados con la IA generativa, pero el director financiero puede tener una perspectiva diferente sobre la idea de gastar toneladas de dinero y quemar mucha energía en algo que puede ser emocionante pero que no demuestra necesariamente un claro retorno de la inversión.

Por último, sabemos que todos los avances tecnológicos acaban siendo superados por el siguiente gran avance. Harrowell afirma que los disruptores de la posición de liderazgo de Nvidia podrían venir de la investigación fundamental de la IA que desarrolla formas más eficientes de hacer IA que los grandes modelos masivos de lenguaje. Y podrían surgir arquitecturas de procesador alternativas de empresas como Tesla, Apple, Google, IBM, Meta u otras.

Pero a corto plazo, Nvidia manda. O'Donnell afirma que Nvidia ha ejecutado metódicamente su plan de juego: ha fabricado los chips, ha creado el ecosistema y ha ganado la batalla de la mentalidad. "No hay quien pare a este monstruo", afirma. "Seguirán dominando".



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital