Chips
Microsoft

Microsoft impulsa la eficiencia y rendimiento de sus servicios de IA y 'cloud' con los chips Maia AI y Azure Cobalt

Se espera que los nuevos chips de Microsoft, junto con otros personalizados de empresas como AWS, Google y Oracle, aunque inicialmente tengan un impacto limitado, constituyan una dura competencia para fabricantes de microprocesadores como Nvidia, AMD e Intel, según los analistas.

chips microsoft
Un bastidor hecho a medida para el acelerador de IA Maia 100 y su “compañero” dentro de una cámara térmica en un laboratorio de Microsoft en Redmond, Washington. Créditos: Microsoft

Tras meses de especulaciones sobre la posibilidad de que Microsoft estuviera desarrollando sus propios semiconductores, la compañía presentó el miércoles en su conferencia anual Ignite dos nuevos chips personalizados, bautizados como Maia AI Accelerator y Azure Cobalt CPU, dirigidos a cargas de trabajo de IA generativa y computación en nube, respectivamente.

Según Microsoft, el nuevo Maia 100 AI Accelerator alimentará algunas de las cargas de trabajo de IA internas más pesadas de la empresa que se ejecutan en Azure, incluidas las cargas de trabajo de formación de modelos e inferencia de OpenAI.

Sam Altman, consejero delegado de OpenAI, compañía respaldada por Microsoft, afirmó en un comunicado de prensa que el chip Maia personalizado ha allanado el camino para que la empresa de IA entrene modelos más capaces de una manera que se traducirá en menores costes para los clientes finales.

Los analistas están de acuerdo con esta afirmación. "Microsoft está creando sus propios procesadores de IA para mejorar el rendimiento por vatio y el rendimiento por dólar frente a las ofertas de Nvidia", afirma Dylan Patel, analista de la consultora Semianalysis. En última instancia, la reducción de costes repercutirá en los clientes que se suscriban a las ofertas de Azure de IA e IA generativa, añadió.

La CPU Azure Cobalt 100, basada en la arquitectura Arm, es también un intento de Microsoft de hacer su infraestructura más eficiente desde el punto de vista energético en comparación con las CPU comerciales de AMD e Intel, según Patel. La arquitectura Arm de la CPU Cobalt 100 permite a Microsoft generar más potencia de cálculo por cada unidad de energía consumida, dijo la empresa, que añadió que estos chips se utilizarán en todos sus centros de datos.

"Estamos haciendo el uso más eficiente de los transistores en el silicio. Si multiplicamos ese aumento de la eficiencia en los servidores de todos nuestros centros de datos, la cifra es bastante grande", declaró en un comunicado de prensa Wes McCullough, vicepresidente corporativo de desarrollo de productos de hardware de Microsoft.

Microsoft anuncia la noticia en un momento en el que se espera que el gasto en nube pública aumente significativamente. Según un informe de Gartner, se prevé que el gasto de los usuarios finales en servicios de nube pública crezca un 20,4% hasta alcanzar un total de 678.800 millones de dólares en 2024, frente a los 563.600 millones de dólares de 2023.

 

Nueva forma de refrigerar los nuevos chips Maia 100 Accelerator

Microsoft ha tenido que crear un nuevo diseño de los bastidores de sus centros de datos para alojar los chips Maia 100 Accelerator en su interior. Los bastidores, que son más anchos que los existentes, se han ampliado para dejar espacio suficiente para los cables de alimentación y de red, explica la empresa, que añade que ha tenido que diseñar una solución de refrigeración líquida independiente, diferente de los métodos de refrigeración por aire existentes, para gestionar la temperatura de los chips debido a las cargas de trabajo intensivas de IA y de IA generativa.

Para implementar la refrigeración líquida, Microsoft ha desarrollado un "sidekick" que se coloca junto al bastidor de los chips Maia 100. Estos "sidekicks", según Microsoft, funcionan un poco como el radiador de un coche.

"El líquido frío fluye desde el 'sidekick' hasta las placas frías que están pegadas a la superficie de los chips Maia 100. Cada placa tiene canales por los que pasa el líquido. Cada placa tiene canales por los que circula líquido para absorber y transportar el calor. Éste fluye hasta el 'sidekick', que elimina el calor del líquido y lo devuelve a la rejilla para que absorba más calor, y así sucesivamente", explica un portavoz de la empresa.

 

La economía y la sostenibilidad, claves de los chips a medida

La economía, y no la escasez de chips, es el principal motor de los microprocesadores personalizados para los grandes proveedores de servicios en la nube, como Microsoft, AWS y Google, según los analistas.

"La decisión de Microsoft de desarrollar silicio a medida, desde el punto de vista económico, le permite integrar sus ofertas y seguir optimizando el silicio para sus servicios, al tiempo que aumenta el margen y tiene un mejor control de los costes y la disponibilidad", afirma Daniel Newman, CEO de The Futurum Group.

Estas mismas razones, según Newman, llevaron a AWS a desarrollar sus propios chips personalizados. Mientras que AWS tiene sus chips Inferentia vinculados con el acelerador de aprendizaje automático Trainium, Google ha estado desarrollando iteraciones de sus chips Tensor.   

"La CPU Cobalt tiene que ver con que Microsoft ofrezca un silicio optimizado para la nube y pueda ofrecer instancias basadas en Arm a los clientes de Azure, del mismo modo que hace AWS con EC2", afirma Newman.

Además, los analistas creen que los nuevos chips proporcionan una ventana de oportunidad para que Microsoft construya sus propios marcos de software acelerador de IA a medida que la demanda de IA o IA generativa crece aún más.

La creación de aceleradores para cargas de trabajo de IA será una forma de mejorar el rendimiento consumiendo menos energía que otros chips como las unidades de procesamiento gráfico (GPU). Aumentar el rendimiento al tiempo que se ahorra energía seguirá siendo cada vez más importante para los proveedores y las empresas en su intento de cumplir los objetivos de sostenibilidad y beneficiarse del potencial de la IA", afirma Newman.


Chips personalizados para competir con Nvidia, AMD e Intel

Los nuevos chips personalizados de Microsoft no son lo bastante potentes para sustituir a las GPU de Nvidia en el desarrollo de grandes modelos lingüísticos. Pero son muy adecuados para la inferencia (que se utiliza en las cargas de trabajo operativas de IA) y, a medida que se vayan desplegando, reducirán la necesidad de que la empresa utilice chips de Nvidia, AMD e Intel, según los analistas, que añaden que los chips personalizados de AWS y Google también desafiarán a los fabricantes de chips en el futuro.

"Intel, Nvidia y AMD están observando el auge de las instancias basadas en Arm y deberían verlas como una amenaza competitiva en determinadas instancias", dice Newman, de Futurum Group. Este añade que la migración de cargas de trabajo de chips de arquitectura x86 a Arm aún no es plug and play, ya que el software suele escribirse para arquitecturas de chip específicas, pero se ha convertido en un punto menos conflictivo a medida que los desarrolladores siguen avanzando en la ejecución de cada vez más cargas de trabajo en Arm.

Los analistas afirman que, dado que los proveedores de servicios en la nube utilizan silicio personalizado a distintos niveles, el mercado de centros de datos experimentará un "cambio más significativo" hacia Arm en los próximos años, a pesar de que los chips x86 dominan actualmente la cuota de mercado por un margen sustancial.

De todos los fabricantes de chips, Newman cree que Nvidia será el menos afectado, al menos a corto plazo, ya que la demanda de sus GPU seguirá siendo elevada. Sin embargo, en algunos casos o usos, los chips personalizados de los proveedores de servicios en la nube pueden establecer una relación simbiótica con Nvidia, especialmente los chips Grace Hopper, destinados al desarrollo y entrenamiento de grandes modelos lingüísticos.  

Se espera que los nuevos chips personalizados de Microsoft empiecen a desplegarse a principios del año que viene en sus centros de datos. Como Microsoft no tiene previsto vender los chips a terceros, no tendrá que hacer frente a las restricciones impuestas por la administración del Presidente estadounidense Joe Biden a las exportaciones tecnológicas a China.

 



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital