Intel
Chips

¿Pueden los chips de Intel competir con Nvidia en el mundo de la inteligencia artificial?

Intel ha anunciado la disponibilidad de su última línea de procesadores x86, que, junto con Gaudi, espera que pueda ayudarla a arrebatar participación de mercado de IA a Nvidia.

Intel MWC
Intel apuesta por la inteligencia artificial en la red, el borde y la empresa. Créditos: Irene Iglesias.

Intel apunta sus procesadores x86 de próxima generación a tareas de inteligencia artificial (IA), aunque los chips en realidad no ejecutarán cargas de trabajo de IA por sí mismos. Esta semana, la compañía ha anunciado su línea de procesadores Xeon 6, hablando de lo que llama núcleos eficientes (E-cores) que, según dijo, ofrecerán hasta 4,2 veces el rendimiento de los procesadores Xeon 5. La primera CPU Xeon 6 es la versión Sierra Forest (serie 6700), una línea más orientada al rendimiento, Granite Rapids con núcleos Performance, se lanzará el próximo trimestre.

Los procesadores Xeon actualizados pueden permitir la consolidación de racks de centros de datos 3:1 al mismo tiempo que ofrecen el mismo rendimiento y ganancias de rendimiento por vatio hasta 2,6 veces superiores a sus predecesores, según la empresa. “El mercado de la IA de los data centers está muy centrado en el impacto ambiental y el de la red eléctrica”, según Reece Hayden, analista principal de ABI Research. “Intel Xeon 6 se utilizará como nodo principal de la CPU dentro de los sistemas de IA impulsados por Gaudi. La mejora del rendimiento por vatio y la densidad reducirán el consumo de energía de los sistemas de IA, lo que será positivo para la huella energética total de esta tecnología”.

Una mayor densidad de rack permite la consolidación del centro de datos, liberando espacio para implementar hardware centrado en IA para respaldar la capacitación o la inferencia, según el experto. La compañía presentó su línea Lunar Lake de procesadores de cliente, que están dirigidos a la industria de PC con IA. Según Intel, los chips x86 utilizan hasta un 40% menos de energía del sistema en chip (SoC) en comparación con la generación anterior. Se espera que la línea de procesadores Lunar Lake Core Ultra esté disponible en el tercer trimestre de este año. Con unidades de procesamiento neuronal (NPU) a bordo, los chips tendrán más de 100 tera operaciones de plataforma por segundo (TOPS) y más de 45 NPU TOPS y están dirigidos a una nueva generación de PC habilitada para tareas de IA generativa.

La firma detalló recientemente su estrategia de chips, describiendo planes para líneas de procesadores que ejecutan IA desde centros de datos hasta dispositivos edge. Dentro de dos años, el 100% de las compras de PC empresariales serán computadoras con inteligencia artificial, según IDC . "Intel es una de las únicas empresas en el mundo que innova en todo el espectro de oportunidades de mercado de la IA, desde la fabricación de semiconductores hasta PC, redes, sistemas de borde y centros de datos", dijo el director ejecutivo de Intel, Pat Gelsinger, en un comunicado de la Conferencia Computex en Taiwán esta semana.

Intel también anunció el precio de sus kits de aceleradores de IA Gaudi 2 e Intel Gaudi 3: aceleradores de aprendizaje profundo destinados a respaldar el entrenamiento y la inferencia de modelos de lenguaje grande (LLM) de inteligencia artificial. El kit acelerador Gaudi 3, que incluye ocho chips de IA, se vende por unos 125.000 dólares; La generación anterior Gaudi 2 tiene un precio de lista de 65.000 dólares.

Los microprocesadores aceleradores manejan dos propósitos principales para inteligencia artificial generativa: entrenamiento e inferencia. Los chips que manejan el entrenamiento de IA utilizan grandes cantidades de datos para entrenar algoritmos de redes neuronales que luego se espera que hagan predicciones precisas, como la siguiente palabra o frase en una oración o la siguiente imagen, por ejemplo. Por lo tanto, se necesitan chips para inferir rápidamente cuál será la respuesta a una pregunta.

Pero los LLM deben recibir capacitación antes de que puedan comenzar a inferir una respuesta útil a una consulta. Los LLM más populares brindan respuestas basadas en conjuntos masivos de datos obtenidos de Internet, pero a veces pueden ser inexactos u ofrecer resultados completamente extraños, como es el caso de las alucinaciones genAI.

Shane Rau, vicepresidente de investigación de semiconductores informáticos de IDC, dijo que la introducción de Intel de Xeon 6 con núcleos P y núcleos E reconoce que las cargas de trabajo de los usuarios finales continúan diversificándose y, dependiendo de la carga de trabajo que tenga un usuario final, es posible que necesiten principalmente rendimiento (P-cores) o para equilibrar el rendimiento y el consumo de energía (E-cores).

"Por ejemplo, las cargas de trabajo se ejecutan principalmente en un centro de datos central, donde hay menos limitaciones de energía y más necesidad de rendimiento bruto, pueden utilizar más núcleos P", dijo Rau. “Por el contrario, las cargas de trabajo que se ejecutan principalmente en sistemas perimetrales, como servidores perimetrales, necesitan funcionar en entornos más restringidos donde el consumo de energía y la producción de calor deben ser limitados” y, por lo tanto, se benefician de los E-cores.

"Si piensas que la IA imita lo que hacen los humanos y que los humanos realizan muchas tareas diferentes que requieren diferentes combinaciones de capacidades, entonces es lógico que la IA necesite diferentes capacidades dependiendo de la tarea", continuó Rau. “Además, no todas las tareas requieren el máximo rendimiento y, por lo tanto, necesitan la máxima aceleración (por ejemplo, GPU de servidor), muchas tareas se pueden ejecutar sólo en microprocesadores o en otros tipos de aceleradores especializados. De esta manera, la IA, como un nuevo mercado, va madurando y segmentándose a medida que madura”.

 

Intel contra Nvidia; ¿quién gana esta pelea?

Intel espera que su línea de aceleradores Gaudi pueda rivalizar con las GPU más caras de Nvidia, que han catapultado al fabricante de chips al estatus de líder en el mercado de procesadores de IA. Nvidia ha informado de un aumento vertiginoso de sus ingresos a medida que sus chips continúan dominando los servicios de inteligencia artificial en la nube y la implementación de aplicaciones genAI en centros de datos.

El año pasado, Nvidia controlaba alrededor del 83% del mercado de chips para centros de datos, y gran parte del 17% restante correspondía a las unidades de procesamiento tensorial (TPU) personalizadas de Google. “La mayoría de las estimaciones sugieren que estos precios [de Intel] están entre un tercio y dos tercios [del precio] de los competidores. Esto es muy indicativo de su enfoque hacia el mercado de centros de datos de IA: centrándose en la asequibilidad y socavando a los competidores”, dijo Hayden.

AMD y Nvidia no discuten el precio de sus chips, pero según el proveedor de servidores personalizados Thinkmate, un sistema de servidor HGX comparable con ocho chips Nvidia H100 AI puede costar más de 300.000 dólares. Intel afirma que sus aceleradores de IA Gaudi son un tercio menos costosos en comparación con las "plataformas competitivas", es decir, las GPU de Nvidia. "Intel es sin duda un competidor directo de NVIDIA en el mercado de la IA con productos que abarcan centros de datos/nube, borde y dispositivos", dijo Hayden. “Sin embargo, NVIDIA está muy centrada en los aceleradores de centros de datos y en respaldar la capacitación y la inferencia a escala. Dominan este mercado con una cuota de mercado muy alta. Cada vez más, a medida que este mercado crezca, Intel aumentará su participación general, pero es probable que NVIDIA aún domine”.

Por el contrario, el objetivo de Intel es permitir “IA en todas partes” con un enfoque importante en el borde y los dispositivos, especialmente PC AI (Intel Core Ultra). NVIDIA se ha centrado menos en esa área, ya que las GPU para centros de datos/nube siguen siendo un mercado en rápida expansión, señaló Heyden.

 

LLM más pequeños: ¿una oportunidad para Intel?

Los LLM utilizados para las herramientas IA generativa pueden consumir grandes cantidades de ciclos de procesador y ser costosos de usar. Los modelos más pequeños y más centrados en la industria o los negocios a menudo pueden proporcionar mejores resultados adaptados a las necesidades del negocio, y muchas organizaciones de usuarios finales y proveedores han señalado que esta es su dirección futura. “Intel es muy optimista en cuanto a la oportunidad de los LLM más pequeños y [está] buscando incorporar esto dentro de su estrategia de 'IA en todas partes'. ABI Research está de acuerdo en que habilitar la IA en todas partes requiere un menor consumo de energía, modelos genAI menos costosos, junto con hardware energéticamente eficiente y de bajo costo total de propiedad”, dijo Hayden.

Si bien su línea de chips x86 en realidad no ejecuta procesos de IA, la combinación de procesadores Xeon 6 con aceleradores de IA Gaudi en un sistema puede hacer que las operaciones de IA sean más rápidas, más baratas y más accesibles, según Intel. El analista senior de Forrester, Alvin Nguyen, estuvo de acuerdo en que la estrategia de Intel de apuntar a LLM y dispositivos de borde más pequeños es una apuesta más inteligente que intentar enfrentarse a Nvidia en los centros de datos en la nube, donde prevalecen LLM cada vez más grandes.

"El enfoque que Intel está adoptando con la IA les da una posibilidad razonable de competir con Nvidia: no están tratando de replicar lo que está haciendo Nvidia", dijo Nguyen. “En cambio, [Intel está] aprovechando su amplitud de cobertura tecnológica y los enfoques actuales de IA generativa para ofrecer un enfoque alternativo que será más atractivo para la empresa. "La inferencia es donde se encuentran las empresas e Intel está bien posicionada con los problemas de la cadena de suministro para afianzarse aquí: el rendimiento 'suficientemente bueno', los costos más bajos y la ubicuidad de los productos les ayudan aquí", dijo Nguyen.

 



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital