Inteligencia artificial
IA
IA generativa

La IA generativa llega tu 'smartphone', PC y coche: ¿por qué?

Las herramientas, aplicaciones y servicios de IA generativa que utilizan la capacidad de procesamiento de los dispositivos edge pueden acceder a los datos localmente, ofrecer resultados más rápidos y ser más seguros.

IA generativa, chatgpt
Créditos: Mojahid Mottakin (Unsplash).

Hasta la fecha, la inteligencia artificial (IA) generativa como ChatGPT se ha desarrollado principalmente en los enormes centros de datos de proveedores de servicios y empresas. Cuando las empresas quieren utilizar los servicios de IA generativa, básicamente compran acceso a una plataforma de IA como Microsoft 365 Copilot, igual que cualquier otro producto SaaS. 

Uno de los problemas de un sistema basado en la nube es que los grandes modelos de lenguaje (LLM) subyacentes que se ejecutan en los centros de datos consumen ciclos de GPU y electricidad masivos, no solo para alimentar las aplicaciones, sino para entrenar los modelos de IA generativa en big data y datos corporativos propios. También puede haber problemas con la conectividad de red. Además, el sector de la IA generativa se enfrenta a la escasez de procesadores especializados necesarios para entrenar y ejecutar los LLM. (Se tarda hasta tres años en poner en marcha una nueva fábrica de silicio). 

"Por tanto, la cuestión es si el sector centrará más su atención en llenar los centros de datos con bastidores de servidores basados en GPU, o si se centrará más en dispositivos edge que puedan descargar las necesidades de procesamiento", afirma Jack Gold, analista principal de la consultora empresarial J. Gold Associates.

La respuesta, según Gold y otros analistas, es situar el procesamiento de la IA generativa en los dispositivos edge. Por eso, en los próximos años, los fabricantes de silicio centrarán su atención en PC, tabletas, smartphones e incluso coches, lo que les permitirá descargar el procesamiento de los centros de datos y ofrecer a los creadores de aplicaciones de inteligencia artificial generativa un viaje gratuito, ya que el usuario paga por el hardware y la conectividad de red. 

La transformación digital de la IA generativa para las empresas está impulsando el crecimiento en el edge, convirtiéndolo en el segmento de computación de más rápido crecimiento, superando incluso a la nube. Para 2025, más del 50% de los datos gestionados por las empresas se crearán y procesarán fuera del centro de datos o la nube, según la firma de investigación Gartner. 

Los fabricantes de microprocesadores, como Intel, AMD y Nvidia, ya se han centrado en la producción de chips más dedicados a SoC y unidades de neuroprocesamiento (NPU) que ayuden a las CPU y GPU de los dispositivos edge a ejecutar tareas de IA generativa

 

¿Llegará pronto al iPhone y a otros smartphones? 

"Piensa en el iPhone 16, no en el iPhone 15, como el momento en el que esto aparecerá", afirma Rick Villars, vicepresidente del grupo de investigación mundial de IDC. Villars se refería a la IA generativa integrada como Apple GPT, una versión de ChatGPT que reside en el teléfono en lugar de como servicio en la nube. 

Apple GPT podría anunciarse tan pronto como la Conferencia Mundial de Desarrolladores de Apple en junio, cuando Apple desvele iOS 18 y una nueva Siri con capacidades de IA generativa, según numerosos informes. 

Se espera que pronto en esos iPhones (y smartphones de otros fabricantes) haya NPU en SoC que manejen la funcionalidad de IA generativa como la función de fotos "Best Take" del Pixel 8 de Google; la función permite a un usuario intercambiar la foto de la cara de una persona con otra de una imagen anterior. 

"Esos procesadores dentro de un teléfono Pixel o un teléfono Amazon o un teléfono Apple que aseguran que nunca tomes una foto en la que alguien no esté sonriendo porque puedes reajustarla con otras cinco fotos y crear la foto perfecta, eso es genial [para el consumidor]", dijo Villars. 

Un movimiento en esa dirección permite a las empresas de IA generativa pasar de una economía de escasez, en la que el proveedor tiene que pagar por todo el trabajo, a una economía de abundancia, en la que el proveedor puede asumir con seguridad que algunas tareas clave pueden ser realizadas gratuitamente por el dispositivo edge, dijo Villars. 

También se espera que el lanzamiento de la próxima versión de Windows 12 a finales de este año sea un catalizador para la adopción de la IA generativa en el edge, ya que se espera que el nuevo sistema operativo incorpore funciones de inteligencia artificial. 

El uso de la IA generativa en el edge va mucho más allá de los ordenadores de sobremesa y la manipulación de fotos. Intel y otros fabricantes de chips apuntan a verticales como la fabricación, el retail y la industria sanitaria para la aceleración de la IA generativa basada en el edge

Los minoristas, por ejemplo, dispondrán de chips aceleradores y software en sistemas de punto de venta y rótulos digitales. Los fabricantes podrían ver procesadores con IA en sistemas robóticos y logísticos para el seguimiento de procesos y la detección de defectos. Y los médicos podrían utilizar flujos de trabajo asistidos por IA generativa -incluidas mediciones basadas en IA- para diagnósticos.

Intel afirma que sus procesadores Core Ultra lanzados en diciembre ofrecen un aumento del 22% al 25% en el rendimiento de la IA para aplicaciones de imágenes de ultrasonido en tiempo real en comparación con los procesadores Intel Core anteriores emparejados con una GPU discreta competitiva. 

Según Bryan Madden, responsable global de marketing de IA en AMD, "las aplicaciones basadas en IA se despliegan cada vez más en el edge. Esto puede ser cualquier cosa, desde un PC o portátil habilitado para IA hasta un sensor industrial, un pequeño servidor en un restaurante, una puerta de enlace de red o incluso un servidor edge nativo de la nube para cargas de trabajo 5G".

La IA generativa, según Madden, es la "tecnología más transformadora de los últimos 50 años y las aplicaciones habilitadas para IA se están desplegando cada vez más en el edge".

De hecho, la IA generativa ya se está utilizando en múltiples sectores, como la ciencia, la investigación, la industria, la seguridad y la sanidad, donde está impulsando avances en el descubrimiento y las pruebas de fármacos, la investigación médica y los avances en el diagnóstico y el tratamiento médicos.

Clarius, cliente de computación adaptativa de AMD, por ejemplo, utiliza IA generativa para ayudar a los médicos a diagnosticar lesiones físicas. Y la Universidad de Hiroshima utiliza la IA de AMD para ayudar a los médicos a diagnosticar ciertos tipos de cáncer. 

"Incluso la utilizamos para diseñar nuestros propios productos y servicios dentro de AMD", afirma Madden. 

 

Época de escasez de silicio 

La industria del silicio tiene en estos momentos un problema: la escasez de procesadores. Esa es una de las razones por las que el Gobierno estadounidense de Joe Biden impulsó la Ley CHIPS para deslocalizar y aumentar la producción de silicio. La Administración también espera asegurarse de que Estados Unidos no esté en deuda con proveedores extranjeros como China. Además, aunque EE.UU. estuviera en un periodo de abundancia de procesadores, los chips necesarios para la IA generativa consumen mucha más energía por unidad. 

"Son auténticos devoradores de energía", afirma Villars. "Un centro de datos corporativo estándar puede albergar racks de unos 12 kW por rack. Uno de los racks de GPU que se necesitan para hacer grandes modelados lingüísticos consume unos 80 kW. Así que, en cierto sentido, el 90% de los centros de datos corporativos modernos son [financieramente] incapaces de llevar la IA al centro de datos".

Intel, en particular, puede beneficiarse de cualquier cambio de la IA del centro de datos a los dispositivos edge. Ya está lanzando el lema "IA en todas partes", es decir, aceleración de la IA en la nube, en los centros de datos corporativos y en el edge

Las aplicaciones de IA y sus plataformas basadas en LLM ejecutan algoritmos de inferencia, es decir, aplican el aprendizaje automático a un conjunto de datos y generan un resultado. En esencia, ese resultado predice la siguiente palabra de una frase, imagen o línea de código en un programa informático basándose en lo anterior. 

Las NPU podrán encargarse del procesamiento de inferencia menos intensivo, mientras que las GPU de los centros de datos se encargarán del entrenamiento de los LLM, que se alimentan de información procedente de todos los rincones de Internet y de conjuntos de datos propios ofrecidos por las empresas. Un smartphone o un PC sólo necesitarían el hardware y el software para realizar funciones de inferencia sobre los datos que residen en el dispositivo o en la nube. 

Los procesadores Core Ultra de Intel, los primeros fabricados con el nuevo proceso Intel 4 Core, hicieron su aparición impulsando la aceleración de la IA en los PC. Pero ahora se dirigen a los dispositivos edge, según Bill Pearson, vicepresidente del grupo de redes y edge de Intel.

"Incorpora CPU, GPU y NPU", explica. "Todos ellos ofrecen la posibilidad de ejecutar IA y, en particular, inferir y acelerar, que es el caso de uso que vemos en los edge. A medida que lo hacemos, la gente dice: 'Tengo datos que no quiero enviar a la nube', quizás por el coste, quizás porque son privados y quieren mantener los datos in situ en la fábrica o en su país. Al ofrecer [ciclos] de computación donde están los datos, podemos ayudar a esas personas a aprovechar la IA en sus productos". 

Intel tiene previsto distribuir más de 100 millones de procesadores para PC en los próximos años, y se espera que la IA esté presente en el 80% de los PC. Y Microsoft se ha comprometido a añadir una serie de funciones basadas en IA a su sistema operativo Windows.

Apple tiene planes similares; en 2017, presentó el SoC A11 Bionic con su primer Neural Engine, una parte del chip dedicada y personalizada para realizar tareas de IA en el iPhone. Desde entonces, todos los chips de la serie A incluyen un motor neuronal, como el procesador M1 lanzado en 2020, que llevó las capacidades de procesamiento de IA al Mac. Al M1 le siguió el M2 y, justo el año pasado, los M3, M3 Pro y M3 Max, los primeros chips de 3 nanómetros de la industria para un ordenador personal.

Cada nueva generación de Apple Silicon ha añadido la capacidad de manejar tareas de IA más complejas en iPhones, iPads y Macs con CPU más rápidas y eficientes y motores neuronales más potentes.

"Se trata de un punto de inflexión para nuevas formas de interactuar y nuevas oportunidades de funciones avanzadas, con la aparición de muchas empresas nuevas", afirma Gold. "Al igual que pasamos de la CPU sola a la GPU integrada en el chip, casi todos los procesadores del futuro incluirán un acelerador de IA NPU incorporado. Es el nuevo campo de batalla y habilitador de funciones avanzadas que cambiarán muchos aspectos de las aplicaciones de software".

AMD también está añadiendo aceleración de IA a sus familias de procesadores, por lo que puede desafiar a Intel por el liderazgo en rendimiento en algunas áreas, según Gold.  

"Dentro de dos o tres años, tener un PC sin IA será una gran desventaja", dijo. "Intel Corporation está a la cabeza. Esperamos que al menos entre el 65% y el 75% de los PC lleven integrada la aceleración de IA en los próximos tres años, así como prácticamente todos los smartphones de gama media a alta". 

Para una industria que lucha contra los vientos en contra de los bajos precios de la memoria, y la débil demanda de chips para teléfonos inteligentes y ordenadores, los chips de IA generativa proporcionaron un área de crecimiento, especialmente en los nodos de fabricación líderes, según un nuevo informe de Deloitte. 

"En 2024, el mercado de los chips de IA parece que será fuerte y se prevé que alcance más de 50.000 millones de dólares en ventas para ese año, o el 8,5% del valor de todos los chips que se espera que se vendan para ese año", señala el informe. 

A más largo plazo, hay previsiones que sugieren que los chips de IA (principalmente los de IA generativa) podrían alcanzar los 400.000 millones de dólares en ventas para 2027, según Deloitte. 

Es probable que la competencia por una parte del mercado de chips de IA se intensifique en los próximos años. Y aunque las cifras varían según la fuente, el proveedor de análisis bursátil Stocklytics estima que el mercado de chips de IA recaudará casi 45.000 millones de dólares en 2022 y 54.000 millones en 2023. 

"Los chips de IA son la nueva comidilla de la industria tecnológica, incluso mientras Intel planea desvelar un nuevo chip de IA, el Gaudi3", afirma Edith Reads, analista financiera de Stocklytics. "Esto amenaza con dejar fuera de juego a los chips de Nvidia y AMD el año que viene. Nvidia sigue siendo la empresa dominante en modelos de chips de IA. Sin embargo, su explosiva posición en el mercado puede cambiar, dado que muchas empresas nuevas están mostrando interés en la carrera de la fabricación de chips de IA". 

ChatGPT, de OpenAI, utiliza GPU de Nvidia, que es una de las razones por las que se está llevando la palma en el mercado, según Reads. 

"El pan de cada día de Nvidia en IA son los procesadores de clase H", según Gold. 

"Ahí es donde ganan más dinero y tienen más demanda", añade Reads. 

 

La computación edge de la IA alivia los problemas de latencia, ancho de banda y seguridad 

Dado que la IA en el edge garantiza que la computación se realiza lo más cerca posible de los datos, cualquier información que se obtenga de ellos puede recuperarse mucho más rápido y de forma más segura que a través de un proveedor en la nube. 

"De hecho, vemos que la IA se despliega desde los end points hasta el edge y la nube", afirma Madden de AMD. "Las empresas utilizarán la IA allí donde puedan crear una ventaja comercial. Ya lo estamos viendo con la llegada de los PC con IA". 

Los usuarios empresariales no solo aprovecharán los motores de IA basados en PC para actuar sus datos, sino que también accederán a las capacidades de IA a través de servicios en la nube o incluso instancias de IA on-prem, dijo Madden. 

"Es un enfoque híbrido, fluido y flexible", afirmó. "Vemos lo mismo con el edge. Los usuarios aprovecharán la latencia ultrabaja, el ancho de banda mejorado y la ubicación del cálculo para maximizar la productividad de su aplicación o instancia de IA. En áreas como la sanidad, esto va a ser crucial para mejorar los resultados derivados a través de la IA." 

Hay otras áreas en las que se necesita la IA generativa en el edge para la toma de decisiones oportuna, incluido el procesamiento de visión por ordenador para aplicaciones de tiendas minoristas inteligentes o la detección de objetos que habilita las funciones de seguridad en un coche. Y poder procesar los datos localmente puede beneficiar a aplicaciones en las que la seguridad y la privacidad son preocupaciones. 

AMD ha orientado sus chips Ryzen Serie 8040 a móviles y su Serie Ryzen 8000G a ordenadores de sobremesa con un acelerador de IA dedicado, la NPU Ryzen AI. (Este mismo año tiene previsto lanzar un acelerador de segunda generación). 

La serie Versal de SoC adaptables de AMD permite a los usuarios ejecutar varias cargas de trabajo de IA simultáneamente. La serie Versal AI Edge, por ejemplo, puede utilizarse para usos de alto rendimiento y baja latencia como la conducción automatizada, la automatización de fábricas, los sistemas sanitarios avanzados y las cargas útiles multimisión en sistemas aeroespaciales. Su SoC adaptable Versal AI Edge XA y el procesador Ryzen Embedded de la serie V2000A están diseñados para automóviles; y el año que viene tiene previsto lanzar sus SoC adaptables de las series Versal AI Edge y Versal AI Core para viajes espaciales.

 

No se trata sólo de los chips

Deepu Talla, vicepresidente de informática integrada y edge de Nvidia, afirma que la IA generativa está llevando la potencia del procesamiento del lenguaje natural y los LLM a prácticamente todos los sectores. Esto incluye la robótica y los sistemas logísticos para la detección de defectos, el seguimiento de activos en tiempo real, la planificación y navegación autónomas y las interacciones humano-robot, con usos en espacios e infraestructuras inteligentes (como almacenes, fábricas, aeropuertos, viviendas, edificios e intersecciones de tráfico). 

"A medida que la IA generativa avanza y los requisitos de las aplicaciones se hacen cada vez más complejos, necesitamos un cambio fundacional hacia plataformas que simplifiquen y aceleren la creación de despliegues edge", afirma Talla.

Con ese fin, todos los desarrolladores de chips de IA también han introducido software especializado para asumir tareas de aprendizaje automático más complejas, de modo que los desarrolladores puedan crear más fácilmente sus propias aplicaciones para esas tareas. 

Nvidia ha diseñado su kit de herramientas low code TAO para que los desarrolladores puedan entrenar modelos de inteligencia artificial en dispositivos situados en el "extremo lejano". ARM está aprovechando TAO para optimizar el tiempo de ejecución de la IA en los dispositivos Ethos NPU y STMicroelectronics utiliza TAO para ejecutar IA de visión compleja en sus microcontroladores STM32. 

"Desarrollar una solución de IA edge lista para la producción implica optimizar el desarrollo y el entrenamiento de modelos de IA adaptados al caso de uso específico, implementar características de seguridad robustas en la plataforma, orquestar la aplicación, administrar flotas, establecer una comunicación sin fisuras de edge a nube y más", dijo Talla. 

Por su parte, Intel creó un kit de herramientas de código abierto llamado OpenVINO; originalmente estaba integrado en sistemas de visión por ordenador, que en aquel momento era en gran medida lo que ocurría en el edge. Desde entonces, Intel ha ampliado OpenVINO para que funcione con sistemas multimodales que incluyen texto y vídeo, y ahora se ha extendido también a la IA generativa

"En el fondo, los clientes intentaban programar todos estos tipos de aceleradores de IA", explica Pearson. "OpenVINO es un mecanismo de programación basado en API en el que hemos atado el tipo de computación por debajo. OpenVINO va a funcionar mejor en el tipo de hardware que tenga disponible. Cuando lo añada al Core Ultra, por ejemplo, OpenVINO podrá aprovechar la NPU y la GPU y la CPU". 

"Así pues, el conjunto de herramientas simplifica enormemente la vida de nuestros desarrolladores, pero también ofrece el mejor rendimiento para las aplicaciones que están creando", añade. 



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital