Linux
Centro de datos
Linux

La Fundación Linux trabaja para mejorar la eficiencia de los centros de datos

El Proyecto de Infraestructura Programable Abierta de la organización pretende facilitar la descarga de tareas de las CPU a las DPU e IPU.

centro de datos

Las organizaciones que exploran el uso de las unidades de procesamiento de datos (DPU) y las unidades de procesamiento de infraestructura (IPU) han recibido un impulso esta semana. Esto, porque la Fundación Linux ha anunciado un proyecto para convertirlas en parte integrante de las futuras infraestructuras basadas en la nube y los centros de datos.

Las DPU, las IPU y las smartNIC son dispositivos de red programables diseñados para liberar las CPU y mejorar el rendimiento de los servicios de software de nube, computación, red, almacenamiento y seguridad.

El nuevo plan, denominado Proyecto de Infraestructura Programable Abierta (OPI), prevé la creación de una comunidad que desarrolle estándares para construir arquitecturas basadas en DPU/IPU. OPI desarrollará tecnologías diseñadas para simplificar las API de red, almacenamiento y seguridad dentro de las aplicaciones para hacerlas  más portátiles y eficientes en la nube y en los centros de datos a través de DevOps, SecOps y NetOps, declaró la Fundación Linux. 

Entre los miembros fundadores de OPI se encuentran Dell Technologies, F5, Intel, Keysight Technologies, Marvell, NVIDIA y Red Hat. OPI se une a otros como AWS y AMD que trabajan para construir smartNICs y DPU para su despliegue en redes edge, de colocación o de proveedores de servicios.

"Las DPU y las IPU son grandes ejemplos de algunas de las tecnologías más prometedoras que emergen hoy en día para la nube y los centros de datos, y OPI está preparado para acelerar la adopción y la oportunidad mediante el apoyo a un ecosistema para las tecnologías DPU e IPU", dijo Mike Dolan, vicepresidente senior de proyectos de la fundación.

Los objetivos de OPI incluyen:

  • Delinear marcos y arquitecturas agnósticas de proveedores para pilas de software basadas en DPU e IPU aplicables a cualquier solución de hardware.
  • Permitir la creación de un robusto ecosistema de aplicaciones de código abierto.
  • Integrarse con los proyectos de código abierto existentes alineados con la misma visión, como el kernel de Linux.
  • Crear nuevas API para la interacción con y entre los elementos del ecosistema de las DPU y las IPU, incluido el hardware, las aplicaciones alojadas, el nodo central y el aprovisionamiento y la orquestación remotos del software.

Según Dolan, las DPU y las IPU se utilizan cada vez más para soportar las capacidades de red de alta velocidad y el procesamiento de paquetes para aplicaciones como 5G, AI/ML, Web3, criptografía, y más, debido a su flexibilidad en la gestión de recursos a través de los dominios de red, computación, seguridad y almacenamiento. En lugar de que los servidores sean la unidad de infraestructura para la nube, el edge y el centro de datos, los operadores podrían crear grupos de recursos de red, computación y almacenamiento desagregados con el apoyo de DPU, IPU, GPU y CPU para satisfacer las cargas de trabajo de las aplicaciones de sus clientes y los requisitos de escalado.

Como parte del anuncio de OPI, NVIDIA ha aportado al proyecto sus API de software de red DOCA. Según NVIDIA, DOCA incluye controladores, bibliotecas, servicios, documentación, aplicaciones de ejemplo y herramientas de gestión para acelerar y simplificar el desarrollo y el rendimiento de las aplicaciones. DOCA proporciona flexibilidad y portabilidad a las aplicaciones BlueField escritas con controladores acelerados o bibliotecas de bajo nivel, como DPDK, SPDK, Open vSwitch u Open SSL. BlueField es el paquete acelerador de servicios para centros de datos de NVIDIA.



Contenido Patrocinado

Revistas Digitales

DealerWorld Digital

 



Registro:

Eventos: