Google
IA generativa

Las seis conclusiones del Google Cloud Next '24

La IA generativa fue el tema dominante en la cita, ya que la compañía presentó nuevos chips, actualizaciones de software para cargas de trabajo de IA, actualizaciones de LLM y asistentes basados en IA generativa para su plataforma de aprendizaje automático Vertex AI.

google cloud
Google Cloud.

No habría hecho falta un gran modelo de lenguaje (LLM) de mil millones de parámetros para predecir que el tema dominante de la conferencia Google Cloud Next de este año sería la inteligencia artificial (IA) generativa; de hecho, probablemente será el tema de moda del año para la mayoría de los desarrolladores de software empresarial. En el evento, Google presentó una serie de actualizaciones de su plataforma en la nube para facilitar el trabajo con LLM y añadió asistentes basados en IA generativa a muchas de sus ofertas. He aquí seis puntos clave de la conferencia:

 

1. Las cargas de trabajo de IA necesitan un soporte de infraestructura especializado 

Reconociendo que las cargas de trabajo de IA difieren de otras cargas de trabajo, Google presentó una serie de actualizaciones de su infraestructura en la nube para darles soporte y ayudar a las empresas a optimizar el gasto en la nube. En primer lugar, Google ha puesto a disposición general en su nube la última iteración de su módulo acelerador patentado para cargas de trabajo de IA, la Unidad de Procesamiento Tensorial (TPU) v5p. Los pods de TPU ahora son compatibles con Google Kubernetes Engine (GKE) y con el servicio multihost en GKE.

Además, en el marco de una asociación ampliada con Nvidia, Google también está introduciendo la máquina virtual (VM) A3 Mega en su nube, impulsada por las GPU Nvidia H100. 

Otras actualizaciones incluyen una serie de optimizaciones, especialmente de el caché, en sus productos de almacenamiento. Estas mejoras también vienen acompañadas de un nuevo servicio de gestión de recursos y programación de trabajos para cargas de trabajo de IA, denominado Dynamic Workload Scheduler

 

2. La IA generativa puede ayudar con la programación en pareja... 

La programación en pareja con la herramienta de codificación de IA de Google ya no será un dúo. Google ha cambiado el nombre de Duet AI for Developers, que ya había lanzado, y lo ha rebautizado como Gemini Code Assist para que coincida con la marca de su último LLM. 

Gemini Code Assist tiene nuevas características que van con su nuevo nombre. Basado en el modelo Gemini 1.5 Pro, ofrece servicios de completado de código, generación de código y chat basados en IA. Funciona en Google Cloud Console y se integra en editores de código populares como Visual Studio Code y JetBrains, a la vez que soporta la base de código de una empresa a través de on-premises, GitHub, GitLab, Bitbucket, o múltiples repositorios. 

Las nuevas mejoras y características añadidas a Gemini Code Assist incluyen el conocimiento completo de la base de código, la personalización del código y mejoras en el ecosistema de partners de la herramienta que aumentan su eficiencia. 

Con el fin de aumentar la eficiencia de la generación de código, la compañía está ampliando el ecosistema de partners de Gemini Code Assist mediante la incorporación de socios como Datadog, Datastax, Elastic, HashiCorp, Neo4j, Pinecone, Redis, Singlestore, Synk y Stack Overflow. 

 

3. ... y con la gestión de aplicaciones y operaciones en la nube 

Para la gestión de servicios en la nube, el proveedor ha presentado Gemini Cloud Assist, un asistente basado en IA diseñado para ayudar a los equipos empresariales a gestionar aplicaciones y redes en Google Cloud. 

Se puede acceder a Gemini Cloud Assist a través de una interfaz de chat en la consola de Google Cloud. Está basado en el modelo de lenguaje Gemini, propiedad de Google. 

Las empresas también pueden utilizar Gemini Cloud Assist para priorizar el ahorro de costes, el rendimiento o la alta disponibilidad. Basándose en el lenguaje natural introducido por cualquier equipo de la empresa, Gemini Cloud Assist identifica áreas de mejora y sugiere cómo alcanzar esos objetivos. También puede integrarse directamente en las interfaces en las que los equipos de la empresa gestionan diferentes productos y cargas de trabajo en la nube. 

Además de gestionar los ciclos de vida de las aplicaciones, Gemini Cloud Assist puede ser utilizado por las empresas para generar asistencia basada en IA a través de una variedad de tareas de red, incluyendo el diseño, las operaciones y la optimización. 

El asistente de IA basado en Gemini también se ha añadido al conjunto de ofertas de operaciones de seguridad de Google Cloud. Puede proporcionar recomendaciones sobre la gestión de identidades y accesos (IAM) e insights clave, incluidos aquellos sobre informática confidencial, que ayudan a reducir la exposición a riesgos. 

 

4. Todo el mundo necesita un creador de agentes 

Para competir con ofertas similares de Microsoft y AWS, Google Cloud ha lanzado una nueva herramienta de inteligencia artificial generativa para crear chatbots, Vertex AI Agent Builder. Se trata de una herramienta no code que combina Vertex AI Search y la cartera de productos de Conversation de la empresa. Proporciona una serie de herramientas para crear agentes virtuales, basados en Gemini LLM de Google. 

Su principal argumento de venta es su sistema RAG listo para usar, Vertex AI Search, que puede aterrizar los agentes más rápidamente que las técnicas RAG tradicionales. Sus API de GAR integradas pueden ayudar a los desarrolladores a realizar comprobaciones rápidas de las entradas.

Además, los desarrolladores tienen la opción de conectar a tierra las salidas del modelo en Google Search para mejorar aún más las respuestas. 

Otros cambios introducidos en Vertex AI son las actualizaciones de los LLM existentes y la ampliación de las capacidades de MLops.

Las actualizaciones de los LLM incluyen un avance público del modelo Gemini 1.5 Pro, que admite un contexto de un millón de tókens. Además, Gemini 1.5 Pro en Vertex AI también podrá procesar flujos de audio, incluyendo voz y audio de vídeos. 

El proveedor de servicios en la nube también ha actualizado su familia de LLM Imagen 2 con nuevas funciones, como la edición de fotos y la posibilidad de crear vídeos de 4 segundos o 'imágenes en directo' a partir de mensajes de texto. Otras actualizaciones de LLM de Vertex AI incluyen la incorporación de CodeGemma, un nuevo modelo ligero de su familia propietaria Gemma.

Las actualizaciones de las herramientas MLops incluyen la incorporación de Vertex AI Prompt Management, que ayuda a los equipos empresariales a experimentar con prompts, migrar prompts y realizar un seguimiento de los prompts junto con los parámetros. Otras funciones ampliadas incluyen herramientas como Rapid Evaluation para comprobar el rendimiento del modelo mientras se repite el diseño de las instrucciones. 

 

5. Los administradores de bases de datos también necesitan ayuda de la IA 

Google Cloud ha añadido capacidades impulsadas por su modelo de lenguaje propietario, Gemini, a sus ofertas de bases de datos, que incluyen Bigtable, Spanner, Memorystore para Redis, Firestore, CloudSQL para MySQL y AlloyDB para PostgreSQL. 

Las capacidades impulsadas por Gemini incluyen la generación de SQL y la asistencia de IA en la gestión y migración de bases de datos. 

Para ayudar a gestionar mejor las bases de datos, el proveedor de servicios en la nube ha añadido una nueva función llamada Database Center, que permitirá a los operadores gestionar toda una flota de bases de datos desde un único panel. 

Google también ha ampliado Gemini a su Database Migration Service, que ya era compatible con Duet AI. 

Las características mejoradas de Gemini harán que el servicio sea mejor, dijo la compañía, añadiendo que Gemini puede ayudar a convertir código residente en bases de datos, como procedimientos almacenados, funciones a dialecto PostgreSQL. 

Además, la migración de bases de datos impulsada por Gemini también se centra en explicar la traducción del código con una comparación lado a lado de los dialectos, junto con explicaciones detalladas del código y recomendaciones. 

Como parte de estas actualizaciones, el proveedor de servicios en la nube ha añadido nuevas funciones basadas en IA generativa a AlloyDB AI. Estas nuevas características incluyen permitir que las aplicaciones basadas en IA generativa consulten datos con lenguaje natural y un nuevo tipo de vista de base de datos. 

 

6. Google apoya el código abierto para la IA generativa 

Google presentó en Google Cloud Next '24 tres proyectos de código abierto para crear y ejecutar modelos de IA generativa. 

Los nuevos proyectos de código abierto son MaxDiffusion, JetStream y Optimum-TPU. 

La empresa también introdujo nuevos LLM en su proyecto MaxText de LLM construidos en JAX. Los nuevos modelos LLM de MaxText incluyen Gemma, GPT-3, Llama 2 y Mistral, que son compatibles tanto con las TPU de Google Cloud como con las GPU de Nvidia. 



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital