Inteligencia artificial
IA
Google
IA generativa

Google lanza Gemini, su modelo de IA generativa más potente hasta la fecha

El nuevo gran modelo lingüístico (LLM) estará disponible en tres tamaños para diferentes propósitos, incluyendo su uso en centros de datos y en dispositivos móviles.

gemini google
El nuevo LLM de Google, Gemini. Foto de: Google.

Google ha presentado hoy Gemini, su modelo de software de inteligencia artificial (IA) generativa más potente hasta la fecha, y viene en tres tamaños diferentes para que pueda utilizarse en todo tipo de aplicaciones, desde centros de datos hasta dispositivos móviles.

Google ha estado desarrollando el modelo de lenguaje de gran tamaño (LLM) Gemini durante los últimos ocho meses y recientemente dio acceso a una versión inicial a un pequeño grupo de empresas.

Según la tecnológica, esta herramienta de IA generativa conversacional es, con diferencia, la más potente de Google, y podría suponer un serio desafío para otros LLM como Llama 2 de Meta y GPT-4 de OpenAI.

"Esta nueva era de modelos representa uno de los mayores esfuerzos de ciencia e ingeniería que hemos emprendido como empresa", escribió el CEO de Google, Sundar Pichai, en una entrada de blog.

El nuevo LLM admite múltiples métodos de entrada, como fotos, audio y vídeo, o lo que se conoce como modelo multimodal. El método estándar para crear modelos multimodales suele consistir en entrenar componentes separados para distintas modalidades y luego unirlos.

"A veces, estos modelos pueden ser buenos en determinadas tareas, como la descripción de imágenes, pero tienen dificultades con el razonamiento más conceptual y complejo", explica Pichai. "Diseñamos Gemini para que fuera multimodal de forma nativa, preentrenado desde el principio en distintas modalidades. Después lo hemos perfeccionado con datos multimodales adicionales para afinar aún más su eficacia".

Gemini 1.0 estará disponible en tres tamaños diferentes:

  • Gemini Ultra - el modelo "más grande y capaz" para tareas de gran complejidad.
  • Gemini Pro - el modelo "más adecuado" para escalar una amplia gama de tareas.
  • Gemini Nano - una versión creada para tareas en el dispositivo.

Junto con el lanzamiento, Google también presentó su chip ASIC más potente, el Cloud TPU v5p, diseñado específicamente para gestionar las enormes demandas de procesamiento de la IA. Según la empresa, el nuevo chip puede entrenar LLM 2,8 veces más rápido que el anterior TPU v4 de Google. Los LLM son las plataformas algorítmicas de los chatbots de IA generativa, como Bard y ChatGPT.

A principios de este año, Google anunció la disponibilidad general de Cloud TPU v5e, que ofrecía un rendimiento 2,3 veces superior al de la anterior generación TPU v4. Aunque es mucho más rápida, la TPU v5p también representa un precio tres veces y media superior al de la v4.

El nuevo LLM Gemini ya está disponible en algunos de los principales productos de Google. Por ejemplo, el chatbot Bard está utilizando una versión de Gemini Pro para un razonamiento, planificación y comprensión más avanzados. 

El Pixel 8 Pro es el primer teléfono inteligente diseñado para Gemini Nano, utilizándolo en funciones como Summarize en Recorder y Smart Reply en Gboard. "Y ya estamos empezando a experimentar con Gemini en Search, donde está haciendo que nuestra Search Generative Experience (SGE) sea más rápida", dijo Google. "A principios del año que viene, llevaremos Gemini Ultra a una nueva experiencia de Bard Advanced. Y en los próximos meses, Gemini impulsará funciones en más de nuestros productos y servicios como Ads, Chrome y Duet AI".

Los desarrolladores de Android que deseen crear aplicaciones basadas en Gemini para un dispositivo móvil ya pueden inscribirse en una versión preliminar de Gemini Nano a través de Android AICore.

A partir del 13 de diciembre, los desarrolladores y clientes empresariales podrán acceder a Gemini Pro a través de la API de Gemini en Vertex AI o Google AI Studio, la herramienta web gratuita para desarrolladores de la empresa. Después de realizar más mejoras en Gemini Ultra, como amplias comprobaciones de confianza y seguridad, Google dijo que primero estaría disponible para grupos selectos antes de que esté disponible para desarrolladores y clientes empresariales a principios de 2024.

Google también ha anunciado un nuevo acelerador de IA, conocido como unidad de procesamiento tensorial (TPU) y su AI Cloud Hypercomputer. La nueva TPU v5p es cuatro veces más escalable que la TPU v4 en términos de FLOP totales disponibles por pod de IA.

Las LLM requieren una enorme potencia de procesamiento debido al gran conjunto de datos que ingieren (un proceso denominado preprocesamiento, organización o, en ocasiones, etiquetado de datos) antes de poder hacer nada con ellos. A continuación, el LLM debe aprender a interpretar los datos para generar la siguiente palabra, imagen o línea de código informático que solicite el usuario.

Los LLM pueden tener que aprender miles de millones o incluso más de un billón de parámetros durante el entrenamiento.

Además del nuevo procesador, Google anunció su AI Hypercomputer de Google Cloud, una arquitectura de superordenador que emplea un sistema integrado de hardware de rendimiento optimizado, software abierto, marcos de aprendizaje automático y modelos de consumo flexibles.

Según Google, los clientes pueden utilizar el hiperordenador de IA para aumentar la eficiencia y la productividad en la formación, el ajuste y el servicio de IA.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital