IA
Google
Empresa
Tecnología
IA generativa

Google atosiga a OpenAI con el lanzamiento de Gemini 1.5

Tras un par de meses de la presentación en sociedad de Gemini, Google evoluciona su modelo de inteligencia artificial generativa dotándole de nuevas capacidades y funcionalidades.

gemini google
El nuevo LLM de Google, Gemini. Foto de: Google.

La carrera por el liderazgo de la inteligencia artificial (IA) suma una nueva etapa de la mano de Google. Y es que tan solo una semana después de haber presentado en sociedad Gemini, su modelo de IA generativa, los de Mountain View han dado un paso adelante con el lanzamiento de una nueva generación: Gemini 1.5. “Nuestros equipos continúan superando las fronteras de nuestros últimos modelos poniendo la seguridad en el centro. Y están progresando rápidamente. De hecho, estamos listos para presentar la próxima generación”, avanzaba Sundar Pichai, director ejecutivo de Google y Alphabet.

En este sentido cabe destacar que la evolución del modelo de IA generativa de Google ofrece un gran avance en la comprensión del contexto, aun cuando es considerablemente largo. “Aumentamos significativamente la cantidad de información que nuestros modelos pueden procesar: ejecutan hasta 1 millón de tokens de manera constante y logran la ventana de contexto más larga de cualquier modelo básico a gran escala hasta el momento”. Tal y como aseguraba Pichai, “las ventanas de contexto más largas permitirán capacidades completamente nuevas y ayudarán a los desarrolladores a crear modelos y aplicaciones mucho más útiles”.

 

A fondo: las claves de Gemini 1.5

Demis Hassabis, director ejecutivo de Google DeepMind, ha sido el encargado de arrojar más luz sobre las novedades que supone la evolución de Gemini. A su entender, el nuevo modelo ofrece un rendimiento drásticamente mejorado gracias a una arquitectura de Mezcla de Expertos (MoE) que permite brindar respuestas más rápidas y de mayor calidad. “El primer modelo Gemini 1.5 que lanzaremos para pruebas iniciales es Gemini 1.5 Pro, un modelo con un funcionamiento similar al 1.0 Ultra”. También introduce una característica experimental innovadora en la comprensión de contextos prolongados.

“A medida que implementamos la ventana de contexto completa de 1 millón de tokens, estamos trabajando activamente en optimizaciones para mejorar la latencia, reducir los requisitos computacionales y mejorar la experiencia del usuario”. Estos avances continuos en sus modelos de próxima generación abrirán nuevas posibilidades para que las personas, los desarrolladores y las empresas creen, descubran y construyan utilizando la IA.

Gemini 1.5 se basa en su investigación sobre arquitectura Transformer y MoE. Así, mientras que un Transformer tradicional funciona como una gran red neuronal, los modelos MoE se dividen en redes neuronales "expertas" más pequeñas. Dependiendo del tipo de información proporcionada, los modelos MoE aprenden a activar selectivamente sólo las vías expertas más relevantes en su red neuronal. Esta especialización mejora enormemente la eficiencia del modelo. 

En la práctica, esto permite aprender tareas complejas más rápidamente y mantener la calidad, al mismo tiempo que es más eficiente para capacitar y prestar servicios. “Estas eficiencias están ayudando a nuestros equipos a iterar, entrenar y entregar versiones más avanzadas de Gemini más rápido que nunca, y estamos trabajando en mayores optimizaciones”, aseguraba Hassabis.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital