Acceder al contenido
Blog España

Gemini abre un nuevo horizonte: modelos más rápidos, contextos más extensos y agentes de IA

Actualizaciones de Gemini

En diciembre, lanzamos nuestro primer modelo multimodal nativo, Gemini 1.0, disponible en tres tamaños: Ultra, Pro y Nano. Pocos meses después, hicimos público 1.5 Pro, con mejoras en el rendimiento y con una ventana de contexto de más de un millón de tokens.

Los desarrolladores y clientes empresariales han usado 1.5 Pro de maneras increíbles y han comprobado que su extensa ventana de contexto, sus funciones de razonamiento multimodal y su impresionante rendimiento a nivel general son tremendamente útiles.

Por los comentarios de los usuarios, sabemos que se necesita menos latencia y un coste de servicio más bajo para algunas aplicaciones. Estas sugerencias nos han motivado para seguir innovando y, por eso, hoy presentamos Gemini 1.5 Flash, un modelo más liviano que el 1.5, diseñado para ser rápido y eficiente para brindar servicio a escala.

Tanto 1.5 Pro como 1.5 Flash están disponibles en prevista pública con una ventana de contexto de un millón de tokens en Vertex AI y en AI Studio. Una ventana de contexto de 2 millones de tokens está disponible para desarrolladores y clientes de Google Cloud a través de la lista de espera. También estamos integrando 1.5 Pro en los productos de Google, incluidos Gemini Advanced y las aplicaciones Workspace.

Además, anunciamos nuestra próxima generación de modelos abiertos, Gemma 2, y compartimos un vistazo del Proyecto Astra, una mirada al futuro de los agentes universales de IA.

Ilustración de iconos y texto que explican tres características clave del nuevo modelo Gemini 1.5 Flash: velocidad y eficiencia, razonamiento multimodal y una ventana de contexto larga.

Actualizaciones en nuestra familia de modelos Gemini

El nuevo 1.5 Flash: nuestro modelo más rápido y eficiente hasta la fecha

1.5 Flash es el modelo más nuevo de la familia Gemini y el más rápido incluido en la API. Está optimizado para tareas de gran volumen y alta frecuencia a escala y su servicio es más rentable, al mismo tiempo que presenta una innovadora ventana de contexto largo.

Si bien es un modelo más liviano que el 1.5 Pro, es altamente capaz de realizar razonamiento multimodal a través de grandes cantidades de información y ofrece una calidad impresionante para su tamaño.