Acceder al contenido
Esto es Google

Gemini 2.0 ya está disponible para todas las personas

gemini

El mes pasado, dimos inicio a la era de los agentes al lanzar una versión experimental de Gemini 2.0 Flash — nuestro modelo de trabajo de alta eficiencia para desarrolladores con baja latencia y rendimiento mejorado. A principios de este año, actualizamos 2.0 Flash Thinking Experimental en Google AI Studio, lo que mejoró su rendimiento al combinar la velocidad de Flash con la capacidad de razonar a través de problemas más complejos.

Y la semana pasada, pusimos una versión actualizada de 2.0 Flash a disposición de todos los usuarios en la aplicación Gemini para escritorio y dispositivos móviles, ayudando a todos a descubrir nuevas formas de crear, interactuar y colaborar con Gemini.

Hoy, estamos haciendo que la versión actualizada de Gemini 2.0 Flash esté disponible de forma general a través de la API de Gemini en Google AI Studio y Vertex AI. Los desarrolladores ahora pueden crear aplicaciones de producción con 2.0 Flash.

También estamos lanzando una versión experimental de Gemini 2.0 Pro, nuestro mejor modelo hasta ahora para rendimiento de codificación y prompts complejos. Estará disponible en Google AI Studio y Vertex AI, y en la aplicación Gemini para usuarios de Gemini Advanced.

Estamos lanzando un nuevo modelo, Gemini 2.0 Flash-Lite, nuestro modelo más eficiente hasta la fecha, está en versión preliminar pública en Google AI Studio y Vertex AI.

Finalmente, 2.0 Flash Thinking Experimental estará disponible para los usuarios de la aplicación Gemini en el menú desplegable de modelos para escritorio y dispositivos móviles.

Todos estos modelos contarán con entrada multimodal y salida de texto en su lanzamiento, con más modalidades generales en los próximos meses. Más información y detalles sobre precios, en el blog post oficial de Google para Desarrolladores. De cara al futuro, estamos trabajando en más actualizaciones y capacidades mejoradas para la familia de modelos Gemini 2.0.

2.0 Flash: una nueva actualización disponible para todos

Presentado por primera vez en I/O 2024, la serie de modelos Flash es popular entre los desarrolladores como un modelo robusto y potente, ideal para tareas de alto volumen y alta frecuencia a gran escala, y capaz de hacer razonamientos multimodales a través de grandes cantidades de información con una ventana de contexto de 1 millón de tokens. Nos ha encantado la recepción por parte de la comunidad de desarrolladores.

2.0 Flash ahora está disponible para más personas a través de nuestros productos de IA, junto con un rendimiento mejorado en puntos de referencia clave como LiveCodeBench y MMMU, con generación de imágenes y conversión de texto a voz próximamente.

Prueba Gemini 2.0 Flash en la aplicación Gemini o en la API de Gemini en Google AI Studio y Vertex AI. Los detalles de precios se pueden encontrar en el blog post oficial de Google para Desarrolladores.

2.0 Pro Experimental: nuestro mejor modelo hasta la fecha para codificar el rendimiento y las indicaciones complejas

A medida que compartimos las primeras versiones experimentales de Gemini 2.0, como Gemini-Exp-1206, hemos recibido excelentes comentarios de los desarrolladores sobre sus puntos fuertes y los mejores casos de uso, como la codificación.

Hoy, estamos lanzando una versión experimental de Gemini 2.0 Pro que responde a esos comentarios. Tiene el mejor rendimiento de codificación y la capacidad de manejar indicaciones complejas, con mejor comprensión y razonamiento del conocimiento del mundo, que cualquier modelo que hayamos lanzado hasta ahora. Viene con nuestra ventana de contexto más grande, de 2 millones de tokens, lo que le permite analizar y comprender grandes cantidades de información de manera integral, además de la capacidad de usar herramientas como Google Search y ejecución de código.

gemini benchmarks

Gemini 2.0 Pro ya se encuentra disponible como modelo experimental para los desarrolladores en Google AI Studio y Vertex AI y para los usuarios de Gemini Advanced en el menú desplegable de modelos para escritorio y dispositivos móviles.

2.0 Flash-Lite: nuestro modelo más rentable hasta ahora

Recibimos muchos comentarios positivos sobre el precio y la velocidad de 1.5 Flash. Queremos seguir mejorando la calidad, sin dejar de mantener el costo y la velocidad. Así que hoy, estamos presentando 2.0 Flash-Lite, un nuevo modelo que tiene mejor calidad que 1.5 Flash, a la misma velocidad y costo. Supera al 1.5 Flash en la mayoría de los puntos de referencia.

Al igual que 2.0 Flash, tiene una ventana de contexto de 1 millón de tokens y entrada multimodal. Por ejemplo, puede generar un pie de foto relevante de una línea para alrededor de 40.000 fotos únicas, con un costo inferior a un dólar en la opción paga de Google AI Studio.

Gemini 2.0 Flash-Lite está disponible en Google AI Studio y Vertex AI en vista previa pública.

Nuestro trabajo en responsabilidad y seguridad

A medida que la familia de modelos Gemini se vuelve más capaz, continuaremos invirtiendo en medidas sólidas que permitan un uso seguro y protegido. Por ejemplo, nuestra línea Gemini 2.0 se construyó con nuevas técnicas de aprendizaje por refuerzo que utilizan al propio Gemini para criticar sus respuestas. Esto resultó en una retroalimentación más precisa y específica y, a su vez, mejoró la capacidad del modelo para manejar prompts sensibles.

Pronto, compartiremos detalles sobre nuestro uso de técnicas adicionales de red teaming que desarrollamos para evaluar los riesgos de seguridad, incluyendo la inyección indirecta de prompts, un tipo de ataque cibernético que involucra a atacantes que ocultan instrucciones maliciosas en los datos.