Przejdź do głównego menu
Blog Google Polska

Gemini wkracza na nowy poziom dzięki szybszemu modelowi, dłuższemu kontekstowi i agentom AI

Abstract image of Gemini cubes

Długości kontekstów wiodących modeli podstawowych w porównaniu z możliwością obsługi 2 milionów tokenów przez Gemini 1.5.

Animacja porównująca długości kontekstów wiodących modeli podstawowych, określająca Gemini 1.0 Pro na poziomie 32 000 tokenów, GPT-4 Turbo na poziomie 128 000 tokenów, Claude 3 na poziomie 200 000 tokenów i Gemini 1.5 na poziomie 2 milionów tokenów

Nowy model Gemini 1.5 Flash jest zoptymalizowany pod kątem szybkości i wydajności, dysponuje zaawansowanymi multimodalnymi zdolnościami rozumowania i oferuje przełomowo długie okno kontekstowe.

Ilustracje i ikony wyjaśniające trzy kluczowe funkcje nowego modelu Gemini 1.5 Flash model: szybkość i wydajność, multimodalne wyciąganie wniosków i długie okno kontekstowe.