Gemini 2.5: Unsere intelligentesten Modelle werden noch besser

Im März haben wir Gemini 2.5 Pro vorgestellt, unser bislang intelligentestes Modell. Und vor zwei Wochen haben wir Entwicklerteams Vorabzugriff auf unser I/O-Update gegeben, mit dem sie fantastische Web-Apps erstellen können. Heute haben wir weitere Neuigkeiten zu unserer Gemini 2.5-Modellreihe für euch:
- 2.5 Pro überzeugt nicht nur mit überragender Leistung im Bereich akademischer Benchmarks, das Modell ist auch weltweit führend auf den Ranglisten der WebDev Arena und LMArena sowie darin, Menschen beim Lernen zu unterstützen.
- Wir erweitern 2.5 Pro und 2.5 Flash um neue Funktionen: native Audioausgabe, um die Unterhaltung mit Gemini noch natürlicher zu gestalten, erweiterte Sicherheitsmaßnahmen und die Funktionen zur Computernutzung von Project Mariner. 2.5 Pro wird noch leistungsstärker mit Deep Think, einem Modus in der Entwicklungsphase für verbessertes Schlussfolgern zum Lösen hochkomplexer Aufgaben im Bereich Mathematik und Programmierung.
- Wir arbeiten weiter daran, die Nutzung für Entwicklerinnen und Entwickler zu optimieren. So führen wir für die Gemini API und Vertex AI die Möglichkeit zur Zusammenfassung des Gedankengangs ein, um für mehr Transparenz zu sorgen. Außerdem weiten wir die Budgetlimits für Denkprozesse oder auch Denkbudgets (im Englischen „thinking budgets“) auf 2.5 Pro aus und bieten Unterstützung für MCP-Tools in der Gemini API und im SDK, um den Zugriff auf noch mehr Open-Source-Tools zu ermöglichen.
- 2.5 Flash ist jetzt in Gemini für alle Nutzerinnen und Nutzer verfügbar. Anfang Juni machen wir die aktualisierte Version in Google AI Studio für Entwicklerinnen und Entwickler und in Vertex AI für Unternehmen allgemein zugänglich. 2.5 Pro folgt kurz darauf.
Diese bemerkenswerten Fortschritte sind das Ergebnis des großen Engagements der Google-Teams, unsere Technologien kontinuierlich zu verbessern und sie sicher und verantwortungsvoll zu entwickeln und einzuführen. Sehen wir uns das im Detail an.
2.5 Pro ist leistungsstärker denn je
Vor Kurzem haben wir 2.5 Pro aktualisiert, um Entwicklerinnen und Entwickler dabei zu unterstützen, vielfältigere interaktive Web-Apps zu erstellen. Wir freuen uns über die positiven Reaktionen aus der Nutzer- und Entwickler-Community und arbeiten weiter daran, das Modell auf Grundlage eures Feedbacks zu optimieren.
Die neue Version von 2.5 Pro schneidet nicht nur bei akademischen Benchmarks äußerst gut ab, sondern liegt auch mit 1.415 ELO-Punkten an der Spitze der beliebten WebDev Arena-Rangliste. Sie ist auch führend in allen Kategorien der LMArena-Rangliste, die Nutzerpräferenzen in verschiedenen Bereichen bewertet. Und dank des Kontextfensters mit 1 Million Tokens besticht 2.5 Pro mit herausragender Leistung beim Verständnis langer Kontexte und Videos.
Seit der Integration von LearnLM, unserer mit Pädagoginnen und Pädagogen entwickelten Modellreihe, ist 2.5 Pro nun auch das führende Modell im Lernbereich. Im direkten Vergleich bevorzugten Lehrende und Fachleute in vielfältigen Anwendungsfällen die Pädagogik und Effektivität von Gemini 2.5 Pro gegenüber anderen Modellen. Und 2.5 Pro übertraf die führenden Modelle in jedem der fünf Prinzipien der Learning Science (Lernwissenschaft), die bei der Entwicklung von KI-Systemen für den Lernbereich Anwendung finden.
Mehr darüber erfahrt ihr in unserer aktualisierten Gemini 2.5 Pro Modellkarte und auf der Seite zu Gemini-Technologien.
Deep Think
Wir loten die Grenzen der logischen Denkfähigkeiten von Gemini aus und beginnen mit dem Test eines erweiterten Modus namens Deep Think. Dieser nutzt neue Recherchetechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu berücksichtigen, bevor es antwortet.
2.5 Pro Deep Think erzielt eine beeindruckende Punktzahl bei der USAMO (United States of America Mathematical Olympiad) 2025, derzeit eine der anspruchsvollsten Benchmarks im Bereich Mathematik. Es liegt auch bei LiveCodeBench, einem anspruchsvollen Benchmark für Programmierwettbewerbe, vorne und erreicht 84,0 % bei MMMU, bei dem multimodales Schlussfolgern getestet wird.

Weil wir mit 2.5 Pro DeepThink die Grenze definieren, nehmen wir uns zusätzliche Zeit, um weitere Sicherheitsbewertungen durchzuführen und zusätzliches Feedback von Sicherheitsexperten einzuholen. Im Rahmen dessen werden wir es Trusted Testern (vertrauenswürdigen Testern) über die Gemini API zur Verfügung stellen, um deren Feedback einzuholen, bevor es allgemein verfügbar gemacht wird.
Ein noch besseres 2.5 Flash
2.5 Flash ist unser effizientestes KI-Modell, das zu niedrigeren Kosten noch schneller arbeitet – jetzt haben wir es noch weiter optimiert. Das Modell ist jetzt noch besser in den Bereichen Reasoning (Problemlösung), Multimodalität, Code und der Verarbeitung größerer Kontextfenster. Zugleich haben wir die Effizienz gesteigert, sodass das Modell mit unseren Auswertungen 20-30 % weniger Tokens benötigt.

Das neue Modell 2.5 Flash steht jetzt als Vorschau in Google AI Studio für Entwicklerinnen und Entwickler zur Verfügung, in Vertex AI für Unternehmen und in Gemini für alle Nutzerinnen und Nutzer. Und ab Anfang Juni wird das Modell generell verfügbar sein.
Mehr dazu findet ihr in der aktualisierten Gemini 2.5 Flash Modellkarte und auf der Gemini Technologieseite.
Neue Funktionen für Gemini 2.5
Native Audioausgabe und eine verbesserte Live API
Ab heute gibt es in der Live API eine Vorschauversion mit audiovisueller Eingabe und mit nativer Audioausgabe für Dialoge – ihr könnt also direkte Unterhaltungen mit Gemini erstellen, die natürlicher und vielseitiger klingen.
Außerdem können Nutzerinnen und Nutzer den Tonfall, Akzent und die Ausdrucksweise steuern – ihr könnt dem Modell zum Beispiel sagen, dass es beim Vorlesen von Geschichten in einem dramatischen Tonfall sprechen soll. Und es unterstützt jetzt auch die Verwendung von Tools und kann eine Suche für euch durchführen.
Ihr könnt mit einigen neuen Funktionen vorab experimentieren – dazu gehören:
- Affective Dialogue: Das Modell erkennt Emotionen an der Stimme und antwortet entsprechend.
- Proactive Audio: Das Modell blendet Gespräche im Hintergrund aus und weiß, wann es reagieren soll.
- „Thinking“ in der Live API: Das Modell nutzt die Fähigkeiten von Gemini, um komplexere Aufgaben auszuführen.
Wir bringen auch neue Vorschauen für Text-to-Speech in 2.5 Pro und 2.5 Flash heraus. Sie unterstützen mehrere Sprecherinnen bzw. Sprecher, was Text-to-Speech für zwei Stimmen via nativer Audioausgabe ermöglicht. Text-to Speech ist – wie Native Audio Dialogue – ausdrucksvoll und kann auch subtile Nuancen wie Flüstern erkennen. Es ist in mehr als 24 Sprachen verfügbar und kann nahtlos zwischen verschiedenen Sprachen wechseln.
Diese Text-to-Speech-Funktion wird im Laufe des Tages in der Gemini API verfügbar sein.
Computernutzung
Die Fähigkeiten zur Computernutzung von Project Mariner gibt es jetzt auch in der Gemini API und in Vertex AI. Unternehmen wie Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company und Cartwheel nutzen dieses Potenzial bereits – ab jetzt können noch viel mehr Entwicklerinnen und Entwickler damit experimentieren.
Mehr Sicherheit
Wir haben die Schutzmaßnahmen gegen Sicherheitsbedrohungen stark erhöht – dazu gehört auch der Schutz vor indirekten Prompt-Injections. So nennt man Cyberangriffe, die das Modell nicht direkt, sondern auf Umwegen über externe Datenquellen manipulieren wollen. Durch unseren neuen Sicherheitsansatz konnten wir die Schutzrate des Modells gegen indirekte Prompt-Injections bei der Nutzung von Tools deutlich erhöhen. Damit ist Gemini 2.5 unsere bisher sicherste KI-Modell-Familie.
Mehr Informationen zu unseren Maßnahme zur Steigerung der Sicherheit und zur verantwortungsvollen Entwicklung sowie zu unserem Ansatz, Gemini noch sicherer zu machen, findet ihr im Google DeepMind-Blog.
Einfachere Entwicklung
Thought Summaries
2.5 Pro und Flash beinhalten jetzt auch Thought Summaries in der Gemini API und in Vertex AI. Thought Summaries machen aus den Denkprozessen des Modells einen klar strukturierten Text mit Überschriften, wichtigen Punkten und Informationen darüber, welche Tools genutzt wurden.
Wir hoffen, dass Entwicklerinnen und Entwickler durch dieses vereinfachte, strukturierte Format den Gedankengang des Modells besser nachvollziehen und so leichter mit Gemini arbeiten und Fehler beheben können.
Denkbudgets
Bei 2.5 Flash haben wir sogenannte Budgetlimits für Denkprozesse bzw. Denkbudgets (im Englischen „thinking budgets“) implementiert, damit Entwicklerinnen und Entwickler die Kosten im Blick behalten und die ideale Balance zwischen Latenz und Qualität finden können. Dieses Feature wird auch in 2.5 Pro integriert sein. Damit lässt sich die Anzahl der Tokens kontrollieren, die das Modell nutzt, bevor es antwortet. Die Denkfähigkeit kann auch ganz eingeschränkt werden.
Wir werden Gemini 2.5 Pro mit Budgetlimits genauso wie das allgemeine Modell Gemini 2.5 Pro in den kommenden Wochen für die Anwendung in der Produktion allgemein verfügbar machen.
MCP-Support
Es gibt jetzt nativen SDK-Support für Model Context Protocol (MCP)-Definitionen in der Gemini API, der die Integration von Open-Source-Tools erleichtert. Wir arbeiten auch daran, MCP-Server und andere cloudbasierte Tools bereitzustellen, damit ihr noch einfacher agentenbasierte Anwendungen entwickeln könnt.
Wir entwickeln fortlaufend neue Ansätze, um unsere Modelle zu optimieren und die Arbeit mit ihnen einfacher zu gestalten – dazu gehört auch, die Effizienz und Leistungsfähigkeit zu steigern und das Feedback der Entwicklerinnen und Entwickler umzusetzen, also teilt uns gern eure Erfahrungen mit! Wir arbeiten auch mit Hochdruck an der Grundlagenforschung zum Thema KI und erweitern dadurch auch ständig die Fähigkeiten von Gemini. Bald gibt es noch mehr Neuigkeiten dazu.
Weitere Informationen zu Gemini und seinen Fähigkeiten findet ihr auf unserer Website.