Google I/O 2025: Von der Forschung in die Praxis

Anmerkung der Redaktion: Nachfolgend findet ihr ein bearbeitetes Transkript von Sundar Pichais Eröffnungs-Keynote zur I/O 2025. Es wurde um die von ihm live getätigten Ankündigungen ergänzt. Alles rund um die Google I/O 2025 findet ihr in unserer Sammlung.
Normalerweise hört ihr in den Wochen vor der I/O nicht viel von uns – denn eigentlich stellen wir euch unsere besten Modelle live auf der Bühne vor. Aber wir befinden uns jetzt in der Gemini-Ära. Und da ist es mindestens genauso wahrscheinlich, dass wir unser bisher intelligentestes Modell an einem Dienstag im März einführen oder eine Woche vorher einen beeindruckenden Durchbruch wie AlphaEvolve ankündigen.
Wir möchten einfach, dass ihr unsere besten Modelle und Produkte so schnell wie möglich nutzen könnt. Darum präsentieren wir euch Neues jetzt schneller als bisher.

Rasanter Fortschritt bei Modellen
Ganz besonders freue ich mich über die enormen Entwicklungen bei unseren Modellen. Die Elo-Zahl, ein Maß für den Fortschritt, ist seit unserem ersten Gemini Pro-Modell um mehr als 300 Punkte gestiegen. Heute ist Gemini 2.5 Pro im LMArena-Ranking in allen Kategorien führend auf Platz 1.
Diesen Fortschritt ermöglicht unsere weltweit führende Infrastruktur. Ironwood, unsere TPU der siebten Generation, ist die erste, die speziell für den Einsatz in inferentiellen KI-Modellen mit schlussfolgerndem Denken entwickelt wurde. Sie bietet eine zehnmal höhere Leistung als die vorherige Generation und eine unglaubliche Rechenleistung von 42,5 Exaflops pro Pod – einfach beeindruckend.
Dank unserer Infrastruktur – einschließlich der TPU – sind wir in der Lage, wesentlich schnellere Modelle zu liefern, obwohl die Preise für Modelle gleichzeitig deutlich sinken. Wieder und wieder ist es uns gelungen, die leistungsstärksten Modelle zum wirtschaftlichsten Preis anzubieten. Google ist nicht nur führend an der Pareto-Front – wir haben diese Grenze der Optimierung grundlegend verschoben.

Die Welt setzt auf KI
Es ist mehr Wissen verfügbar – für alle und überall. Und die Welt reagiert darauf, indem sie KI einsetzt – und zwar schneller als je zuvor. Einige wichtige Meilensteine:
- Vor einem Jahr konnten unsere Produkte und APIs 9,7 Billionen Tokens pro Monat verarbeiten. Heute sind es bereits über 480 Billionen – eine Steigerung um das 50-Fache.
- Über 7 Millionen Entwicklerinnen und Entwickler arbeiten mit Gemini. Das sind fünfmal mehr als im vergangenen Jahr. Und die Nutzung von Gemini in Vertex AI hat sich sogar um das 40-Fache erhöht.
- Gemini in der App und am Computer wird mittlerweile von über 400 Millionen Menschen pro Monat aktiv genutzt. Wir verzeichnen insbesondere bei den 2.5-Modellen ein stark steigendes Interesse. Die Nutzung von 2.5 Pro in Gemini ist um 45 % gestiegen.
Von der Forschung in die Praxis
Was bedeutet all dieser Fortschritt? Ganz klar: Wir befinden uns in einer neuen Phase der Nutzung von KI-Plattformen. Jahrzehnte der Forschung werden für Menschen, Unternehmen und Communitys nun weltweit in die Realität umgesetzt.
Project Starline → Google Beam + Live-Dolmetscher
Vor ein paar Jahren haben wir auf der I/O Project Starline vorgestellt, unsere bahnbrechende 3D-Videotechnologie. Ziel der Technologie war es, den Teilnehmenden bei einem Videoanruf das Gefühl zu geben, sich im selben Raum zu befinden, selbst wenn sie eigentlich tausende Kilometer trennen.
Im technischen Bereich haben wir kontinuierlich Fortschritte gemacht. Heute öffnen wir für euch das nächste Kapitel: Google Beam, eine neue KI-basierte Plattform für Videokonferenzen. Beam nutzt ein neues, innovatives Videomodell, mit dem sich Standard-Videostreams in eine realistische 3D-Darstellung verwandeln lassen. KI führt die Videostreams von sechs Kameras zusammen und verbindet die Bildsignale auf einem 3D-Lightfield-Display für ein immersives Erlebnis. Die Erfassung der Kopfbewegungen ist bis auf den Millimeter genau und erfolgt mit 60 Bildern pro Sekunde in Echtzeit. So nimmt man das Gespräch viel natürlicher und echter wahr. In Zusammenarbeit mit HP werden wir die ersten Google Beam-Geräte noch in diesem Jahr zur Verfügung stellen.

Auch die Funktionen von Google Meet haben wir über die Jahre immer weiter verbessert, um die Nutzung immersiver zu gestalten. Dazu gehört auch eine Technologie, die Menschen dabei hilft, Sprachbarrieren zu überwinden: Künftig wird in Google Meet eine Live-Dolmetschfunktion die Kommunikation erleichtern. Nahezu in Echtzeit kann der Live-Dolmetscher die Stimme, den Tonfall und sogar die Mimik der sprechenden Person nachahmen – das ermöglicht einen natürlichen Gesprächsfluss trotz unterschiedlicher Sprachen. Für Englisch und Spanisch wird die Funktion in den kommenden Wochen als Betaversion für alle eingeführt, die Google AI Pro und Google AI Ultra abonniert haben. Weitere Sprachen folgen. Workspace Business-Kunden stellen wir das Feature noch in diesem Jahr in einer Vorab-Testversion zur Verfügung.
Project Astra → Gemini Live
Ein weiteres spannendes Projekt, das wir euch bei der I/O vorgestellt haben, ist Project Astra: ein universeller KI-Assistent, der die Welt um euch herum versteht. Bei Gemini Live könnt ihr jetzt – wie bei Project Astra – eure Kamera für Gemini freigeben und euren Bildschirm mit Gemini teilen. Diese Funktion wird bereits auf vielfältige Weise genutzt – von der Vorbereitung auf ein Vorstellungsgespräch bis hin zum Training für den nächsten Marathon.
Die Funktion ist jetzt schon für alle Android-Nutzerinnen und -Nutzer verfügbar und wird ab heute auch für iOS eingeführt.
Ähnliche Funktionen werden auch in Produkten wie der Google Suche verfügbar sein.
Project Mariner → KI-Agenten-Modus
Wir definieren KI-Agenten als Systeme, die KI-Modelle mit Tools verbinden, um so in eurem Namen und unter eurer Anweisung Aktionen auszuführen.
Project Mariner ist unser Prototyp aus der frühen Forschungsphase und ein erster Schritt in Richtung Computer-Agents, die mit dem Web interagieren und Aufgaben für euch erledigen können. Wir haben Project Mariner im Dezember als frühen Forschungsprototyp herausgebracht und seitdem große Fortschritte mit neuen Multitasking-Funktionen und einer Methode namens „teach and repeat“ (lernen und wiederholen) gemacht. Dabei könnt ihr dem KI-Agenten eine Aufgabe einmal zeigen und er lernt die Struktur für künftige ähnliche Aufgaben. Die Funktionen zur Computernutzung von Project Mariner stellen wir Entwicklerinnen und Entwicklern über die Gemini API zur Verfügung. Trusted Tester wie Automation Anywhere und UiPath beginnen bereits damit, den KI-Agenten in der Entwicklung einzubinden, und die breitere Verfügbarkeit ist für diesen Sommer geplant.
Die Computernutzung ist Teil einer umfassenden Reihe an Tools, die wir entwickeln müssen, um ein zukunftsträchtiges Ökosystem von KI-Agenten zu schaffen.
Dazu gehört auch unser offenes Agent2Agent Protocol, durch das KI-Agenten miteinander kommunizieren können, oder das von Anthropic eingeführte Model Context Protocol, mit dem KI-Agenten auf andere Dienste zugreifen können. Heute freuen wir uns, bekannt geben zu können, dass unsere Gemini API und unser SDK jetzt mit MCP-Tools kompatibel sind.
Wir führen KI-Funktionen, die die Arbeit für dich erledigen, auch bald in Chrome, der Google Suche und in Gemini ein. Dann könnt ihr zum Beispiel mit dem neuen KI-Agenten-Modus in Gemini noch mehr Aufgaben erledigen. Wenn ihr auf der Suche nach einer Wohnung seid, könnt ihr mit Gemini auf Websites wie Zillow nach Angeboten suchen, die euren Kriterien entsprechen, Filter anpassen, die Angebote mit MCP aufrufen und sogar eine Besichtigung vereinbaren. Eine experimentelle Version des KI-Agenten-Modus in Gemini wird bald für Abonnentinnen und Abonnenten verfügbar sein. Und es ist ideal für Unternehmen wie Zillow, um neue Kundschaft zu gewinnen und die Conversion-Rate zu verbessern.
Das ist ein neues und sich entwickelndes Feld – wir freuen uns darauf, die Möglichkeiten auszuloten, wie Nutzerinnen und Nutzer sowie zahlreiche Produkte und Dienste von den Vorteilen der KI-Agenten profitieren können.
Die Vorteile der Personalisierung
Forschung lässt sich am besten in die Praxis umsetzen, wenn sie für das eigene Leben wirklich nützlich ist. Hier spielt die Personalisierung eine wichtige Rolle. Wir arbeiten daran, dieses Konzept mithilfe von Funktionen umzusetzen, die wir „persönlicher Kontext“ nennen. Mit eurer Zustimmung können Gemini-Modelle relevanten persönlichen Kontext in euren Google-Apps verwenden. Dabei werden eure Daten geschützt und ihr habt immer den Überblick und die Kontrolle über die verwendeten Informationen.
Ein Beispiel dafür sind die neuen personalisierten intelligenten Antworten in Gmail. Stellt euch vor, ein Freund bittet euch per E-Mail um Rat zu einer Reise, die ihr schon einmal unternommen habt. Jetzt kann Gemini euch die Arbeit abnehmen und in euren alten E-Mails und Dateien in Google Drive etwa nach Reiseplänen suchen, die ihr in Google Docs erstellt habt. Gemini schlägt euch dann eine detaillierte Antwort vor, die genau auf die Frage zugeschnitten ist. Dabei werden die Anrede, der Tonfall, Stil und sogar Lieblingsworte verwendet, die für euch typisch sind. So entsteht eine Antwort, die relevanter ist und ganz wie ihr selbst klingt. Personalisierte intelligente Antworten werden im Laufe des Jahres für alle mit einem entsprechenden Gemini-Abo verfügbar sein. Und stellt euch vor, wie hilfreich persönlicher Kontext auch in der Google Suche, in Gemini und anderen Produkten sein wird.
Der KI-Modus in der Google Suche
Unsere Gemini-Modelle bringen die Google Suche auf ein neues Level – intelligenter, personalisierter und stärker Agenten-basiert.
Seit der Einführung im letzten Jahr haben über 1,5 Milliarden Menschen unsere Übersichten mit KI in 200 Ländern und Gebieten genutzt. Wir haben festgestellt, dass Nutzerinnen und Nutzer dank Übersichten mit KI zufriedener mit ihren Suchergebnissen sind und die Suche häufiger nutzen. In unseren größten Märkten wie den USA und Indien sorgen Übersichten mit KI für ein Wachstum von über 10 % bei den Arten von Suchanfragen, bei denen sie angezeigt werden. Dieses Wachstum nimmt mit der Zeit zu.
Das macht den Launch zu einem der erfolgreichsten in der Google Suche in den letzten zehn Jahren.
Für alle, die durchgängig die Google Suche mit KI nutzen möchten, führen wir einen brandneuen KI-Modus ein – eine völlig neue Art der Suche. Dank der Fortschritte beim logischen Schlussfolgern könnt ihr im KI-Modus längere und komplexere Anfragen stellen. Die ersten Testerinnen und Tester haben Anfragen gestellt, die zwei- bis dreimal so lang waren wie herkömmliche Suchanfragen. Und mit Anschlussfragen könnt ihr die Komplexität noch weiter steigern. Der KI-Modus wird als neuer Tab direkt in der Google Suche verfügbar sein.
Ich nutze ihn inzwischen sehr oft – und er hat meine Art zu suchen komplett verändert. Ich freue mich, euch mitteilen zu können, dass der KI-Modus ab heute für alle Nutzerinnen und Nutzer in den USA verfügbar ist. Mit unseren neuesten Gemini-Modellen erreichen unsere KI-Antworten die Qualität und Genauigkeit, die ihr von der Google Suche erwartet – die schnellsten in der Branche sind sie auch. Und ab dieser Woche wird Gemini 2.5 für die Suche verfügbar sein.
Unser intelligentestes Modell: Gemini 2.5
Unser leistungsstarkes und effizientes KI-Modell Gemini 2.5 Flash ist bei Entwicklerinnen und Entwicklern besonders beliebt, weil es Qualität und Tempo bei niedrigen Kosten bietet. Das neueste Update 2.5 Flash haben wir noch weiter verbessert – in den Bereichen logische Schlussfolgerung, Multimodalität, Programmierung und der Verarbeitung von großen Informationsmengen. Im LMArena-Ranking schneidet nur das Modell 2.5 Pro besser ab.
Wir entwickeln 2.5 Pro noch weiter, indem wir einen erweiterten logischen Denkmodus einführen, den wir Deep Think nennen. Es basiert auf unserer neuesten Forschung zum logischen Denken und Schlussfolgern und beinhaltet auch Techniken für parallele Denkansätze.
Ein persönlicheres, proaktiveres und leistungsstärkeres Gemini-Erlebnis
Wir gestalten Deep Research noch persönlicher: Ihr könnt bald eure eigenen Dateien hochladen und Gemini mit Google Drive und Gmail verbinden. So könnt ihr noch individuellere Rechercheberichte erstellen. Wir integrieren auch Canvas in Gemini, sodass ihr dynamische Infografiken, Quizfragen und sogar Podcasts in zahlreichen Sprachen mit nur einem Klick erstellen könnt. Außerdem sehen wir eine spannende Entwicklung im Bereich von Vibe Coding mit Canvas – dieser ermöglicht es einer größeren Nutzergruppe, funktionsfähige Apps zu erstellen, indem sie einfach mit Gemini chatten.
Und bei Gemini Live – das bei Nutzerinnen und Nutzern wirklich gut ankommt – machen wir die Kamera- und Bildschirmfreigabe für alle frei verfügbar, auch für iOS-Nutzer*innen. Bald wird auch eine Verknüpfung mit euren Google-Apps möglich sein, um euch wirklich maßgeschneiderte Unterstützung zu bieten.
Fortschritte bei unseren Modellen zur Generierung von Medien
Wir stellen unser neuestes leistungsstarkes Modell zur Videogenerierung vor: Veo 3, das jetzt über eine native Audiogenerierung verfügt. Außerdem führen wir Imagen 4 ein, unser neuestes und leistungsstärkstes Modell zur Bildgenerierung. Beide sind in Gemini verfügbar und eröffnen euch eine ganz neue Welt der Kreativität.
Wir bringen diese Möglichkeiten mit einem neuen Tool namens Flow zu Filmemacher*innen. Ihr könnt filmreife Clips erstellen und einen kurzen Clip in eine längere Szene verwandeln.
Wir wollen noch mehr Menschen neue Chancen eröffnen
KI bietet vielen Menschen ganz neue Möglichkeiten. Es liegt an Entwicklungsteams, Tech-Pionierinnen und -Pionieren und lösungsorientierten kreativen Köpfen, dafür zu sorgen, dass die Vorteile von KI so vielen Menschen wie möglich zugutekommen. Besonders inspirierend ist der Gedanke, dass die Forschung von heute die Grundlage für die Realität von morgen sein wird – von Robotik bis hin zu Quantencomputing, AlphaFold und Waymo.
Diese Möglichkeiten, das Leben von Menschen konkret zu verbessern, sind für mich nicht selbstverständlich. Das hat mir ein aktuelles Erlebnis noch einmal deutlich vor Augen geführt: Ich war mit meinen Eltern in San Francisco. Als Erstes wollten sie in einem Waymo fahren – inzwischen eine echte Touristenattraktion der Stadt. Ich hatte die Waymo-Flotte schon genutzt, aber mein Vater, der über 80 ist, war total begeistert; ich sah den Fortschritt in einem völlig neuen Licht.
Es war eine Erinnerung daran, dass Technologie uns inspirieren, beeindrucken und voranbringen kann. Ich bin schon gespannt, was wir als Nächstes gemeinsam schaffen werden.