Gemini 2.5: Onze meest intelligente modellen worden nog beter

Gemini 2.5 Pro blijft geliefd onder ontwikkelaars als het beste model voor programmeren, en 2.5 Flash wordt met een nieuwe update nog beter. We voegen ook nieuwe mogelijkheden toe aan onze modellen, waaronder Deep Think – een experimentele verbeterde redeneermodus voor 2.5 Pro.
In maart kondigden we Gemini 2.5 Pro aan, ons meest intelligente model tot nu toe, en twee weken geleden brachten we onze I/O update vervroegd uit voor ontwikkelaars om indrukwekkende webapps te bouwen. Vandaag delen we nóg meer updates voor onze Gemini 2.5 modellenreeks:
- Naast de ongelooflijke prestaties van 2.5 Pro op academische benchmarks, is het nu het wereldwijd toonaangevende model op de WebDev Arena en LMArena-leaderboards, en om mensen te helpen leren.
- We voegen nieuwe mogelijkheden toe aan 2.5 Pro en 2.5 Flash: native audio-uitvoer voor een natuurlijkere gesprekservaring, geavanceerde beveiligingsmaatregelen en de computerbedieningsmogelijkheden van Project Mariner. 2.5 Pro wordt nog beter met Deep Think, een experimentele, verbeterde redeneermodus voor zeer complexe wiskunde en codering.
- We blijven investeren in de ontwikkelaarservaring, met de introductie van 'thought summaries' in de API van Gemini en in Vertex AI voor meer transparantie, het uitbreiden van denkbudgetten naar 2.5 Pro voor meer controle, en het toevoegen van ondersteuning voor MCP-tools in de Gemini API en SDK voor toegang tot meer opensourcetools.
- 2.5 Flash is nu beschikbaar voor iedereen in de Gemini-app, en we zullen onze bijgewerkte versie begin juni algemeen beschikbaar maken in Google AI Studio voor ontwikkelaars en in Vertex AI voor enterprises, met 2.5 Pro snel daarna.
Deze opmerkelijke vooruitgang is het resultaat van de onophoudelijke inspanning van teams binnen Google om onze technologieën te verbeteren, en ze veilig en verantwoord te ontwikkelen en uit te brengen. Laten we erin duiken.
2.5 Pro presteert beter dan ooit
We hebben 2.5 Pro onlangs geüpdatet om ontwikkelaars te helpen rijkere, interactieve webapps te bouwen. Het is geweldig om de positieve reacties van gebruikers en ontwikkelaars te zien en we blijven het model verder verbeteren op basis van hun feedback.
Naast zijn sterke prestaties op academische benchmarks, voert de nieuwe 2.5 Pro nu ook de populaire codeer-leaderboard, WebDev Arena, aan met een ELO-score van 1415. Het staat bovendien bovenaan alle leaderboards van de LMArena, die menselijke voorkeur in verschillende dimensies evalueert. En, met zijn contextvenster van één miljoen tokens, heeft 2.5 Pro state-of-the-art prestaties op het gebied van lange contexten en het begrijpen van video-inhoud.
Sinds de integratie van LearnLM – onze familie van modellen ontwikkeld met onderwijsexperts – is 2.5 Pro nu ook het toonaangevende model om te leren. In directe vergelijkingen waarbij pedagogie en effectiviteit werden geëvalueerd, gaven docenten en experts de voorkeur aan Gemini 2.5 Pro boven andere modellen in een breed scala aan scenario's. En het presteerde beter dan topmodellen op elk van de vijf principes van de leertheorie die worden gebruikt om AI-systemen voor het onderwijs te bouwen.
Lees meer in onze vernieuwde Gemini 2.5 Pro modelkaart en op de Gemini-technologiepagina.
Deep Think
Door de grenzen van Gemini's denkvermogen te verkennen, beginnen we nu een verbeterde redeneermodus te testen genaamd Deep Think. Deze gebruikt nieuwe onderzoekstechnieken waarmee het model meerdere hypothesen kan overwegen alvorens te antwoorden.
2.5 Pro Deep Think behaalt een indrukwekkende score op USAMO 2025, momenteel een van de moeilijkste wiskundige benchmarks. Het leidt ook op LiveCodeBench, een moeilijke benchmark voor coderen op wedstrijdniveau, en scoort 84,0% op MMMU (dat multimodale redenering test).

Omdat we met 2.5 Pro DeepThink de grenzen verleggen, nemen we extra tijd voor meer geavanceerde veiligheidsevaluaties en om verdere input van veiligheidsexperts te verkrijgen. Als onderdeel daarvan stellen we het via de Gemini API beschikbaar aan vertrouwde testers om hun feedback te krijgen voordat we het breder beschikbaar stellen.
Een nog betere 2.5 Flash
2.5 Flash is ons meest efficiënte ‘workhorse-model’, ontworpen voor snelheid en lage kosten – en het is nu op vele vlakken verbeterd. Het is verbeterd op belangrijke benchmarks voor redenering, multimodaliteit, code en lange context, terwijl het nog efficiënter is geworden, met 20-30% minder tokens in onze evaluaties.

De nieuwe 2.5 Flash is nu beschikbaar als preview in Google AI Studio voor ontwikkelaars, in Vertex AI voor enterprise en in de Gemini-app voor iedereen. En begin juni zal het algemeen beschikbaar zijn voor productie.
Lees meer in onze bijgewerkte Gemini 2.5 Flash modelkaart en op de Gemini-technologiepagina.
Nieuwe mogelijkheden in Gemini 2.5
Native audio-uitvoer en verbeteringen aan de Live API
Vandaag introduceert de Live API een previewversie van audiovisuele invoer en native audio-uitvoer dialogen, zodat je direct gesprekservaringen kunt bouwen met een natuurlijkere en expressievere Gemini. Het stelt de gebruiker ook in staat om de toon, het accent en de spreekstijl aan te sturen. Je kunt het model bijvoorbeeld vragen een dramatische stem te gebruiken bij het vertellen van een verhaal. En het ondersteunt toolgebruik, om namens jou te kunnen zoeken.
Je kunt experimenteren met een aantal vroege functies, zoals:
- Affective Dialogue, waarbij het model emotie in de stem van de gebruiker detecteert en hier passend op reageert.
- Proactive Audio, waarbij het model achtergrondgesprekken negeert en weet wanneer het moet reageren.
- Thinking in de Live API, waarbij het model Gemini's denkvermogen benut om complexere taken te ondersteunen.
We brengen ook nieuwe previews uit voor tekst-naar-spraak in 2.5 Pro en 2.5 Flash. Deze bieden voor het eerst ondersteuning voor meerdere sprekers, waardoor tekst-naar-spraak met twee stemmen via native audio-uitvoer mogelijk wordt. Net als Native Audio-dialogen, is tekst-naar-spraak expressief en kan het zeer subtiele nuances vastleggen, zoals fluisteren. Het werkt in meer dan 24 talen en schakelt daar naadloos tussen.
Deze tekst-naar-spraak-mogelijkheid is nu beschikbaar in de Gemini API.
Computergebruik
We brengen de computergebruik-mogelijkheden van Project Mariner naar de Gemini API en Vertex AI. Bedrijven zoals Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company en Cartwheel verkennen de mogelijkheden, en we zijn enthousiast om het deze zomer breder beschikbaar te maken zodat ontwikkelaars ermee kunnen experimenteren.
Beter beveiligd
We hebben ook de bescherming tegen beveiligingsdreigingen, zoals indirecte promptinjecties, aanzienlijk verbeterd. Dit is wanneer kwaadaardige instructies worden ingebed in gegevens die een AI-model ophaalt. Onze nieuwe beveiligingsaanpak heeft geholpen de beschermingsgraad van Gemini tegen indirecte promptinjectie-aanvallen tijdens toolgebruik aanzienlijk te verhogen, wat Gemini 2.5 tot onze veiligste modellenfamilie tot nu toe maakt.
Lees meer over ons werk op het gebied van veiligheid, verantwoordelijkheid en beveiliging en hoe we de beveiligingsmaatregelen van Gemini verbeteren op de Google DeepMind blog.
Een verbeterde ontwikkelaarsomgeving
Thought summaries
2.5 Pro en Flash zullen nu 'thought summaries' (reflectieverslagen) bevatten in de Gemini API en in Vertex AI. 'Thought summaries' nemen de ruwe gedachten van het model en organiseren deze in een duidelijk formaat met koppen, belangrijke details en informatie over modelacties, zoals wanneer ze tools gebruiken.
We hopen dat ontwikkelaars en gebruikers met een meer gestructureerd, gestroomlijnd formaat van het denkproces van het model de interacties met Gemini-modellen gemakkelijker zullen begrijpen en debuggen.
Thinking budgets
We lanceerden 2.5 Flash met denkbudgetten (thinking budgets) om ontwikkelaars meer controle te geven over kosten door een balans te vinden tussen latentie en kwaliteit. En we breiden deze mogelijkheid nu uit naar 2.5 Pro. Hiermee kun je het aantal tokens bepalen dat een model gebruikt om na te denken voordat het antwoordt, of zelfs zijn denkvermogen uitschakelen.
Gemini 2.5 Pro met budgetten zal in de komende weken algemeen beschikbaar zijn voor stabiel productgebruik, samen met ons algemeen beschikbare model.
Ondersteuning voor MCP
We hebben native SDK-ondersteuning toegevoegd voor Model Context Protocol (MCP)-definities in de Gemini API voor eenvoudigere integratie met open-source tools. We onderzoeken ook manieren om MCP-servers en andere gehoste tools te implementeren, waardoor het gemakkelijker wordt om agent-applicaties te bouwen.
We innoveren voortdurend met nieuwe benaderingen om onze modellen en onze ontwikkelaarservaring te verbeteren, inclusief het efficiënter en performanter maken ervan, en blijven reageren op feedback van ontwikkelaars, dus blijf die vooral sturen! We blijven ook volop inzetten op de breedte en diepte van ons fundamenteel onderzoek – en verleggen zo de grenzen van Gemini's mogelijkheden. Binnenkort meer!
Lees meer over Gemini en zijn mogelijkheden op onze website.