Google I/O 2025: dalla ricerca alla realtà
Nota della redazione: di seguito è riportata la trascrizione modificata del discorso del CEO di Google Sundar Pichai al Google I/O 2025, adattata per includere più di quanto è stato annunciato sul palco. Trovate tutti gli annunci nella nostra raccolta.
Di norma non avremmo annunciato molto nelle settimane che precedono l'I/O, perché avremmo conservato i modelli migliori per l'evento. Ma siamo nell'era di Gemini: le probabilità di lanciare il nostro modello più intelligente un martedì di marzo o di annunciare una svolta rivoluzionaria come AlphaEvolve una settimana prima di I/O sono praticamente le stesse.
Vogliamo che i nostri modelli e prodotti migliori arrivino nelle vostre mani il prima possibile. Ed è per questa ragione che condividiamo le novità il più rapidamente possibile.
Gli sviluppi continui del modello
Sono particolarmente entusiasta dei rapidi avanzamenti del modello. Il punteggio Elo, che misura la performance dei grandi modelli linguistici, è cresciuto di oltre 300 punti rispetto a Gemini Pro di prima generazione. Oggi, Gemini 2.5 Pro domina la classifica di LMArena in tutte le categorie.
Questo miglioramento del modello è reso possibile dalla nostra infrastruttura leader a livello globale. La nostra TPU di settima generazione, Ironwood, è la prima progettata per supportare su larga scala i carichi di lavoro dell'intelligenza artificiale orientata al ragionamento e all'inferenza. Offre prestazioni dieci volte superiori rispetto alla generazione precedente e integra un'incredibile capacità di calcolo di 42,5 exaflop per pod: un risultato davvero straordinario.
La solidità della nostra infrastruttura, che arriva fino al livello delle TPU, è ciò che ci consente di offrire modelli significativamente più veloci, anche in un contesto di forte riduzione dei costi. Da sempre, siamo stati in grado di offrire i modelli migliori al prezzo più conveniente. Google non si limita a dominare la legge di Pareto: ne abbiamo modificato i limiti fondamentali, ridefinendola.
Il mondo sta adottando l'AI
Sempre più intelligenza è disponibile, per tutti, ovunque. E il mondo sta rispondendo, adottando l'AI più velocemente che mai. Ecco alcuni indicatori importanti del cambiamento:
- L'anno scorso, in questo stesso periodo, elaboravamo 9,7 trilioni di token al mese nei nostri prodotti e API. Ora ne elaboriamo oltre 480 trilioni, ovvero 50 volte di più.
- Oltre 7 milioni di sviluppatori creano con Gemini, cinque volte in più rispetto all'anno scorso nello stesso periodo, e l'utilizzo di Gemini su Vertex AI è aumentato di 40 volte.
- L'app Gemini ha ora oltre 400 milioni di utenti attivi mensili. Assistiamo a una crescita e a un coinvolgimento forti, in particolare con la serie di modelli 2.5. Per chi usa 2.5 Pro nell'app Gemini, l'utilizzo è cresciuto del 45%.
Dalla ricerca alla realtà
Questi sviluppi indicano che siamo entrati in una nuova fase dell'evoluzione delle piattaforme di AI, dove anni di ricerca si stanno concretizzando in applicazioni reali per utenti, imprese e comunità in tutto il mondo.
Project Starline → Google Beam + traduzione vocale
In occasione di un I/O di qualche anno fa, abbiamo presentato Project Starline, la nostra rivoluzionaria tecnologia per i video 3D. L'obiettivo era creare la sensazione di condividere la stessa stanza con un'altra persona, pur trovandosi a grande distanza.
Abbiamo continuato a progredire dal punto di vista tecnico e oggi siamo pronti a presentare un nuovo capitolo: Google Beam, una nuova piattaforma di comunicazione video orientata all'AI. Beam impiega un modello video di ultima generazione per trasformare gli stream video 2D in un'esperienza 3D realistica: utilizzando un sistema di sei videocamere e l'AI, gli stream video vengono uniti e resi su un display 3D con tecnologia lightfield. Il sistema garantisce un tracciamento della testa quasi perfetto, con precisione millimetrica e a 60 frame al secondo, tutto in tempo reale. Il risultato è un'esperienza conversazionale molto più naturale e immersiva. In collaborazione con HP, i primi dispositivi Google Beam saranno disponibili per i primi clienti entro la fine dell'anno.
Nel corso degli anni, abbiamo lavorato per rendere le esperienze in Google Meet sempre più immersive. Tra queste, vi è una tecnologia che aiuta a superare le barriere linguistiche grazie alla traduzione vocale, in arrivo su Google Meet. Quasi in tempo reale, è in grado di riprodurre la voce, il tono e persino le espressioni di chi parla, facilitando sempre di più conversazioni naturali e fluide tra lingue diverse. La traduzione in inglese e spagnolo è in fase di lancio per gli abbonati a Google AI Pro e Ultra in versione beta, altre lingue saranno aggiunte nelle prossime settimane. I clienti Business di Workspace potranno testare questa funzionalità in anteprima quest'anno.
Project Astra → Gemini Live
Un altro entusiasmante progetto di ricerca presentato per la prima volta all'I/O è stato Project Astra, che esplora le abilità future di un assistente AI universale capace di comprendere il mondo circostante. Gemini Live ora incorpora le funzionalità di condivisione dello schermo e della fotocamera di Project Astra. Le persone lo stanno già utilizzando in modi interessanti, dalla preparazione a colloqui di lavoro all'allenamento per una maratona. Questa funzionalità è già disponibile per tutti gli utenti Android e sarà esteso agli utenti iOS a partire da oggi.
Stiamo anche introducendo funzionalità simili in prodotti come la Ricerca.
Project Mariner → Agent Mode
Pensiamo agli agenti come a dei sistemi che combinano l'intelligenza dei modelli avanzati di AI con l'accesso agli strumenti, così da poter agire per vostro conto e sotto il vostro controllo.
Project Mariner, il nostro prototipo di ricerca iniziale, rappresenta un primo passo verso agenti in grado di utilizzare il computer per interagire con il web e svolgere attività al posto vostro. Rilasciato come prototipo di ricerca a dicembre, da allora abbiamo fatto notevoli passi avanti, in particolare con nuove funzionalità di multitasking e con un metodo chiamato "insegna e ripeti", che consente all'agente di imparare un'attività dopo averla osservata una sola volta e di applicare quanto appreso ad attività simili in futuro. Le capacità di utilizzo del computer di Project Mariner saranno rese disponibili agli sviluppatori tramite l'API Gemini. Alcuni trusted tester, come Automation Anywhere e UiPath, stanno già iniziando a creare soluzioni basate su questa tecnologia, che sarà distribuita più ampiamente questa estate.
Il computer è solo uno degli strumenti fondamentali necessari per costruire un ecosistema di agenti efficace. Ne sono un esempio il nostro protocollo aperto Agent2Agent, che consente agli agenti di comunicare tra loro, o il protocollo Model Context di Anthropic, che permette agli agenti di accedere a servizi esterni. Oggi siamo felici di annunciare che la nostra API Gemini e il nostro SDK sono ora compatibili con gli strumenti MCP.
Stiamo anche iniziando a integrare funzionalità agentiche in Chrome, nella Ricerca Google e nell'app Gemini. Ad esempio, il nuovo Agent Mode nell'app Gemini vi aiuterà a portare a termine sempre più attività. Se state cercando casa, l'agente può trovare annunci in linea con i vostri criteri su siti come Zillow, regolare i filtri, usare MCP per accedere agli annunci e persino fissare una visita. Una versione sperimentale di Agent Mode arriverà presto per gli abbonati nell'app Gemini. È un ottimo modo anche per aziende come Zillow, che possono così attrarre nuovi clienti e aumentare i tassi di conversione.
Si tratta di un ambito nuovo e in rapida evoluzione, e siamo felici di esplorarne il potenziale per offrire vantaggi reali agli utenti e all'ecosistema più ampio.
Il potere della personalizzazione
Il modo migliore per trasformare la ricerca in realtà concreta è renderla davvero utile nella vita di tutti i giorni. Ed è qui che la personalizzazione diventa estremamente potente. Stiamo lavorando per realizzare questo obiettivo attraverso ciò che chiamiamo contesto personale. Con il vostro consenso, i modelli Gemini potranno utilizzare informazioni contestuali personali rilevanti dalle app Google in modo privato, trasparente e completamente sotto il vostro controllo.
Un esempio sono le nuove risposte rapide personalizzate in Gmail. Se un contatto vi scrive per chiedere consigli su un viaggio on the road che avete già fatto, Gemini può cercare automaticamente nelle vecchie email e nei file in Google Drive, elementi come, ad esempio, itinerari salvati in Documenti Google, per suggerire una risposta ricca di dettagli utili. La risposta rispecchierà, inoltre, anche il vostro saluto tipico, il tono, lo stile e persino le parole che usate più spesso, per creare una testo che vi rappresenti in modo autentico. Le risposte rapide personalizzate saranno disponibili per gli abbonati entro la fine dell'anno. Potete già immaginare l'utilità che il contesto personale avrà anche in prodotti come la Ricerca, Gemini e molti altri.
AI Mode nella Ricerca
I nostri modelli Gemini contribuiscono a rendere la Ricerca Google più intelligente, agentica e personalizzata.
Dal lancio dello scorso anno, AI Overview è stata estesa a oltre 1,5 miliardi di utenti in 200 paesi e territori. Col tempo, stiamo osservando che gli utenti sono più soddisfatti dei risultati e tendono a eseguire ricerche con maggiore frequenza. Nei nostri mercati principali come Stati Uniti e India, AI Overview sta generando più del 10% di crescita nelle tipologie di domande che le mostrano. E la crescita continua ad aumentare nel tempo.
Si tratta di una delle novità della Ricerca di maggior successo nell'ultimo decennio.
Per chi desidera un'esperienza di ricerca completamente basata sull'AI, stiamo introducendo AI Mode, in versione rinnovata. La Ricerca viene completamente ripensata. Grazie a capacità di ragionamento più avanzate, sarà possibile porre ad AI Mode domande più lunghe e complesse. Gli early tester hanno già iniziato a fare domande da due a tre volte più lunghe rispetto alle ricerche tradizionali, con la possibilità di proseguire con domande aggiuntive. Questa funzionalità è disponibile come nuova scheda all'interno della Ricerca.
L'ho usata molto spesso e ha trasformato radicalmente il mio modo di utilizzare la Ricerca. Sono lieto di annunciare che AI Mode è disponibile da oggi per tutti gli utenti negli Stati Uniti. Grazie agli ultimi modelli Gemini, le risposte AI raggiungono standard elevatissimi di qualità e accuratezza, in linea con quelli della Ricerca, e sono inoltre le più rapide del settore. E, da questa settimana, Gemini 2.5 arriverà nella Ricerca.
Migliora il nostro modello più sofisticato: Gemini 2.5
Il nostro modello più potente ed efficiente, Gemini 2.5 Flash, è stato molto apprezzato dagli sviluppatori per la sua velocità e il costo contenuto. Il nuovo Flash 2.5 è migliore in quasi ogni aspetto, con significativi passi avanti in benchmark chiave relativi a ragionamento, multimodalità, codice e contesti estesi. È secondo solo a 2.5 Pro nella classifica di LMArena.
Stiamo inoltre migliorando 2.5 Pro con l'introduzione di una nuova modalità avanzata di ragionamento, Deep Think, che si basa sulle nostre ricerche più recenti su pensiero e ragionamento, e include tecniche di ragionamento parallelo.
Un'app Gemini più personale, proattiva e potente
Deep Research diventa più personale, per consentirvi di caricare i vostri file e, a breve, di connettervi a Google Drive e Gmail, migliorando la sua capacità di generare report di ricerca personalizzati. Inoltre, stiamo eseguendo l'integrazione con Canvas, per consentire la creazione di infografiche dinamiche, quiz e persino podcast in numerose lingue con un solo clic. Oltre a questo, stiamo assistendo all'entusiasmante adozione del vibe coding con Canvas, che permette a sempre più persone di creare app funzionali, semplicemente conversando con Gemini.
Per quanto riguarda Gemini Live, una funzionalità che ha riscontrato un grande apprezzamento tra gli utenti, stiamo rendendo disponibili gratuitamente le funzionalità di condivisione della fotocamera e dello schermo per tutti, inclusi gli utenti iOS. A breve sarà possibile anche collegare Gemini Live alle vostre app Google preferite, per un'assistenza ancora più fluida.
I miglioramenti nei nostri modelli multimediali generativi
Vi presentiamo il nostro ultimo modello video all'avanguardia, Veo 3, che ora include la generazione di audio nativa. Stiamo inoltre introducendo Imagen 4, il nostro modello di generazione di immagini più recente e potente. Entrambi sono disponibili nell'app Gemini, che schiude un mondo completamente nuovo alla creatività.
Stiamo offrendo ai registi queste opportunità grazie a un nuovo strumento, Flow. Potrete creare clip cinematografici e trasformare un clip breve in una scena più lunga.
Un'occasione per rendere la vita migliore
L'opportunità offerta dall'AI è davvero enorme. Sarà compito di questa nuova generazione di sviluppatori, innovatori e risolutori di problemi fare in modo che i vantaggi dell'AI possano raggiungere quante più persone possibile. È particolarmente stimolante pensare che la ricerca a cui stiamo lavorando oggi sarà alla base della realtà di domani, dalla robotica al calcolo quantistico, da AlphaFold a Waymo.
L'opportunità di migliorare la vita delle persone non è qualcosa che do per scontato. Me l’ha ricordato un recente esperienza. Ero a San Francisco con i miei genitori e la prima cosa che hanno voluto fare è stata salire su un'auto Waymo, che, a quanto pare, sta diventando una delle principali attrazioni turistiche della città. Io le avevo già provate, ma mio padre, che ha più di 80 anni, ne è rimasto completamente affascinato. Questo evento mi ha fatto vedere il progresso con occhi nuovi.
È stato un promemoria del potere straordinario della tecnologia di ispirare, stupire e spingerci in avanti. Non vedo l'ora di scoprire cosa costruiremo insieme in futuro.