Google I/O 2025 : De la recherche à la réalité

Remarque de l'éditeur : Vous trouverez ci-dessous une transcription éditée du discours de Sundar Pichai, PDG de Google, lors de la conférence Google I/O 2025, adapté pour inclure davantage d'informations sur ce qui a été annoncé sur scène. Consultez toutes les annonces dans notre collection.
Auparavant, vous n'auriez pas beaucoup entendu parler de nous dans les semaines précédant la conférence, car nous aurions réservé nos meilleurs modèles pour la conférence. Mais à l'ère de Gemini, nous pouvons tout aussi bien lancer notre modèle le plus intelligent un mardi de mars ou annoncer une avancée vraiment intéressante comme AlphaEvolve la semaine juste avant.
Nous voulons vous proposer nos meilleurs modèles et les intégrer à nos produits le plus vite possible. C'est pourquoi nous effectuons nos lancements à une vitesse inédite.

Des modèles en constante amélioration
Je me réjouis particulièrement des progrès rapides des modèles. Les scores Elo, qui mesurent ces progrès, ont augmenté de plus de 300 points depuis la première génération de notre modèle Gemini Pro. Aujourd'hui, Gemini 2.5 Pro domine le classement LMArena dans toutes les catégories.
C'est grâce à notre infrastructure de pointe que nous améliorons les modèles. Notre TPU de septième génération, Ironwood, est le premier conçu spécifiquement pour alimenter l'IA à des fins de raisonnement et d'inférence à grande échelle. Il offre des performances 10 fois supérieures à celles de la génération précédente et intègre un incroyable processeur de calcul de 42,5 exaflops par pod. C'est tout simplement incroyable.
La solidité de notre infrastructure, y compris le TPU, nous permet de proposer des modèles considérablement plus rapides, alors même que leur prix baisse de manière significative. Nous avons prouvé à de nombreuses reprises que nous étions capables de proposer les meilleurs modèles au prix le plus efficace. Google ne se contente pas de dominer la frontière de Pareto, nous l'avons carrément déplacée.

Le monde entier adopte l'IA
L'intelligence est désormais plus largement accessible à tous, partout. Et le monde réagit en adoptant l'IA plus rapidement que jamais. Voici quelques indicateurs de progrès importants :
- L'an dernier à la même période, nous traitions 9,7 billions de jetons par mois sur l'ensemble de nos produits et API. Aujourd'hui, nous en traitons plus de 480 billions, soit 50 fois plus.
- Plus de 7 millions de développeurs utilisent Gemini, soit cinq fois plus qu'à la même période l'an dernier, et l'utilisation de Gemini sur Vertex AI a été multipliée par 40.
- L'appli Gemini compte désormais plus de 400 millions d'utilisateurs actifs par mois. Nous constatons une forte croissance et un engagement important, en particulier avec la série de modèles 2.5. Pour les utilisateurs de 2.5 Pro dans l'appli Gemini, l'utilisation a augmenté de 45 %.
De la recherche à la réalité
Tous ces progrès signifient que nous sommes entrés dans une nouvelle phase de la transition vers les plates-formes d'IA. Des décennies de recherche qui deviennent aujourd'hui une réalité pour les personnes, les entreprises et les communautés du monde entier.
Project Starline → Google Beam + traduction vocale
Nous vous avons présenté Project Starline, notre technologie vidéo 3D révolutionnaire, lors de la conférence I/O il y a quelques années. L'objectif était de donner l'impression d'être dans la même pièce que quelqu'un, même si vous étiez loin.
Nous avons continué à faire des progrès techniques. Aujourd'hui, nous sommes prêts à vous présenter le prochain chapitre : Google Beam, une nouvelle plate-forme de communications vidéo optimisée par l'IA. Beam utilise un nouveau modèle vidéo de pointe pour transformer les flux vidéo 2D en une expérience 3D réaliste. Il utilise un ensemble de six caméras et l'IA pour fusionner les flux vidéo et les afficher sur un écran 3D à champ lumineux. Il offre un suivi de la tête quasi parfait, au millimètre près, à 60 images par seconde, le tout en temps réel. Résultat : une expérience de conversation beaucoup plus naturelle et immersive. En collaboration avec HP, les premiers appareils Google Beam seront disponibles pour les premiers clients plus tard dans l'année.

Au fil des ans, nous avons également créé des expériences beaucoup plus immersives dans Google Meet. Cela inclut la technologie de traduction vocale, bientôt disponible dans Google Meet, qui aide les utilisateurs à surmonter les barrières linguistiques. En temps quasi réel, elle peut reproduire la voix, le ton et même les expressions du locuteur, pour des conversations fluides et naturelles dans différentes langues. La traduction en anglais et en espagnol est en cours de déploiement en version bêta pour les abonnés Google AI Pro et Ultra, et d'autres langues seront disponibles dans les prochaines semaines. Les clients Workspace professionnels pourront commencer à tester cette fonctionnalité cette année.
Project Astra → Gemini Live
Project Astra est un autre projet de recherche passionnant présenté pour la première fois lors de la conférence I/O. Il explore les futures capacités d'un assistant IA universel capable de comprendre le monde qui nous entoure. Gemini Live intègre désormais les fonctionnalités de partage de caméra et d'écran de Project Astra. Les gens l'utilisent de façon créative, que ce soit pour préparer un entretien d'embauche ou s'entraîner pour un marathon. Cette fonctionnalité est déjà disponible pour tous les utilisateurs Android et est en cours de déploiement pour les utilisateurs iOS à partir d'aujourd'hui.
Nous proposons également des fonctionnalités similaires dans des produits comme la recherche Google.
Project Mariner → Mode Agent
Nous considérons les agents comme des systèmes qui combinent l'intelligence de modèles d'IA avancés et l'accès à des outils, afin qu'ils puissent effectuer des actions pour vous et sous votre contrôle.
Notre premier prototype de recherche, Project Mariner, est un premier pas vers la création d'agents capables d'utiliser l'ordinateur pour interagir avec le Web et effectuer des tâches à votre place. Nous l'avions lancé en tant que prototype de recherche en décembre, et nous avons fait beaucoup de progrès depuis. Nous avons développé de nouvelles fonctionnalités de multitâche, ainsi qu'une méthode appelée "enseigner et répéter", qui permet de montrer comment réaliser une tâche afin que le prototype apprenne ensuite des protocoles permettant de réaliser des tâches similaires. Nous mettons à la disposition des développeurs les fonctionnalités de Project Mariner via l'API Gemini. Des testeurs de confiance comme Automation Anywhere et UiPath commencent déjà à l'utiliser, et il sera disponible plus largement cet été.
La capacité à utiliser l'ordinateur fait partie d'un ensemble plus large de fonctionnalités que nous allons devoir développer pour que l'écosystème des agents puisse se développer.
Certaines sont déjà disponibles, comme notre protocole ouvert Agent2Agent, qui permet aux agents de communiquer entre eux, ou le protocole MCP (Model Context Protocol) d'Anthropic, qui permet aux agents d'accéder à d'autres services. Aujourd'hui, nous sommes fiers d'annoncer que notre API et notre SDK Gemini sont désormais compatibles avec les outils MCP.
Nous commençons également à intégrer des fonctionnalités agentives dans Chrome, la recherche Google et l'appli Gemini. Par exemple, le nouveau mode Agent de l'appli Gemini vous aidera à accomplir encore plus de choses. Si vous recherchez un appartement, il pourra vous trouver des annonces qui correspondent à vos critères sur des sites comme Zillow, et pourra également ajuster vos filtres, utiliser MCP pour accéder aux annonces et même planifier une visite pour vous. Une version expérimentale du mode Agent dans l'appli Gemini sera bientôt disponible pour les abonnés. Cela représente un avantage considérable pour des entreprises comme Zillow, qui attirent ainsi de nouveaux clients et améliorent leurs taux de conversion.
C'est un domaine émergent, et nous allons devoir réfléchir à la meilleure manière de proposer les agents aux utilisateurs et à l'écosystème dans son ensemble. Cela va être passionnant.
La puissance de la personnalisation
La meilleure façon d'ancrer la recherche dans le monde réel est de la rendre vraiment utile pour vous, dans votre propre environnement. C'est là que la personnalisation sera vraiment efficace. Nous travaillons à concrétiser cette vision avec ce que nous appelons le contexte personnel. Avec votre autorisation, les modèles Gemini peuvent utiliser le contexte personnel utile dans vos applications Google de manière privée, transparente et entièrement contrôlée par vous.
Nos nouvelles réponses suggérées personnalisées dans Gmail en sont un exemple. Si un ami vous envoie un e-mail pour vous demander des conseils sur un road trip que vous avez fait par le passé, Gemini peut faire des recherches dans vos e-mails et fichiers Google Drive, comme les itinéraires que vous avez créés dans Google Docs, et vous suggérer une réponse avec des détails précis et utiles. Il reprendra votre formule d'introduction habituelle, votre ton, votre style et même vos mots préférés pour générer une réponse plus pertinente qui sonne comme si vous l'aviez écrite vous-même. Les réponses suggérées personnalisées seront disponibles pour les abonnés plus tard dans l'année. Vous imaginez à quel point le contexte personnel sera utile dans la recherche Google, dans Gemini et ailleurs.
Le Mode IA dans la recherche Google
Nos modèles Gemini contribuent à rendre la recherche Google plus intelligente, plus agentive et plus personnalisée.
Depuis leur lancement l'an dernier, les Aperçus IA ont été adoptés par plus de 1,5 milliard d'utilisateurs et sont désormais disponibles dans 200 pays et territoires. Nous avons constaté que les internautes qui utilisent les Aperçus IA sont plus satisfaits des résultats qu'ils obtiennent et effectuent plus de recherches. Sur nos plus grands marchés, comme les États-Unis et l'Inde, les Aperçus IA génèrent une croissance de plus de 10 % des types de requêtes qui les affichent, et cette croissance augmente avec le temps.
C'est l'un des lancements les plus réussis dans la recherche Google au cours de la dernière décennie.
Pour ceux qui souhaitent profiter d'une expérience de recherche optimisée par l'IA de bout en bout, nous lançons un tout nouveau Mode IA. C'est une refonte complète de la recherche Google. Grâce à un raisonnement plus avancé, vous pouvez poser des questions plus longues et plus complexes au Mode IA. Les premiers testeurs ont formulé des requêtes deux à trois fois plus longues que les recherches traditionnelles, et vous pouvez aller plus loin avec des questions de suivi. Tout cela est disponible dans un nouvel onglet, directement dans la recherche.
Je l'utilise beaucoup, et cela a complètement changé ma façon d'utiliser la recherche. Et j'ai le plaisir de vous annoncer que le Mode IA sera disponible pour tous les utilisateurs aux États-Unis dès aujourd'hui. Grâce à nos derniers modèles Gemini, les réponses de notre IA offrent la qualité et la précision que vous attendez de la recherche Google, et sont les plus rapides du secteur. Et à partir de cette semaine, Gemini 2.5 sera aussi disponible dans la recherche aux États-Unis.
Notre modèle le plus intelligent s'améliore encore : Gemini 2.5
Notre modèle de référence le plus puissant et le plus efficace, Gemini 2.5 Flash, a rencontré un succès incroyable auprès des développeurs, qui apprécient sa rapidité et son faible coût. La nouvelle version 2.5 de Flash est améliorée sur presque tous les plans, avec des résultats plus performants sur les principaux benchmarks pour le raisonnement, la multimodalité, le code et le contexte long. Elle n'est devancée que par 2.5 Pro dans le classement LMArena.
Nous améliorons encore davantage 2.5 Pro en introduisant un mode de raisonnement avancé que nous appelons Deep Think. Il s'appuie sur nos dernières recherches de pointe en matière de pensée et de raisonnement, y compris sur les techniques de pensée parallèle.
Une appli Gemini plus personnalisée, proactive et puissante
Nous rendons Deep Research plus personnel en vous permettant d'importer vos propres fichiers et, bientôt, de le connecter à Google Drive et Gmail. Cela améliorera sa capacité à générer des rapports de recherche personnalisés. Nous sommes également en train de l'intégrer à Canvas, ce qui permet de créer des infographies dynamiques, des quiz et même des podcasts dans de nombreuses langues en un seul clic. Par ailleurs, nous constatons une adoption prometteuse du codage par vibration avec Canvas, qui permet à davantage de personnes de créer des applications fonctionnelles en discutant simplement avec Gemini.
Quant à Gemini Live, une fonctionnalité qui a vraiment séduit les utilisateurs, nous rendons les fonctionnalités de partage de caméra et d'écran accessibles à tous, y compris aux utilisateurs iOS, et nous allons bientôt les connecter à vos applications Google préférées pour une assistance encore plus fluide.
Nos modèles multimédias génératifs s'améliorent
Nous lançons Veo 3, notre tout dernier modèle de génération de vidéos, qui intègre désormais la génération audio. Nous vous présentons également Imagen 4, notre dernier modèle de génération d'images le plus performant à ce jour. Ces deux fonctionnalités sont disponibles dans l'appli Gemini et inaugurent une nouvelle ère de créativité.
Ces capacités sont également accessibles aux réalisateurs via un nouvel outil appelé Flow. Vous pouvez créer des séquences cinématographiques et transformer un court extrait en scène plus longue.
Une opportunité pour améliorer la vie des gens
L'IA offre une mine d'opportunités. Et c'est à cette vague de développeurs, de créateurs de technologies et d'experts en résolution de problèmes de s'assurer qu'elle profite au plus grand nombre. Les recherches sur lesquelles nous travaillons aujourd'hui deviendront la base de la réalité de demain, de la robotique à la technologie quantique, en passant par AlphaFold et Waymo. C'est une source d'inspiration pour nous tous.
Cette opportunité d'améliorer la vie des gens n'est pas quelque chose que je prends à la légère. Une expérience récente me l'a concrètement rappelé. J'étais à San Francisco avec mes parents. La première chose qu'ils ont voulu faire, c'est monter dans un Waymo, qui est apparemment en train de devenir l'une des principales attractions touristiques de la ville. J'avais déjà pris des Waymo, mais mon père, qui a plus de 80 ans, était totalement émerveillé. J'ai vu le progrès sous un tout nouveau jour.
Cela m'a rappelé que la technologie possède l'incroyable pouvoir de nous inspirer, de nous émerveiller et de nous faire avancer. Et j'ai hâte de voir les choses incroyables que nous allons créer ensemble.