Gemini 2.0 est maintenant disponible pour tout le monde
![N/A](https://storage.googleapis.com/gweb-uniblog-publish-prod/images/unnamed_32.width-1200.format-webp.webp)
Le mois dernier, nous avons inauguré l'ère des agents en lançant une version expérimentale de Gemini 2.0 Flash — notre modèle de travail très efficace pour les développeurs, avec une faible latence et des performances améliorées. Plus tôt cette année, nous avons mis à jour 2.0 Flash Thinking Expérimental dans Google AI Studio, ce qui a amélioré ses performances en combinant la vitesse de Flash avec la capacité de raisonner à travers des problèmes plus complexes.
De plus, la semaine dernière, nous avons rendu une version mise à jour de 2.0 Flash disponible à tous les utilisateurs de l’application Gemini sur ordinateur et sur mobile, aidant tout le monde à découvrir de nouvelles façons de créer, d'interagir et de collaborer avec Gemini.
Aujourd’hui, nous rendons la version mise à jour de Gemini 2.0 Flash disponible pour tous via le API Gemini dans Google AI Studio et Vertex AI. Les développeurs peuvent maintenant créer des applications de production avec 2.0 Flash.
Nous lançons aussi une version expérimentale de Gemini 2.0 Pro, notre meilleur modèle jusqu’à ce jour en termes de performance de codage et de requêtes complexes. Cette version sera disponible dans Google AI Studio et Vertex AI, et dans l’application Gemini pour les utilisateurs de Gemini Advanced.
Nous lançons un nouveau modèle, Gemini 2.0 Flash-Lite, notre modèle le plus économique jusqu’à présent, en aperçu public dans Google AI Studio et Vertex AI.
Finalement, 2.0 Flash Thinking Experimental sera disponible aux utilisateurs de l’application Gemini dans le menu déroulant des modèles sur ordinateur et sur mobile.
Tous ces modèles comprendront une entrée multimodale avec une sortie textuelle à leur lancement, et d’autres modalités seront disponibles au public dans les mois à venir. Plus d’informations, notamment les détails sur les prix, sont disponibles sur le blogue Google for Developers. À l’avenir, nous travaillons sur plus de mises à jour et sur des capacités améliorées pour la famille de modèles Gemini 2.0.
2.0 Flash : une nouvelle mise à jour pour la disponibilité générale
Tout d’abord présentée lors de I/O 2024, la série de modèles Flash est populaire avec les développeurs en tant que modèle de travail puissant, optimal pour les tâches à grande échelle, à haute fréquence et à volume élevé, et hautement capable d'un raisonnement multimodal à travers de vastes quantités d'informations avec une fenêtre contextuelle de 1 million de tokens. Nous avons été très heureux de voir comment elle a été reçue par la communauté des développeurs.
2.0 Flash est maintenant disponible pour un public plus large à travers nos produits d’IA, avec des performances améliorées dans des tests de référence clés comme LiveCodeBench et MMMU, et la génération d’images et la synthèse vocale seront bientôt disponibles.
Essayez Gemini 2.0 Flash dans l’application Gemini ou l’API Gemini dans Google AI Studio et Vertex AI. Les détails sur les prix sont disponibles sur le blogue Google for Developers.
2.0 Pro Experimental: Notre meilleur modèle jusqu’à ce jour pour les performances de codage et les requêtes complexes
Alors que nous avons continué à partager des versions expérimentales préliminaires de Gemini 2.0 comme Gemini-Exp-1206, nous avons reçu d'excellents commentaires des développeurs sur ses points forts et ses meilleurs cas d'utilisation, comme le codage.
Aujourd’hui, nous lançons une version expérimentale de Gemini 2.0 Pro qui répond à ces commentaires. Elle a la meilleure performance de codage et la capacité de traiter des requêtes complexes, avec une meilleure compréhension et un raisonnement basé sur la connaissance du monde, que n’importe quel autre modèle que nous avons lancé jusqu’à présent. Il est doté de notre plus grande fenêtre contextuelle, soit 2 millions de tokens, ce qui lui permet d'analyser et de comprendre de manière exhaustive de vastes quantités d'informations, ainsi que la capacité d'utiliser des outils tels que la recherche Google et l'exécution de code.
![N/A](https://storage.googleapis.com/gweb-uniblog-publish-prod/original_images/gemini_benchmarks_cropped_light1x.gif)
Gemini 2.0 Pro est disponible dès maintenant en tant que modèle expérimental aux développeurs dans Google AI Studio et Vertex AI et aux utilisateurs de Gemini Advanced dans le menu déroulant des modèles sur ordinateur et sur mobile.
2.0 Flash-Lite: notre modèle le plus économique jusqu’à présent
Nous avons reçu beaucoup de commentaires positifs sur le prix et la vitesse de 1.5 Flash. Nous voulions continuer à en améliorer la qualité, tout en conservant le prix et la vitesse. Aujourd’hui, nous présentons 2.0 Flash-Lite, un nouveau modèle de meilleure qualité que 1.5 Flash, mais tout aussi rapide et au même prix. Celui-ci dépasse 1.5 Flash sur la majorité des tests de référence.
Tout comme 2.0 Flash, sa fenêtre contextuelle est d'un million de tokens et il accepte les entrées multimodales. Par exemple, il peut générer une légende d'une ligne pertinente pour environ 40 000 photos uniques, pour un coût inférieur à un dollar dans le niveau payant de Google AI Studio.
Gemini 2.0 Flash-Lite est disponible dans Google AI Studio et Vertex AI en aperçu public.
Notre travail en matière de responsabilité et de sécurité
Alors que la famille de modèles Gemini devient plus performante, nous continuerons à investir dans des mesures robustes qui permettent une utilisation sûre et sécurisée. Par exemple, notre gamme Gemini 2.0 a été conçue avec de nouvelles techniques d’apprentissage par renforcement qui font appel à Gemini pour évaluer ses propres réponses. Cela a permis d’obtenir une rétroaction plus précise et ciblée et a amélioré la capacité du modèle à traiter les requêtes sensibles.
Bientôt, nous partagerons des détails sur notre utilisation de techniques supplémentaires de tests d’intrusion que nous avons développées pour évaluer les risques liés à la cybersécurité qui consiste à dissimuler des instructions malveillantes dans les données.