Google Cloud Next’24 : Un aperçu des annonces produits
L’an passé, le monde commençait tout juste à imaginer comment l’intelligence artificielle (IA) générative pourrait transformer les entreprises. Aujourd’hui, cette transformation est bien engagée.
Plus de 60% des start-ups d’IA générative soutenues financièrement et 90% des licornes positionnées sur ces technologies utilisent Google Cloud, notamment des entreprises comme Anthropic, AI21Labs, Contextual AI ou Mistral AI. Lors de cette édition Next ‘24, plus de 300 clients et partenaires vont témoigner de leur utilisation de l’IA, alors que des entreprises comme IHG Hotels & Resorts, Mercedes Benz, Palo Alto Networks ou encore la Banque Scotia pour le Canada vont annoncer de nouvelles collaborations avec Google Cloud.
Chez Google, notre objectif demeure le même : rendre l’IA utile pour tous et améliorer le quotidien du plus grand nombre de personnes.
Depuis l’infrastructure et les capacités informatiques qui alimentent l’IA, jusqu’aux dernières intégrations de Gemini et la création d’agents pour de nouvelles utilisations de l’IA, voici un aperçu des innovations produits que nous annonçons à l’occasion de Cloud Next '24 et qui sont destinées à aider les organisations de toutes tailles à ouvrir de nouvelles voies à l'ère de l'IA.
Passer à l’échelle grâce à une infrastructure optimisée pour l’IA
Le potentiel de rapidité, de puissance, et de transformation de l’IA générative n’est aussi puissant que l’infrastructure qui la sous-tend. Nous réalisons des avancées considérables pour accompagner nos clients à chaque niveau :
- A3 mega : Développée avec NVIDIA, cette nouvelle capacité s’appuyant sur les GPUs Tensor Core H100, est désormais disponible et double la bande passante d'interconnexion par rapport aux instances A3. Nous annonçons également la disponibilité de Confidential A3, qui permet aux clients de mieux protéger la confidentialité et l'intégrité des données sensibles et des charges de travail d'IA pendant la formation et l'inférence.
- NVIDIA HGX B200 et NVIDIA GB200 NVL72 : Les dernières puces “Grace Blackwell” de NVIDIA feront leur entrée sur Google Cloud début 2025 en deux variantes : la HGX B200 et la GB200. La B200 est conçue pour l'entraînement et une utilisation générique, alors que la GB200 NVL72 est conçue pour l'entraînement et l’utilisation de modèles en temps réel pouvant mobiliser des milliards de paramètres.
- TPU v5p : Nous annonçons la disponibilité des TPU v5p, notre accélérateur d’IA le plus puissant, évolutif et flexible destiné à l'entraînement et l’inférence, aux capacités de calcul quatre fois supérieures à celles de la génération précédente. Aujourd'hui, nous annonçons la disponibilité de la prise en charge de Google Kubernetes Engine (GKE) pour TPU v5p. Au cours de la dernière année, l'utilisation des GPU et des TPU sur GKE a augmenté de plus de 900 %.
- Mise en cache du stockage optimisée pour l’IA : Nous accélérons la vitesse d'entraînement avec de nouvelles fonctionnalités de mise en cache dans Cloud Storage Fuse et Parallelstore, qui maintiennent les données plus près des TPU et des GPU de l’entreprise. Nous annonçons également Hyperdisk ML en version préliminaire, qui est 3,7 fois plus rapide que les alternatives de stockage de blocs habituelles.
- De nouvelles options pour Dynamic Workload Scheduler : Le mode calendrier pour l'assurance de l'heure de début et le démarrage flexible pour des économies optimisées aideront les clients à gérer de façon efficace des ressources pour la distribution de tâches d’entraînement et d'inférence complexes.
Nous apportons également l’IA encore plus près du lieu où les données sont générées et utilisées: en périphérie, dans des environnements isolés, dans les Clouds Souverains et en réseau multicloud.
Nous activons AI Anywhere via Google Distributed Cloud (GDC), permettant de choisir l'environnement, la configuration et les contrôles qui répondent le mieux aux besoins spécifiques de l’organisation. Par exemple, l’opérateur mondial de téléphonie mobile Orange, qui opère dans 26 pays où les données locales doivent être conservées dans chaque pays, exploite l'IA sur GDC pour améliorer les performances du réseau et l'expérience client.
Aujourd'hui, nous annonçons un certain nombre de nouvelles fonctionnalités dans Google Distributed Cloud, notamment :
- Les GPUs NVIDIA dans GDC : Nous intégrons les GPUs NVIDIA à GDC pour les configurations à la fois connectées et isolées. Chacun d’entre eux prendra en charge de nouvelles instances basées sur GPU pour exécuter efficacement des modèles d’IA.
- GKE sur GDC : La même technologie GKE que celle utilisée par les plus grandes entreprises d'IA sur Google Cloud sera disponible sur GDC.
- Aide à la certification des modèles : Nous certifions une variété de modèles d'IA ouverts, notamment Gemma, Llama et bien d'autres sur GDC, pour fonctionner dans divers environnements périphériques, qu’ils soient isolés ou connectés.
- Vector Search sur GDC : Nous apportons également la puissance de Vector Search pour permettre la recherche et la récupération d'informations sur GDC pour vos données privées et sensibles avec une latence extrêmement faible.
- Clouds souverains : Pour répondre aux exigences réglementaires les plus strictes, nous livrons GDC dans une configuration entièrement isolée avec des opérations locales, une capacité de survie totale, gérées par Google Cloud ou un partenaire de votre choix. Vous avez le contrôle total et, lorsqu’un changement de réglementation survient, nous avons la flexibilité nécessaire pour vous aider à vous y conformer rapidement.
Même si toutes les charges de travail ne sont pas des charges de travail d'IA, chacune de celles que vous exécutez dans le cloud nécessite d’être optimisée. Chaque application a par ailleurs des besoins techniques spécifiques.
C'est pourquoi nous introduisons des options de calcul multi-usages qui aident les clients à maximiser les performances, à permettre l'interopérabilité entre les applications et à atteindre leurs objectifs de développement durable, tout en réduisant les coûts.
- Google Axion: Notre premier processeur ArmⓇ, conçu pour les centres de données, offre des performances jusqu'à 50 % supérieures et une efficacité énergétique jusqu'à 60 % supérieure à celles des instances x86 comparables de la génération actuelle.
- Nous annonçons également N4 et C4, deux nouvelles séries de machines dans notre offre de VM (machines virtuelles) à usage général, de nouvelles machines au format« bare metal » dans la catégorie de machines C3 ; la disponibilité générale des pools de stockage Hyperdisk Advanced, ainsi qu’un certain nombre d’autres nouveautés.
Permettre le choix de la localisation des données d’IA
Nous étendons également la résidence des données stockées au repos pour les services d’IA générative sur Vertex AI à 11 nouveaux pays : Australie, Brésil, Finlande, Hong Kong, Inde, Israël, Italie, Pologne, Espagne, Suisse et Taïwan.
De plus, les clients peuvent désormais limiter le traitement de l'apprentissage automatique aux États-Unis ou dans l'Union européenne lorsqu'ils utilisent Gemini 1.0 Pro et Imagen.
- Rejoignant les 10 autres pays annoncés l'année dernière, ces nouvelles régions cloud offrent aux clients plus de contrôle sur l'endroit où leurs données sont stockées et sur la manière dont elles sont accessibles, leur permettant ainsi de répondre plus facilement aux exigences réglementaires et de sécurité dans le monde entier.
Créer des agents avec Vertex AI
Google Cloud propose plus de 130 modèles : ceux de Google, comme les dernières versions de Gemini, et des modèles tiers, dont les très populaires et ouverts Gemma, Llama 2, et Mistral. De plus, nous élargissons encore l'accès à une large variété de modèles afin que les clients aient le plus grand choix en matière de sélection de modèles :
- Gemini 1.5 Pro : Gemini 1.5 Pro propose deux tailles de fenêtres contextuelles : 128 000 tokens et 1 million de tokens, disponible en avant-première publique. Les clients peuvent traiter de grandes quantités d'informations dans un seul flux, notamment 1 heure de vidéo, 11 heures d'audio, des bases de code contenant plus de 30 000 lignes de code ou plus de 700 000 mots.
- Claude 3 : La nouvelle famille de modèles de pointe d'Anthropic est désormais disponible pour les clients sur Vertex AI.
- CodeGemma : Gemma est une famille de modèles ouverts, légers et de pointe créés par Google DeepMind. Nouvelle version optimisée de Gemma, conçue pour les cas d’usages liés au code, tels que la génération de code ou l’assistance à le produire, CodeGemma est désormais disponible sur Vertex AI.
- Imagen 2 : Notre technologie de conversion texte-image la plus avancée offre une variété de fonctionnalités de génération d'images pour aider les entreprises à créer des visuels qui correspondent aux exigences spécifiques de leur marque. Une capacité de texte-image dynamique permet aux équipes marketing et créatives de générer des images animées telles que des gifs équipés de filtres de sécurité et de filigranes numériques. Nous annonçons également des fonctionnalités avancées de retouche photo, notamment l'inpainting et l'outpainting.
- Filigrane numérique : S’appuyant sur SynthID de Google DeepMind, nous sommes fiers d'annoncer sa disponibilité dès aujourd’hui pour les images générées par l'IA produites par Imagen 2
Les clients tirent bien plus de leurs modèles lorsqu’ils les alimentent et les ancrent avec des données de leur entreprise. Aujourd'hui, nous étendons les capacités d’ancrage de Vertex AI de deux manières :
- Google Search : Les modèles ancrés dans Google Search combinent la puissance des derniers modèles de fondation de Google avec l'accès à des informations récentes et de haute qualité pour améliorer considérablement l'exhaustivité et l'exactitude des réponses.
- Vos données : Ancrez les données des applications corporatives telles que Workday ou Salesforce, et connectez facilement les systèmes de bases de données de Google, comme AlloyDB et BigQuery.
Une fois que vous avez sélectionné le bon modèle, l'avez paramétré et ancré, Vertex peut également vous aider à déployer, gérer et surveiller les modèles. Aujourd'hui, nous annonçons des fonctionnalités supplémentaires de ML opps :
- Outils de gestion des prompts : Ces outils vous permettent de collaborer sur des prompts définis, avec des notes, des statuts, le suivi de modifications au fil du temps, et de comparer la qualité des réponses de différents prompts.
- Évaluation automatique côte à côte (Auto SxS) : Désormais disponible, Auto SxS fournit des explications sur les raisons pour lesquelles une réponse surpasse une autre ainsi que des pointages de certitude, aidant ainsi les utilisateurs à comprendre l'exactitude de l'évaluation.
- Fonctionnalité d'évaluation rapide : Désormais en version préliminaire, elle aide les clients à évaluer rapidement les modèles sur des ensembles de données plus restreints pendant la conception des prompts.
- Surveillance du modèle : Cela vous aide à détecter les changements dans la qualité du modèle en production, en identifiant des éléments tels que la dérive des données et les anomalies.
Enfin, Vertex AI Agent Builder rassemble des modèles de fondation, Google Search et d'autres outils de développement pour faciliter la création et le déploiement d'agents. Il offre la commodité d’une console de création d’agents sans code ainsi que de puissantes capacités d’ancrage, d’orchestration et d’augmentation. Avec Vertex AI Agent Builder, vous pouvez désormais créer rapidement une gamme d'agents d’IA générative, s’appuyant sur Google Search et sur les données de votre organisation.
Accélérez le développement
Gemini Code Assist est notre solution d'assistance au code IA destinée aux entreprises.
Nous l’avons déployée auprès d’un groupe de développeurs au sein de Google et avons constaté des retombées significatives, notamment un temps d'exécution 40 % plus rapide pour les tâches de développement courantes et 55 % de temps en moins pour écrire du nouveau code.
Pour soutenir les développeurs, nous annonçons :
- Gemini 1.5 Pro dans Gemini Code Assist : Cette mise à niveau apporte une énorme fenêtre contextuelle d'un million de tokens, révolutionnant le codage, même pour les projets les plus importants. Gemini Code Assist fournit désormais des suggestions de code encore plus précises, des informations plus approfondies et des flux de travail rationalisés.
- Gemini Cloud Assist : Il fournit une assistance par l'IA tout au long du cycle de vie de votre application, facilitant ainsi la conception, la sécurisation, l'exploitation, le dépannage et l'optimisation des performances et des coûts de votre application.
Libérer le potentiel de l’IA avec ses données
Google Cloud vous permet de combiner le meilleur de l'IA avec les données ancrées de votre entreprise, tout en préservant la confidentialité et la sécurité de vos données. Aujourd’hui, nous annonçons de nouvelles améliorations pour aider les organisations à créer d’excellents agents de données :
- Gemini dans BigQuery : Gemini dans BigQuery utilise l'IA pour aider vos équipes de données dans la préparation, la découverte, l'analyse et la gouvernance des données. Par ailleurs, vous pouvez créer et exécuter des pipelines de données avec notre nouveau BigQuery Data Canvas, qui offre une nouvelle expérience de type « notebook » avec langage naturel et visualisations intégrées, tous deux disponibles en version préliminaire.
- Gemini dans les bases de données : Cela vous permet de migrer facilement des données en toute sécurité à partir de systèmes existants, par exemple en convertissant votre base de données en une base de données cloud moderne comme AlloyDB.
- Gemini dans Looker : Nous introduisons de nouvelles fonctionnalités, actuellement en version préliminaire, qui permettent à vos agents de données de s'intégrer facilement à vos flux de travail. Nous avons également ajouté des fonctionnalités d'IA de nouvelle génération pour vous permettre de discuter avec les données de votre entreprise. Celles-ci sont intégrées à Google Workspace.
Améliorer sa posture de cybersécurité grâce à l’IA
L’IA générative a le potentiel de mieux protéger les organisations, alors que les agents de sécurité fournissent leur aide à chaque étape du processus de sécurité. Les innovations du portfolio de sécurité de Google Cloud permettent des résultats encore meilleurs et incluent:
- Gemini in Threat Intelligence : Utilise le langage naturel pour fournir des informations approfondies sur le comportement des acteurs malveillants. Avec Gemini, nous sommes en mesure d’analyser des échantillons de code potentiellement malveillant beaucoup plus importants. La fenêtre contextuelle plus étendue de Gemini permet d'analyser les interactions entre les modules, fournissant ainsi un nouvel aperçu de la véritable intention du code.
- Gemini dans les opérations de sécurité : Une nouvelle fonctionnalité d'investigation assistée convertit le langage naturel en détections, résume les données d'événements, recommande des actions à entreprendre et guide les utilisateurs à travers la plateforme via un chat conversationnel.
- Gemini dans Security Command Center : Résume les alertes critiques et prioritaires concernant les mauvaises configurations et les vulnérabilités, et peut proposer des recommandations sur la fermeture d’exploits potentiels lors de simulation de voie d’attaques.
Accroître la productivité avec Google Workspace
Avec Gemini for Workspace, les entreprises disposent d'un agent d'IA directement intégré à Gmail, Docs, Sheets, et bien plus encore. Aujourd'hui, nous annonçons la prochaine vague d'innovations et d'améliorations de Gemini pour Google Workspace, notamment :
- Google Vids : Cette nouvelle application Workspace permet de créer des contenus vidéo professionnels grâce à l’IA. Elle peut générer un story-board que vous pouvez facilement modifier, puis composer un premier essai à partir des suggestions de scènes depuis des bibliothèques de vidéos, d’images et de musique. Elle peut également aider à la synchronisation de la voix à partir de la vôtre ou de celles enregistrées. Vids collaborera avec les autres outils de productivité que sont Docs, Sheets et Slides. Elle inclut une interface simple et facile d’utilisation et permet de collaborer et de partager des projets de façon sécurisée avec son navigateur. Vids sera disponible dans Workspace Labs en juin.
- Module complémentaire AI Meetings and Messaging : Avec « prendre des notes pour moi », un résumé du chat et une traduction en temps réel dans 69 langues (soit 4 600 associations linguistiques possibles), cet outil de collaboration ne coûtera que 10 $ par utilisateur, par mois.
- Nouveau module complémentaire AI Security : Les administrateurs de Workspace peuvent désormais classer et protéger automatiquement les fichiers et les données sensibles à l'aide de modèles d'IA préservant la confidentialité et de contrôles de prévention contre la perte de données entraînés pour leur organisation. Le module complémentaire AI Security est disponible au prix de 10 $ par utilisateur, par mois, et peut être ajouté à la plupart des forfaits Workspace, selon la localisation et la langue utilisée.
Tirer parti des agents d’Intelligence artificielle
Avec l'ensemble de nos technologies d'IA (infrastructure, Gemini, modèles, Vertex AI), nos clients et partenaires créent des agents d'IA de plus en plus sophistiqués qui sont au service de leurs propres clients, qui assistent leurs collaborateurs, qui les aident à créer du contenu, et bien plus encore.
Des agents clients adaptés et performants peuvent aider les clients des entreprises et institutions à interagir de manière plus transparente avec elles, en conjuguant les différents canaux (Web, mobile, centre d'appels et point de vente) et selon de multiples modalités, comme le texte, la voix, etc.
Les agents intelligents pour les employés les aident à être plus productifs et à mieux travailler ensemble. Ils permettent de faciliter les processus, gérer des tâches répétitives, répondre à leurs questions ou encore corriger et accélérer la traduction de communications importantes.
Les agents pour les créatifs peuvent constituer la meilleure équipe de conception et de production de contenus : ils travaillent sur des images et des diapositives, puis explorent des concepts avec leurs utilisateurs. Google Cloud propose la plateforme et l’ensemble de solutions les plus puissantes pour développer des agents créatifs.
Au-delà des annonces produits, les ingénieurs de Google s’efforcent de construire une plateforme ouverte qui propose une multitude d’options, qui est simple à intégrer et qui est soutenue par un large écosystème d’entreprises clientes et partenaires.
Au regard de l’année qui vient de s’écouler, il est vraiment remarquable de constater avec quelle rapidité nos clients sont passés de l’enthousiasme et de l’expérimentation à la mise en œuvre et au lancement d’outils et de produits d’IA. Nous avons bien hâte de voir la suite !