Accéder au menu principal
Blogue Google Canada

IA

Nos 10 plus grands moments en IA à ce jour

NA

Au cas où vous ne l'auriez pas remarqué, l'IA fait l'objet d'une attention toute particulière ces derniers temps. Mais chez Google, elle a toujours été au cœur de l'actualité, et ce pour de bonnes raisons. Elle a le pouvoir de faciliter vos tâches quotidiennes et de contribuer à résoudre les problèmes les plus importants de la société. À l'occasion de notre 25e anniversaire, nous revenons sur certains des plus grands moments de l'IA que nous avons vécus jusqu'à présent, et nous nous réjouissons des étapes encore plus importantes qui nous attendent.

2001 : L’apprentissage automatique aide les utilisateurs de Google Search à corriger leur orthographe

Le cofondateur de Google, Larry Page, a déclaré un jour : « Le moteur de recherche parfait devrait comprendre exactement ce que vous voulez dire et vous renvoyer exactement ce dont vous avez besoin. » Nous avons fait un grand pas en avant pour concrétiser cette vision lorsque nous avons commencé à utiliser une version simple de l'apprentissage automatique pour suggérer de meilleures orthographes pour les recherches sur le Web. Même si votre saisie n'est pas parfaite, nous pouvons toujours vous donner ce dont vous avez besoin.

NA

2006 : Lancement de Google Traduction

Cinq ans plus tard, nous avons lancé Google Traduction, qui utilise l'apprentissage automatique pour traduire automatiquement les langues. Nous avons commencé par des traductions de l'arabe vers l'anglais et de l'anglais vers l'arabe, mais aujourd'hui, Google Traduction prend en charge 133 langues parlées par des millions de personnes dans le monde. Cette technologie peut traduire du texte, des images ou même une conversation en temps réel, ce qui permet de faire tomber les barrières linguistiques au sein de la communauté mondiale, d'aider les gens à communiquer et d'élargir l'accès à l'information comme jamais auparavant.

2015 : TensorFlow démocratise l’IA

L'introduction de TensorFlow, un nouveau cadre d'apprentissage machine open source, a rendu l'IA plus accessible, évolutive et efficace. Elle a également contribué à accélérer le rythme de la recherche et du développement en matière d'IA dans le monde entier. TensorFlow est aujourd'hui l'un des cadres d'apprentissage automatique les plus populaires et a été utilisé pour développer un large éventail d'applications d'IA, de la reconnaissance d'images au traitement du langage naturel en passant par la traduction automatique.

2016 : AlphaGo bat le champion du monde de Go

Dans le cadre du Google DeepMind Challenge Match, plus de 200 millions de personnes ont regardé en ligne AlphaGo devenir le premier programme d'IA à vaincre un champion du monde humain au jeu de Go, un jeu de plateau complexe auparavant considéré comme hors de portée des machines. Cette victoire marquante a démontré le potentiel de l'apprentissage profond à résoudre des problèmes complexes autrefois considérés comme impossibles pour les ordinateurs. La victoire d'AlphaGo sur Lee Sedol, l'un des meilleurs joueurs de Go au monde, a suscité une conversation mondiale sur l'avenir de l'IA et a montré que les systèmes d'IA pouvaient désormais apprendre à maîtriser des jeux complexes nécessitant une réflexion stratégique et de la créativité.

2016 : Les TPU permettent un déploiement plus rapide et plus efficace de l’IA

Les Tensor Processing Units, ou TPU, sont des puces de silicium conçues sur mesure que nous avons spécifiquement inventées pour l'apprentissage automatique et optimisées pour TensorFlow. Elles peuvent entraîner et exécuter des modèles d'IA beaucoup plus rapidement que les puces traditionnelles, ce qui les rend idéales pour les applications d'IA à grande échelle. La version v5e, annoncée en août, est la TPU Cloud la plus rentable, la plus polyvalente et la plus évolutive à ce jour.

Une image d’une carte Tensor Processing Unit

2017: Google Research présente le Transformer

L'article de Google Research intitulé « Attention Is All You Need » présentait le Transformer, une nouvelle architecture de réseau neuronal qui facilitait la compréhension du langage. Avant le Transformer, les machines n'étaient pas très douées pour comprendre le sens des longues phrases - elles ne pouvaient pas voir les relations entre des mots très éloignés les uns des autres. Le transformateur a considérablement amélioré ce point et est devenu le fondement des systèmes d'intelligence artificielle générative et de compréhension du langage les plus impressionnants d'aujourd'hui. Le Transformer a révolutionné ce que signifie pour les machines la traduction, le résumé de texte, la réponse aux questions et même la génération d'images et la robotique.

2019 : BERT aide Search à mieux comprendre les requêtes

Nos recherches sur Transformers ont abouti à l'introduction des représentations de codeurs bidirectionnels à partir de transformateurs (BERT), qui ont aidé Google à comprendre les requêtes des utilisateurs mieux que jamais. Plutôt que de chercher à comprendre les mots individuellement, nos algorithmes BERT ont aidé Google à comprendre les mots dans leur contexte. La qualité de la recherche s'en est trouvée considérablement améliorée, et il est devenu plus facile pour les internautes de poser des questions comme ils le feraient naturellement, plutôt que d'enchaîner des mots-clés.

Image d'une boîte de recherche contenant la requête « Can you get medicine for someone pharmacy » et images côte à côte des résultats avant et après BERT, l'après reflétant que "for someone" est une partie importante de cette requête.

NA

2020 : AlphaFold résout le problème du repliement des protéines

En 2020, DeepMind a fait un bond dans le domaine de l'IA avec son système AlphaFold, qui a été reconnu comme une solution au « problème du pliage des protéines ». Les protéines sont les éléments constitutifs de la vie, et la manière dont une protéine se replie détermine sa fonction ; une protéine mal repliée peut être à l'origine d'une maladie. Depuis 50 ans, les scientifiques tentent de prédire la façon dont une protéine se replie afin de mieux comprendre et traiter les maladies. C'est ce qu'a fait AlphaFold. Puis, en 2022, nous avons partagé gratuitement avec la communauté scientifique 200 millions de structures protéiques d'AlphaFold - couvrant presque tous les organismes de la planète dont le génome a été séquencé - via la base de données AlphaFold Protein Structure Database. Plus d'un million de chercheurs l'ont déjà utilisée pour travailler sur des sujets aussi variés que l'accélération de la mise au point de nouveaux vaccins contre le paludisme en un temps record, l'avancement de la découverte de médicaments contre le cancer et le développement d'enzymes dévoreuses de plastique.

2023 : Bard vous aide à collaborer avec l'IA générative

LaMDA, un modèle conversationnel de langage étendu publié par Google Research en 2021, a ouvert la voie à de nombreux systèmes d'IA générative qui ont captivé l'imagination du monde entier, notamment Bard. Lancé en mars, Bard est désormais disponible dans la plupart des pays du monde et dans plus de 40 langues, de sorte qu'un plus grand nombre de personnes que jamais peuvent l'utiliser pour stimuler la productivité, accélérer les idées et alimenter la curiosité. Nous avons associé le modèle le plus intelligent et le plus performant de Bard aux services Google que vous utilisez tous les jours, tels que Gmail, Docs, Drive, Flights/hotels, Maps et YouTube, afin de vous aider encore davantage dans des tâches telles que la planification d'un voyage, la vérification de réponses et la synthèse d'e-mails ou de documents.

Un GIF montre une personne utilisant Bard pour planifier un voyage au Grand Canyon. Bard répond avec des dates provenant d'un fil de discussion, des informations sur l'hôtel et le vol, et bien plus encore.

2023 : PaLM 2 fait progresser l'avenir de l'IA

En mai dernier, nous avons présenté PaLM 2, notre modèle de langage étendu de nouvelle génération, dont les capacités multilingues, de raisonnement et de codage ont été améliorées. Il est plus performant, plus rapide et plus efficace que ses prédécesseurs et alimente déjà plus de 25 produits et fonctionnalités Google, dont Bard, les fonctionnalités d'IA générative dans Gmail et Workspace, et SGE, notre expérience visant à intégrer en profondeur l'IA générative dans Google Search. Nous utilisons également PaLM 2 pour faire avancer la recherche en interne dans des domaines aussi variés que la santé ou la cybersécurité.

Il ne s'agit là que de quelques-unes des innovations de Google en matière d'IA, qui permettent de créer de nombreux produits que des milliards de personnes utilisent chaque jour. Grâce à nos principes en matière d'IA, qui nous guident dans notre approche audacieuse et responsable de l'IA, nous travaillons déjà sur Gemini, notre prochain modèle conçu pour permettre les avancées futures au cours des 25 prochaines années.