Nos 10 plus grands moments avec l’IA jusqu’à aujourd’hui
Cela vous a peut-être échappé, mais l’IA est un sujet plutôt tendance ces derniers temps. Chez Google, c’est le cas depuis les premiers jours, et pour une bonne raison. L’IA peut à la fois simplifier vos tâches quotidiennes et contribuer à relever les plus grands défis de notre société. Alors que Google célèbre son 25e anniversaire, nous revenons sur certains de nos plus grands moments avec IA jusqu’à présent et nous sommes impatients de franchir les prochaines étapes devant nous.
2001 : le Machine Learning aide les utilisateurs de la recherche Google à corriger leur orthographe
Le co-fondateur de Google, Larry Page, a dit un jour : « Le moteur de recherche parfait doit comprendre exactement ce que vous voulez dire et vous donner exactement ce dont vous avez besoin. » Nous avons fait un grand pas en avant dans la réalisation de cette vision lorsque nous avons commencé à utiliser le Machine Learning afin de suggérer de meilleures orthographes pour les recherches sur le Web. Même si vous ne l’écrivez pas parfaitement, nous pouvons trouver ce dont vous avez besoin.
2006 : Google Traduction
Cinq ans plus tard, nous avons lancé Google Traduction, qui utilisait le Machine Learning pour traduire automatiquement les langues. Nous avons commencé avec des traductions de l'arabe vers l'anglais et de l'anglais vers l'arabe. Aujourd'hui, Google Traduction prend en charge 133 langues parlées par des millions de personnes dans le monde. Cette technologie peut traduire du texte, des images ou même une conversation en temps réel, éliminant les barrières linguistiques au sein de la communauté mondiale, aidant les gens à communiquer et élargissant l'accès à l'information comme jamais auparavant.
2015 : TensorFlow démocratise l'IA
L'introduction de TensorFlow, une nouvelle plateforme open source de Machine Learning, a rendu l'IA plus accessible, évolutive et efficace. Elle a aussi contribué à accélérer la recherche et le développement en IA dans le monde. TensorFlow est désormais l'une des plateformes de Machine Learning les plus populaires et a été utilisée pour développer un large éventail d'applications fondée sur l’IA, de la reconnaissance d'images au traitement du langage naturel en passant par la traduction automatique.
2016 : AlphaGo gagne contre le champion du monde de Go
Dans le cadre du Google DeepMind Challenge Match, plus de 200 millions de personnes ont regardé en ligne la performance d’AlphaGo devenir la première IA à vaincre un champion du monde de Go, un jeu jusque-là considéré hors de portée des machines. Cette victoire historique a démontré le potentiel du Deep Learning pour résoudre des problèmes complexes que l'on pensait autrefois inaccessibles pour les ordinateurs. La victoire d'AlphaGo sur Lee Sedol, l'un des meilleurs joueurs de Go au monde, a déclenché une conversation mondiale sur l'avenir de l'IA et a montré que les technologies d’IA pouvaient apprendre à maîtriser des jeux complexes nécessitant de la créativité et une réflexion stratégique.
2016 : les TPU permettent un déploiement de l'IA plus rapide et plus efficace
Les Tensor Processing Units (TPUs), sont des puces de silicium que nous avons créées spécialement pour le Machine Learning et qui sont optimisées pour TensorFlow. Elles peuvent entraîner et exécuter des modèles d’IA beaucoup plus rapidement que les puces traditionnelles, ce qui les rend idéales pour les applications d’IA à grande échelle. La version v5e, annoncée en août, est le Cloud TPU le plus rentable, le plus polyvalent et le plus évolutif à ce jour.
2017 : Google Research présente le Transformer
L'article scientifique « L'attention est tout ce dont vous avez besoin » a présenté le Transformer, une nouvelle architecture de réseau neuronal qui facilite la compréhension du langage. Avant le Transformer, les machines n’étaient pas très douées pour comprendre des phrases longues car elles étaient incapables de distinguer les relations entre des mots éloignés les uns des autres. Le Transformer a changé la donne, devenant la pierre angulaire des systèmes de compréhension du langage et d’IA générative les plus impressionnants aujourd’hui. Traduction, synthèse de texte, réponses aux questions et même génération d’images et robotique : le Transformer a révolutionné la manière dont les machines effectuent toutes ces actions.
2019 : BERT aide la recherche à mieux comprendre les requêtes
Nos recherches sur les Transformers ont conduit à l'introduction des Représentations d’Encodeur Bidirectionnel à partir de Transformateurs (“Bidirectional Encoder Representations from Transformers”) ou BERT, qui ont aidé la recherche Google à comprendre les requêtes des utilisateurs mieux que jamais. Plutôt que de chercher à comprendre chaque mot séparément, nos algorithmes BERT ont aidé Google à comprendre les mots dans leur contexte. Résultat : une amélioration significative de la qualité de la recherche Google et des utilisateurs capables de poser des questions comme ils le feraient le feraient dans la vraie vie.
2020 : AlphaFold résout le problème du repliement des protéines
En 2020, DeepMind a fait un bond dans le domaine de l’IA avec AlphaFold, un système reconnu comme une solution au « problème du repliement des protéines ». Les protéines sont les éléments constitutifs de la vie et la façon dont une protéine se replie détermine sa fonction. Une protéine mal repliée pourrait provoquer une maladie. Pendant 50 ans, les scientifiques ont tenté de prédire comment une protéine se repliait pour aider à comprendre et traiter les maladies. C'est exactement ce qu'AlphaFold a fait. En 2022, nous avons partagé librement 200 millions de structures protéiques issues d’AlphaFold avec la communauté scientifique. Cela couvre presque tous les organismes de la planète dont le génome a été séquencé. Plus d’un million de chercheurs l’ont déjà utilisé pour travailler sur de nombreux sujets : accélérer le développement de nouveaux vaccins contre le paludisme, faire progresser la découverte de médicaments contre le cancer ou développer enzymes mangeuses de plastique.
2023 : Bard vous aide à collaborer avec l'IA générative
LaMDA, un grand modèle de langage conversationnel présenté par Google Research en 2021, a ouvert la voie à de nombreux systèmes d'IA générative qui ont captivé l'imagination du monde, y compris Bard. Lancé en mars, Bard est désormais disponible dans la plupart des pays du monde et dans plus de 40 langues, de sorte que plus de personnes que jamais peuvent l'utiliser pour augmenter leur productivité, accélérer leurs idées et cultiver leur curiosité. Et nous avons combiné le modèle le plus performant de Bard avec les services Google que vous utilisez au quotidien (Gmail, Google Docs, Google Drive, Google Flights/Hotels, Google Maps et YouTube) pour encore mieux vous aider lorsque vous planifiez un voyage, vérifiez une information ou résumez des emails ou un document.
2023 : PaLM 2 fait progresser l’avenir de l’IA
En mai dernier, nous avons présenté PaLM 2, notre grand modèle de langage de nouvelle génération qui a amélioré les capacités multilingues, de raisonnement et de codage. Il est plus performant, plus rapide et plus efficace que ses prédécesseurs, et alimente déjà plus de 25 produits et fonctionnalités Google, dont Bard, les fonctionnalités d'IA générative dans Gmail et Workspace, et SGE, notre expérience visant à intégrer l'IA générative dans la recherche Google. Nous utilisons également PaLM 2 pour faire progresser nos recherches dans des domaines allant de la santé à la cybersécurité.
Ce ne sont là que quelques-unes des innovations de Google en matière d’IA qui permettent de développer des produits utiles à des milliards de personnes chaque jour. Forts de nos principes d’IA pour nous guider dans notre approche audacieuse et responsable de l’IA, nous travaillons déjà sur Gemini, notre prochain modèle construit pour permettre de futurs progrès au cours de nos 25 prochaines années.