Accéder au menu principal
Blog Google France

Search

Les 25 plus grands moments de la recherche Google : des images à l'IA

La barre de recherche Google est entourée d'images représentants un gâteau d'anniversaire ainsi que les fonctionnalités clés de la recherche Google au fil des années, comme Google Traduction et Google Lens,

Lorsque Google a été créé il y a 25 ans, il était loin d'être le premier moteur de recherche. Rapidement, la recherche Google s'est fait un nom grâce à sa capacité à aider les internautes à trouver l'information exacte qu'ils cherchaient, plus vite qu'ils ne l'auraient cru possible.

Au fil des ans, nous avons innové afin d'améliorer la recherche Google chaque jour. Qu'il s'agisse de créer de nouvelles méthodes de recherche, d'aider des millions d'entreprises à entrer en contact avec leurs clients grâce aux annonces (en commençant par un petit commerce qui faisait de la publicité via AdWords en 2001) ou de s'amuser avec les Doodles et des Easter Eggs, ce fut une véritable aventure.

À l'occasion de notre 25e anniversaire, nous revenons sur ces étapes qui ont permis à Google d'être plus utile dans les moments importants et qui ont joué un rôle clé pour faire de Google ce qu'il est aujourd'hui. Pour en savoir plus sur notre histoire, rendez-vous ici.

2001 : Google Images

Quand Jennifer Lopez a assisté aux Grammy Awards 2000, son audacieuse robe Versace est tout de suite devenue une légende de la mode – et la requête la plus populaire sur Google à l'époque. En ce temps-là, les résultats de recherche n’étaient qu’une liste de liens bleus et les gens ne trouvaient pas facilement les images qu’ils recherchaient. Cela nous a inspiré pour créer Google Images.

2001 : « Essayez avec cette orthographe »

« Essayez avec cette orthographe », cette phrase suivie de corrections orthographiques suggérées, a été l'une de nos premières applications du Machine Learning. Auparavant, si votre recherche contenait une faute d'orthographe (comme « floorescent » au lieu de « fluorescent »), nous vous aidions à trouver d'autres pages comportant la même faute, qui ne sont généralement pas les meilleures sources. Au fil des années, nous avons développé de nouvelles techniques fondées sur l'IA pour vous garantir de trouver ce que vous cherchez, même si vos doigts glissent sur le clavier.

Illustration de la diversité des fautes de frappe et d'orthographe dans la recherche Google

2002 : Google Actualités

Lors des événements tragiques du 11 septembre 2001, les internautes ont eu du mal à trouver des informations à jour dans le moteur de recherche. Pour répondre à ce besoin d'informations en temps réel, nous avons lancé Google Actualités l'année suivante, avec des liens vers un ensemble varié de sources pour chaque article.

2003 : Easter Eggs

Au fil des ans, les Googlers ont mis au point de nombreux Easter Eggs astucieux dans le moteur de recherche. En 2003, l’un d'eux a donné la réponse à la grande question sur la vie, l'univers et le reste. Depuis, des millions de personnes ont tourné leurs pages web à l'envers, fait un tonneau, apprécié une boucle récursive amusante et célébré de nombreux moments de la culture pop.

Calculatrice affichant « La réponse à la vie, à l'univers et à tout » est 42.

2004 : Saisie automatique

Ne serait-il pas agréable de taper aussi vite que l'on pense ? C'est là qu'intervient la saisie automatique, une fonction lancée pour la première fois sous le nom de « Google Suggest », qui prédit automatiquement des requêtes dans la barre de recherche dès que vous commencez à taper. Selon les estimations, la saisie automatique réduit le temps de rédaction de 25 % en moyenne et permet d'économiser plus de 200 ans par jour.

2004 : Information locale

Les gens avaient l'habitude de se fier aux annuaires téléphoniques traditionnels pour obtenir des informations sur les entreprises. Le Web a ouvert la voie à la découverte locale, comme « pizza à Chicago » ou « coupe de cheveux 75001 ». En 2004, Google Local a ajouté des informations pertinentes aux listes d'entreprises, telles que des cartes, des itinéraires et des avis. En 2011, nous avons ajouté la fonction « cliquer pour appeler » sur mobile, afin de faciliter la prise de contact avec les entreprises lorsque vous êtes en déplacement. En moyenne, les résultats locaux dans le moteur de recherche génèrent plus de 6,5 milliards de connexions pour les entreprises chaque mois, y compris des appels téléphoniques, des itinéraires, des commandes de nourriture et des réservations.

2006 : Google Traduction

Les chercheurs de Google ont commencé à développer la technologie de traduction automatique en 2002 afin de s'attaquer aux barrières linguistiques en ligne. Quatre ans plus tard, nous avons lancé Google Traduction avec des traductions de textes entre l'arabe et l'anglais. Aujourd'hui, Google Traduction prend en charge plus de 100 langues, dont 24 ont été ajoutées l'année dernière.

Traduction de "Hi, how are you?" en japonais

2006 : Google Trends

Google Trends a été conçu pour nous aider à comprendre les tendances de la recherche à l'aide de données agrégées (et pour créer chaque année notre Year in Search ou Année en recherche). Aujourd'hui, Les Google Trends forment le plus grand ensemble de données gratuites de ce type au monde. Il permet aux journalistes, aux chercheurs, aux universitaires et aux marques de savoir comment les recherches évoluent dans le temps.

2007 : Recherche universelle

Les résultats de recherche utiles doivent inclure des informations pertinentes dans tous les formats, tels que les liens, les images, les vidéos et les résultats locaux. Nous avons donc repensé nos systèmes pour qu'ils puissent effectuer des recherches dans tous les types de contenu à la fois, décider du moment et de l'endroit où les résultats doivent s'intégrer, et fournir des résultats de manière claire et intuitive. Le résultat, la recherche universelle, a été le changement le plus radical que nous ayons apporté au moteur de recherche à l'époque.

2008 : Google Mobile

Avec l'arrivée de l'App Store d'Apple, nous avons lancé notre première application Google Mobile sur iPhone. Des fonctionnalités telles que la saisie semi-automatique et « Ma position » facilitent la recherche en réduisant le nombre d'appuis sur les touches et sont particulièrement utiles sur les petits écrans.

2008 : La recherche vocale

En 2008, nous avons introduit la possibilité d'effectuer des recherches vocales sur l'application Google Mobile, avant de l'étendre à l'ordinateur en 2011. Grâce à la recherche vocale, les internautes peuvent effectuer des recherches avec leur voix en appuyant simplement sur un bouton. Aujourd'hui, la recherche vocale est particulièrement populaire en Inde, où le pourcentage d'utilisateurs effectuant quotidiennement des requêtes vocales est près de deux fois supérieur à la moyenne mondiale.

Illustration de la fonctionnalité "recherche vocale" lancée par Google en 2008

2009 : Assistance d'urgence

Après le signalement d'une mère ayant eu du mal à trouver des informations sur les centres antipoison alors que sa fille avait avalé quelque chose de potentiellement dangereux, nous avons créé un espace pour le numéro d'urgence des centres antipoison en haut de la page des résultats de la recherche Google. Depuis ce lancement, nous avons mis en place des lignes d'assistance téléphonique d'urgence pour les moments critiques, comme la prévention du suicide.

2011 : Recherche par image

Parfois, ce que vous recherchez est difficile à décrire avec des mots. Nous avons donc lancé la recherche par image afin que vous puissiez télécharger n'importe quelle image ou URL d'image, trouver ce qu'elle représente et savoir où elle se trouve sur le Web. Cette mise à jour a plus tard ouvert la voie à l'application Google Lens.

2012 : Knowledge Graph

Nous avons introduit le Knowledge Graph, une vaste collection de personnes, de lieux et de choses dans le monde et la façon dont ils sont liés les uns aux autres, afin de faciliter l'obtention de réponses rapides. Les panneaux d'information, la première fonctionnalité alimentée par le Knowledge Graph, vous donnent un aperçu rapide des informations disponibles sur des sujets tels que les célébrités, les villes et les équipes sportives.

Illustration du Knowledge Graph

2015 : Heures d'affluence

Nous avons lancé la fonction Heures d'affluence dans le moteur de recherche et Google Maps pour aider les gens à voir les heures les plus chargées de la journée lorsqu'ils lancent une recherche sur un restaurant, un magasin ou un musée.

2016 : Google Discover

En lançant un flux personnalisé (désormais appelé Google Discover), nous avons aidé les gens à explorer des contenus adaptés à leurs centres d'intérêt, sans avoir à effectuer de recherche.

2017 : Google Lens

Google Lens transforme votre appareil photo en requête, en examinant les objets d'une image, en les comparant à d'autres images et en classant ces dernières en fonction de leur similitude et de leur pertinence par rapport à l'image d'origine. Aujourd'hui, Lens enregistre plus de 12 milliards de recherches visuelles par mois.

Illustration du fonctionnement de Google Lens

2018 : Flood Hub

Pour aider les gens à mieux se préparer aux inondations imminentes, nous avons créé des modèles de prévision qui prédisent quand et où des inondations dévastatrices se produiront grâce à l'IA. Nous avons commencé ces efforts en Inde et aujourd'hui, nous avons étendu Flood Hub, notre plateforme d'alerte aux inondations fondée sur l'IA dans 80 pays.

2019 : BERT

Une grande partie de ce qui rend la recherche Google utile est notre capacité à comprendre le langage. En 2018, nous avons introduit et mis en open-source une technique basée sur les réseaux neuronaux pour former nos modèles capables de comprendre le langage : BERT (Bidirectional Encoder Representations from Transformers). BERT rend la recherche plus utile en comprenant mieux le langage, ce qui signifie qu'elle prend en compte le contexte complet d'un mot. Après des tests rigoureux en 2019, nous avons appliqué BERT à plus de 70 langues.

Comment BERT comprend le langage
10:25

2020 : Shopping Graph

Les achats en ligne sont devenus beaucoup plus faciles et plus complets lorsque nous avons permis à tous les détaillants et à toutes les marques de présenter gratuitement leurs produits sur Google. Nous avons également lancé Shopping Graph, un ensemble de données alimenté par l'intelligence artificielle et composé de produits, de vendeurs, de marques, d'avis et d'inventaires locaux constamment mis à jour, qui comprend aujourd'hui 35 milliards de listes de produits.

2020 : Fredonner pour rechercher

Nous avons « lancé Fredonner pour rechercher », afin que vous ne soyez plus frustré lorsque vous ne pouvez pas vous rappeler le morceau qui vous trotte dans la tête. La fonction de Machine Learning identifie les correspondances potentielles à partir de la mélodie que vous avez fredonnée ou sifflée. Vous pouvez ensuite explorer les informations sur la chanson et l'artiste.

2021 : À propos de ce résultat

Afin d'aider les internautes à prendre des décisions plus éclairées sur les résultats qui leur seront les plus utiles et les plus fiables, nous avons ajouté la mention « À propos de ce résultat » à côté de la plupart des résultats de recherche. Cette fonctionnalité explique pourquoi un résultat vous est présenté et donne plus de détails sur le contenu et sa source, en s'appuyant sur les meilleures pratiques des experts en matière de maîtrise de l'information. « À propos de ce résultat » est désormais disponible dans toutes les langues comprises par la recherche Google.

2022 : Multisearch

Pour vous aider à trouver les informations que vous cherchez, même si elles sont difficiles à trouver, nous avons créé une toute nouvelle méthode de recherche simultanée de texte et d'images avec Multisearch. Vous pouvez désormais prendre une photo de votre salle à manger et ajouter la requête « table basse » pour trouver la table correspondante. D'abord lancée aux États-Unis, la recherche multiple est désormais accessible sur mobile dans le monde entier, ainsi que dans toutes les langues et tous les pays où Google Lens est disponible.

GIF animé illustration l'utilisation de Multisearch

2023 : Search Labs et l’expérience de recherche générative (SGE)

Chaque année, nous réalisons des centaines de milliers d'expériences afin de déterminer comment rendre la recherche Google plus utile pour vous. Grâce aux Search Labs, vous pouvez tester les premières expériences et partager vos commentaires directement avec les équipes responsables. La première expérience, SGE, intègre directement la puissance de l'IA générative dans le moteur de recherche. Vous pouvez obtenir l'essentiel d'un sujet grâce à des aperçus alimentés par l'IA, des outils pour explorer davantage et des moyens intuitifs de poser des questions à la suite de votre requête initiale. Depuis le lancement aux États-Unis, nous avons rapidement ajouté de nouvelles fonctionnalités et d'autres sont à venir.

J'étudie le monde des moteurs de recherche depuis plus de 20 ans et le chemin parcouru par Google, des débuts jusqu'à aujourd'hui, est extraordinaire.