De l’image à la vidéo : avec l’IA, la recherche devient visuelle
Nos produits Google ont un objectif : être aussi utiles que possible, à chaque instant de nos vies. Et nous savons depuis longtemps que l’Intelligence Artificielle (IA) est un atout clé pour atteindre cet objectif.
Dès les débuts du moteur de recherche, l’IA nous a aidé à comprendre plusieurs langues, rendant les résultats des recherches encore plus pertinents. Année après année, nous avons investi dans l’IA. Aujourd’hui, nous pouvons analyser les informations selon plusieurs approches– qu’il s’agisse de comprendre une langue, une image, une vidéo ou même le monde réel.
Aujourd’hui, nous partageons nos dernières avancées en matière d’IA et la manière dont nous rendons la recherche encore plus naturelle et intuitive.
Si vous pouvez le voir, vous pouvez désormais le rechercher
Les appareils photo sont un moyen de choix pour explorer et comprendre notre monde. Google Lens est utilisé plus de 10 milliards de fois chaque mois, pour effectuer des recherches directement depuis votre appareil photo ou vos images enregistrées.
Avec Google Lens, nous souhaitons mieux vous relier aux informations mondiales, une image après l’autre. Vous pouvez déjà utiliser Google Lens pour faire des recherches à partir de votre appareil ou de vos photos, via la barre de recherche. Aujourd’hui, nous annonçons une mise à jour majeure vous permettant de faire des recherches depuis ce que vous voyez à l’écran.
Dans les mois à venir, vous pourrez utiliser Google Lens pour « rechercher depuis votre écran » via un téléphone Android. Grâce à cette technologie, vous pourrez lancer des recherches à partir d’une photo ou d’une vidéo directement depuis vos sites ou vos applications préférées, comme les services de messagerie instantanée et les applications vidéo, sans interrompre vos activités ni votre expérience.
Prenons un exemple : un ami vous envoie une vidéo de lui en train d’explorer Paris. Si vous souhaitez en apprendre davantage sur un monument que vous apercevez en arrière-plan, il vous suffit d’appuyer longuement sur le bouton de démarrage ou d’accueil de votre appareil Android (ce qui déclenche l’Assistant Google) et de cliquer sur « Rechercher sur cet écran ». Google Lens identifie alors le Palais du Luxembourg et vous pouvez cliquer dessus pour en savoir plus à son sujet.
Mix and match : différentes façons de faire des recherches
Avec Multisearch, vous pouvez lancer des recherches depuis des images et du texte simultanément, ce qui vous offre de nouveaux moyens d’expression. Multisearch est désormais accessible partout dans le monde en version mobile, sur tous les téléphones intégrant Google Lens et dans toutes les langues disponibles.
Récemment, nous sommes même allés encore plus loin avec Multisearch, en ajoutant une option de recherche locale. Vous pouvez prendre une photo et préciser « à proximité » pour trouver ce dont vous avez besoin — qu’il s'agisse de soutenir de petits commerces près de chez vous ou de trouver rapidement ce qu’il vous faut. Cette fonctionnalité est actuellement disponible en anglais, aux Etats-Unis. Nous la déploierons à l’international dans les prochains mois.
Et parfois, alors que vous êtes peut-être déjà en train de faire une recherche, quelque chose attire votre attention et vous inspire. D’ici quelques mois, vous pourrez utiliser Multisearch, partout dans le monde, pour lancer une recherche sur mobile à partir de n’importe quelle image depuis la page de résultats.
Disons que vous cherchez des « idées de salons modernes » et que vous apercevez une table basse qui vous plaise, mais que vous voulez une autre forme—une table basse rectangulaire et pas ronde. Vous pourrez utiliser Multisearch en précisant « rectangle », pour trouver exactement le style que vous cherchez.
Nous créons des expériences de recherche plus naturelles et plus visuelles. Mais ce n’est que le début.. Aujourd’hui avec Google Lens, si vous pouvez le voir, vous pouvez le rechercher. Demain, grâce à l’IA, les possibilités seront infinies.