Wie wir die Suche natürlicher und intuitiver gestalten
Seit mehr als zwei Jahrzehnten widmen wir uns unserer Mission: die Informationen der Welt zu organisieren und sie allgemein zugänglich und nutzbar zu machen. Angefangen haben wir mit der Textsuche. Im Laufe der Zeit sind dann weitere natürliche und intuitive Suchoptionen hinzugekommen: Via Google Lens könnt ihr mit der Kamera suchen, was sich direkt vor eurem Auge befindet und über die Sprachsuche lassen sich Fragen über eure Stimme stellen.
Auf der heutigen Search On haben wir gezeigt, wie wir durch die Fortschritte im Bereich der künstlichen Intelligenz unsere Informationsprodukte erneut verbessern. Wir gehen weit über das Suchfeld hinaus und schaffen Sucherfahrungen, die mehr wie unser Verstand funktionieren und so vielschichtig sind, wie wir Menschen.
Wir stellen uns eine Welt vor, in der ihr genau das findet, was ihr sucht, indem ihr Bilder, Töne, Text und Sprache miteinander kombiniert, so wie es Menschen ganz natürlich tun.
Ihr werdet in der Lage sein, Fragen mit weniger oder sogar gar keinen Worten zu stellen. Dennoch wird die Google Suche verstehen, wonach ihr sucht.
Und ihr werdet in der Lage sein, Informationen zu erforschen, die so organisiert sind, dass sie für euch Sinn ergeben.
Wir nennen dies eine natürlichere und intuitivere Suche, und wir befinden uns auf einem langfristigen Weg, diese Vision für Menschen überall zum Leben zu erwecken.
Um euch einen Eindruck davon zu vermitteln, wie wir die Zukunft unserer Informationsprodukte gestalten, stellen wir euch im Folgenden drei neue Innovationen vor, die wir heute unter anderem bei der Search On verkündet haben.
1. So wird visuelles Suchen noch natürlicher und intuitiver
Kameras gibt es schon seit Hunderten von Jahren, und man denkt meist, dass sie dazu dienen, Erinnerungen zu bewahren oder heutzutage auch mit ihrer Hilfe Inhalte wie Videos zu erstellen. Aber eine Kamera ist auch eine leistungsstarke Möglichkeit, auf Informationen zuzugreifen und die Welt um euch herum besser zu verstehen. Aus diesem Grund haben wir 2017 Lens eingeführt, mit dem ihr das, was ihr seht, mithilfe eurer Kamera oder eines Bildes durchsuchen könnt. Jetzt ist das Zeitalter der visuellen Suche angebrochen - tatsächlich werden mit Lens jeden Monat 8 Milliarden Fragen beantwortet.
Mit der Kombi-Suche, einer völlig neuen Möglichkeit, Bilder und Texte gleichzeitig für die Suche zu verwenden, definieren wir die visuelle Suche neu und kombinieren alle Arten von Informationen: Text, Sprache, Bild und mehr.
Anhand der Kombi-Suche könnt ihr nützliche Hinweise zu allem, was ihr seht, hört und erlebt, auf die intuitivste und natürlichste Weise finden - sogar bei Fragestellungen, die zuvor nicht möglich waren.
Kombi-Suche ist derzeit weltweit auf Englisch verfügbar und wird in den nächsten Monaten in über 70 weiteren Sprachen ausgerollt, u. a. auch in Deutsch.
So funktioniert die Kombi-Suche: Das Gif zeigt, wie ihr in der Google-App gleichzeitig mit Bildern und Text suchen könnt. Hierfür macht ihr zuerst ein Bild und fügt dann den Text zu eurer Suchanfrage hinzu.
Mit Kombi-Suche „In meiner Nähe“ lokale Informationen finden:
Mit Kombi-Suche „In meiner Nähe“ wird diese Funktion um eine lokale Komponente ergänzt. Beispielsweise könnt ihr ein Foto von eurem Lieblingsessen machen und euch in der Google App lokale Restaurants anzeigen lassen, die genau dieses Gericht anbieten. Mit dieser Funktion lassen sich auch Produkte, wie Kleidung, Pflanzen oder Haushaltswaren von lokalen Anbietern filtern.
„In meiner Nähe“ wird ab Herbst 2022 in den USA eingeführt.
2. Die Welt um Euch herum mit Hilfe von KI visuell übersetzen
Einer der stärksten Aspekte des visuellen Verständnisses ist die Fähigkeit, Sprachbarrieren zu überwinden. Dank der Fortschritte in der KI können wir nicht nur Texte, sondern auch Bilder übersetzen.
Menschen nutzen Google bereits mehr als 1 Milliarde Mal pro Monat, um einen Text in Bildern zu übersetzen, und das in mehr als 100 Sprachen - so könnt ihr Schaufenster, Speisekarten, Schilder und vieles mehr sofort lesen und verstehen.
Aber oft ist es die Kombination aus Wörtern und Kontext, wie z. B. Hintergrundbildern, die dem Ganzen Sinn verleiht. Dank einer Technologie des maschinellen Lernens namens Generative Adversarial Networks (GANs) sind wir jetzt in der Lage, übersetzten Text nahtlos in das Hintergrundbild einzufügen. Wenn ihr also zum Beispiel eure Kamera auf eine Zeitschrift in einer anderen Sprache richtet, seht ihr jetzt den übersetzten Text realistisch über die Bilder gelegt.
Dieses verbesserte visuelle Erlebnis wird noch in diesem Jahr global eingeführt - auch in Deutschland.
So funktioniert die visuelle Übersetzung: Das Gif zeigt, wie ihr mit Hilfe von Google Lens einen Text in eine andere Sprache übersetzen könnt. Der übersetzte Text wird dabei nahtlos in das Hintergrundbild integriert.
3. Die Welt mit immersiver Ansicht in Google Maps entdecken
Von 2D zu 3D: Wir möchten euch mit natürlicheren und intuitiveren Erlebnissen bei der Erkundung der realen Welt helfen. Dank Fortschritten in der Computer-Vision und Vorhersagemodellen, entwickelt sich Google Maps zu einer mehrdimensionalen Ansicht der realen Welt. Das ermöglicht euch, Orte in Maps künftig live zu erleben.
Ein Gefühl für den Ort bekommen: So wie die Live-Verkehrsinformationen in der Navigation Google Maps wesentlich hilfreicher gemacht haben, werden wir eine weitere bedeutende Veränderung in der Kartendarstellung vornehmen: wir werden hilfreiche Erkenntnisse - wie das Wetter und die Auslastung eines Ortes – mit der immersiven Ansicht in Google Maps zum Leben erwecken.
Mehr Planungssicherheit: Angenommen, ihr habt eine Verabredung in einem Restaurant. In Google Maps könnt ihr euch in die Nachbarschaft und in das Lokal zoomen, um ein Gefühl dafür zu bekommen, wie es an dem Tag und der geplanten Uhrzeit aussehen könnte - egal, ob eure Verabredung morgen, nächste Woche oder in einem Monat stattfindet . Die erste Iteration dieser Funktion wird heute mit Luftaufnahmen von 250 Sehenswürdigkeiten erweitert, darunter 29 aus Deutschland wie beispielsweise der Reichstag, der Frankfurter Römer und das Schloss Nymphenburg. Das Brandenburger Tor oder den Kölner Dom konntet ihr bereits seit einigen Wochen entdecken.
Diese Einführung ist ein wichtiger Schritt auf dem Weg zu einer immersiveren Karte. Das Feature soll euch ein Gefühl für einen Ort geben, bevor ihr ihn überhaupt besucht.
In den kommenden Monaten wird die immersive Ansicht um ein Live-Feature erweitert, das auf fünf internationale Großstädte ausgedehnt wird (London, New York, Paris, San Francisco und Tokio), weitere sind in Planung.
So könnt ihr Orte umfassend kennenlernen: Das Gif zeigt, wie ihr mit der immersiven Ansicht herausfinden könnt, wie ein Ort aussieht, wenn ihr ihn besuchen wollt, wie viel in der Location los ist und wie sie von innen aussieht.
Diese und viele andere Ankündigungen, die bei Search On vorgestellt wurden, sind nur der Anfang unserer Ambition, Google-Produkte so zu verändern, dass sie über das traditionelle Suchfeld hinausgehen.