Zurück zum Hauptmenü
The Keyword Deutschland

Die 25 größten Momente der Google Suche: Von Bildern bis KI

Das Suchfeld ist von Bildern von Google-Suchfunktionen im Laufe der Jahre umgeben, darunter Google Translate, Hum to Search, Labs und Lens of a Birthday Cake.

Als Google vor 25 Jahren an den Start ging, war es bei weitem nicht die erste Suchmaschine. Aber die Google Suche machte sich schnell einen Namen damit, Menschen zu helfen, genau die Informationen zu finden, die sie suchten – und zwar schneller, als sie es jemals für möglich gehalten hätten.

Im Laufe der Jahre haben wir die Google Suche kontinuierlich weiterentwickelt und täglich verbessert. Von der Entwicklung völlig neuer Suchmöglichkeiten über die Unterstützung von Millionen von Unternehmen bei der Kontaktaufnahme mit Kund:innen durch Sucheinträge und Anzeigen (angefangen mit einem lokalen Unternehmen, das 2001 über AdWords Werbung machte) bis hin zum Spaß mit Doodles und Easter Eggs – hinter uns liegt eine lange Reise.

Zu unserem 25. Geburtstag blicken wir auf einige der Meilensteine zurück, die Google in den entscheidenden Momenten hilfreicher gemacht haben und eine große Rolle dabei spielten, wo Google heute steht. Erfahrt mehr über unsere Geschichte in der interaktiven Zeitachse.

2001: Google Bilder

Als Jennifer Lopez im Jahr 2000 an den Grammy Awards teilnahm, wurde ihr Versace-Kleid sofort zur Modelegende und war zu der Zeit die beliebteste Suchanfrage bei Google. Doch damals bestanden die Suchergebnisse nur aus einer Liste blauer Links, sodass das gesuchte Bild nicht so leicht zu finden war. Dieser Moment hat uns dazu inspiriert, Google Bilder zu entwickeln.

2001: „Meintest du?“

„Meintest du?“ mit vorgeschlagenen Rechtschreibkorrekturen war eine unserer ersten Anwendungen im Bereich maschinelles Lernen. Wenn eure Suche einen Rechtschreibfehler beinhaltete (z. B. „Bodenbalag“), haben wir euch ursprünglich dabei geholfen, Seiten zu finden, auf denen derselbe Rechtschreibfehler auftrat. Allerdings waren das meist nicht die besten Seiten zu diesem Thema. Also haben wir im Laufe der Jahre neue KI-gestützte Technologien entwickelt, um sicherzustellen, dass ihr auch wirklich das findet, was ihr sucht – selbst wenn ihr euch verschrieben habt.

Illustration verschiedener Rechtschreibfehler

2002: Google News

Während der tragischen Ereignisse vom 11. September 2001 hatten Menschen Schwierigkeiten, aktuelle Informationen in der Google Suche zu finden. Um dem Bedarf an Nachrichten in Echtzeit gerecht zu werden, führten wir ein Jahr später Google News ein, das Links zu einer Vielzahl von Quellen für jedes beliebige Thema bereitstellt.

2003: Easter Eggs

Google-Mitarbeitende haben im Laufe der Jahre viele clevere Easter Eggs entwickelt, die in der Google Suche versteckt sind. Im Jahr 2003 gab eines unserer ersten Easter Eggs die Antwort nach dem Leben, dem Universum und dem ganzen Rest, und seitdem haben Millionen von Menschen die Google Suche schief aussehen oder eine Rolle machen lassen, darin eine Rekursionsschleife erzeugt und Momente der Popkultur gefeiert.

Der Taschenrechner, der als „Antwort auf das Leben, das Universum und alles“  die 42 zeigt.

Eines unserer ersten Easter Eggs ist immer noch in der Google Suche verfügbar.

2004: Automatische Vervollständigung

Wäre es nicht schön, so schnell zu tippen, wie ihr denken könnt? Wir präsentieren: Automatische Vervollständigung! Eine Funktion, die automatisch Suchanfragen in der Suchleiste anzeigt, sobald ihr mit der Eingabe beginnt. Heutzutage reduziert die Automatische Vervollständigung die Tipparbeit im Durchschnitt um 25 Prozent und spart schätzungsweise über 200 Jahre Tippzeit pro Tag.

2004: Lokale Informationen

Früher verließen sich die Menschen noch auf Telefonbücher oder “Gelbe Seiten”, wenn sie Informationen zu einem bestimmten Geschäft haben wollten. Das Internet ebnete den Weg für lokale Entdeckungen auf Suchanfragen wie „Pizza in Berlin“ oder „Haarschnitt in 20354 Hamburg“. Im Jahr 2004 fügten wir Brancheneinträgen relevante Informationen wie Kartenausschnitte, Wegbeschreibungen und Bewertungen hinzu. Im Jahr 2011 haben wir Click-to-Call auf Mobilgeräten eingeführt, damit ihr von unterwegs ganz einfach Unternehmen anrufen könnt. Im Durchschnitt führen lokale Ergebnisse in der Suche jeden Monat dazu, dass mehr als 6,5 Milliarden Mal eine Verbindung zu Unternehmen hergestellt wird, sei es durch Anrufe, Wegbeschreibungen, Essensbestellungen oder Reservierungen.

2006: Google Übersetzer

2002 haben wir mit der Entwicklung maschineller Übersetzungstechnologien begonnen, um Sprachbarrieren im Internet zu beseitigen. Vier Jahre später führten wir Google Übersetzer mit Textübersetzungen zwischen Arabisch und Englisch ein. Heute unterstützt Google Übersetzer mehr als 100 Sprachen, im letzten Jahr kamen 24 hinzu.

Übersetzung von „Hallo! Wie geht es dir?!" Ins Japanische

2006: Google Trends

Google Trends wurde entwickelt, um uns dabei zu helfen, Suchtrends anhand aggregierter Daten zu verstehen (und unseren jährlichen Jahresrückblick zu erstellen). Heute ist Google Trends der weltweit größte kostenlose Datensatz seiner Art, der es Medienschaffenden, Forschenden, Wissenschaftlerinnen und Wissenschaftlern sowie Marken ermöglicht, zu erfahren, wie sich Suchanfragen im Laufe der Zeit verändern.

2007: Universelle Suche

Hilfreiche Suchergebnisse sollten relevante Informationen in allen Formaten enthalten, wie Links, Bilder, Videos und lokale Ergebnisse. Deshalb haben wir 2007 unsere Systeme dahingehend neu aufgestellt, alle Inhaltstypen gleichzeitig zu durchsuchen und zu entscheiden, wann und wo welche Ergebnisse gezeigt werden sollten und die Ergebnisse noch klarer und intuitiver darzustellen. Das Ergebnis, universelle Suche, war unsere damals bislang größte Änderung an der Suche.

2008: Google Mobile App

Mit der Einführung des App Store von Apple haben wir unsere erste Google Mobile App auf dem iPhone eingeführt. Funktionen wie automatische Vervollständigung und „Mein Standort“ erleichterten die Suche und waren besonders auf kleineren Bildschirmen hilfreich. Heutzutage könnt ihr mit der Google App – die sowohl für Android als auch für iOS verfügbar ist – so viel mehr tun. Sie unterstützt euch bei den Mathe-Hausaufgaben mit Lens genauso wie mit einer visuellen Übersetzung mit nur einem Fingertipp.

2008: Sprachsuche

Im Jahr 2008 führten wir in der Google Mobile App die Möglichkeit ein, mithilfe von Sprache zu suchen. 2011 haben wir die Funktion auch auf Desktop verfügbar gemacht. Heutzutage ist die Sprachsuche in Indien besonders beliebt, wo der Anteil der Menschen, die täglich Sprach-Suchanfragen stellen, fast doppelt so hoch ist wie der weltweite Durchschnitt.

Die ursprüngliche Google Sprachsuche-Funktion für Mobilgeräte aus dem Jahr 2008

2009: Notfall-Hotlines

2009 haben wir erstmals oben in unseren Suchergebnissen bei entsprechenden Suchanfragen den Giftnotruf angezeigt. Diese Maßnahme war der Vorschlag einer Mutter, die Schwierigkeiten hatte, Informationen im Fall einer Vergiftung zu finden, nachdem ihre Tochter etwas potenziell Gefährliches verschluckt hatte. Seit dieser Einführung haben wir Notfall-Informationen für unterschiedliche kritische Momente eingerichtet, unter anderem zur Suizidprävention.

2011: Suche anhand von Bildern

Manchmal kann es schwierig sein, das zu beschreiben, was man sucht. Deshalb haben wir 2011 die Suche anhand von Bildern gestartet. Damit könnt ihr Bilder hochladen oder eine Bilder-URL eingeben, um herauszufinden, was sich auf dem Bild befindet und wo sich das Bild sonst noch im Web finden lässt. Dieses Update ebnete später den Weg für Lens.

2012: Knowledge Graph

2012 haben wir Knowledge Graph eingeführt, eine umfangreiche Sammlung von Menschen, Orten und Dingen auf der Welt und deren Beziehungen zueinander. Damit wurde es einfacher, schnelle Antworten zu erhalten. Knowledge Panels, die erste Funktion des Knowledge Graph, bieten euch einen schnellen Überblick über Informationen zu Themen wie Prominenten, Städten und Sportmannschaften.

Ursprüngliches Knowledge Graph-Panel für Marie Curie

2015: Stoßzeiten

Wir haben die Funktion "Stoßzeiten" in der Suche und in Maps eingeführt, damit die Nutzer:innen bei der Suche nach Orten wie Restaurants, Geschäften und Museen sehen können, zu welchen Tageszeiten am meisten los ist.

2016: Google Discover

Durch die Einführung eines personalisierten Feeds (heute bekannt als Discover) haben wir Menschen dabei geholfen, auf ihre Interessen zugeschnittene Inhalte direkt in der Google App zu erkunden, ohne danach suchen zu müssen.

2017: Google Lens

Mit Google Lens könnt ihr suchen, was ihr seht, indem es Objekte in einem Bild betrachtet, sie mit anderen Bildern vergleicht und diese anderen Bilder anhand ihrer Ähnlichkeit und Relevanz zum Originalbild einordnet. Heute verzeichnet Lens bereits mehr als 12 Milliarden visuelle Suchanfragen pro Monat.

Google Lens wird verwendet, um Text auf einem Zugticket zu übersetzen

2018: Flutvorhersage

Um Menschen zu helfen, sich besser auf drohende Überschwemmungen vorzubereiten, haben wir Prognosemodelle erstellt, die mithilfe von KI vorhersagen, wann und wo verheerende Überschwemmungen auftreten werden. Gestartet haben wir die Flutvorhersagen damals in Indien, heute sind sie in 80 Ländern verfügbar.

EIn Flutalarm auf einem Smartphone

2019: BERT

Ein großer Teil dessen, was die Suche hilfreich macht, ist unsere Fähigkeit, Sprache zu verstehen. Im Jahr 2018 haben wir eine auf neuronalen Netzwerken basierende Technik eingeführt, die unsere Sprachverständnis-Modelle trainiert, und diese als Open-Source-Lösung bereitgestellt: BERT (kurz für Bidirectional Encoder Representations from Transformers). BERT macht die Suche hilfreicher, indem es die Sprache besser versteht, das heißt, den gesamten Kontext eines Wortes berücksichtigt. Nach intensiven Tests im Jahr 2019 haben wir BERT auf mehr als 70 Sprachen angewendet.

Video über das BERT Language Model
10:25

Erfahrt mehr darüber, wie BERT funktioniert, um eure Suchanfragen zu verstehen.

2020: Shopping Graph

Online-Shopping wurde viel einfacher und umfassender, als wir es jedem Unternehmen und jeder Marke ermöglichten, ihre Produkte kostenlos auf Google zu zeigen. Wir haben außerdem Shopping Graph eingeführt, einen KI-gestützten Datensatz mit ständig aktualisierten Produkten, Verkäuferinnen und Verkäufern, Marken, Bewertungen und lokalem Inventar, der heute aus 35 Milliarden Produkteinträgen besteht.

2020: Zum Suchen summen

2020 haben wir ein Tool in der Google App gelauncht, das nach einer gesummenten Melodie suchen kann. Die maschinelle Lernfunktion identifiziert eine potenzielle Liedübereinstimmung, wenn ihr eine Melodie summt, pfeift oder singt. Anschließend könnt ihr nach noch mehr Informationen zum Lied und zur Künstlerin oder zum Künstler suchen.

2021: Informationen zu diesem Ergebnis

Um Menschen dabei zu helfen, fundiertere Entscheidungen darüber zu treffen, welche Ergebnisse für sie am nützlichsten und zuverlässigsten sind, haben wir zu den meisten Suchergebnissen „Informationen zu diesem Ergebnis“ hinzugefügt. Das Fenster, das sich mit Klick auf einen Button öffnet, zeigt, warum euch ein Ergebnis angezeigt wird, und bietet mehr Kontext zum Inhalt und seiner Quelle. „Informationen zu diesem Ergebnis“ ist jetzt in allen Sprachen verfügbar, in denen die Google Suche verfügbar ist.

2022: Kombi-Suche

Um euch dabei zu helfen, die gesuchten Informationen zu finden – egal wie schwierig das auch sein mag – haben wir mit Kombi-Suche eine völlig neue Möglichkeit geschaffen, gleichzeitig mit Text und Bildern zu suchen. Jetzt könnt ihr ein Foto eures Esszimmers machen und die Suchanfrage „Couchtisch“ hinzufügen, um einen passenden Tisch zu finden. Kombi-Suche wurde zunächst in den USA eingeführt und ist jetzt weltweit auf Mobilgeräten in allen Sprachen und Ländern verfügbar, in denen Google Lens verfügbar ist.

Abbildung einer Smartphone-Suche nach einem Kleid und dem anschließenden Hinzufügen von „grün“ zur Suche, um eine grüne Version zu finden

2023: Search Labs & Search Generative Experience (SGE)

Jedes Jahr führen wir in der Suche Hunderttausende Experimente durch, um herauszufinden, wie wir Google für euch noch hilfreicher machen können. Mit Search Labs könnt ihr Experimente im Frühstadium testen und Feedback direkt mit den daran arbeitenden Teams teilen. Das erste Experiment, SGE – das zunächst nur in den USA verfügbar ist – bringt die Leistungsfähigkeit der generativen KI direkt in die Suche. Mit KI-gestützten Übersichten und Erklärungen, Hinweisen zu weiteren Vorschlägen und natürlichen Möglichkeiten, weitere Fragen zu stellen, könnt ihr euch dem Kern eines Themas nähern. Seit der Einführung in den USA haben wir schnell neue Funktionen hinzugefügt, und weitere werden folgen.

Als jemand, der die Welt der Suchmaschinen seit mehr als zwei Jahrzehnten verfolgt, ist es erstaunlich, zu sehen, wo Google angefangen hat – und wie weit wir gekommen sind.