Unsere bislang 10 größten KI-Momente
Wie ihr sicherlich mitbekommen habt, ist KI zur Zeit ein ziemlich großes Thema. Bei uns bei Google tatsächlich schon seit längerer Zeit, und zwar seit den Anfängen und das aus gutem Grund. KI kann Routinen vereinfachen und dazu beitragen, dass einige der größten gesellschaftlichen Probleme gelöst werden. Anlässlich unseres 25. Geburtstags möchten wir mit euch auf einige unserer bisher größten KI-Momente zurückblicken – und freuen uns auf noch größere Meilensteine, die vor uns liegen.
2001: Maschinelles Lernen hilft Nutzer:innen der Google Suche, ihre Rechtschreibung zu korrigieren
Larry Page, Mitbegründer von Google, sagte einmal: „Die perfekte Suchmaschine sollte genau verstehen, was Sie meinen, und Ihnen genau das zurückgeben, was Sie brauchen.“ Bei der Weiterentwicklung dieser Vision haben wir einen großen Schritt nach vorne gemacht, als wir das erste Mal eine einfache Version des maschinellen Lernens eingesetzt haben – und zwar, um bessere Schreibweisen für Websuchen vorzuschlagen. Auch wenn ihr ein Wort nicht richtig schreibt, können wir euch dadurch trotzdem das anzeigen, was ihr sucht.
2006: Google Übersetzer wird eingeführt
Fünf Jahre später haben wir Google Übersetzer eingeführt. Hier nutzten wir maschinelles Lernen, um Sprachen automatisch zu übersetzen. Wir begannen mit Übersetzungen vom Arabischen ins Englische und vom Englischen ins Arabische. Heute unterstützt der Google Übersetzer 133 Sprachen, die von Millionen Menschen auf der ganzen Welt gesprochen werden. Diese Technologie kann Texte, Bilder oder sogar ein Gespräch in Echtzeit übersetzen und auf diesem Weg Sprachbarrieren weltweit abbauen, Menschen bei der Kommunikation unterstützen und den Zugang zu Informationen wie nie zuvor erweitern.
2015: TensorFlow demokratisiert KI
Die Einführung von TensorFlow, einem neuen Open-Source-Framework für maschinelles Lernen, machte KI zugänglicher, skalierbarer und effizienter. Es hat auch dazu beigetragen, das Tempo der KI-Forschung und -Entwicklung weltweit zu beschleunigen. TensorFlow ist heute eines der beliebtesten Frameworks für maschinelles Lernen und wurde zur Entwicklung einer breiten Palette von KI-Anwendungen verwendet – von der Bilderkennung über die Verarbeitung natürlicher Sprache bis hin zur maschinellen Übersetzung.
2016: AlphaGo besiegt den Go-Weltmeister
Im Rahmen des Google DeepMind Challenge Match sahen mehr als 200 Millionen Menschen online zu, wie AlphaGo als erstes KI-Programm einen menschlichen Weltmeister in Go besiegte (ein komplexes Brettspiel, das zuvor für Maschinen als nicht machbar galt). Dieser Sieg war ein Meilenstein und demonstrierte das Potenzial von Deep Learning zur Lösung komplexer Probleme, die einst für Computer unmöglich galten. Der Sieg von AlphaGo über Lee Sedol, einen der weltbesten Go-Spieler, löste eine weltweite Debatte über die Zukunft Künstlicher Intelligenz aus und zeigte, dass KI-Systeme nun lernen können, komplexe Spiele zu meistern, die strategisches Denken und Kreativität erfordern.
2016: TPUs ermöglichen eine schnellere und effizientere KI-Bereitstellung
Tensor Processing Units, kurz TPUs, sind maßgeschneiderte Siliziumchips, die wir speziell für maschinelles Lernen entwickelt und für TensorFlow optimiert haben. Sie können KI-Modelle viel schneller trainieren und ausführen als herkömmliche Chips, was sie für groß angelegte KI-Anwendungen sehr gut eignet. Die im August angekündigte Version v5e ist die bislang kosteneffizienteste, vielseitigste und skalierbarste Cloud-TPU.
2017: Google Research stellt den Transformer vor
Das Google Research-Paper „Attention Is All You Need“ stellte den Transformer vor, eine neue neuronale Netzwerkarchitektur, die beim Sprachverständnis hilft. Vor dem Transformer waren Maschinen nicht sehr gut darin, die Bedeutung langer Sätze zu verstehen – sie konnten die Beziehungen zwischen weit auseinander liegenden Wörtern nicht erkennen. Der Transformer hat genau das enorm verbessert und ist zum Fundament der heute beeindruckendsten Sprachverständnis- und generativen KI-Systeme geworden. Was es für Maschinen bedeutet, Übersetzungen, Textzusammenfassungen, Beantwortungen von Fragen und sogar Robotik und die Erzeugung von Bildern durchzuführen, wurde durch den Transformer neu definiert.
2019: BERT hilft der Suche, Suchanfragen besser zu verstehen
Unsere Forschung zu Transformers führte zur Einführung von „Bidirectional Encoder Representations from Transformers“, kurz BERT. Und das half der Google Suche dabei, die Suchanfragen der Nutzer:innen besser zu verstehen als je zuvor. Anstatt darauf abzuzielen, Wörter einzeln zu verstehen, haben unsere BERT-Algorithmen dabei geholfen, Wörter im Kontext zu sehen. Das verbesserte die gesamte Suche und machte es für Nutzer:innen einfacher, Fragen zu stellen, wie sie es auf natürliche Weise tun würden, anstatt Suchbegriffe aneinanderzureihen.
2020: AlphaFold löst das Problem der Proteinfaltung
Einen Sprung auf dem Gebiet der KI machte DeepMind mit seinem System AlphaFold, das im Jahr 2020 als Lösung für das „protein-folding problem“ bekannt wurde. Proteine sind die Bausteine des Lebens, und die Art und Weise, wie sich ein Protein faltet, bestimmt seine Funktion. Ein falsch gefaltetes Protein könnte Krankheiten verursachen. Seit 50 Jahren versuchen Wissenschaftler:innen vorherzusagen, wie sich ein Protein falten würde, denn das würde dabei helfen, Krankheiten besser zu verstehen und zu behandeln. AlphaFold machte genau das. Im Jahr 2022 haben wir schließlich 200 Millionen Proteinstrukturen von AlphaFold (das deckt fast jeden Organismus auf dem Planeten ab, dessen Genom sequenziert wurde) über die AlphaFold Protein Structure Database frei mit der wissenschaftlichen Gemeinschaft geteilt. Mehr als eine Million Forschende haben es bereits genutzt, um in Rekordzeit an neuen Malaria-Impfstoffen zu arbeiten, die Entdeckung von Krebsmedikamenten voranzutreiben und plastikfressende Enzyme zu entwickeln.
2023: Bard unterstützt euch bei der Zusammenarbeit mit generativer KI
LaMDA, ein 2021 von Google Research veröffentlichtes Large Language Modell, ebnete den Weg für viele generative KI-Systeme – darunter auch Bard. Bard wurde im März dieses Jahres eingeführt und ist mittlerweile in den meisten Teilen der Welt und in über 40 Sprachen verfügbar, darunter auch Deutschland. Damit können es immer mehr Menschen nutzen, um ihre Produktivität zu steigern, Ideen zu entwickeln und Neugier zu wecken. Und wir haben das bisher intelligenteste und leistungsstärkste Modell von Bard mit den Google-Diensten kombiniert, die ihr täglich nutzt – wie Gmail, Google Docs, Google Drive, Google Flüge/Hotels, Google Maps und YouTube –, um euch Aufgaben wie Reiseplanung, das Überprüfen von Antworten und das Zusammenfassen von E-Mails und Dokumenten zu erleichtern.
2023: PaLM 2 treibt die Zukunft der KI voran
Im Mai haben wir PaLM 2 vorgestellt, unser Large Language Modell der nächsten Generation, das über verbesserte Mehrsprachigkeits-, Argumentations- und Codierungsfunktionen verfügt. Es ist leistungsfähiger, schneller und effizienter als seine Vorgänger und unterstützt bereits mehr als 25 Google-Produkte und -Funktionen – darunter Bard, die generativen KI-Funktionen in Gmail und Workspace und SGE, unser Experiment zur umfassenden Integration generativer KI in die Google Suche. Wir nutzen PaLM 2 auch, um die interne Forschung zu allen Themen von Gesundheit bis Onlinesicherheit voranzutreiben.
Das sind nur einige der KI-Innovationen von Google, die viele der Produkte ermöglichen, die Milliarden von Menschen täglich nutzen. Mit unseren KI-Prinzipien als Leitfaden für einen ambitionierten und verantwortungsbewussten Umgang mit KI arbeiten wir bereits an Gemini, unserem nächsten Modell, das darauf ausgelegt ist, weitere Innovationen in den nächsten 25 Jahren zu ermöglichen.