Zurück zum Hauptmenü
The Keyword Deutschland

Künstliche Intelligenz

Google I/O ‘23: KI groß denken – und von Anfang an Verantwortung übernehmen

Ein Bild, welches den gesellschaftlichen Nutzen von Künstlicher Intelligenz illustrieren soll.

Wir bei Google glauben, dass unser Ansatz im Bereich der Künstlichen Intelligenz (KI) sowohl ambitioniert als auch verantwortungsvoll sein muss. Für uns bedeutet das, KI so zu entwickeln, dass der positive Nutzen für die Gesellschaft maximiert und gleichzeitig die Herausforderungen angegangen werden – geleitet von unseren KI-Prinzipien. Obwohl es ein natürliches Spannungsfeld zwischen diesen beiden Aspekten gibt, glauben wir, dass es möglich – und in der Tat notwendig – ist, beidem gerecht zu werden. Denn der einzige Weg, um langfristig wirklich ambitioniert zu sein, besteht darin, von Anfang an Verantwortung zu übernehmen.

Daher setzen wir KI in unseren innovativsten Produkten – die von Menschen auf der ganzen Welt genutzt werden – in unserer Forschung und bei der Bewältigung gesellschaftlicher Herausforderungen ein.

KI kommt bereits in vielen Produkten, die von Millionen von Nutzer:innen genutzt werden, zum Zuge – z. B. in Google Maps, Google Übersetzer, Google Lens und mehr. Und jetzt können Nutzer:innen KI nutzen, um ihrer Kreativität mit Bard freien Lauf zu lassen, unsere Produktivität mit Google Workspace-Tools zu steigern und die Art und Weise, wie wir mit Search Generative Experience auf Wissen zugreifen, zu revolutionieren. Weitere Beispiele und Experimente nützlicher Anwendungen, findet ihr in Google Labs.

Bei der Bewältigung gesellschaftlicher Herausforderungen

hilft uns KI dabei, die Folgen des Klimawandels zu mindern und uns an ihn anzupassen, indem wir Hochwasservorhersagen treffen – nun in mehr als 20 Ländern, Waldbrandgrenzen in Echtzeit verfolgen, und dazu beitragen, CO2-Emissionen durch Verringerung von Stop-and-Go-Verkehr zu reduzieren. Wir wenden sie an, um die Gesundheitsversorgung zu verbessern – einschließlich der Versorgung von Schwangeren und Müttern, Krebsbehandlungen und Tuberkulose-Screenings. Und wir haben kürzlich ein neues großes Sprachmodell angekündigt, das ein hilfreiches Tool für Krankenhausärzt:innen sein könnte: Med-PaLM. Später in diesem Jahr wird Data Commons – ein System, das Daten aus Hunderten von Quellen organisiert – über Bard zugänglich sein, was unseren experimentellen KI-Dienst noch nützlicher macht.

In unserer wegweisenden Forschung

hilft KI Wissenschaftler:innen dabei, gewagte Fortschritte in den Bereichen Physik, Werkstoffkunde und dem Gesundheitswesen, von dem wir als Gesellschaft profitieren werden. Ein Beispielist das AlphaFold-Programm von Google DeepMind zu erzielen. AlphaFold kann die 3D-Form von 200 Millionen Proteinen genau vorhersagen (das sind fast alle katalogisierten Proteine, die der Wissenschaft bekannt sind) – eine Errungenschaft, die uns das Äquivalent von 400 Millionen Jahren in Forschungsfortschritten in nur wenigen Wochen beschert hat. Es ermöglicht die Verwirklichungen von neuen Ambitionen wie unseren unsere 1.000-Sprachen-Initiative, mit welchem wir unsere Spracherkennungsunterstützung auf 1.000 Sprachen mit einem universellen Sprachmodell, welches auf über 400 Sprachen trainiert ist, skalieren.

Herausforderungen

Natürlich ist es spannend, diese bahnbrechenden Lösungen zu sehen. Trotzdem wissen wir, dass KI eine immer noch aufstrebende Technologie ist, die das Potenzial hat, bestehende gesellschaftliche Herausforderungen zu verschlimmern und uns vor neue zu stellen. Besonders, wenn sie fortschrittlicher wird und neue Anwendungsmöglichkeiten entstehen. Aus diesem Grund halten wir es für unerlässlich, einen verantwortungsbewussten Umgang mit KI zu verfolgen, der sich an den KI-Prinzipien orientiert, die wir erstmals 2018 aufgestellt haben. Jedes Jahr veröffentlichen wir Fortschrittsberichte darüber, wie wir unsere KI-Grundsätze in die Praxis umsetzen, und gehen dabei detailliert auf Beispiele ein. Diese Arbeit wird fortgesetzt, da die KI immer leistungsfähiger wird und wir von Nutzer:innen und neuen Anwendungen der Technologien lernen und das Gelernte weitergeben.

Informationen auswerten

Ein Bereich, der vielen als erstes einfällt, sind Fehlinformationen. Generative KI macht es einfacher denn je, neue Inhalte zu erstellen, wirft aber auch zusätzliche Fragen zur Vertrauenswürdigkeit auf. Aus diesem Grund entwickeln wir weitere Tools, die wir Menschen zur Verfügung stellen, damit sie Online-Informationen bewerten und einordnen können. In den kommenden Monaten fügen wir in der Google Suche eine neue Funktion namens „Informationen zu diesem Bild“ hinzu. Die Funktion bietet Nutzer:innen wichtigen Kontext, z. B. dazu, wann und wo ähnliche Bilder möglicherweise zum ersten Mal erschienen sind und wo sie sonst noch online auffindbar sind. Das schließt Nachrichten, Faktenchecks und Treffer aus sozialen Netzwerken mit ein. Später in diesem Jahr wird „Informationen zu diesem Bild“ in unserem Browser Chrome sowie für Google Lens verfügbar sein.

Ein GIF, welches die Funktion „Informationen zu diesem Bild“ illustriert.

KI-Prinzipien in realer Anwendung

Wenn wir unsere KI-Prinzipien auf unsere Produkte anwenden, sehen wir auch potenzielle Spannungsfelder, wenn es darum geht, ambitioniert und verantwortungsbewusst zu sein. Beispielsweise ist Universal-Übersetzung ein experimenteller KI-Videosynchronisierungsdienst, der Expert:innen dabei hilft, die Stimme eines Sprechers oder einer Sprecherin zu übersetzen und ihre oder seine Lippenbewegungen anzupassen. Dies birgt ein enormes Potenzial für die Verbesserung des Lernverständnisses. Aber wir sind uns auch der Risiken bewusst, die dieser Dienst in den Händen von böswilligen Akteur:innen darstellen könnte. Daher haben wir ihm Leitplanken gegeben, um Missbrauch einzuschränken, und ihn nur autorisierten Partnern zugänglich gemacht.

Ein weiterer Ansatz, wie wir unseren KI-Prinzipien gerecht werden wollen, ist unsere Innovationskraft, mit der wir Herausforderungen angehen, sobald diese aufkommen. Zum Beispiel sind wir eines der ersten Unternehmen in der Branche, das kontradiktorische Tests mithilfe von Large-Language-Modellen (LLMs) automatisiert. Das hat die Geschwindigkeit, Qualität und Abdeckung der Tests erheblich verbessert. Um der Verbreitung von Fehlinformationen entgegenzuwirken, werden wir bald neue Innovationen im Bereich Watermarking und Metadaten in unsere neuesten generativen Modelle integrieren. Wir machen zudem Fortschritte bei der Entwicklung von Tools zur Erkennung synthetischer Sprache: In unserer AudioLM-Arbeit haben wir einen Klassifikator trainiert, der synthetische Sprache in unseren Audiomodellen mit einer Genauigkeit von fast 99 % erkennen kann.

Eine gemeinsame Leistung

Wir wissen, dass die verantwortungsvolle Entwicklung von KI eine gemeinsame Leistung sein muss, an der Forscher:innen, Sozialwissenschaftler:innen, Branchenexpert:innen, Regierungen, Entwickler:innen, Verleger:innen und Menschen, die KI in ihrem täglichen Leben verwenden, beteiligt sind.

Wir teilen Innovationen und Erkenntnisse mit anderen, um die Wirkung zu erhöhen, wie im Fall von Perspective API, die ursprünglich von unseren Forscher:innen bei Jigsaw entwickelt wurde, um die in Online-Kommentaren gefundene Toxizität einzudämmen. Wir wenden Perspective API auf unsere Large-Language-Modelle (LLMs) an – einschließlich aller bei der I/O erwähnten Modelle. Zudem haben akademische Forscher:innen es dazu verwendet, um eine Bewertung nach Industriestandard zu erstellen, die von allen wichtigen LLMs verwendet wird, einschließlich Modellen von OpenAI und Anthropic.

Wir glauben, dass alle von einem lebendigen Web-Ökosystem profitieren – heute und auch künftig. Um dies zu unterstützen, werden wir mit der Web-Community daran arbeiten, Web-Publishern die Wahl und Kontrolle über ihre Inhalte zu geben.

Ein Teil dessen, was KI zu einem so spannenden Fokusbereich macht, ist, dass sie nicht statisch ist, sondern sich verändert und entfaltet, wenn mehr Menschen sie erleben, teilen und weiterentwickeln. Wir lernen ständig aus unserer Forschung, unseren Erfahrungen, von Nutzer:innnen und der Community – und beziehen das, was wir lernen, in unseren Ansatz ein. Mit Blick auf die Zukunft gibt es so viel, was wir erreichen können, und so viel, das wir richtig machen müssen – gemeinsam.


Ich möchte meinen Kolleg:innen in den Teams Responsible AI, Responsible Innovation, Google.org, Google Labs, Jigsaw, Google Research und Google DeepMind für ihre unglaubliche und komplexe Arbeit danken.