Mehr Sicherheit dank Künstlicher Intelligenz
Jeden Tag suchen Menschen bei Google nach wichtigen Informationen, die ihnen dabei helfen können, sich selbst und ihre Familien zu schützen. Von dem Hervorheben von Informationen bei einer aktuellen Naturkatastrophe bis hin zur schnellen Bereitstellung zeitkritischer Gesundheitsinformationen – wir arbeiten kontinuierlich an neuen Wegen, um sicherzustellen, dass qualitativ hochwertige Informationen nur eine Suche entfernt sind. Und Fortschritte im Bereich der Künstlichen Intelligenz (KI) können neue Technologien wie die Hochwasservorhersage unterstützen, um Menschen sogar dabei zu helfen, Gefahren direkt zu vermeiden.
Heute möchten wir euch die neuesten Fortschritte in diesem Bereich zeigen und wie KI-Systeme uns dabei helfen, Menschen beim Auffinden wichtiger Hilfsangebote zu unterstützen, und gleichzeitig potenziell schockierende oder schädliche Inhalte zu vermeiden, damit Nutzerinnen und Nutzer online und offline sicher bleiben können.
Vertrauenswürdige, nützliche Informationen finden, wenn ihr sie am dringendsten benötigt
Menschen nutzen die Google Suche oft in entscheidenden Momenten, in denen sie zuverlässige Informationen benötigen. Wenn ihr heute auf Google nach Informationen zu den Themen Selbstmord, sexuellen Übergriffen, Drogenmissbrauch und häuslicher Gewalt sucht, werdet ihr neben vertrauenswürdigen Ergebnissen auch Kontaktinformationen für relevante lokale Hotlines erhalten. Nicht alle sind aktuell bereits für deutsche Suchen verfügbar, wir arbeiten aber kontinuierlich daran, hilfreiche Funktionen wie diese in mehr Ländern verfügbar zu machen.
Allerdings suchen Menschen auf alle möglichen Arten, und nicht immer ist direkt offensichtlich, dass sie gerade in Not sind. Wenn wir nicht erkennen können, wann jemand in Not ist, können wir unsere Systeme nicht so programmieren, dass sie die hilfreichsten Suchergebnisse anzeigen. Aus diesem Grund ist der Einsatz von maschinellem Lernen zum Verstehen von Sprache so nützlich und wichtig.
Mit unserem neuesten KI-Modell MUM können wir jetzt automatisch und genauer ein breiteres Spektrum an kritischen Suchen erkennen, die auf persönliche Krisen schließen lassen könnten. Denn MUM ist in der Lage, die Absicht hinter den Fragen der Menschen besser zu verstehen, um eventuell zu erkennen, wann eine Person in Not ist. Das hilft uns, vertrauenswürdige und umsetzbare Informationen zuverlässiger zum richtigen Zeitpunkt anzuzeigen. In den kommenden Wochen werden wir MUM einsetzen, um genau diese Verbesserungen vorzunehmen.
Unerwartete, schockierende Inhalte vermeiden
Euch innerhalb der Google Suche zu schützen bedeutet auch, euch dabei zu helfen, Inhalte zu meiden, nach denen ihr nicht sucht. Wir finden es wichtig, dass ihr bei der Nutzung der Google Suche nicht auf unerwartete schockierende Inhalte stoßt. Das kann allerdings eine Herausforderung sein, denn Ersteller:innen von Inhalten nutzen manchmal harmlose Begriffe, um explizite oder anzügliche Inhalte zu kennzeichnen. Und die großen Übereinstimmungen mit dem Inhalt, die für eure Suche verfügbar sind, zeigen möglicherweise nicht das, was ihr finden wolltet. In diesen Fällen können dann anstößige Inhalte in den Ergebnissen auftauchen, selbst wenn ihr nicht direkt danach gesucht habt.
Ein Weg, wie wir diese Herausforderung angehen, ist der SafeSearch-Modus, der Nutzer:innen die Möglichkeit bietet, anstößige Ergebnisse zu filtern. Diese Einstellung ist für Google-Konten für Personen unter 18 Jahren standardmäßig aktiviert. Und selbst wenn Nutzer:innen SafeSearch deaktivieren, reduzieren unsere Systeme unerwünschte anstößige Ergebnisse für Suchanfragen, die sie nicht suchen. Tatsächlich verbessern unsere Sicherheitsalgorithmen jeden Tag Hunderte Millionen Suchvorgänge weltweit – sowohl im Bereich Web-, Bilder- als auch Videosuchen.
Aber wir können noch besser werden. Um unerwartete Ergebnisse zu reduzieren, verwenden wir fortschrittliche KI-Technologien wie BERT, um besser zu verstehen, wonach ihr sucht. BERT hat unser Verständnis dafür geschärft, ob Suchanfragen wirklich auf explizite Inhalte abzielen. Dadurch können wir das Risiko, dass ihr auf überraschende Suchergebnisse stoßt, erheblich reduzieren.
Dies ist eine komplexe Herausforderung, der wir uns seit Jahren stellen – aber allein im letzten Jahr hat diese BERT-Verbesserung die Anzeige unerwarteter schockierender Ergebnisse um 30% reduziert. Gerade bei der Reduzierung expliziter Inhalte im Zusammenhang mit ethnischer Zugehörigkeit, sexueller Orientierung und Geschlecht, die Frauen und insbesondere schwarze Frauen betreffen können, war es besonders wirkungsvoll.
Erweiterung der Schutzmaßnahmen weltweit
MUM kann Wissen in die 75 Sprachen übertragen, in denen es trainiert ist. Das wiederum hilft uns dabei, Sicherheitsvorkehrungen auf der ganzen Welt viel effizienter zu skalieren. Wenn wir einem MUM-Modell beibringen, eine Aufgabe auszuführen – etwa die Art einer Abfrage zu klassifizieren – lernt es, dies in allen ihm bekannten Sprachen zu tun.
Beispielsweise verwenden wir KI, um nicht hilfreiche und manchmal gefährliche Spam-Seiten in euren Suchergebnissen zu reduzieren. In den kommenden Monaten werden wir MUM nutzen, um die Qualität unseres Spamschutzes zu verbessern und auf Sprachen auszudehnen, für die wir nur sehr wenige Trainingsdaten haben. Wir werden auch in der Lage sein, persönliche kritische Suchanfragen auf der ganzen Welt besser zu erkennen, indem wir mit vertrauenswürdigen lokalen Partnern zusammenarbeiten, um nützliche Informationen in weiteren Ländern anzuzeigen.
Wie jede Verbesserung der Suche wurden und werden diese Änderungen einer strengen Bewertung unterzogen – mit Beiträgen unserer Evaluator:innen auf der ganzen Welt, um sicherzustellen, dass wir relevantere und nützlichere Ergebnisse liefern. Was auch immer ihr sucht, wir möchten euch dabei helfen, es sicher zu finden.