Geschichte des AI Centers
Im Jahr 2007 eröffnete Google endlich auch in Berlin (nach Hamburg, Frankfurt und München) ein eigenes Büro. Erste Mitarbeiterin war Annette Kroeber-Riel, die den Standort - inzwischen als Vice President - bis heute leitet. Das Thema „Künstliche Intelligenz“ gewann in den 2010er Jahren stetig an Bedeutung. 2016 erklärte CEO Sundar Pichai Google zu einer „AI first company“. 2017 veröffentlichte der Berliner Google-Forscher Jakob Uszkoreit gemeinsam mit sieben Kollegen das bis heute wichtigste Forschungspapier in Sachen KI: „Attention is all you need”. Ohne die Erkenntnisse dieser auch als “Transformer-Paper” bekannten Arbeit wäre die atemberaubende Entwicklung von KI in den vergangenen Jahren nicht möglich gewesen. Im Januar 2019 zog es Jakob Uszkoreit zurück in seine Heimatstadt Berlin.
Von links: Sebastian Nowozin, Alexey Dosovitskiy, Aravindh Mahendran, Jakob Uszkoreit, Rodolphe Jenatton, Jakob Swat. Das Brain-Team beim Schnitzelessen (2019)
Gründung und Teamaufbau
Ab Anfang 2019 wurde die Berliner Sparte von Google Brain (als Teil von Google Research) allmählich erweitert - mit dem klaren Ziel, Forschungsergebnisse zu veröffentlichen und die Entwicklung globaler Produkte mit zu gestalten. So wurde im Jahr 2021 auch ein zweites bahnbrechendes AI-Paper zum “Vision Transformer” (“An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale”) zu wesentlichen Teilen in Berlin geschrieben. Neben Jakob Uszkoreit waren hier mit Alexey Dosovitskiy, Dirk Weissenborn und Thomas Unterthiner weitere Berliner Google-Kollegen beteiligt.
Ausschnitt aus dem heute legendären „Transformer-Papier“
Schlüsselpersonen und Neuzugänge
Ein zentraler Aspekt der Berliner Strategie war von Anfang an die enge Vernetzung mit der lokalen akademischen Gemeinschaft, etwa durch die „Google AI Research Talk“-Reihe und die Rekrutierung von Gastforschern. Neben Jakob Uszkoreit zog der Berliner Standort weitere hochkarätige Wissenschaftler an:
- Slav Petrov, schon seit 2009 bei Google, ist seit 2020 in Berlin und heute als Vice President of Research bei Google DeepMind Co-Lead für das Post-Training der multimodalen Gemini-Modelle. Er verantwortet dabei Schlüsselbereiche wie Audioverarbeitung, Mehrsprachigkeit (Multilinguality) und Tool-Use. Seine Forschung im Bereich der natürlichen Sprachverarbeitung (NLP) wurde mehrfach ausgezeichnet, unter anderem mit dem prestigeträchtigen „10-year Test-of-Time Award“.
Slav Petrov (2009) in der Google-Zentrale in Mountain View, Kalifornien
- Katja Filippova, seit 2011 bei Google, ist Research Scientist & Manager in der „Frontiers of AI“-Einheit. Sie leitet ein Forschungsteam, das sich auf das Verständnis von Fehlermodi großer Sprachmodelle (LLMs) konzentriert, um deren Erklärbarkeit und Vertrauenswürdigkeit zu verbessern.
- Klaus-Robert Müller: Im April 2020 stieß einer der renommiertesten deutschen ML-Forscher zum Team. Müller, Professor an der TU Berlin und Direktor des Berlin Center for Machine Learning, brachte 30 Jahre Erfahrung mit. Sein Fokus liegt auf der Anwendung von maschinellem Lernen in den Naturwissenschaften (z. B. Quantenchemie, Neurotechnologie) sowie auf „Explainable AI“ (erklärbarer KI).
KI-Forscher Klaus-Robert Müller
- Internationale Talente: Das Team integrierte regelmäßig PhD-Studenten und Praktikanten führender europäischer Universitäten (Imperial College London, Warschau, Amsterdam), um frische Impulse in Bereichen wie Bayesianischen Neuronalen Netzen und medizinischer Bildanalyse zu setzen.
Spezifische Forschungsschwerpunkte in Berlin
Die KI-Forscher*innen am Standort Berlin spielen eine zentrale Rolle bei der Entwicklung großer Sprachmodelle (LLMs) wie Gemini. Daneben konzentrieren sie sich auf grundlegende Forschung in Bereichen wie Robotics, Computer Vision sowie ethische Aspekte von KI.
Einige Beispiele:
- Modellentwicklung und Kernfunktionen: Co-Lead für das Post-Training von Gemini, inklusive der Verantwortung für Audioverarbeitung, Mehrsprachigkeit (Multilinguality) und die Fähigkeit der Modelle, externe Tools zu nutzen (Tool-Use).
- KI-Erklärbarkeit und Sicherheit: Untersuchung von Fehlermodi großer Sprachmodelle, um deren Erklärbarkeit und Vertrauenswürdigkeit zu verbessern, Pionierarbeit auf dem Gebiet der erklärbaren künstlichen Intelligenz (XAI), sowie Forschung in KI-Ethik und Sicherheit.
- Computer Vision und Robotik: Verständnis und Repräsentation von 3D-Szenen, tiefen generativen Modellen und 3D-bewussten neuralen Szenenrepräsentationen, sowie 3D-Rendering (Smerf/Nerf) und 3D-Repräsentationen für Robotik, die Zeit und Raum fokussieren.
- Wissenschaftliche Anwendungen: Einsatz von maschinellem Lernen zur Vorhersage von Lösungen der Schrödinger-Gleichung, sowie Forschung zu Proteinfaltung und Quantenmechanik, oft in Kollaboration mit der Technischen Universität Berlin.
- KI-Ethik und Sicherheit: Soziale Auswirkungen generativer KI wie die Umsetzung von Menschenrechten, Risiken durch Manipulation von KI, und Herangehensweisen zur menschlichen Tendenz, Sprachsysteme automatisch als menschenähnlich einzuschätzen.
- Nutzererfahrung und Innovation: Übersetzung aktueller Forschungsergebnisse in konkrete Nutzererlebnisse und neue KI-gestützte Produkte und Funktionen (z. B. Visual Overlays, Gemini Live), sowie Prototyping an den Grenzen heutiger Modellfähigkeiten.
Eröffnung des Centers als Impuls für die Zukunft der KI
Mit dem offiziellen Start des Google AI Center Berlin geht die Arbeit am Thema KI in eine neue Phase. Wir sind sicher, dass diese neue Plattform einen wichtigen Beitrag bei der Weiterentwicklung der Künstlichen Intelligenz leisten wird.