Zurück zum Hauptmenü
The Keyword Deutschland

Cybersecurity neu denken

Prof. Claudia Eckert

Aufklärungsarbeit: Im Lernlabor Cybersicherheit bietet Fraunhofer AISEC verschiedene Weiterbildungsprogramme an.

Weiterbildungsprogramme des Fraunhofer AISEC

„KI bietet viele Chancen, um digitale Risiken zu minimieren, kann aber auch als Angriffswerkzeug genutzt werden und stellt damit auch ein Risiko für die IT-Sicherheit dar“, sagt auch Prof. Claudia Eckert. Sie leitet den Lehrstuhl für Sicherheit in der Informatik an der TU München sowie das Fraunhofer‑Institut für Angewandte und Integrierte Sicherheit, kurz AISEC.

So forscht Eckert zu den Chancen und auch Risiken von KI in der Cybersicherheit: Wie KI einerseits von Hackern für immer intelligentere Cyberangriffe genutzt oder aber auch selbst Zielscheibe von Angriffen wird und andererseits wichtige, innovative Beiträge zur Verbesserung der Cybersicherheit leisten kann. Neben der Anomalieerkennung sieht die Wissenschaftlerin künftig beispielsweise einen großen Mehrwert in KI‑gestützten Verfahren, die automatisiert Schwachstellen in Programmcodes entdecken. Auch Datenschutzverletzungen lassen sich durch KI automatisiert erkennen und beheben. „Damit können Unternehmen beispielsweise auch gegenüber ihren Kundinnen und Kunden nachweisen, dass alle Standards und Auflagen eingehalten werden“, erklärt Eckert.

Starke Partnerschaft: In gemeinsamen Projekten befassen sich das Google Safety Engineering Center (GSEC) in München ...

Google Safety Engineering Center (GSEC) in München

... sowie das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching mit Verfahren, die einen vertrauenswürdigen Einsatz von KI gewährleisten.

Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching

Prof. Claudia Eckert forscht zu den Chancen und Risiken von künstlicher Intelligenz – mit Blick auf Cybersecurity und Datenschutz.

Prof. Claudia Eckert

Stark dank Partnerschaften

Aktuell befassen sich das Fraunhofer AISEC und das GSEC gemeinsam damit, solche und andere Schutzmechanismen zu überprüfen, um den vertrauenswürdigen Einsatz von KI zu gewährleisten. In einem gemeinsamen Forschungsprojekt entwickeln sie Testverfahren, die gezielt nach Privatsphärelecks in Machine-Learning-Modellen suchen. Später einmal könnten Anbieter von KI-Lösungen oder Kontrollinstanzen mit solchen Tests prüfen, ob KI-Lösungen die Privatsphäre wahren, denn die dafür notwendigen Softwareprogramme werden im frei zugänglichen Open-Source-Format veröffentlicht.

Gemeinsame Projekte wie diese und der Austausch mit Partnern aus Wirtschaft und Wissenschaft sind für Google elementar, wenn es um KI und Cybersecurity oder Datenschutz geht. So auch beim Secure AI Framework (SAIF), einem konzeptionellen Rahmen für sichere KI-Systeme, der im Juni 2023 vorgestellt wurde. SAIF basiert auf Googles offenem und kooperativem Ansatz zu Cybersecurity und zielt darauf ab, spezifische Risiken zu mindern, denen KI-Systeme ausgesetzt sind. Dazu gehören etwa der Diebstahl von KI-Modellen oder die Manipulation von Trainingsdaten. Google kooperiert dabei beispielsweise mit der kollaborativen Entwicklungsplattform GitLab und dem Datensicherheitsunternehmen Cohesity. Die in SAIF enthaltenen Standards und Tools stehen Unternehmen und Behörden zur Verfügung, damit sie den Schutz ihrer KI-Systeme effizient steigern können.

„Cybersecurity ist in der mobilen, hybriden Welt von heute eine Gemeinschaftsaufgabe“, sagt auch Dr. Wieland Holfelder, Leiter des Google-Standorts München. Anfang 2018 schloss das Unternehmen mit der TU München eine langfristige Partnerschaft. Mit Fördergeldern von Google finanziert die TUM u. a. Forschung an der Schnittstelle von Cybersecurity und KI. Unter Leitung von Prof. Eckert und weiteren Professor*innen erforschen Teams beispielsweise, nach welchen Mustern Cyberangriffe auf Sprachmodelle erfolgen. Expert*innen von Google beraten sie dabei.