Die „Anti-Skynet-Bewegung“ AI Security – Standardisierung und Projekte

Von Mirco Lang Lesedauer: 4 min

Anbieter zum Thema

Künstliche Intelligenz beschert uns ein tolles Tool nach dem anderen – und eine riesige, neue Angriffsfläche für Cyber-Kriminelle. Aber auch die Gegenseite ist aktiv. Hier stellen wir einige prominente Projekte zum Thema vor.

Filiz Elmas, Leiterin Strategische Entwicklung Künstliche Intelligenz bei DIN, Christoph Winterhalter, Vorsitzender des Vorstandes von DIN, Robert Habeck, Vizekanzler und Bundesminister für Wirtschaft und Klimaschutz, Prof. Dr. Wolfgang Wahlster, CEA des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und Michael Teigeler, Geschäftsführer Deutsche Kommission Elektrotechnik Elektronik Informationstechnik in DIN und VDE (DKE) (v.l.n.r.)
Filiz Elmas, Leiterin Strategische Entwicklung Künstliche Intelligenz bei DIN, Christoph Winterhalter, Vorsitzender des Vorstandes von DIN, Robert Habeck, Vizekanzler und Bundesminister für Wirtschaft und Klimaschutz, Prof. Dr. Wolfgang Wahlster, CEA des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und Michael Teigeler, Geschäftsführer Deutsche Kommission Elektrotechnik Elektronik Informationstechnik in DIN und VDE (DKE) (v.l.n.r.)
(Bild: StefanZeitz)

Das The Open Worldwide Application Security Project, kurz OWASP, gehört zu den bekanntesten Anbietern von Wissen rund um Cyber-Sicherheit und hat Anfang des Jahres einen Leitfaden zu Sicherheit und Privatsphäre im KI-Umfeld veröffentlicht, den wir Ihnen bereits ausführlich vorgestellt haben.

Natürlich gibt es weitere Expertengruppen, Standardisierungsgremien, NGOs, Behörden, Forschungsinstitute und so weiter, die sich der Sicherheit in AI-Anwendungen und deren Entwicklung beschäftigen – und die nicht erst seit ChatGPT das Thema der Öffentlichkeit schmackhaft gemacht hat.

Ob man nun selbst KI-Dienste entwickelt oder sie „nur“ in der Entwicklung einsetzt, es ist in jedem Fall dazu geraten, sich für das Thema zu sensibilisieren. Im Folgenden haben wir eine Leseliste mit interessanten Seiten und Projekten zusammengestellt, der Fokus liegt dabei auf öffentlichen und Non-Profit-Organisationen.

Bundesamt für Sicherheit in der Informationstechnik

Erster Anlaufpunkt beim Thema Cyber Security ist in Deutschland das BSI, das auch ein eigenes Kompetenzzentrum Künstliche Intelligenz betreibt und Ansprechpartner für die Bundesverwaltung ist.

Ein guter Einstiegspunkt ist die BSI-Übersichtsseite der KI-Projekte und -Veröffentlichungen. Hier finden Sie unter anderem das Übersichtsdokument „Sicherer, robuster und nachvollziehbarer Einsatz von KI“ als Zusammenfassung aller BSI-internen KI-Security-Bemühungen. Hinzu kommen Papers in Zusammenarbeit mit TÜV, Fraunhofer und weiteren Experten, KI-Theorie, konkrete Beispiele etwa zu KI im Rahmen des autonomen Fahrens, Definitionen und mehr.

Lesetipp: Unter dem Titel „AI security concerns in a nutshell – Practical AI-Security guide“ findet sich unten auf der Seite ein sehr schönes, bündiges Dokument, das auf gerade mal 7 Seiten die wichtigsten Attacken auf KI-Systeme erläutert.

Von besonderem praktischen Nutzen dürfte der Artificial Intelligence Cloud Service Compliance Criteria Catalogue (AIC4) sein: Der Kriterien-Katalog AIC4 ist eine Erweiterung des bekannten C5 (Cloud Computing Compliance Criteria Catalogue), der Mindestanforderungen für den Betrieb/Bezug von Cloud-Diensten formuliert.

Deutsches Institut für Normierung e.V.

Von der DIN gibt es die „Deutsche Normungs-Roadmap Künstliche Intelligenz“ mit Empfehlungen zur Standardisierungen im KI-Umfeld. Im Wesentlichen werden Normierungsbedarfe festgestellt und das Ziel „KI Made in Germany“ als Qualitätssiegel ausgegeben. Neben einer 16-seitigen Zusammenfassung liefert vor allem das Hauptwerk auf 452 Seiten ausführliche Informationen zu den drängenden Themen.

Hierzu zählen, um ein paar Stichpunkte zu servieren: KI-Strategie der Bundesregierung/der EU, Normierung und Standardisierung national und international, Forschungsprojekte, Ethik, Quanten-KI, Industrielle Automation, Mobilität, Medizin, Umwelt, Anforderungen und konkrete Bedarfe. Das DIN-Dokument stammt aus dem Dezember 2022 und ist ein sehr guter Einstiegspunkt, der ziemlich umfassend informiert und sehr gut strukturiert ist.

European Telecommunications Standards Institute

Als Europäische Standardisierungsorganisation agiert die ETSI in einem ähnlichen Umfeld wie die DIN – mit einem Herz für Abkürzungen: Zuständig für den KI-Bereich ist die Industry Specification Group (ISG) Securing Artificial Intelligence (SAI), kurz ETSI ISG SAI. Die Gruppe konzentriert sich auf drei Kernthemen: KI als Security-Helfer, Abschwächung von und Schutz vor Attacken auf die KI selbst.

Dort findet sich eine ganze Reihe recht aktueller Veröffentlichungen, beispielsweise zu Supply Chain Security, eine Abhandlung über die Rolle von Hardware in der KI und eine (empfehlenswerte) Threat-Ontologie. Wer im europäischen Raum wirtschaftet, sollte hier ab und an vorbeischauen.

ENISA

ENISA meint die ehemalige European Network and Information Security Agency, die mittlerweile als European Union Agency for Cybersecurity auftritt. Allzu viel gibt es derzeit im Fachbereich KI-Sicherheit noch nicht zu lesen, aber einen Bookmark ist die Seite wert. Durchaus relevant ist nämlich die Veröffentlichung „Securing Machine Learning Algorithms“, die auf der Webseite verwirrenderweise unter der Überschrift „Cybersecurity of AI and Standardisation“ angeboten wird.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Darin gibt es eine sehr ausführliche Auswertung von Fachliteratur, mit dem Ziel, besonders dringliche Gefahren zu identifizieren, Lücken im Kontrollsystem aufzuzeigen, Security-Empfehlungen zu geben und letztlich einen Überblick zu bekommen – insbesondere in Form ausufernder Listen. Keine leichte Kost, aber durchaus interessant, wenn Sie an großen Projekten arbeiten oder einen umfassenden, wissenschaftlichen Einstieg suchen.

AI HLEG

Noch Europa, nun die EU-Kommission: Die High-Level Expert Group on Artificial Intelligence (AI HLEG) hat 2018 einige Papers veröffentlicht, die vor allem in Gesetzgebungsvorhaben mit eingeflossen sind. Das wohl wichtigste Werk: „Ethik-Leitlinien für eine vertrauenswürdige KI“ https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.

Das Dokument gliedert sich in drei Bereiche: Zunächst kommen ethische Grundlagen, hier geht es um Grundsätze wie Achtung der menschlichen Autonomie, Schadensverhütung oder Fairness. Anschließend werden auf Basis dieser Grundsätze konkrete Anforderungen an KI-Systeme formuliert, etwa die Beteiligung aller Interessensträger über den gesamten Lebenszyklus inklusive Schulungsförderungen. Zuletzt werden diese Anforderungen in eine Checkliste überführt, die die operative Umsetzung begleiten soll.

Hier finden sich auf insgesamt 8 Seiten Aspekte wie dieser: „Haben Sie die weiter reichenden gesellschaftlichen Auswirkungen der Nutzung des KI-Systems über die einzelnen (End-)Nutzer hinausgehend bewertet und dabei beispielsweise andere, möglicherweise indirekt betroffene Akteure berücksichtigt?“ Wer sich auch einmal losgelöst von der Technik mit der Materie auseinandersetzen möchte, liegt hier richtig.

Microsoft

Natürlich schweigt auch die Privatwirtschaft nicht, Microsoft beispielsweise hat schon 2021 ein Framework für Best Practices unter dem Titel „AI Security Risk Assessment“ auf Github veröffentlicht. Microsoft bietet hier auf rund 20 Seiten konkrete Handlungsempfehlungen.

Beispielsweise rät das Unternehmen mit Blick auf das Risiko der Datenmanipulation während des Lebenszyklus, dass Datensätze mit kryptografischen Mitteln eindeutig identifizierbar sein sollten. Das Projekt ist spannend, scheint aber nicht mehr aktiv gepflegt zu werden – dennoch eine nette Abwechslung zu den vielen theoretischen Grundlagen.

Weitere Leseempfehlungen

Um all die bis hierher vorgestellten Ressourcen zu lesen, bräuchte es schon ziemlich viel Regenwetter – aber für alle Fälle, zum Schluss noch ein paar Kurztipps:

International Telecommunication Union – Telecommunication Standardization Sector (ITU-T) der Vereinten Nationen: Veranstaltungen, News, Papers.

ISO/IEC AWI 2790: Leitfaden zu AI-Cybersecurity – bislang nicht veröffentlichter Draft.

Fraunhofer AISEC: AI steht hier zwar für „Angewandte und Integrierte“ statt für Artificial Intelligence, aber auch KI-Themen fallen freilich darunter – News, Artikel, Projekte.

IEEE SA: Standardisierungsgruppe der IEEE mit Standards zu Autonomous and Intelligent Systems.

National Cyber Security Center (UK-Version unseres Nationalen Cyber-Abwehrzentrums): Prinzipien rund um den ML-Einsatz.

Deutsches Zentrum für Luft- und Raumfahrt, Institut für AI Safety and Security: Diverse Projekte im thematischen Umfeld.

CyberAI Project an der Georgetown University: Viele wissenschaftliche Veröffentlichungen.

(ID:49431307)