Transparenzregister und AI Act Künstliche Intelligenz unter Beobachtung
Anbieter zum Thema
Ob in Chatbots oder Automatisierungssoftware – Künstliche Intelligenz kommt immer mehr in der Arbeits- und Lebenswelt an. Umso wichtiger ist es sicherzustellen, dass auch bei automatisierten Entscheidungen die Grundrechte von Unternehmen sowie Bürger und Bürgerinnen gewahrt werden. Helfen könnten dabei ein Transparenzregister und der AI Act.

„Jetzt übernimmt die Künstliche Intelligenz“, „Wenn die Künstliche Intelligenz halluziniert“ und „Wird mein Job bald überflüssig“ tönt es seit Wochen von den Seiten zahlreicher Zeitungen und Magazine. Diese Beispiele verdeutlichen dabei vor allem eines: Künstliche Intelligenz, so spannend die aktuellen Möglichkeiten von ChatGPT und Co auch sein mögen, ist auch immer mit Unsicherheit und Ängsten verbunden.
Ganz unberechtigt sind diese nicht: Automatisierung birgt immer das Risiko, auch Fehler zu automatisieren. Das trifft häufig die schwächsten Mitglieder der Gesellschaft: „Beispielsweise schreiben die Algorithmen Geschlechterklischees fort – zum Nachteil von Frauen und anderen vulnerablen Gruppen“, erklärte die Grünen-Politikerin Lisa Paus, Bundesministerin für Familie, Senioren, Frauen und Jugend.
Ein prominentes Beispiel für die Problematik: Die vom Bundesamt für Migration und Flüchtlinge (BAMF) genutzte Software zur Dialekt-Erkennung. Mit ihrer Hilfe soll es möglich sein, die genaue Herkunft und damit Identität von Asylsuchenden festzustellen. „Konkret werden vom BAMF Entwicklungen in der Sprachbiometrie genutzt, um gesprochene arabische Großdialekte zu erkennen und sie bestimmten Regionen zuzuordnen. Die Sprachaufzeichnungen müssen für diesen Zweck eine bestimmte Länge besitzen und qualitativ hinreichend klar sein, um aufschlussreiche Ergebnisse zu erzielen. Die Antragsstellenden geben eine Sprechprobe ab, anschließend analysiert das System diese Probe und errechnet die Wahrscheinlichkeit, dass ein bestimmter Dialekt gesprochen wird“, erklärte ein Sprecher des BAMF.
Sprachwissenschaftler sind sich allerdings einig, dass dieses Vorgehen vielleicht noch bei standardisierten Nationalsprachen funktioniert, doch selbst für eine KI seien lokale Mundarten schwer genauen Regionen zuzuordnen. Der Ergebnisbericht hat laut BAMF daher auch „ausschließlich einen Hinweischarakter für die zuständigen Mitarbeitenden und keine Beweiskraft“.
Ein Verzicht auf entsprechende Technologien kommt schließlich nicht infrage, zu viel Nutzen bringen sie alleine für die Verwaltung: in Chatbots, für die automatisierte Bearbeitung von Steuererklärungen oder Sozialhilfeanträge oder bei der Polizeiarbeit.
Das hat auch die Bundesregierung erkannt und die Förderung entsprechender Technologien sogar im Koalitionsvertrag verankert:
Wir werden Treiber eines starken Technologiestandorts, der auf europäischen Werten basiert, Talente anzieht sowie Zukunftsfähigkeit und Wohlstand unseres Landes sichert. Investitionen in Künstliche Intelligenz (KI), Quantentechnologien, Cybersicherheit, Distributed-Ledger-Technologie (DLT), Robotik und weitere Zukunftstechnologien stärken wir messbar und setzen Schwerpunkte
heißt es dort. Zunächst müssen jedoch die regulatorischen Rahmenbedingungen festgelegt werden, so dass alle Beteiligten sicher sind. Dafür laufen aktuell unterschiedliche Bestrebungen.
Transparenz soll Sicherheit geben
In der Diskussion ist unter anderem ein Transparenzregister für KI-basierte Anwendungen beziehungsweise Algorithmic-decision-making-Systems (ADM-Systeme). AlgorithmWatch hat dazu ein entsprechendes Konzeptpapier verfasst und darin nochmals die Notwendigkeit des Ganzen erörtert: „Behörden tragen eine besondere Verantwortung gegenüber denen, die von ihren Entscheidungen betroffen sind. Daher müssen ihre automatisierten Prozesse verantwortungsvoll, grundrechtskonform und gemeinwohlorientiert sein“, so die Autoren. „Das bedeutet beispielsweise, dass automatisierte Systeme, die über die Vergabe von Sozialleistungen oder Schulplätzen entscheiden, nicht zu Diskriminierung und intransparenten Entscheidungen führen dürfen.“
Das Register sollte laut der gemeinnützigen Organisation daher folgende Informationen beinhalten:
- Zweck und konkrete Einbettung des Systems im jeweiligen Entscheidungsprozess,
- Akteure, die an der Entwicklung und dem Einsatz des Systems beteiligt sind,
- Grundlegende Informationen zum Entscheidungsmodell des Systems,
- Informationen zu den verwendeten Methoden und
- Qualitätssicherungsprozesse, Maßnahmen zur Informationssicherheit und zum Datenschutz.
„Das Instrument unterscheidet sich von anderen Vorschlägen durch seine zwei Stufen. Auf der ersten Stufe wird in einem möglichst einfachen Verfahren ermittelt, ob vom ADM-System überhaupt Risiken ausgehen“, heißt es in dem Konzeptpapier. Dies geschieht auf Basis einer Folgeabschätzung, welche auch die Basis für den in Schritt zwei anzufertigenden Transparenzbericht sein soll. „Nur in Ausnahmefällen – etwa, wenn nicht alle Informationen aus legitimen Geheimhaltungsinteressen (wie dem Schutz der Privatsphäre) vollständig offengelegt werden dürfen – ist dies im Register zu vermerken und die Aufsichtsbehörde anzugeben, der gegenüber die Angaben vollständig offengelegt wurden.“
Eine „Taskforce KI-Kompetenz“ könnte die Behörden bei diesem Prozess unterstützen und gleichzeitig helfen, dringend benötigte Kompetenzen aufzubauen. Dies sei auch dringend notwendig, ist die Bundestagsabgeordnete Anke Domscheit-Berg, digitalpolitische Sprecherin der Fraktion Die Linke, überzeugt. Bei einer Kleinen Anfrage aus dem vergangenen Jahr hatte sich schließlich gezeigt, dass bei 86 KI-Projekten des Bundes nur einmal eine Risikoabschätzung durchgeführt wurde.
Auch Bundes-CIO Markus Richter schien während eines parlamentarischen Frühstücks, zu dem die Grünen-Bundestagsabgeordneten Misbah Khan und Anna Christmann gemeinsam mit AlgorithmWatch eingeladen hatten, offen für den Vorschlag. Zwar merkte er an, dass der Einsatz von KI-Systemen durch Behörden noch am Anfang stehe, gab jedoch auch zu, dass ein Transparenzregister dabei helfen könne, in der Bevölkerung Vertrauen zu schaffen, ohne dass mit den neuen Kontrollmechanismen ein unverhältnismäßiger Verwaltungsaufwand verbunden wäre. Auch die KI-Taskforce bewertete er positiv.
An dieser Taskforce könnten sich, so der Vorschlag von Nina Bewig, Berliner Senatsverwaltung für Justiz, Vielfalt und Antidiskriminierung, auch staatliche und nicht-staatliche Antidiskriminierungsstellen oder Menschen, die zum Thema Antidiskriminierung arbeiten, beteiligen, um Grundrechtsverletzungen auszuschließen. Außerdem solle eine Aufsichtsstelle aus unabhängigen Dritten eingerichtet werden.
AI Act: Wie streng muss er sein?
Doch auch auf EU-Ebene gibt es Bestrebungen, Künstliche Intelligenz künftig zu regulieren. Basis soll der sogenannte AI Act bilden. Das Gesetz, das seit Jahren in Vorbereitung ist, soll alles Mögliche regeln – von biometrischer Identifikation im öffentlicher Raum über den Einsatz von KI-Systemen an den EU-Außengrenzen oder bei der Energieversorgung.
Vor allem soll es aber aufzeigen, in welchen Bereichen KI auf keinen Fall zur Anwendung kommen darf. Daher werden die ADM-Systeme je nach potenziellem Risiko in vier Kategorien eingeteilt werden: Anwendungen mit unannehmbarem Risiko, mit hohem Risiko, mit geringem oder minimalen Risiko. Je höher das Risiko, desto strenger die Regulierungen: Bei einem unannehmbaren Risiko wird die Anwendung demnach verboten. Das gilt etwa, wenn aufgrund von sozialem Verhalten nachteilige Bewertung drohen, wie beim chinesischen Sozialkredit-System.
Hochrisiko-KI-Systeme müssen hingegen nur bestimmte Auflagen – etwa bezüglich des Risikomanagements, der Daten-Governance- und Datenverwaltungsverfahren für die Trainingsdatensätze oder der Informationen für die Nutzer – erfüllen, während bei KI-Systeme mit geringem Risiko nur eine minimale Transparenz- und Informationspflicht besteht.
Obwohl sich die Mitgliedsstaaten – und damit auch Deutschland – bereits auf diese Ausführung geeinigt hatten, stoßen der SPD-Fraktion einige Absprachen sauer auf, wie sie in einem Positionspapier darlegt. Dabei geht es unter anderem um die Definition der Künstlichen Intelligenz.
Den Abgeordneten ist die aktuelle Variante zu eng gefasst, während ihrer Meinung nach bei den Einsatzgebieten, die laut Gesetz als hochriskant gelten, zu locker vorgegangen wird. „Es fallen laut aktuellen Schätzungen nur etwa fünf bis 15 Prozent der Anwendungen in den mit besonderen Auflagen und Pflichten belegten Hochrisikobereich. Für die große Mehrheit der KI-Systeme gelten deutlich geringere Anforderungen“, so die Autoren. Diese Kombination käme einer Aushebelung der Regularien gleich, so der zuständige Berichterstatter der Fraktion, Parsa Marvi.
Doch das ist nicht das einzige Problem der Neuerungen, denn im Koalitionsvertrag heißt es:
Biometrische Erkennung im öffentlichen Raum sowie automatisierte staatliche Scoring Systeme durch KI sind europarechtlich auszuschließen
Im AI Act wird nun jedoch nur die biometrische Echtzeitüberwachung ausgeschlossen. Heißt, die nachträgliche Auswertungen der Aufnahmen wird weiterhin möglich sein. Die Regierung übergeht damit (erneut) den Koalitionsvertrag und damit ihr Versprechen an die Bürger und Bürgerinnen.
Dass die Beschränkungen an vielen Stellen lascher ausfallen als vielleicht gehofft, hängt dabei sicherlich auch mit der Angst zusammen, von Mitbewerbern abgehängt zu werden. So erklärte etwa Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung: „Der Rat der Europäischen Union hat mit seinen Vorschlägen zum AI Act den Entwurf der Kommission an entscheidenden Stellen verbessert. Zugleich besteht aber weiterhin die Gefahr, dass durch eine zu starke Fokussierung auf Risiken die KI-Entwicklung in Europa ausgebremst wird.“
Künstliche Intelligenz sei eine Technologie, der eine entscheidende Bedeutung für unsere Zukunftsfähigkeit zukommt. „Zwei Drittel der Unternehmen in Deutschland sehen in KI vor allem eine Chance. Damit kommt dem AI Act mit Blick auf die Wettbewerbsfähigkeit der europäischen Wirtschaft und unseren künftigen Wohlstand eine bedeutende Rolle zu.“
(ID:49325446)