In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.
Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:
„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.
Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird.
Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.
Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.
Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.
Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.
Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.
Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.
Hintergrund
Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.
Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):
- Anschreiben und Kommentierung der Bundesregierung
- Anlage 1a: Anwendungsfälle, Datenbasis, Datenerhebung
- Anlage 1b: Schulung d. Entscheidenden sowie Nutzenden, Risikoklassenmodelle, Nachhaltigkeit
- Anlage 1c: Kostenfaktoren, interne vs. externe Entwicklung, Ausschreibungsmodalitäten
- Anlage 1d: Evaluierung
- Anlage 2: Forschungsvorhaben, Pilotprojekte und Reallabore
- Anlage 3: Fördermaßnahmen aus KI-Strategie
Trackbacks & Pingbacks
[…] Die Analyse meiner Anfrage KI im Bund von 2022 gibt es HIER, für die Anfrage KI im Bund von 2023 gibt’s meine Pressemitteilung (Link). […]
Kommentare sind deaktiviert.