Beiträge

In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:

„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.

Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird. 

Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.

Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.

Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.

Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.

Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.

Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.

Hintergrund

Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.

Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):

17. Oktober 2022

Frage:

Warum setzt sich die Bundesregierung in den Verhandlungen zur EU KI-Verordnung dafür ein, dass KI-Anwendungen der öffentlichen Verwaltung durch gesonderten Rechtsakt oder ein gesondertes Kapitel der KI-Verordnung reguliert werden sollen, wie es die Bundesregierung in der Stellungnahme „KI-Regulierung – stärkere Berücksichtigung von Besonderheiten der öffentlichen Verwaltung insbesondere im Sicherheits- und Migrationsbereich“ (BReg-Dok 272/2022) formuliert, und wie unterscheiden sich nach Auffassung der Bundesregierung die jeweiligen Vor- und Nachteile einer Regulierung von KI-Anwendungen der öffentlichen Verwaltung in einem gänzlich gesonderten Rechtsakt im Vergleich zu einer Regulierung in einem gesonderten Kapitel der KI-Verordnung?

Antwort des Staatssekretärs Benjamin Strasser:

Die Bundesregierung strebt die Regulierung von Künstlichen Intelligenz-Systemen (KI-Systeme) an und unterstützt den europäischen Artificial Intelligence Act (AI Act). Dies umfasst auch die rasche und zeitgleiche Regulierung von KI-Systemen für die öffentliche Verwaltung, einschließlich der Bereiche der Sicherheits-, Migrations- und Asylbehörden sowie Steuer- und Zollverwaltung (einschließlich Financial Intelligence Unit (FIU)).

Die besonderen Belange der staatlichen Tätigkeit der vorgenannten Behörden werden durch den Entwurf der Kommission jedoch nicht in jeder Hinsicht hinreichend berücksichtigt. Es ist schwierig, den besonderen Belangen dieser Behörden sowie den für hoheitliche Maßnahmen geltenden grundrechtlichen Anforderungen im Rahmen der primär privatrechtlich- und binnenmarktorientierten Vorschriften des Vorschlags für den AI Act vollständig gerecht zu werden. Die Erfüllung staatlicher Aufgaben muss gewährleistet bleiben und gleichzeitig die unmittelbare Grundrechtsbindung der staatlichen Verwaltung Beachtung finden. Notwendige diverse Einzelausnahmen /-anpassungen in den Einzelvorschriften des aktuellen Verordnungsentwurfs können zu Rechtsunsicherheit bei den Normadressaten führen.

Aus Sicht der Bundesregierung kann den Besonderheiten der öffentlichen Verwaltung (ins- besondere von Sicherheits-, Migrations- und Asylbehörden sowie der Steuer- und Zollverwaltung einschließlich FIU) durch einen separaten, gesonderten Technologierechtsakt oder jedenfalls durch ein gesondertes Kapitel in der Verordnung mit jeweils abschließendem Regelungsinhalt besser Rechnung getragen werden. Für die Bundesregierung ist es dabei nicht entscheidend, ob entsprechende Regelungen in einem separaten Kapitel im Entwurf des europäischen AI Acts oder zeitgleich in einem eigenständigen Rechtsakt erfolgen.

Drei Themenblöcke beschäftigen den Digitalausschuss am 22.06.2022. Das BMI war zu Gast, um (auf meine Anregung hin) die Position der Bundesregierung zum Thema Chatkontrolle zu berichten. Was man da so hört aus der Bundesregierung ist mindestens verwirrend. Nachdem „Digitalminister“ Volker Wissing sich klar gegen diesen Entwurf einer grundrechtswidrigen EU Verordnung aussprach, gab es von Seiten BMI leider weniger Klarheit. Ob das Recht auf Verschlüsselung (steht im KoaV!) bestehen bleibt, hängt für das BMI wohl auch davon ab, wie man den Verschlüsselungsprozess definiert. Das macht mir Sorgen. Meine Kritik und welche Präventionsmaßnahmen zum Kinderschutz sinnvoller wären – aber null im Entwurf vorkommen – gibts im Video.

Weiterlesen

Frage:

Plant die Bundesregierung bzw. planen Behörden des Bundes, die Zuverlässigkeit, Wirksamkeit und Fehlerfreiheit algorithmischer Systeme, die im Bereich des Bundes eingesetzt werden, zu prüfen und zu bewerten, insbesondere, wenn sie in besonders sensiblen Bereichen eingesetzt werden (z.B. von Sicherheitsbehörden innerhalb der Strafverfolgung, Terrorismusbekämpfung etc.) und wenn ja, wie (bitte erläutern ob z.B. Risikoklassensysteme nach ggf. einheitlichen Vorgaben eingesetzt werden sollen) und wenn nein, warum nicht (Antwort bitte ausführlich begründen)? Drucksache 201355 Frage 83

Weiterlesen

Künstliche Intelligenz: Nutzen und Risiken

Seit Jahren steigt der Einsatz von Künstlicher Intelligenz (KI), längst ist sie im Alltag der Menschen angekommen und wird weiter zunehmen, nicht nur in der Wirtschaft und in unseren elektronischen Geräten, sondern auch in der öffentlichen Verwaltung.

Weiterlesen

Frage

Kann die Bundesregierung ausschließen, dass von der Bundeswehr gesammelte biometrische Daten von afghanischen Staatsangehörigen den Taliban in die Hände fielen (vgl. www.heise.de/news/Afghanistan-Biometrie-Geraete-und-Datenbanken-von-Taliban-erbeutet-6168158.html), und in welcher Weise hat die Bundeswehr im Zusammenhang mit dem Ende des ISAF Einsatzes sichergestellt, dass der Passus im Memorandum of Understanding zwischen der Bundeswehr und dem US-Militär zur Sammlung und Verarbeitung biometrischer Daten in Afghanistan (siehe Bundestagsdrucksache 17/6862) umgesetzt wird, in dem eine Löschung aller von der Bundeswehr gesammelten Daten vereinbart ist, sobald der ISAF-Einsatz endet? (BT Drucksache 19/32251, Frage 86)

Antwort des Parlamentarischen Staatssekretärs Thomas Silberhorn vom 3. September 2021

Die Bundesregierung arbeitet mit anderen, insbesondere verbündeten, Staaten auf Grundlage des Grundsatzes gegenseitigen Vertrauens zusammen. Ihr liegen keine Anhaltspunkte dafür vor, dass die Löschung der Daten entsprechend der gegenseitigen Vereinbarung nicht erfolgt ist. Daher wird davon ausgegangen, dass die Löschung der von der Bundeswehr an das Hauptquartier übermittelten und im Automated Biometric Identification System (ABIS) gespeicherten Daten erfolgt ist. In der Vereinbarung wurde darüber hinaus festgelegt, dass die USA die Daten gegen unberechtigte Zugriffe sichert.

Frage: Wie ist der Planungsstand zur Entwicklung der polizeilichen KI-Strategie, und wurden neben dem Unternehmen msg systems AG weitere Firmen zur Entwicklung der polizeilichen KI-Strategie eingebunden (vgl. Bundestagsdrucksache 19/13866)? (BT-Drucksache 19/23047)

Antwort des Parlamentarischen Staatssekretärs Dr. Günter Krings vom 2. Oktober 2020
Zur Konkretisierung der Strategie Künstliche Intelligenz (KI) der Bundesregierung im Hinblick auf die innere Sicherheit (Kapitel 3.7) wurde im November 2019 mit der Entwicklung einer polizeilichen KI-Strategie begonnen. Die Strategieentwicklung befindet sich aktuell in der Phase der Finalisierung. Die Veröffentlichung der polizeilichen KI-Strategie wird zu Ende 2020/Anfang 2021 angestrebt.
Das Unternehmen msg systems AG ist Generalunternehmer einer Rahmenvereinbarung des Bundes. Die adesso AG ist als Unterauftragnehmer dieser Rahmenvereinbarung und unterstützt das Bundesministerium des Innern, für Bau und Heimat bei der Erstellung der polizeilichen KI-Strategie. Für den Entwicklungsprozess bedarf es der Einbindung weiterer externer und interner Experten, die innerhalb der unterschiedlichen Handlungsstränge durch das Einbringen ihrer konkreten Fachexpertisen einen wesentlichen Beitrag leisten. Neben den externen Experten von verschiedensten Hochschulen, die für ihre Expertise eine Aufwandsentschädigung erhielten, bestanden/bestehen vertragliche Vereinbarungen mit Fraunhofer FOKUS, der Schütze AG und PD – Berater der öffentlichen Hand GmbH.

Frage: Sind an dem Pilotprojekt der Deutschen Bahn AG in Stuttgart zur videobasierten Fahrgaststrom-Überwachung das Bundesministerium des Innern, für Bau und Heimat oder seine nachgelagerten Behörden an der Entwicklung, Planung, Umsetzung oder Finanzierung beteiligt, und wer hat Zugriff auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI (www.handelsblatt.com/technik/forschung-innovation/pilotprojekt-in-stuttgart-mit-kameras-gegen-corona-deutsche-bahn-will-passagierstroeme-bewusster-lanken/25774872.html)? (BT-Drucksache 19/19240)

Antwort des Parlamentarischen Staatssekretärs Enak Ferlemann vom 13. Mai 2020

Das Bundesministerium des Innern, für Bau und Heimat oder dessen Geschäftsbereichsbehörden sind an dem genannten Projekt nicht beteiligt.
Der Bundesregierung liegen keine eigenen Erkenntnisse hinsichtlich des Zugriffs auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI vor.

Regulierungsempfehlungen für Daten und Algorithmen (06.11.2019)

Heute stellte die Dathenethikkomission ihr Abschlussgutachten im Ausschuss Digitale Agenda vor. Das wichtigste daraus erzähle ich euch im Video.

Weiterlesen

Frage: Nach welchen Maßgaben bzw. methodischen Vorgaben findet jeweils die Evaluation des (auch geplanten) Einsatzes Künstlicher Intelligenz in der öffentlichen Verwaltung im Geschäfts- und Zuständigkeitsbereich der Bundesregierung statt, und an welchen dieser Evaluationen sind Soziologinnen und Soziologen, Verhaltensforscherinnen und Verhaltensforscher beteiligt? (BT-Drucksache 19/10765)

Antwort des Staatssekretärs Andreas Feicht vom 4. Juni 2019:

Die Bundesregierung versteht die Frage dahingehend, dass nicht nach allgemeinen Evaluationskriterien (wie z. B. Wirtschaftlichkeit) gefragt wird, sondern nach für Technologien Künstlicher Intelligenz spezifischen Maßgaben und Vorgaben. Insofern bestehen keine ausdrücklichen Maßgaben oder methodischen Vorgaben für den Einsatz von KI-Technologien im Geschäfts- und Zuständigkeitsbereich der Bundesregierung. Aus der Strategie Künstliche Intelligenz und insbesondere den mit dieser gesetzten politischen Zielen folgen einige Rahmenbedingungen für den Einsatz von KI-Technologien. Generell bieten KI-Systeme erhebliche Chancen (z. B. für die Forschung, die Innovationsfähigkeit der Wirtschaft, die Optimierung von Produktions- und Verwaltungsprozessen und damit einhergehend eine Entlastung von Ressourcen und Verbesserung von Ergebnissen), bergen aber auch Risiken (z. B. für die individuelle Handlungsfreiheit, für die informationelle Selbstbestimmung und den Privatsphärenschutz sowie für die Teilhabe und Chancengleichheit einzelner Menschen oder gesellschaftlicher Gruppen). Die von der Bundesregierung eingesetzte Datenethikkommission soll insbesondere Handlungsempfehlungen für die Nutzung von Algorithmen-basierten Entscheidungssystemen und Anwendungen Künstlicher Intelligenz erarbeiten. Die Bundesregierung wird diese Handlungsempfehlungen prüfen. Soweit es sich innerhalb der zur Beantwortung der Frage zur Verfügung stehenden Zeit im Rahmen einer Ressortabfrage ermitteln ließ, sind Soziologinnen und Soziologen sowie Verhaltensforscherinnen und Verhaltensforscher nicht explizit an Evaluationen beteiligt.

Medienecho

Episoden

Es konnte leider nichts gefunden werden

Entschuldigung, aber kein Eintrag erfüllt Deine Suchkriterien