Meine Frage: Welche Kontakte jeglicher Art gab es seit Beginn der 20. Wahlperiode zwischen Bundesministerinnen und -ministern, Vertreterinnen und Vertretern der Bundesregierung oder hohen Beamtinnen und
Beamten von Bundesbehörden mit Vertreterinnen und Vertretern der Firma Aleph Alpha zum Themenfeld Künstliche Intelligenz einschließlich AI Act (bitte tabellarisch auflisten mit Termin, Art des Kontaktes – Treffen, EMail, Telefonat, Direktnachrichten etc, Thema – AI Act bitte explizit nennen und mit welchen Vertreterinnen und Vertretern von Aleph Alpha der Kontakt stattfand)?

Weiterlesen

Zum Digitalausschuss vom 17.01.2024 gibt es eine Mammut-Folge mit 5 Themen im Ausschuss und den 2 Bonus-Themen: Update zur Linken im Bundestag und meine Argumente für ein AfD Verbot. Digital gehts um: 1) UN Cybercrime Convention (authoritäre Staaten wollen darin Gruseliges), 2) der KI-Aktionsplan des BMBF mit 500 Mio € Fördergeld in 2024, 3) Ergebnisse der Weltfunkkonferenz 2023: kommt ein Mobilfunknetz für Polizei und Militär? Was sind Folgen für die Kulturfrequenzen?, 4) Bund und Länder Krisenübung LÜKEX mit einem Cyber-Attacke-auf-den-Staat Szenario und 5) wie lief die Förderung des Glasfaserausbaus in 2023 (Gigabit-Richtlinie 2.0) und was kommt 2024?

Kapitelmarken:
00:00:07 Intro
00:01:25 UN-Cybercrime Convention 
00:13:51 Weltfunkkonferenz
00:26:42 Krisenübung LÜKEX mit Cyberangriff
00:36:48 KI-Aktionsplan Bundesregierung
00:48:35 Gigabitrichtlinie 2.0
00:56:00 Update Linke im Bundestag
00:57:27 AfD-Verbot
01:04:07 Outro und Hinweise

Weiterführende Links:

UN-Cybercrime Convention:

Weltfunkkonferenz:

LÜKEX – Krisenübung mit Bund und Ländern:

KI-Aktionsplan:

Gigabitrichtlinie 2.0:

Sonstige Hinweise:

Eine “wilde Woche” im Bundestag, meine Linksfraktion beschließt ihre Auflösung und Umwandlung in eine Gruppe, das Verfassungsgericht kippt die Finanzierung des Klimatransformationsfonds (60Mrd €!) und bringt Abläufe im Digitalausschuss vom 15.11.23 durcheinander. Im Podcast geht es um alles das und um die 3 Themen, die wir debattierten: 1) KI Regulierung (mal wieder, wegen Antrag Union) und der kürzliche AI Safety Summit in London zu “Frontier-KI”, 2) Denkfabrik digitale Gesellschaft des BMAS und was sie außer KI-Themen macht sowie 3) die IT-Konsolidierung des Bundes nach 8 J. Umsetzung: zB mit eAkte, Bundescloud, Netze des Bundes, eGesetzgebung, jede Menge Geld und jede Menge Rechenzentren.

Kapitelmarken:
00:00:07 Intro
00:01:35 AI Safety Summit UK, KI-Verordnung EU
00:07:27 KI-VO: biometrische Identifizierung im öff. Raum
00:16:45 Denkfabrik Dig. Arbeitsgesell. (o. nur KI?), BMAS
00:28:08 IT-Konsolidierung Bund, ein 3,5 Mrd EUR Projekt
00:35:38 IT-Kons.: Bundescloud, eGesetzgebung, RZ, IT-Sicherheit
00:40:48 Update zur Zukunft der Linksfraktion
00:45:50 Outro u. Hinweise
 

Weiterführende Links:

Öffentlicher Teil Digitalausschuss vom 15.11.23

KI Verordnung EU/ AI Safety Summit:

Denkfabrik des BMAS:

IT-Konsolidierung des Bundes:

Hinweise:

Dreimal ging es direkt oder indirekt um die EU im Digitalausschuss am 8.11.2023. Zu den Verhandlungen der KI-Verordnung diskutierten wir den (wirklich guten!) Antrag der (noch) Linksfraktion. Weitere Themen: Der Digital Services Act, der nach dem Hamas Terror vom 7.10.23 mit 1.400 Toten in Israel seine erste Bewährungsprobe mit massenhaft Desinformationen auf großen Plattformen hat, der Einsatz von KI zur Früherkennung von Straftaten und strafbaren Inhalten im Netz, und die schleppende Umsetzung des DSA in DE. Bonus-Inhalt: Wie geht es weiter mit der Linksfraktion?

Transkript dieser Folge:

Kapitelmarken:
00:00:07 Intro
00:03:18 Digitalausschuss – Antrag Linke zur EU- KI Verordnung
00:16:56 Israel-Hass u Antisemitismus in sozialen Netzen: Intro 
00:18:28 Israel-Hass: Bewährungsprobe Dig. Services Act
00:24:40 KI beim Bund: intell. Videoanalyse, Früherkennung Straftaten
00:28:35 Bundesamt für Justiz: 1.400 liegengebliebene NetzDG Beschwerden?
00.30:26 Dig. Services Act in DE: Gesetz u nat. Dig. Dienste Koordinator
00:38:48 Netzsperren im Digitale Dienste Gesetz
00:40:52 Zukunft der Linksfraktion
00:44:54 Outro und Hinweise

Weiterführende Links:

Rückblick:

KI-Regulierung:

Israel-Hass in sozialen Medien:

Nationaler Koordinator Digitale Dienste/Digitale Dienste Gesetz:
 

Weitere Links:

Meine Frage:

Welche Stellen haben bisher Aufgaben innerhalb der Verbundprojekte “Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen (VIKING)” sowie „KI zur Früherkennung von Straftaten (KISTRA)“ (für beide siehe Bundestagsdrucksache 20/6862) erledigt bzw. werden sie künftig erledigen (bitte für alle beteiligten Verbundpartner ihre jeweiligen Rollen, Aufgaben und deren bereits erledigte und noch geplante Teilvorhaben ausführlich mit Beschreibung nennen), und in welcher Weise sind weltweite Erfahrungen und Forschungsergebnisse zu den Risiken von KI allgemein in polizeilichen Anwendungen und insbesondere bei Predictive Policing (Früherkennung von Straftaten) in die Gestaltung und Umsetzung dieser Verbundprojekte eingeflossen, die entsprechend von Entwürfen der europäischen KI- Verordnung als Hochrisiko-Anwendungen einzustufen sind, so dass besondere und hohe Anforderungen an den Grundrechtsschutz, die Diskriminierungsfreiheit aber auch an die Transparenz und Nachvollziehbarkeit erfüllt werden müssen?

Antwort des Parlamentarischen Staatssekretärs Mario Brandenburg:

Sowohl im Projekt „Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen“ (VIKING) als auch im Projekt „KI zur Früherkennung von Straftaten“ (KISTRA) haben alle
involvierten Partner ihre Aufgaben gemäß dem jeweiligen aktuellen Projektplan erledigt.

Das Projekt KISTRA läuft Ende dieses Jahres aus und alle Partner haben ihre geplanten Aufgaben umsetzen können. Eine Aufstellung der erledigten Aufgaben für jeden
Verbundpartner ist der Anlage 1 zu entnehmen.

Das Projekt VIKING erstreckt sich noch bis Ende 2024, hat jedoch zum letzten Berichtszeitpunkt Ende Juni 2023 erfolgreich seinen Meilenstein absolviert. Jeder Partner hat seine Aufgaben zum Meilenstein erledigt. Eine Aufstellung der erledigten sowie der noch zu erledigenden Aufgaben für jeden Verbundpartner ist der Anlage 2 zu entnehmen.

Im Rahmen beider Projekte wird die KI-Forschung in enger Zusammenarbeit mit gesellschaftswissenschaftlichen Partnern durchgeführt. Diese erarbeiten Empfehlungen für einen ethisch und juristisch konformen Einsatz der KI-Methoden. Im Projekt VIKING werden darüber hinaus die Themen der Diskriminierungsfreiheit sowie der Transparenz und Nachvollziehbarkeit als konkrete Aufgaben bearbeitet. Das Thema Predictive Policing wurde in beiden Projekten nicht adressiert.

Antwortschreiben im Original (pdf)

Meine Fragen:

1. Welche Rolle spielt Künstliche Intelligenz (KI) beim Forschungsvorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862; bitte KI-Projektanteile ausführlich beschreiben, so dass ein guter Eindruck davon vermittelt wird, welche Zwecke KI wie erreichen soll), und was ist der Stand des Vorhabens mit Bezug auf seine KI-Anteile (bitte den Stand im Projekt-Zeitplan und in Bezug auf er-reichte und noch geplante Meilensteine verorten)?

2. Auf Grundlage welcher Daten wurde oder wird die im Rahmen des Forschungs-vorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862) eingesetzte KI-gestützte Software zur Erkennung kritischer Situationen trainiert, und mit welchen standardisierten oder alternativen Methoden wurde oder wird vor Beginn eines Einsatzes auf einem Bahnhof auch als Test- oder Pilotbetrieb eine nachvollziehbare Risikoklassifizierung/-bewertung vorgenommen (bei standardisierter und alternativer Methode bitte präzisieren, welche Methode; und wenn keine derartige Risikoklassifizierung vorgenommen wurde, bitte begründen, warum nicht)?

3. Wofür wurden und werden Haushaltmittel im Rahmen des Forschungsvorhabens Sicherheitsbahnhof für KI-Aspekte (siehe Bundestagsdrucksache 20/6862) verausgabt (bitte tabellarisch Höhe und Verwendungszweck für alle KI-bezogenen Ausgaben angeben), und wie wird öffentliche Transparenz über das Projekt her-gestellt, z. B. zu Zwischenergebnissen, Risikobewertung, Evaluationprozessen und -ergebnissen, Diskriminierungsfreiheit etc., da es sich um ein Vorhaben handelt, das nach meiner Einschätzung ein hohes Risiko für Grundrechtsverletzungen birgt und nach EU KI-Verordnung vermutlich als Hochrisiko-KI-Anwendung eingestuft würde?

Antwort der Parlamentarischen Staatssekretärin Rita Schwarzelühr-Sutter (BMI):

Die Deutsche Bahn und die Bundespolizei identifizieren ordnungspartnerschaftlich sicherheitsrelevante Naht- und Schnittstellen im Eisenbahnverkehr und entwickeln
partnerschaftlich bauliche, technische und übergreifende Maßnahmen, um einen sicheren und störungsfreien Bahnverkehr auch in Zukunft zu gewährleisten. Gemein-sam mit Wissenschaft und Wirtschaft konzipieren sie interdisziplinär erste innovative Lösungen unter Labor- und Realbedingungen. Das Ziel des Forschungsvorhabens Sicherheitsbahnhof ist es, Gefahrensituationen zu reduzieren beziehungsweise früh-zeitig zu erkennen, um diese rechtzeitig bewältigen zu können. Die Optimierung der Fahrgastsicherheit, insbesondere in Bahnhöfen, stehen im Vordergrund dieser Forschung. Nachfolgende Teilprojekte des Forschungsvorhabens Sicherheitsbahnhof haben einen KI-Bezug: Erprobung intelligenter Videoanalyse: Zusammen mit dem „KI-Campus der Polizei“ des Bundesministeriums des Innern
und für Heimat (BMI) erforschen die Deutsche Bahn und die Bundespolizei, auf welche Weise KI-gestützte Software bei der Analyse von Videobildern zum Einsatz kommen könnte. Für die Bewertung und Erprobung polizeilicher KI-Lösungen kommen hierbei Wissenschaft, Behörden und ausgewählte Unternehmen zusammen. Die zu entwickelnde Software soll helfen, potenzielle Gefahrensituationen zu erkennen, wie
beispielsweise das unbefugte Betreten von Gleisanlagen oder das Fallen oder Stoßen in diese. Gemeinsam wird sowohl unter Labor- als auch unter realitätsnahen Bedingungen erforscht, wie eine Software für solche speziellen Situationen trainiert und in der Folge das Sicherheitspersonal der Deutsche Bahn oder die Bundespolizei auf diese hinweisen könnte. Zur bestmöglichen Erprobung erfolgt ein stufenweises Vor-gehen, welches die Einhaltung der rechtlichen, datenschutzrechtlichen und ethischen Anforderungen sicherstellt.

Wenn ein Anwendungsfall interdisziplinär als machbar und nützlich bewertet wird, erfolgt seine Erprobung unter Laborbedingungen. Diese soll nachweisen, ob das System technisch grundsätzlich in der Lage ist, das sich aus dem Anwendungsfall ergebende Problem zu lösen. Die anschließende technische Erprobung unter realitätsnahen Bedingungen stellt das System in Bezug auf die
Komplexität realistischer Betriebseinflüsse auf die Probe. Um das Zusammenspiel zwischen Technik und Mensch zu prüfen (Wirksamkeit und Nutzen), erfolgt schließlich eine soziotechnische Erprobung. Sämtliche Stufen der Erprobung werden fortlau-fend unter den Gesichtspunkten der interdisziplinären Bewertung betrachtet, sodass eine verantwortungsbewusste Entwicklung sichergestellt ist. Deshalb sind „Quality
Gates“ zwischen diesen stufenweisen Erprobungsphasen installiert. Nur wenn das System nach jeder Phase die an sie gestellten, stufenspezifischen Anforderungen er-füllt, wird die Erprobung fortgesetzt.

Erprobung sensorgestützter Tunnelmundüberwachung: In einer Machbarkeitsstudie untersuchen die Ordnungspartner, ob mit Hilfe eines Dynamic Vision Sensor (DVS) eine sichere und zuverlässige Erfassung sich bewegen-der Objekte im Zugangsbereich von Tunneln zur teilautomatisierten Gefahrenerkennung erreicht werden kann. Ziel ist es, die Sicherheit im öffentlichen Verkehr zu verbessern und die Anzahl von Sperrzeiten zu reduzieren. Der DVS unterscheidet sich gegenüber herkömmlichen Kameras, da hier keine Videobilder aufgezeichnet werden; der hier erzeugte Datenstrom besteht lediglich aus Pixeln, die sich über die Zeit
in der Helligkeit ändern. Diese Sensoren sind wesentlich lichtempfindlicher, so dass sie auch in Bereichen mit wechselnder Beleuchtung oder in sehr dunklen Umgebungen arbeiten. Zum Erreichen der Witterungsunabhängigkeit soll ein maßgeschneiderter Erkennungsalgorithmus entwickelt werden, der mit Hilfe von Methoden der künstlichen Intelligenz eine sichere Klassifikation zwischen Personen und anderen sich
bewegenden Objekten im Tunneleingangsbereich ermöglicht. Durch die zuverlässige Erkennung und die teilautomatisierte Alarmierung kann das Sicherheitspersonal
ohne Zeitverzug gefahrenabwehrende Maßnahmen, auch zum Schutz der kritischen Infrastruktur und des störungsfreien Bahnverkehrs, einleiten. Im Teilprojekt TUNUKI hat die Hochschule Niederrhein die Feldphase zur Aufnahme der Sensordaten abge-schlossen, die Auswertung dieser Daten dauert noch an. Es wurden Daten vom Tunneleingang des BER-Eisenbahntunnels (nicht öffentlicher Bereich) über eine Dauer
von sechs Monaten aufgezeichnet. Ziel ist es, auf Grundlage dieser Datenbasis ein KI-Modell zu trainieren, welches Anwesenheit von Personen im Tunnel erkennen und
diese zuverlässig bei allen Licht- und Wetterverhältnissen von Tieren, Zügen und an-deren Objekten unterscheiden kann. Personenbezogene Daten werden nicht erhoben.

Zu 3.

Der KI-Campus sowie die derzeit in Anspruch genommenen Entwicklungsleistungen der PD-Berater der öffentlichen Hand GmbH werden durch das BMI finanziert. Die
Finanzierung des Teilprojekts TUNUKI erfolgte aus den Fördermitteln mFUND des Bundesministeriums für Digitales und Verkehr. Das Forschungsvorhaben Sicherheitsbahnhof wird anteilig über Eigenmittel der DB Station&Service AG finanziert. Die Bundespolizei hat keine eigenen Haushaltsmittel für das Forschungsprojekt Sicherheitsbahnhof bereitgestellt. Die notwendige Transparenz während des Projekts wird durch die Informationen auf der Webseite https://sicherheitsbahnhof.bahnhof.de/ gewährleistet. Zur Erprobung sensorgestützter Tunnelmundüberwachung wurden vom Projektpartner Hochschule Niederrhein ferner folgende Beiträge veröffentlicht: https://www.hs-niederrhein.de/aktuelles/news-detail/tunnelmuendungen-mithilfe-ku-enstlicher-intelligenz-sicherer-machen/, https://www.hs-niederrhein.de/ipattern/nach-richten-detailseite/ki-zur-ueberwachung-von-tunnelmuendungen/.

Antwortschreiben im Original (pdf): https://mdb.anke.domscheit-berg.de/wp-content/uploads/231103_3-SFs-zu-KI-Projekten-Antwort-BuReg_Geschwaerzt.pdf

05. Juni 2023

Meine Fragen:

1.: Wofür wurden die bisherigen Haushaltsmittel (siehe Antwort der Bundesregierung auf die Kleine Anfrage auf Bundestagsdrucksache 20/6862) für die 3 Vorhaben Beratungs- und Evaluierungszentrum für Künstliche Intelligenz, BEKI (1,1 Mio €); KI-Kompetenzzentrum (23,5 Mio €) und Algorithmenstelle für Behörden und Organisationen mit Sicherheitsaufgaben (2,77 Mio €) jeweils konkret verausgabt (bitte nach Ausgaben, Jahr und Vorhaben aufschlüsseln) und was ist der jeweils konkrete Zeitplan für den Aufbau dieser drei Einrichtungen?

2.: Was ist der konkrete Zweck der in der Antwort der Bundesregierung auf die Kleine Anfrage der Linksfraktion in Drs. 20/6862 genannten drei Vorhaben/Stellen: Beratungs- und Evaluierungszentrum für Künstliche Intelligenz, BEKI; KI-Kompetenzzentrum und Algorithmenstelle für Behörden und Organisationen mit Sicherheitsaufgaben und in welcher Organisationsform sollen diese Vorhaben/Stellen jeweils umgesetzt werden (bitte auch jeweils die Gesamtstellenanzahl angeben)?

Antwort des Parlamentarischen Staatssekretärs Johann Saathoff:

Zu 1.:
Die Überlegungen zum Beratungs- und Evaluierungszentrum für Künstliche Intelligenz (BEKI) sind weiter vorangeschritten, die Abstimmungen innerhalb der Bundesregierung dauern noch an. Bereits in der aktuellen Phase der Umsetzungsvorbereitung, die in 2023 abgeschlossen werden soll, ist die Pilotierung erster Angebote des BEKI vorgesehen.

Die Bundesregierung hat die Überlegungen zum Aufbau des Projektes Pilotierung eines Künstliche Intelligenz-Bewertungsvorgehens und Konzeption einer Algorithmenstelle für Behörden und Organisationen mit Sicherheitsaufgaben (PABOS) noch nicht abgeschlossen. Daher besteht noch kein endgültiger Zeitplan.

Das Kompetenzzentrum Künstliche Intelligenz (jetzt KI-Kompetenzcenter der Bundesverwaltung, kurz „KI-KC“), wird unmittelbar nach Vertragsschluss mit der Bundesdruckerei eröffnet. Die Vertragsunterzeichnung ist für Anfang Juni 2023 vorgesehen. Der Aufbau des KI-KC skaliert anschließend zur Anzahl der entsprechend des Konzepts umgesetzten Projekte in Form von Proof-of-Values (PoVs) über die Gesamtlaufzeit des Konjunkturpaketes.

Die von den in der Fragestellung genannten Haushaltsmitteln bereits vorgenommenen Ausgaben können der nachfolgenden Tabelle entnommen werden.

Zu 2.:
Die Planung für den Aufbau des BEKI für den Bereich der öffentlichen nicht sicherheitsbezogenen Verwaltung ist weiterentwickelt worden, der Prozess ist aber noch nicht abgeschlossen. Zweck des BEKI ist es, die öffentliche Verwaltung für den kompetenten und verantwortungsvollen Einsatz von Künstlicher Intelligenz (KI) weiter zu ertüchtigen. Das BEKI beabsichtigt dabei, die öffentliche Verwaltung auf rechtlicher, ethischer und technischer Ebene hinsichtlich der verantwortungsvollen Nutzung von KI zu beraten, die Vernetzung des öffentlichen Sektors weiter zu optimieren und zu koordinieren und den Kompetenzaufbau für die öffentliche Verwaltung zu unterstützen. Derzeit ist die Einrichtung des BEKI in der Startphase als „virtuelle“ Organisationsform geplant.

Hierdurch wird ausdrücklich das Ziel verfolgt, bereits bestehende, etablierte Strukturen und Formate einzubeziehen, auf gewonnen Erfahrungen aufzubauen und bestehende Strukturen durch koordinative Unterstützung des BEKI zu stärken. Die diesbezügliche Abstimmung innerhalb der Bundesregierung zur Organisationsform und zu damit verbundenen Ressourcen ist gleichwohl noch nicht abgeschlossen.

Der Zweck der im Rahmen des Projekts PABOS ist, die Sicherheitsbehörden des Bundes im Themenfeld qualitätsgesicherte KI zu unterstützen. Die Bundesregierung hat die Überlegungen zum Aufbau des das BEKI für den Sicherheitsbereich ergänzenden Vorhabens PABOS noch nicht abgeschlossen, dies betrifft insoweit auch die Frage nach etwaigen Stellen sowie der Organisationsform.

Der Zweck des KI-Kompetenzcenter der Bundesverwaltung ist die praktische Umsetzung von KI-Vorhaben im Rahmen von PoVs, um schnellstmöglich Mehrwerte der Nutzung von KI für die zivile Bundesverwaltung anhand konkreter Anwendungen aufzuzeigen. Das KI-KC wird mit der anstehenden Beauftragung der Bundesdruckerei dort im „Innovations“-Bereich angesiedelt. Die hierfür vorgesehenen Haushaltsmittel werden im Rahmen des Aufkommens geeigneter PoVs verausgabt. Die Anzahl der Stellen, die die Bundesdruckereihierüber finanziert, hängt vom Aufkommen von PoVs ab.

Die Aufnahme der verschiedenen Aktivitäten verdeutlicht die Bestrebungen der Bundesregierung im Bereich des Einsatzes von Künstlicher Intelligenz in der öffentlichen Verwaltung. Die Maßnahmen ergänzen sich und werden eng miteinander vernetzt, um einen gegenseitigen Austausch zu fördern, Doppelstrukturen zu vermeiden und eine bestmögliche Kompetenzentwicklung im Themenbereich Künstliche Intelligenz zu ermöglichen.

In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:

„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.

Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird. 

Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.

Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.

Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.

Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.

Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.

Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.

Hintergrund

Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.

Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):

Weil sich Twitter als Privateigentum von Elon Musk verändert hat, befragten wir im Digitalausschuss am 8.2.2023 Twitter EU-Repräsentant Costello zur Gesetzeinhaltung trotz Massenentlassungen, zu Veränderungen bei Diensten, Einsatz von KI u.v.m., es wurde unfassbar peinlich. Außerdem berichtete das BMJ: zum NetzDG und zum Rechtsstreit mit Twitter und es geht kurz ums OZG 2.0 (Spoiler: Es kommt erst 2024!). News gibts zur Frage: Wie gut klappte der Warntag?

Kapitelmarken:

00:00:07 Intro

00:01:17 Update zur Öffentlichkeit des Ausschusses

00:03:08 Bilanz des bundesweiten Warntages 2022

00:05:16 Befragung Twitter, Intro Costello, Community Notes

00:09:14 Twitter: Entlassungen, Content Moderation, NetzDG , KI

00:17:22 Twitter Files, Blauer Haken, Suicide Feature, API, Nutzer*innenzahlen, DSA

00:25:07 BMJ: Rechtsstreit mit Twitter, allg. Umgang mit Musk-Twitter

00:31:46 BMJ: NetzDG allg.

00:33:50 OZG 2.0: Zeitplan, Evaluierung, keine E2E Digitalisierung per Gesetz

00:38:51 Outro und Terminhinweise

Weiterführende Links:

Warntag 2022

Twitter

Termine:

Mehr von mir hören und sehen:

17. Oktober 2022

Frage:

Warum setzt sich die Bundesregierung in den Verhandlungen zur EU KI-Verordnung dafür ein, dass KI-Anwendungen der öffentlichen Verwaltung durch gesonderten Rechtsakt oder ein gesondertes Kapitel der KI-Verordnung reguliert werden sollen, wie es die Bundesregierung in der Stellungnahme „KI-Regulierung – stärkere Berücksichtigung von Besonderheiten der öffentlichen Verwaltung insbesondere im Sicherheits- und Migrationsbereich“ (BReg-Dok 272/2022) formuliert, und wie unterscheiden sich nach Auffassung der Bundesregierung die jeweiligen Vor- und Nachteile einer Regulierung von KI-Anwendungen der öffentlichen Verwaltung in einem gänzlich gesonderten Rechtsakt im Vergleich zu einer Regulierung in einem gesonderten Kapitel der KI-Verordnung?

Antwort des Staatssekretärs Benjamin Strasser:

Die Bundesregierung strebt die Regulierung von Künstlichen Intelligenz-Systemen (KI-Systeme) an und unterstützt den europäischen Artificial Intelligence Act (AI Act). Dies umfasst auch die rasche und zeitgleiche Regulierung von KI-Systemen für die öffentliche Verwaltung, einschließlich der Bereiche der Sicherheits-, Migrations- und Asylbehörden sowie Steuer- und Zollverwaltung (einschließlich Financial Intelligence Unit (FIU)).

Die besonderen Belange der staatlichen Tätigkeit der vorgenannten Behörden werden durch den Entwurf der Kommission jedoch nicht in jeder Hinsicht hinreichend berücksichtigt. Es ist schwierig, den besonderen Belangen dieser Behörden sowie den für hoheitliche Maßnahmen geltenden grundrechtlichen Anforderungen im Rahmen der primär privatrechtlich- und binnenmarktorientierten Vorschriften des Vorschlags für den AI Act vollständig gerecht zu werden. Die Erfüllung staatlicher Aufgaben muss gewährleistet bleiben und gleichzeitig die unmittelbare Grundrechtsbindung der staatlichen Verwaltung Beachtung finden. Notwendige diverse Einzelausnahmen /-anpassungen in den Einzelvorschriften des aktuellen Verordnungsentwurfs können zu Rechtsunsicherheit bei den Normadressaten führen.

Aus Sicht der Bundesregierung kann den Besonderheiten der öffentlichen Verwaltung (ins- besondere von Sicherheits-, Migrations- und Asylbehörden sowie der Steuer- und Zollverwaltung einschließlich FIU) durch einen separaten, gesonderten Technologierechtsakt oder jedenfalls durch ein gesondertes Kapitel in der Verordnung mit jeweils abschließendem Regelungsinhalt besser Rechnung getragen werden. Für die Bundesregierung ist es dabei nicht entscheidend, ob entsprechende Regelungen in einem separaten Kapitel im Entwurf des europäischen AI Acts oder zeitgleich in einem eigenständigen Rechtsakt erfolgen.