Beiträge

Meine Frage:

„Wie positioniert sich die Bundesregierung zu der Forderung, für den von der KI-Verordnung der EU (KI: Künstliche Intelligenz) wegen nationaler Zuständigkeit ausgenommenen, aber dennoch hochsensiblen Militärbereich den Einsatz von KI mit eigenen Vorschriften und Richtlinien zu regeln (bitte eventuelle Pläne inklusive Zeitrahmen näher beschreiben oder begründen, falls die amtierende Bundesregierung keine Notwendigkeit für derartige Regeln sieht), und in welcher Weise könnte und sollte eine parlamentarische und öffentliche Kontrolle ermöglicht werden hinsichtlich der Anwendung sowie der Evaluation der Wirksamkeit dieser Regeln und allgemein hinsichtlich des Einsatzes von Künstlicher Intelligenz im Geschäftsbereich des Bundesministeriums für Verteidigung?“

Antwort der Bundesregierung vom 06.12.24:

„Die Bundesregierung bekennt sich zur verantwortungsvollen Nutzung von Künstlicher Intelligenz (KI) im militärischen Bereich und setzt sich auf internationaler Ebene aktiv dafür ein, entsprechende Normen zu setzen und zu implementieren. Im Geschäftsbereich des Bundesministeriums der Verteidigung (GB BMVg) ist die Nutzung von KI seit 2019 konzeptionell geregelt und mit Vorschriften hinterlegt. Diese werden regelmäßig aktualisiert und fortgeschrieben. Eine Kontrolle der Exekutive und der von ihr in Kraft gesetzten Vorschriften sowie der von ihr vorgenommenen Handlungen findet durch Parlament und Öffentlichkeit entlang der dafür verfassungsrechtlich vorgesehenen Möglichkeiten statt. Mit dem vom BMVg jährlich veröffentlichten „Bericht zur Digitalen Transformation des Geschäftsbereichs des Bundesministeriums der Verteidigung“ werden der Deutsche Bundestag und die Öffentlichkeit sowohl über den Stand der Digitalen Transformation des GB BMVg im Allgemeinen als auch über konkrete Schwerpunktthemen und innovative Digitalisierungsaktivitäten, wozu auch KI zählt , informiert.“

Antwortschreiben im Original (geschwärzt):

Meine Frage:

„Warum sind diverse organisatorische Strukturen, darunter das Dateninstitut, das Beratungs- und Evaluierungszentrums für Künstliche Intelligenz (BEKI), die Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben (ABOS) und die Zentrale Stelle für die Erkennung ausländischer Informationsmanipulation (ZEAM) zum Teil schon seit mehreren Jahren „im Aufbau“ (bitte begründen, warum dieser Prozess so viel Zeit beansprucht), und wann sollen sie jeweils tatsächlich in ihrer finalen Rechtsbeziehungs-weise Organisationsform offiziell die Arbeit aufnehmen und nicht mehr nur „im Aufbau“ oder „in Gründung“ sein (bitte jeweils geplanten Zeitpunkt zum finalen Ausbau und die geplante Rechts- beziehungsweise Organisationsform angeben)?“

Antwort der Bundesregierung vom 08.11.24:

„Der zur Schaffung des Dateninstituts („DI“) für Deutschland gewählte Vergabeprozess eines sog. Wettbewerblichen Dialogs ist inzwischen weit fortgeschritten: Teilnahmewettbewerb, erste Dialogrunde und Überarbeitung der Vergabeunterlagen sind abgeschlossen, die Bieter überarbeiten derzeit ihre Lösungsvorschläge und nach einer oder maximal zwei weiteren Dialogrunden wird der Zuschlag erteilt und
unmittelbar anschließend – nach aktuellem Stand im Mai / Juni 2025 – die eigentliche Gründung vollzogen. In Form einer Verprobung hat die Arbeit des DI jedoch bereits vor dem Vergabeprozess begonnen, nämlich mit dem Start der vorgelagerten Use Cases eines offenen Datenmodells zur Long-Covid-Forschung (Form: Challenge, geleitet durch das Bundesministerium des Innern und für Heimat [BMI]) und einem Testfeld und einer Konsultationsumgebung zur dezentralen Datennutzung in Energienetzen (In-House-Vergabe des Bundesministeriums für Wirtschaft und Klimaschutz [BMWK] an die Deutsche Energieagentur). Die letztendliche Rechtsform des DI wird derzeit im o. g. Dialog ausgehandelt. Im Moment des Zuschlags wird vertraglich festgelegt sein, dass der Regelbetrieb des DI nach einer bestimmten Anzahl von Monaten nach Zuschlag aufgenommen sein muss. Details hierzu können aus vergaberechtlichen Gründen hier nicht mitgeteilt werden. Die Hintergründe zum zeitlichen Verlauf des Vorhabens wurden durch die federführenden Häuser BMWK und BMI in Abständen auch öffentlich kommuniziert, u. a. bei einer großen Kick-Off-Veranstaltung am 10. April diesen Jahres: Nachdem die Haushaltsmittel zeitweilig durch den Deutschen Bundestag gesperrt gewesen waren, mussten zunächst die o. g. gemäß Vorgaben der Gründungskommission vor die formelle Gründung zu ziehenden Use Cases gestartet und das taugliche Vergabeverfahren für die eigentliche Gründung er-
mittelt und vorbereitet werden, wozu auch zwei sogenannte Marktdialoge durchge-
führt wurden.


Mit dem Beratungszentrum für Künstliche Intelligenz („BeKI“) im BMI soll eine zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung geschaffen werden. Das BeKI soll der Bundesverwaltung Expertise zur verantwortungsvollen Nutzung von KI in Form eines Beratungsangebots zur Verfügung stellen, gezielt den sektor- und ebenenübergreifenden Austausch und die Vernetzung rele-
vanter Stakeholder fördern sowie zukünftig zu Fortbildungsmaßnamen zu KI beraten und deren (Weiter-)Entwicklung anstoßen. Dabei wird auf bereits gewonnenen Erfahrungen aufgebaut und werden etablierte Strukturen und Formate einbezogen, um diese durch koordinative Unterstützung des BeKI zu stärken. Der Aufbau des BeKI erfolgt durch die im BMI eingerichtete Projektgruppe Künstliche Intelligenz (PG KI). Für die Wahrnehmung der Gesamtaufgaben der PG KI sind im Jahr 2024 elf Vollzeitäquivalente eingeplant. Um einen unmittelbaren Mehrwert für die Bundesverwaltung sicherzustellen, führt die Projektgruppe KI im Rahmen des Aufbaus des BeKI bereits mehrere Pilotinitiativen durch. Die Einrichtung des BeKI steht in Abhängigkeit verfügbarer Haushaltsmittel und Stellen. Ein weiterer Aufbau des BeKI ist beabsichtigt.

Die Algorithmenbewertungsstelle für Organisationen und Behörden mit Sicherheitsaufgaben („ABOS“) soll die Unterstützung der Bundessicherheitsbehörden bei Fragen zu KI-Regulierung, sowie qualitätsgesicherter und vertrauenswürdiger KI zentralisieren. Insbesondere soll die ABOS bei der Umsetzung der KI-Verordnung (https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/de/pdf (https://atpscan.global.hornetsecurity.com/…)) der EU im sicherheitsbehördlichen Bereich wichtige Aufgaben im Sinne eines Kompetenzzentrums übernehmen. Dies umfasst beispielsweise:

  • Zentrale Beratung und Unterstützung für Sicherheitsbehörden des Bundes be-
    züglich der Umsetzung der KI-Verordnung sowie weiteren Themen zu KI-Re-
    gulierung und qualitätsgesicherter KI
  • Erstellung allgemeiner / zentraler Leitlinien und Frameworks für die Umset-
    zung der KI-Verordnung bei Sicherheitsbehörden des Bundes
  • Beobachtung von relevanten nationalen und internationalen Gremien zu KI-
    Regulierung, insbesondere einschlägige Standardisierungsgremien

Die ABOS soll daher nicht mit Plattformen oder nur zu spezifischen Plattformen arbeiten, sondern betrachtet die Anforderungen und die KI-Systeme der Sicherheitsbehörden individuell und ganzheitlich. Der Aufbau und die Konzeption einer solchen Stelle wird bis 2025 aus dem Paket der Bundesregierung zur Konjunktur- und Krisenbewältigung aus dem Jahr 2020 finanziert.

Die Bundesregierung hat eine Projektgruppe zum Aufbau einer Zentralen Stelle zur Erkennung ausländischer Informationsmanipulation („ZEAM“) im BMI eingerichtet, die vom Auswärtigen Amt (AA), dem Bundesministerium der Justiz (BMJ) und dem Presse- und Informationsamt der Bundesregierung (BPA) unterstützt wird. Die Projektgruppe hat am 1. Juni 2024 ihre Arbeit aufgenommen. Die Schaffung einer ressort-übergreifenden Stelle zur Erkennung von ausländischer Informationsmanipulation ist ein wichtiger Schritt, um den Schutz unserer demokratischen Grundordnung in diesem Sinne nachhaltig zu stärken. Ein weiterer Aufbau der ZEAM ist beabsichtigt.“

Antwortschreiben im Original (geschwärzt):

Meine Frage:

„Soll das BeKI weiterhin wie ursprünglich geplant, Beratungen und Evaluationen im Zusammenhang mit dem Einsatz von KI im Bund leisten, für den Marktplatz KI Anwendungen im Bund verantwortlich und als Koordinierungsstelle für KI im Bund zuständig sein (bitte jeweils bestätigen oder eingrenzen für die genannten Aufgabenbereiche und gegebenenfalls weitere Aufgaben ergänzen), und wie grenzen sich genau die Aufgaben des BeKI vom KI-Kompetenzzentrum der Bundesdruckerei GmbH ab (bitte als tabellarische Gegenüberstellung)?“

Antwort der Bundesregierung vom 05.11.24:

„Mit dem im Aufbau befindlichen Beratungszentrum für Künstliche Intelligenz („BeKI“) schafft das Bundesministerium des Innern und für Heimat (BMI) eine zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung. Das BeKI soll der Bundesverwaltung Expertise zur verantwortungsvollen Nutzung von KI in Form eines Beratungsangebots zur Verfügung stellen, gezielt den sektor- und ebenenüber-greifenden Austausch und die Vernetzung relevanter Stakeholder fördern sowie zukünftig zu Fortbildungsmaßnamen zu KI beraten und deren (Weiter-)Entwicklung anstoßen. Das BeKI soll außerdem mit dem Markplatz der KI Möglichkeiten („MaKI“) eine Vernetzungsplattform für die Bundesverwaltung bilden und so einen transparenten Überblick über die bestehenden Projekte im Bereich der Künstlichen Intelligenz aufzeigen. Darüber hinaus koordiniert das BeKI das Angebot einer KI-Plattform zur Nutzung von Sprachmodellen (KIPITZ) und entwickelt KI-Leitlinien für die Bundesverwaltung. Im Rahmen der nationalen Umsetzung der KI-Verordnung und damit verbundener Marktüberwachungsstrukturen befindet sich der Aufgabenbereich Evaluation aktuell in Abstimmung.

Das KI-Kompetenz-Center der Bundesverwaltung (KI-KC) unterstützt bei der agilen Entwicklung nutzerzentrierter KI-Lösungen für und mit der Bundesverwaltung. Der Schwerpunkt der angebotenen Unterstützung liegt auf der technischen Umsetzungsdimension innerhalb von Proof-of-Values (PoVs) von KI-Anwendungen in der öffentlichen Verwaltung. Die an den PoV anschließende Produktentwicklung, beginnend mit Minimal Viable Products oder Piloten, liegt außerhalb des Verantwortungsbereiches des KI-KC.

Tabellarische Darstellung „Abgrenzung der Aufgaben des BeKI vom KI-Kompetenz-Center“:

Antwortschreiben im Original (geschwärzt):

Meine 3. Kleine Anfrage zum Einsatz von KI im Bund ergab erstaunliche Ergebnisse: die Nutzung von KI steigt rasant, aber die nötigen Voraussetzungen dafür fehlen einfach weiter. Meine Kleine Anfrage stellt dazu wenigstens rudimentäre Transparenz und eine Vergleichbarkeit der Daten her. Die Analyse ist aufwändig, aber die Ergebnisse sind aufschlussreich.

Inhalt:

  1. TL;DR: Die wichtigsten Erkenntnisse
  2. Hintergrund (Relevanz, was bisher geschah, was die Bundesregierung versprach)
  3. Ausführliche Analyse der Antwort der Ampel auf meine Kleine Anfrage KI 2024
  4. Fazit und Forderungen aus linker Sicht

1. tl;dr: Die wichtigsten Erkenntnisse

  • Es gibt auch im 3. Jahr (!) in Folge keine Umsetzungsstrategie für den KI-Einsatz im Bund, inkl. Kompetenzaufbau sowie Unterstützungsstrukturen, insbesondere gibt es weiterhin keine Zentralstelle mit Überblick über die KI-Projekte des Bundes, die Folge u.a.: ineffiziente Doppelentwicklungen (z.B. 2 verschiedene KI-Vorhaben zur Fisch-Identifikation) und keine sinnvolle Koordinierung
  • Wichtige organisatorische Strukturen, wie das Beratungszentrum für Künstliche Intelligenz (BeKI) und die Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben (ABOS) sind weiterhin nur “in Planung” oder “im Aufbau” (seit Jahren), dies bedeutet bei stark steigendem Einsatz von KI jedoch steigende Risiken: die Schere zwischen Fähigkeiten und Einsatz geht auseinander
  • Keine Mindeststandards zur Nachhaltigkeit, Risikobewertung, Evaluation oder Kosten-Nutzen-Analyse, bei keinem der “NfD eingestuften” KI-Vorhaben von Sicherheitsbehörden hat eine Risikobewertung stattgefunden
  • Besonders kritisch: fehlende Standardprozesse zur Risiko- und Evaluationsbewertung von KI-Systemen in grundrechtssensiblen Bereichen (z.B. bei Sicherheitsbehörden) 
  • Mangelnde Transparenz: Geheimdienste sind eine vollkommene Blackbox, BMVg und Sicherheitsbehörden antworten eingestuft sowie unvollständig, das untergräbt Vertrauen in den Staat
  • Ein nationales KI-Register nach Vorgabe der KI-Verordnung der EU ist geplant, wann es kommt und wie es ausgestaltet wird, bleibt weiterhin offen.
  • Nachhaltigkeit wird zwar in Leitlinien und Strategien betont, spielt jedoch weder beim Einsatz von KI-Anwendungen im Bund noch bei der erheblichen Vergabe von Fördergeldern für KI-Vorhaben eine Rolle 
  • Die mehr als 220 KI-Anwendungen im Bund haben eine große thematische Bandbreite, von Texttools für mehr Effizienz bei Verwaltungsaufgaben bis hin zum digitalen Zwilling von Deutschland, darunter sind jedoch auch grundrechtssensible KI-Anwendungen z.B. vom BAMF oder BKA zur Analyse von Massendaten
  • Geld fließt reichlich, insgesamt stehen von 2023-2025 mehr als 2,5 Milliarden Euro für KI-Vorhaben aus Steuermitteln zur Verfügung.

2. Hintergrund

Der aktuell heißeste Hype ist (immer noch) Künstliche Intelligenz. Mit ihrer Hilfe sollen viele Probleme gelöst werden, selbst die, für die es gar keine technischen, sondern soziale Lösungen braucht. Geld spielt hier anders als bei Kindergrundsicherung oder Deutschlandticket keine Rolle. Bei Hype Themen lohnt jedoch immer ein gründlicher Blick, denn da besteht grundsätzlich das Risiko, dass Technologien ohne die notwendige Sorgfalt eingesetzt werden, überzogene Erwartungen damit verbunden und Risiken ausgeblendet werden. Deshalb habe ich zum 3. Mal in 3 Jahren den Bund gefragt, wofür und wie er KI einsetzt, aber auch wofür und wie er KI-Vorhaben finanziell fördert.

Wichtig: sinnvolle Balance zwischen Nutzen und Nachteilen

Die Risiken und Nebenwirkungen von KI-Systemen können hoch sein, z.B. wenn sie für Zwecke eingesetzt werden, für die sie nicht trainiert wurden oder wenn die Datenbasis zu diskriminierenden Ergebnissen führt. Nutzen und Nachteile können wie bei Medikamenten in ein Missverhältnis geraten, daher ist es wichtig, sowohl den erwarteten Nutzen als auch die möglichen Nachteile sachlich kompetent zu bewerten. Zu den Nachteilen gehören z.B. eventuelle Grundrechtsverletzungen aber auch ein hoher Ressourcenverbrauch.

Politisch haben sich mit dem Thema KI eine Enquete Kommission im Bundestag (Link), eine von der GroKo eingesetzte Datenethikkommission (Link), aber auch die EU mit der KI-Verordnung (AI-Act. Link) intensiv auseinandergesetzt, um die Risiken zu minimieren und den Einsatz von KI sicher und verantwortungsvoll auszugestalten. Beim Einsatz von KI durch staatliche Stellen müssen dabei besonders hohe Standards gelten.

Kleine Anfrage als Ausgleich für mangelnde Transparenz

Über den Einsatz von KI in der Bundesverwaltung gab und gibt es viel zu wenig Transparenz. Ein KI-Register wie in den Niederlanden gibt es in Deutschland nicht. Daher habe ich 2022 (Link), 2023 (Link) und nun erneut in 2024 (Link) eine Kleine Anfrage an die Bundesregierung gestellt, und damit sozusagen das erste KI-Transparenzregister des Bundes im PDF-Format geschaffen. Jede der Antworten der Bundesregierung war bisher lückenhaft, dennoch ist auch die diejährige Anfrage erneut die einzige Quelle, der man die KI-Nutzungen und Förderungen des Bundes gesammelt entnehmen kann. 

Aktuelle Versprechen der Bundesregierung zum Einsatz von KI

Regierungsvertreter:innen betonen häufig, z.B. in der Fortschreibung der KI-Strategie (Link), dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar sein soll, damit ihr Nutzen für die Allgemeinheit maximiert, Risiken verringert und insgesamt die Akzeptanz erhöht wird. Die KI-Strategie der GroKo (Link) versprach mehr Effizienz, Qualität und die Sicherheit von Verwaltungsdienstleistungen durch KI und eine Vorreiterrolle des Bundes dabei und die Digitalstrategie der Ampel (Link) versprach: “Wir setzen (…) auf Nachhaltigkeit by Design”. Nachhaltigkeit und KI gehören zusammen, deshalb habe ich gezielt in meiner KA danach gefragt.

Ein jüngeres 24-seitiges Papier des BMI (Mai 2024; Link) enthält Leitlinien für den Einsatz von KI, zu Governance, Standards, Nachhaltigkeit und Transparenz. So sollen z.B. “stets Kosten und Nutzen von Anwendungen gegenüber” gestellt werden, um “Nachhaltigkeit aus ökonomischer, ökologischer und organisatorischer Sicht” zu bewerten. Es werden “nachhaltiger Kompetenzaufbau und Energieeffizienz” angekündigt, sowie “Vermeidung von Doppelstrukturen und die effiziente Nachnutzung verfügbarer Infrastrukturen, Modelle und Anwendungen”. Außerdem wird “größtmögliche Transparenz” versprochen und standardisierte Prozesse, da geht es um die Nutzung von “Vorgehensmodellen für die KI-Implementierung sowie die Verankerung von Themen wie Risiko-, Qualitäts- und Anforderungsmanagement in KI-relevanten Prozessen”. Das klingt alles ziemlich gut, aber hat es mit der gelebten Praxis irgendetwas zu tun? Wir werden sehen…

3. Detailanalyse der Ampel-Antwort – Kleine Anfrage KI 2024

3.1 KI im Bund 2024 in Zahlen

Hinweise:

  • Die Analyse meiner Anfrage KI im Bund von 2022 gibt es HIER, für die Anfrage KI im Bund von 2023 gibt’s meine Pressemitteilung (Link).
  • Die Links zu sämtlichen Dokumenten, meiner Anfrage, der Antwort der Bundesregierung und all ihren Anlagen gibt’s am Ende dieses Beitrages

Was ist aus der Umsetzung der Versprechen von GroKo und Ampel-Regierung geworden? Wie hat sich überhaupt der Einsatz von KI beim Bund verändert? Das werde ich Euch nachfolgend auseinanderklamüsern.

Über 220 Mal setzt der Bund KI ein, plus hohe Dunkelziffer

Die Transparenz selbst der Anzahl vom Bund eingesetzter KI-Systeme ist mangelhaft, die angegebenen Zahlen sind unvollständig, lassen aber dennoch ein rasantes Wachstum eingesetzter KI-Systeme im Bund stark vermuten. Nach meiner Kleinen Anfrage KI im Bund von 2022 kritisierte der Bundesrechnungshof, dass die Bundesregierung etwa 60% der eingesetzten KI-Systeme nicht erwähnt hatte, obwohl das Grundgesetz Abgeordneten das Recht auf vollständige und umfassende Antworten einräumt (Link). In 2023 wurden nach meiner öffentlichen Kritik an der absoluten Geheimhaltung der KI-Systeme, die von Sicherheitsbehörden eingesetzt wurden, 24 dieser Anwendungen als Nachbericht nachgereicht (Link), mit monatelanger Verspätung und ohne mich darüber auch nur zu benachrichtigen.

In 2024 wurden 7 Anwendungen von Behörden mit Sicherheitsaufgaben nur eingestuft mitgeteilt, darunter das BKA (2), das ZITIS (3), das Bundespolizeipräsidium zur Unterstützung des Bundesamts für Verfassungsschutz (1) und das BMVg (1). Sämtliche KI- Anwendungen der Geheimdienste bleiben über alle Jahre hinweg völlig intransparent, ich erfahre sie nicht, weil das “das Staatswohl gefährden würde”. Zwei Ministerien melden überhaupt keine KI-Nutzung, die einzige KI-Nutzung im BMVg gab es nur in eingestufter Fassung – im Vergleich zum Vorjahr ist das unplausibel wenig.

Tabelle 1: Einsatz von KI Systemen im Bund steigt stark von 2023 zu 2024

Quelle: Antwort auf Fragen 1a-d, Anlage 1a)

Hinweis: KI-Anwendungen der Geheimdienste wurden wg. potenzieller “Staatswohlgefährdung” nicht mitgeteilt .

Fast 300 Mio Euro fließen in die Förderung von 277 KI-Forschungsvorhaben

Tabelle 2: Förderungen von KI-Forschung, Piloten, Reallaboren seit 01.01.2023

Quelle: Antwort auf Frage 6, Anlage 2, sowie NfD eingestufte Anlage (nicht öffentlich),

Hinweis: Enthält 2 Forschungsvorhaben des BMVg, die als NfD eingestuft und daher nicht in den veröffentlichten Anlagen enthalten sind, mit einem Gesamtfinanzvolumen von 13,64 Mio €. Ausgaben für Reallabore wurden nicht angegeben und werden daher mit 0€ angesetzt.

2,3 Mrd Euro für KI-Vorhaben zur Umsetzung der KI-Strategie bis 2025

Das Geld ist nicht knapp, wenn es um die Finanzierung von KI-Vorhaben geht. Der Bund stellt allein im Rahmen der Umsetzung der KI-Strategie 2,3 Milliarden Euro dafür bereit, der größte Teil soll in 2024 ausgegeben werden und 85% dieser 2,3 Milliarden entfallen auf nur 4 Ministerien: BMBF, BMG, BMWK und BMDV.

Tabelle 3: Finanzmittel für KI-Vorhaben aus dem Budget zur Umsetzung der KI-Strategie

Quelle: Antwort auf Frage 8, Anlage 3

Weitere 210 Mio Euro in 2023-25 zusätzlich zur Umsetzung der KI-Strategie

Tabelle 4: Finanzierung von KI-Vorhaben des Bundes außerhalb der KI-Strategie

Quelle: Antwort auf Frage 9, Anlage 3a

Mehr als 2,5 Mrd Euro Steuergeld innerhalb von 3 Jahren für KI!

Mehr als 2,5 Milliarden Euro gibt es also insgesamt für KI aus dem Budget für die Umsetzung der KI-Strategie sowie aus zusätzlichen Mitteln von 2023 bis 2025! Zum Vergleich: 2,23 Milliarden standen in 2024 für die gesamte humanitäre Hilfe zur Verfügung, mit 1,5 Milliarden bezuschusst der Bund das Deutschlandticket.

Tabelle 5: Alle Mittel für KI-Vorhaben mit Beteiligung des Bundes (Tabelle 2 und 3 addiert)

Quelle: Addition der Daten aus den Antworten auf Fragen 8 und 9, Anlagen 3 und 3a

Mehr als 84,2 Mio gibt es für den Einsatz der über 200 KI-Projekte im Bund, die v.a. extern beauftragt wurden, die Angaben sind jedoch unvollständig, v.a. für die 7 eingestuften Projekte. Das geht aus der Anlage 1e hervor, die Antwort auf Frage 4 der Kleinen Anfrage. 

3.2 Kein Durchblick im Bund, keine Koordinierung, aber immer mehr KI-Projekte

4 Ministerien setzen 71 % der mehr als 219 KI-Anwendungen ein

Inzwischen werden mindestens 219 KI-Anwendungen im Bund genutzt. Vier Ministerien, BMWK (44), BMI (40+6 NfD), BMEL (35) und BMDV (30) meldeten zusammen 155 KI-Vorhaben, das sind 71% aller KI-Systeme im Bund. Seit dem 1.1.2023 kamen 194 Forschungsvorhaben, 28 Pilotprojekte und 5 Reallabore neu hinzu, also insgesamt 227 neue Vorhaben. Diese Zahlen zeigen: es ist höchste Zeit, verbindliche Prozesse zu etablieren, die den Einsatz von KI begleiten, oder falls ihre Risiken unvertretbar sind, den Einsatz nicht zulassen oder wieder zu beenden. Es geht dabei auch um jede Menge Haushaltsmittel: allein von 2023 bis 2025 sollen mehr als 2,5 Mrd. EUR für KI Vorhaben ausgeben werden.

Keine Umsetzungsstrategie, keine zentrale Steuerung, keine verbindlichen Standards

Was auf den ersten Blick wie ein Innovationsschub in einer bisher eher analog beschriebenen Verwaltung aussieht, hat seine Schattenseiten, denn die Antwort der Bundesregierung zeigt auch, dass sie keine Umsetzungsstrategie für diese nicht nur chancen- sondern auch risikoreiche Technologie hat, dass sie weder beim Kompetenzaufbau noch beim Aufbau geplanter Unterstützungsstrukturen voran gekommen ist, dass es weiterhin null Koordinierung gibt und keine einzige Stelle, die einen Überblick hat über den Einsatz von KI im Bund.

Die Folge dieser fehlenden strategischen Steuerung und Strukturen ist der Mangel an verbindlichen Vorgaben für Standards und Prozesse, z.B. zur Risiko-, oder Kosten-Nutzen-Bewertung, zur Nachhaltigkeit oder auch dazu, wer, wann und wie eine Evaluation durchführen sollte. Und so macht offenbar jede Behörde ihr eigenes Ding, hauptsache KI.

Das ist einerseits ineffizient, weil oft verschiedene Anwendungen für die gleichen Aufgaben verwendet werden (z.B. Chatbots) und andererseits werden Mindeststandards regelmäßig nicht eingehalten, weder zur Nachhaltigkeit, noch zur Risiko- oder Kosten-Nutzen-Betrachtung, was nicht nur der Bundesrechnungshof problematisch findet, sondern letztlich auch das Vertrauen in Regierungshandeln und in die Technologie Künstliche Intelligenz insgesamt erschüttert.

Wenn Strukturen fehlen, steigen Risiken – vor allem wenn Grundrechte berührt sind

Ohne klare Strukturen und Zuständigkeiten erhöht sich das Risiko, dass KI-Systeme ineffizient oder unsicher eingesetzt werden. Für einen guten Einsatz von KI im Bund braucht es sinnvolle sowie klare Strukturen, mit Fachkräften, die beraten, Kompetenz aufbauen, den KI-Einsatz evaluieren, Standards entwickeln, koordinieren und alle Akteur:innen vernetzen. Der hier schon häufiger zitierte Bericht des Bundesrechnungshofs monierte auch schon 2023: “Eine fehlende Aufsicht und zentrale Koordinierung sowie eklatanten Personalmangel.” Leider hat die Bundesregierung hier wenig Abhilfe geschaffen.

Verhöhnung des parlamentarischen Fragerechts durch die Ampel

Abbildung 2: Frage 10 in der Kleinen Anfrage:

In meiner Frage 10 erfragte ich zu den verschiedenen geplanten organisatorischen Strukturen die verfügbaren und geplanten Ressourcen (Stellen und Haushaltsmittel), die Governance bzw. Organisationsstruktur, die Zuständigkeit und Federführung, die jeweilige Aufsicht, wie sie sich von einander abgrenzen und ob es eine zentrale Stelle zur Koordinierung gibt. Die Antwort der Bundesregierung auf diese Frage ist eine Frechheit, denn kaum eine meiner Fragen wurde überhaupt beantwortet. Es fehlen jegliche Angaben zu:

  • Stellen und Haushaltsmitteln
  • Governance und Organisationsstrukturen
  • Zuständigkeiten, Federführung und Aufsicht
  • Zentrale Stelle für die Koordinierung

Stattdessen wird vage von “Prüfung bestehender Strukturen” geschrieben und oberflächliche Angaben zu den verschiedenen Strukturen gemacht. In einer schriftlichen Beschwerde habe ich eine Nachreichung der fehlenden Informationen angefordert (Link).

Keine zentrale Koordinierung, kein Chief AI Officer, kein Beratungszentrum für KI

Offensichtlich ist jedoch, dass es weiterhin keine zentrale Koordinierungsstelle innerhalb der Bundesregierung gibt. Auch nicht im Sinne der Chief AI Officer, wie sie aktuell innerhalb der US-Administration eingeführt werden. Eine solche ist zwar laut Antwort auf meine Frage 13  “in Prüfung”, bisher jedoch ergebnislos. Eine zentrale koordinierende Stelle müsste einen Überblick über alle KI-Projekte des Bundes haben, Doppelentwicklungen verhindern, für Wissenstransfer sorgen und beratende sowie unterstützende Funktionen übernehmen. Diese Funktionen sollte eigentlich das seit 3 Jahren angekündigte Beratungszentrum für Künstliche Intelligenz (BeKI) übernehmen, auch laut Bundesregierung, die das BeKI in seiner Antwort beschreibt als “künftige zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung”. Leider ergeben meine Anfragen seit ebenfalls 3 Jahren, dass das BeKI über den Planungsstand einfach nicht hinauskommt und weiterhin nicht existiert. Für das BeKI sind von 2022 bis 2023 bereits 280.000 Euro an externen Beratungsleistungen geflossen, wie meine Schriftliche Frage vom Juni 2023 ergab (Link).

Die Schere zwischen dem rasant wachsenden Einsatz von KI-Systemen im Bund und den dafür notwendigen Kompetenzen, Standards, Koordinierung und Überblick geht dadurch immer weiter auseinander. 

Ineffizient: Parallelentwicklung von KI-Systemen

Es ist ineffizient, wenn verschiedene Ministerien zwei KI-Systeme entwickeln, für die Identifikation von Fischen und offenbar nichts voneinander wissen (BMDV – Bundesamt für Gewässerkunde Zeile 95 und BMEL – Max Rubner Institut, Zeile 166 in der Anlage 1a). Es werden außerdem von einigen Behörden kommerzielle (und aus Datenschutz- und Informationssicherheitsgründen fragwürdige) KI-Dienste von US-Konzernen für die gleichen Aufgaben genutzt, für die andere Behörden auf vertrauenswürdigere KI-Systeme beim ITZ-Bund zurückgreifen.

Microsoft Co-Pilot oder ITZ-Bund-KI-Plattform? – Fehlende Richtlinien führen zu Wildwuchs

Warum wird im Geschäftsbereich des BMDV ausgerechnet der Microsoft Co-Pilot für die KI-gestützte Texterstellung genutzt, obwohl es mit KIPITZ eine ITZ-Bund Plattform gibt, die solche Leistungen ebenfalls anbietet? Immerhin wurde sie dafür schon mit einem eGovernment Preis ausgezeichnet. Seltsamerweise gibt die Bundesregierung in ihrer Antwort an, dass sie die ressortübergreifende Pilotierung von KIPITZ erst vorbereitet, obwohl im Juli 2024 schon über 2.000 Nutzende im Rahmen des eGov Wettbewerbes öffentlich kommuniziert wurden (Link). Das Angebot klingt sehr vielversprechend, hier ist ein Lob angebracht. Das ITZ-Bund schreibt selbst, dass es v.a. auf Open Source basierende LLM nutzt, kommerzielle Sprachmodelle integrieren kann und im Sinne des Einer-für-Alle Prinzips KI-basierte Apps für Behörden entwickelt und anschließend auf der Plattform verfügbar macht. In der Antwort der Ampel kann man das alles aber nicht lesen, das stand auf LinkedIn.

KI-Kompetenzzentrum – bei Bundesdruckerei statt in der Bundesverwaltung

Laut BMI Leitlinien sollen Doppelstrukturen verhindert werden, aber wie sich das KI-Kompetenzzentrum (KIKC) von all den anderen geplanten Strukturen abgrenzt, bleibt unklar. Die Frage nach seinen Aufgaben und der Abgrenzung wurde nicht beantwortet. Immerhin existiert es und ist seit Juni 2023 “als eigenständige Organisationseinheit“ der Bundesdruckerei GmbH produktiv. Was es leistet, den Steuerzahler kostet, wie es mit den anderen zuständigen Stellen kooperiert, alles das bleibt im Dunkeln. Laut Selbstdarstellung der Bundesdruckerei soll das KIKC vor allem Ausprobieren und Testen, Prototypen entwickeln, aber auch technische Kompetenzen aufbauen und bei der Vernetzung unterstützen (Link).

Grundrechtsgefährdend: fehlende Algorithmenbewertungsstelle für Behörden mit Sicherheitsaufgaben

Bei KI-Anwendungen in Behörden mit besonderem Grundrechtsbezug stellen sich noch ganz andere Herausforderungen. Für die ist auch seit mehreren Jahren die “Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben” (ABOS) geplant. Für das ABOS sind sogar schon in 2022 über eine Million Euro Steuergelder an Externe bezahlt worden, wie aus meiner o.g. schriftlichen Frage (Link) hervorging. Für Berater war das offenbar ein gutes Geschäft, aber bisher fehlt der notwendige Mehrwert für die Verwaltung und für die Gesellschaft, denn Sicherheitsbehörden haben den höchsten Grundrechtsbezug, die geringste Transparenz und es gibt dort besonders viele KI-Projekte. So verteilen sich 36 der 46 KI-Anwendungen (ein Anteil von knapp  80%!) beim BMI auf das BKA (19), die Bundespolizei (14) und auf die staatliche Hackerbehörde ZITIS. Es ist zutiefst beunruhigend, wenn es weder hinreichend Informationen für eine sinnvolle parlamentarische Kontrolle gibt, noch ausreichend Transparenz für den kritischen Blick von Journalist:innen und NGOs und gleichzeitig nicht einmal die versprochene interne Algorithmenbewertungsstelle. Betrachtet man die folgenden Ausführungen zur Risikobewertung und zu den Evaluationen, schläft man danach nicht besser.

3.3. Fehlende Risikobewertungen gefährden Grundrechte und zerstören Vertrauen

“Ein Bild sagt mehr als 1.000 Worte”, daher gibts hier exemplarisch vorab einen Screenshot aus der Antwort der Bundesregierung auf meine Frage nach der Bewertung von Risiken der KI-Anwendung. Tabelle 6:

Quelle: Anlage 1d, Antwort des BMI/BKA auf Frage 3 zu Risikobewertungen

Die Datenethikkommission forderte bereits 2019 ein Risikoklassenmodell, damals noch “Kritikalitätspyramide” genannt, dennoch fehlt auch 5 Jahre später eine systematische Risikobewertung von KI-Anwendungen im Bund. Die Folgen fehlender Risikobewertungen sind nicht immer gleich.

KI-Anwendungen des Bundes mit offensichtlich geringem Risiken

Es gibt viele KI-Anwendungen mit vorstellbar geringem Risikopotenzial, wo es vermutlich keine bis wenig Auswirkungen hat, ob eine Risikoeinschätzung stattfand. Hier ein paar Beispiele aus den KI-Anwendungen des Bundes, Anlage 1a:

  • Entzifferung alter Handschriften (Zeile 41),
  • Analyse von Bodenprofilfotos (Zeile 55),
  • Stresserkennung von Hühnern durch KI-Auswertung von Videodaten (Zeile 192 ),
  • Identifizierung von Baumarten (Zeile 170) oder von Fischarten (Zeilen 95 und 165),
  • Altersbestimmung von Fischen (Zeile 168)
  • Erkennen von Plastik in Flüssen oder Öl auf dem Meer (Zeilen 92 und 94).

Solche Fälle lassen sich leicht mit gesundem Menschenverstand einschätzen.

KI-Anwendungen des Bundes mit unklarem Risikopotenzial

Bei vielen anderen Anwendungen ist das schon komplizierter, und aus dem Bauch heraus würden da einige Menschen Potenziale für Risiken sehen, andere nicht. Es braucht daher ein standardisiertes Modell, um das Risiko sinnvoll zu bewerten. Nachfolgend Beispiele für diese Kategorie:

  • Aufdeckung von Giftstoffen im Wasser (Zeile 22),
  • Waldbranderkennung (Zeile 172),
  • Identifikation von Cyberangriffen (Zeile 137)
  • Chatbot für Bevölkerungsfragen bei radiologischem Notfall (Zeile 28). 

KI-Anwendungen des Bundes mit potenziell hohen Risiken

Konsens sollte aber sein, dass alle KI-Anwendungen mit eindeutigen Grundrechtsbezügen auf ihre potenziellen Risiken VORAB zu überprüfen sind. Schön wäre, wenn es dafür die angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben schon geben würde, aber – siehe Abschnitt 3.2., die ist ja immer noch in Planung, auch wenn immer mehr KI-Anwendungen in diesen Bereichen eingesetzt werden.

Mangelnde Risikobewertung bei Hochrisiko KI-Anwendungen

Wenn immer wieder von Vertrauen und Akzeptanz die Rede ist, gleichzeitig aber gerade in grundrechtssensiblen Bereichen, wie der Strafverfolgung und der Gefahrenabwehr, viele KI-Anwendungen ohne jede Risikobewertung betrieben werden, ist das ein Riesenproblem. Grundrechtsverletzungen werden wahrscheinlicher, und damit sinkt das Vertrauen in den Staat und die Demokratie. Solche Entwicklungen sind gefährlich. Allein im Geschäftsbereich des BMI ist die Bilanz eine Katastrophe, obwohl das BMI sich selbst schön klingende Leitlinien für den Einsatz von KI gegeben hat (Link). So wurde beim BKA für keine einzige der 19 KI-Anwendungen eine Risikobewertung durchgeführt, zwei davon waren sogar eingestuft und dürfen nicht einmal öffentlich genannt werden.

BKA, Bundespolizei, Zitis: hohe potenzielle Risiken werden nicht einmal untersucht

Zu den 19 KI-Anwendungen des BKA ohne durchgeführte Risikoanalyse gehören u.a.:

  • Spracherkennung (Zeile 143)
  • Fingerabdruckerkennung (“Papillarleistenerkennung”, Zeile 145)
  • Semantische Bildanalyse (Zeile 146)
  • Ähnliche Bildersuche (Zeile 149)
  • Gesichtserkennungssystem zur Strafverfolgung und Gefahrenabwehr (Zeile 156)

Zu den 10 der 14 Anwendungen der Bundespolizei ohne Risikobewertung (eine davon eingestuft für die Unterstützung des Verfassungsschutzes) gehören u.a.:

  • Videoanalyse zur Gefahrenabwehr am Bahnhof (Zeile 138),
  • Sensordatenanalyse zur Gefahrenabwehr an Bahnhöfen (Zeile 140)
  • Sensordatenanalyse zur Gefahrenabwehr an Eisenbahntunneln (Zeile 139).

Keinerlei Risikobewertung gab es für sämtliche 3 KI-Anwendungen des ZITIS (alle eingestuft). What can possibly go wrong. Die wenigen Male, wo es im Geschäftsbereich des BMI überhaupt zu einer Risikoeinschätzung kam, führten nur bei einer der 46 Anwendungen zur Einschätzung “hohes Risiko” – bei der “Auswertung von Videodaten – Sichtung und Kategorisierung von Massendaten” durch das Bundespolizeipräsidium. Ich stelle mir darunter die Auswertung zum Beispiel von Videokameras im öffentlichen Raum vor, z.B. von Demos. Das gibt kein gutes Gefühl, insbesondere nicht, wenn die Antwort auf meine Frage nach den Auswirkungen der jeweiligen Risikobewertung auch bei dieser Hochrisiko-Anwendung “nicht bekannt” lautete.

Nancy Faeser hat falsche Prioritäten beim Einsatz von KI

Die Wahrung der Grundrechte und ein transparenter, nachvollziehbarer und professioneller Umgang mit KI-Anwendungen bei Behörden mit Sicherheitsaufgaben scheinen für Innenministerin Nancy Faeser keinerlei Priorität zu haben, eine denkbar schlechte Ausgangslage.

Darüberhinaus wurden generell meine eindeutigen Fragen zum Umgang mit den Risiken von KI schlecht beantwortet, nämlich überwiegend an der Frage vorbei, unpräzise und inkonsistent und insgesamt extrem unvollständig. So habe ich explizit danach gefragt, welches Risikoklassenmodell konkret verwendet wurde und bat darum, explizit NICHT auf die (simplifizierten) Risikokategorien der KI-VO zu referenzieren. Das wurde durchweg ignoriert, stattdessen tauchte die KI-VO sogar in der Tabellen-Überschrift der Ampel-Antworten auf und daneben eine Spalte “Klassifizierung”, wodurch etliche Antworten in beide Spalten das gleiche eintrugen, nämlich “minimales Risiko”, aber (fast) nirgendwo das Risiko-Modell, nach dem die Bewertung vorgenommen wurde.

Klar wurde dennoch daraus, dass es weiterhin keinerlei Standards, keine einheitlichen Prozesse, keinerlei Vorgaben zum Umgang und zur Bewertung von Risiken gibt.

Mantel des Schweigens: Viele KI-Anwendungen der Sicherheitsbehörden bleiben intransparent

Darüber hinaus gibt es weitere Einschränkungen des parlamentarischen Fragerechts im grundrechtssensiblen Bereich: über ganze drei (!) Seiten erfolgte eine Rechtfertigung, in wieweit mir wegen potenzieller Gefährdung des Staatswohls viele Informationen zum Einsatz von KI in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden überhaupt nicht mitgeteilt werden können. Einige wenige (7) KI-Anwendungen dieser Sicherheitsbehörden wurden mir in eigestufter (VS-NfD) Form mitgeteilt, ich darf sie also nicht öffentlich diskutieren.

Zum Einsatz von KI bei den Geheimdiensten erfahre ich auch absolut gar nichts, dabei ist vermutlich dort das Risiko für Grundrechtsverletzungen und die Gefahr gravierender negativer Auswirkungen auf Individuen und die Gesellschaft durch einen Missbrauch besonders hoch. Eine sinnvolle parlamentarische Kontrolle ist so jedenfalls nicht möglich. Auch die immer wieder auch von der Ampel-Regierung propagierte offene Debatte zum Einsatz von KI durch staatliche Stellen und die Diskussion dazu, welche Risiken wir als Gesellschaft zu tragen bereit sind und welcher Nutzen dem dafür gegenüber stehen soll, kann es auch nicht geben.

Abbildung 1: Ausschnitt aus den Vorbemerkungen der Bundesregierung zu ihrer Antwort

Statt “öffentlich, transparent und vollständig” dem “verfassungsrechtlich verbrieften Aufklärungs- und Informationsanspruch des Bundestages zu entsprechen”, wie die Ampel in ihrer Antwort offenbar ohne jede Ironie schreibt,

  • Erfahre ich NICHTS über alle KI-Systeme beim Verfassungsschutz, BND und MAD
  • Erfahre ich WENIG über die KI-Systeme bei ZITIS (Zentrale Stelle für Informationstechnik im Sicherheitsbereich, aka Hackerbehörde der Bundesregierung), BDBOS (Bundesanstalt für den Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben), das BKA oder andere Sicherheitsbehörden. Und über einen Teil dieser Informationen darf ich nicht einmal öffenlich reden.

Wie groß der blinde Fleck ist, darf ich leider auch nicht wissen, denn ich habe die Bundesregierung in einer schriftlichen Frage gefragt, um wie viele KI-Anwendungen es sich dabei handelt, über die ich wegen potenzieller Staatswohlgefährdung keine Informationen erhalte. Und selbst diese Antwort, eine zusammengefasste Zahl, die nichts über den Zweck des KI-Systems und seinen Einsatz verraten hätte, wurde mir mit Verweis auf eine mögliche Staatswohlgefährdung verweigert (Link).

Der Mangel an wenigstens internen Strukturen und Standards, z.B. die weiter fehlende Bewertungsstelle für Algorithmen bei sicherheitsrelevanten Behörden wie Geheimdiensten und Polizei sind dabei besonders besorgniserregend. Gerade wenn Menschenrechte, das Recht auf Diskriminierungsfreiheit oder andere Grundrechte berührt sind, braucht es ein hohes Maß an Nachvollziehbarkeit und Überprüfbarkeit und Mindeststandards für vertrauenswürdige Checks and Balances, die bisher schlichtweg nicht etabliert werden. Wenn Sicherheitsbehörden jedoch Technologien wie Künstliche Intelligenz vermehrt einsetzen wollen, ohne dass es diese Checks and Balances gibt, steigen mit jedem Tag die Gefahren für einen Missbrauch oder Fehleinsatz von KI zum Nachteil der Öffentlichkeit. Die Versuchung wird hoch sein, also müssen es die Standards für Kontrolle und Transparenz auch sein.

Einsatz von KI im Hochrisikobereich Asyl und Migration

Besonders besorgniserregend sind in diesem Kontext auch die jüngsten Äußerungen von Kanzler Olaf Scholz, der sich einen vermehrten Einsatz Künstlicher Intelligenz bei Asylverfahren vorstellen kann (Link). Unklar bleibt, ob sich Olaf Scholz dabei neue bzw. weitere KI-Verfahren wünscht oder auf bereits bestehende Anwendungen bezog – denn das BAMF setzt seit mehreren Jahren KI bereits aktiv ein, wie meine Kleinen Anfragen und auch die Recherchen von Netzpolitik.org seit Jahren zeigen.

So verwendet das BAMF z.B. das sogenannte “Assistenzsystem, das Entscheidende dabei unterstützt, sicherheitsrelevante Sachverhalte zu erkennen, die an Sicherheitsbehörden weitergeleitet werden müssen.” Verständlicher formuliert werden durch die KI-Anwendung sog. Anhörungsprotokolle aus Asylverfahren und Befragungen erfasst, ausgewertet und gegebenenfalls Hinweise an Sicherheitsbehörden weitergegeben – ohne dass die Betroffenen darüber informiert werden. Doch die Systeme sind immer auch fehleranfällig, können erhebliche Auswirkungen für die Schutzbedürftigen haben – auch aufgrund eines automation sowie confirmation bias, die gewiss auch dort noch nicht ausgeschlossen werden können. Es zeigt sich eine eklatante Diskrepanz zwischen den formulierten Zielen und deren Umsetzung. Insbesondere in der Digitalpolitik klaffen auch bei der selbsternannten Fortschrittskoalition Anspruch und Wirklichkeit, Worte und Taten meilenweit auseinander. Beim Thema Künstliche Intelligenz scheint allein das Mantra „Digital first, Bedenken second“ zu gelten, wobei Milliarden an Steuergeldern ohne klare Regeln oder koordinierende Instanzen für KI-Vorhaben bereitgestellt werden – auch in sensiblen Bereichen, wo es hohe Schutzstandards statt freier Experimentierräume braucht.

3.4 Fortschritt bei Evaluationen, aber nicht genug

Zum KI-Hype gehört die Erwartung, dass man mit künstlicher Intelligenz auf einmal alle möglichen Probleme lösen kann. Die Technologie ist aber noch experimentell, vieles geht noch schief und viele Erwartungen werden nicht erfüllt. Die “Risiken und Nebenwirkungen” werden oft schlecht oder falsch eingeschätzt. Aus all diesen Gründen ist es besonders wichtig, jeden Einsatz von KI zu evaluieren, damit sicher gestellt ist, dass der Nutzen die möglichen unerwünschten Nebenwirkungen übersteigt, zu denen ja auch nicht nur Diskriminierungsfälle oder Grundrechtsverletzungen gehören, sondern z.B. auch der negative Klima-Impact, den die ressourcenfressenden KI-Systeme nun mal mit sich bringen.

Erfreulicherweise betont der BMI-Leitfaden zum Einsatz von KI sogar die Notwendigkeit einer Evaluation und nennt folgende zu evaluierende Aspekte:

  • Erfüllung der Nutzungserwartungen,
  • Überwachung rechtlicher Vorgaben,
  • Einhaltung ethischer Anforderungen,
  • Datenschutz,
  • Transparenz und Verantwortlichkeit
  • Fehleridentifikation und -behebung,
  • Kosten-Nutzen-Analyse,
  • Mitarbeiterakzeptanz und -schulung,
  • Sicherstellung der Fairness

Evaluationen erfolgen vor allem intern – das ist ein Problem

Darüber hinaus ist ein Fortschritt, dass inzwischen bei fast drei Viertel (73 %) der KI-Anwendungen im Bund irgendeine Form der Evaluation vollzogen wird. Aber der Teufel steckt im Detail. So finden die Evaluationen überwiegend intern statt, z.B. durch die eigenen Fachtabteilungen und Projektbeteiligte, also oft durch die Nutzenden der KI-Anwendungen selbst. Selbstevaluationen sind aber nur mäßig sinnvoll, da man dabei weder Neutralität noch Objektivität sicher annehmen kann, was für eine gute Evaluation aber unbedingte Voraussetzung sein muss. Wie sollen verantwortungsvolle KI-Nutzung, Transparenz, Fehlersuche, Kosten-Nutzenanalysen, ethische Regelkonformität etc. durch interne Selbstevaluation sinnvoll möglich sein? Dafür braucht es geschulte Fachkräfte, z.B. des geplanten (immer noch nicht existierenden) Beratungszentrums für Künstliche Intelligenz, das bis vor Kurzem noch Beratungs- und Evaluationszentrum für Künstliche Intelligenz hieß. Warum wurde der Name von der Ampel geändert? Soll das BEKI keine Evaluationen mehr vornehmen, die nach standardisierten Prozessen ablaufen würden? Das wäre bedauerlich, denn das BEKI kann dafür genau die richtige Stelle sein, wenn es dafür auch die nötigen Ressourcen erhält.  

Zu oft keine Evaluation – vor allem im BMI

Bei immer etwa jedem 5. Einsatz von KI im Bund (19 %) fand keinerlei Evaluation statt. Besonders fällt auf und beunruhigt, dass fast jede zweite nicht evaluierte Anwendung (49 %) im BMI angesiedelt ist, wo viele grundrechtssensible KI-Einsätze stattfinden. Dazu zählen Anwendungen wie die Videodatenanalyse (Bundespolizei, Zeile 129, Anlage 1f) und die Sicherung und Aufbereitung für die Mobilfunkforensik und Cloudsicherung, wo KI eingesetzt wird, um “Massendaten zu sichten und zu kategorisieren” (Bundespolizei, Zeile 135, ebd.). Auf die Frage nach einer Begründung für die ausgebliebene-Evaluierung steht als Antwort ein schlichtes “Nein”. Bei der BKA KI-Anwendung zur Papillarleistenerkennung (Fingerabdruckerkennung) wurde die Antwort auf die Ja / Nein Frage nach Durchführung einer Evaluation einfach komplett verweigert, weil ein “öffentliches Bekanntwerden die Verwendbarkeit des Werkzeugs stark beeinträchtigen würde” (Zeile 145, ebd.). Da fehlen mir schon die Worte, denn wie soll ein Ja oder Nein auf die Evaluationsfrage die Verwendbarkeit der KI-Anwendung negativ beeinflussen? Die Frage nach “gab es ein Ergebnis der Evaluation wurde übrigens beantwortet – mit “Nein”.

Tabelle 7: Fehlende Evaluationen in BMI-Anwendungen  – Auszug aus Anlage 1f

Für einen verantwortungsvollen Einsacht von Künstlicher Intelligenz innerhalb der Bundesverwaltung sind Audits bzw. Evaluationen unverzichtbar. Nur durch die Durchführung objektiver und umfassender Überprüfung der Systeme können die versprochenen Vorteile des Einsatzes realisiert und die möglichen Risiken minimiert werden. Daher fordere ich die Bundesregierung auf, sich endlich an die selbstgesteckten Ziele und die selbst erstellten Leitfäden zu halten und die dafür notwendigen Strukturen und Prozesse zu schaffen, um Transparenz, ethische Grundfragen und Risiken sowie die Nachvollziehbarkeit ihrer KI-Anwendungen sicherzustellen.

3.5 Mangelnde Transparenz

Die Nutzung von KI im Bund sollte besonders hohen Transparenzanforderungen genügen. Leider zeigt sowohl die fehlende Transparenz zum Einsatz von KI im Bund im Allgemeinen als auch die unvollständige Antwort der Ampel-Regierung auf meine Kleine Anfrage im Besonderen, wie groß die Defizite sind.

Wir brauchen eine einheitliche, einfach zugängliche und transparente Datenbasis über eingesetzte Algorithmen- und KI-Systeme in der öffentliche Verwaltung, z.B. damit die Überprüfung und Evaluierung möglicher Diskriminierungspotenziale, die Einhaltung (und Förderung) von Grundrechten genauso wie von Nachhaltigkeitskriterien oder schlicht Kontrolle und Bewertung durch die digitale Zivilgesellschaft, die freie Presse, sowie durch Forschende möglich sind.

Begrüßenswert sind die aktuellen Pläne des BMI, ein KI-(Transparenz) Register für Anwendungen des Staates aufzubauen. Dieses Register soll beim (immer noch nicht existierenden) Beratungszentrum für Künstliche Intelligenz (BEKI) angesiedelt werden, der künftig zentralen Koordinierungsstelle für KI im Bund. Ein solches Register muss verpflichtend für alle KI-Anwendungen im Bund sein, aber für KI-Anwendungen aller staatlichen Stellen in Deutschland (auch auf Länder- und kommunaler Ebene) geöffnet werden. Dafür sollte das BMI rechtzeitig in einen offenen Dialog unter Einbeziehung der Zivilgesellschaft und der Wissenschaft starten, um Bedarfe, Schnittstellen, Potenziale und Herausforderungen (z.B. Finanzierung) rechtzeitig zu adressieren. Im Ausland gibt es schon Erfahrungen, etwa in Helsinki (Link) sowie Amsterdam (Link), und auch in Deutschland gibt es bereits Konzepte (Link). 

Ein „Marktplatz für KI-Anwendungen“ ersetzt kein KI-Register

Im BEKI soll es künftig auch einen “Marktplatz für KI-Anwendungen” geben, der offensichtliche Doppelentwicklungen verhindern und zum Kompetenzaustausch zwischen Behörden beitragen könnte. Aber ein KI-Transparenzregister ist so ein Marktplatz natürlich nicht und er kann auch keine Strukturen zum Kompetenzaufbau und zur Koordinierung ersetzen, die der Bundesrechnungshof bereits 2023 angemahnt hatte (Link). Außerdem sollte das künftige KI- Transparenzregister gerade auch solche KI-Anwendungen enthalten, die in Behörden und staatlich kontrollierten Organisationen eingesetzt werden, die Ordnungs- und Sicherheitsaufgaben wahrnehmen, also häufig qua Amt mit der Verletzung von Grundrechten zur Wahrung weiterer Grundrechte zu tun haben, aber ihre KI-Systeme sicher nicht auf einem Marktplatz für KI-Anwendungen teilen werden. Auf meine schriftliche Nachfrage erfuhr ich, dass der Start dieses KI-Marktplatzes für Herbst 2024 geplant sei (Link). Stand 01.11.24 gibt es von ihm noch keine Spur.

Jenseits der grundsätzlichen und allgemeinen Herstellung von struktureller Transparenz zum Einsatz von KI im Bund zeigt auch die vorliegende Antwort der Bundesregierung auf meine 3. Kleine Anfrage zu KI im Bund, dass es mit der Transparenz nicht weit her ist. Das wird einen Mix aus Gründen haben: fehlender Durchblick, überbordende Geheimniskrämerei, mangelnder Respekt gegenüber dem Parlament und schlichte Schlamperei – vielleicht auch Personalmangel und Überarbeitung, man steckt ja nicht drin.

Schlechtes Handwerk: lückenhaft, inkonsistent, an Fragen vorbei geantwortet

Die Antwort der Ampel hat jedenfalls erhebliche Lücken, ist in einigen Bereichen inkonsistent, lässt einige Fragen komplett unbeantwortet oder enthält Aussagen, die komplett an der Frage vorbei gehen. Manche Antworten sind trotz präziser Fragestellung so daneben, dass sie eine sinnvolle Auswertung verhindern, z.B. im Bereich der Risikoeinschätzung von KI-Systemen. Über Geheimdienste erfährt man gar nichts, über andere Behörden mit Sicherheitsaufgaben verstümmelte Antworten, Bullshit-Antworten oder als NfD eingestufte Antworten oder auch gar nichts, wegen vermeintlicher Staatswohlgefährdung. Mehrere Ministerien melden überhaupt keine KI-Anwendungen (BMFSFJ, BMWSB). Wie weiter oben bereits erwähnt, wurde mir selbst die Anzahl der eingesetzten und intransparent bleibenden KI-Systeme für die Behörden mit Sicherheitsaufgaben und Geheimdienste verweigert, weil selbst dadurch das Staatswohl in Gefahr sei (Link).

Das Militär: eine besonders finstere Blackbox

Das Verteidigungsressort mit dem größten IT-Bereich der gesamten Bundesregierung (im Kommando Cyber und Informationsraum arbeiten über 10.000 Fachleute) meldete eine einzige Anwendung und die ist als NfD eingestuft. Das überrascht vor allem deshalb, weil die Bundeswehr öffentlich frei über diverse KI-Anwendungen berichtet – z.B. auf dem Start Up Summit in Berlin 2024 oder auf ihrer Website, dort z.B. erfährt man über das KI-Labor der Bundeswehr (Link) von KI-Projekten wie „Voice Activity Detector“, „Sparrow Tracking“ und „CWBuddy“ (Link). Auch im aktuellen Haushaltsentwurf 2025 für das BMVg (Stand 01.11.24) sind in Titelgruppe 02 „Forschung, Entwicklung und Künstliche Intelligenz“ immerhin satte 795 Mio Euro vorgehen (Link). Auch im Cyber-Innovation-Hub der Bundeswehr laufen KI-Projekte wie z.B. „ImageAware“ (Link), die alles Andere als geheim sind. Ich habe deshalb eine Schriftliche Frage hinterhergeschickt und die Ampel mit diesem Widersprüchen konfrontiert.

IT-Auslagerung an GmbH als Ausrede für Intransparenz

Statt „sorry“ und mehr Informationen gab es darauf nur eine absurde Antwort der Bundesregierung (Link): Die erwähnten Aktivitäten liefen bei der BWI GmbH und damit nicht im Geschäftsbereich des BMVg, und deswegen könne man sich eine genauere Auskunft sparen. Die BWI GmbH gehört immerhin zu 100% dem Bund, dort arbeiten 7.000 Menschen und machen 1,5 Milliarden Euro Umsatz, ihre Selbstbezeichnung lautet: „Wir sind das IT-Systemhaus der Bundeswehr“. Es ist ziemlich wenig vertrauensbildend, null Transparenz zum Einsatz von KI zu schaffen, nur weil man sich einer staatseigenen GmbH bedient, um diesen Einsatz zu ermöglichen. Verwiesen wird auch darauf, dass die KI-Anwendungen, die ich über öffentliche Quellen fand, ja nur „im Rahmen von explorativem Lernen, Erproben und Entwickeln zum Zwecke des Erwerbs von Methoden-, Bewertungs- und Entscheidungskompetenz bei Innovationen, Analysen und Planungen dienen“ – na dann ist ja völlig egal, was man da so macht (WTF!). Übrigens sind militärische Anwendungen vom Geltungsbereich der KI-Verordnung komplett ausgenommen, weil für Verteidigungsfragen die Mitgliedsstaaten die Verantwortung tragen. Es gibt also nur dann Regeln für die Anwendung von KI im Militär, wenn die Bundesregierung sich selbst welche gibt. Das stimmt mich nicht gerade optimistisch.

Laut Digitalstrategie (Link) will sich die Ampel bis 2025 übrigens daran messen lassen, dass sie

“Kapazitäten und Fähigkeiten aufgebaut (ADB: hat), um Daten auf dem Gefechtsfeld schneller mit Hilfe von KI zu analysieren und damit die Effektivität auf dem Gefechtsfeld zu erhöhen.“

Abbildung 2: Auszug aus der Digitalstrategie der Bundesregierung:

60 Prozent KI-Systeme verschwieg der Bund in 2022. Heute? Unbekannt.

Stutzig wird man auch bei den Angaben aus dem Gesundheitsministerium, denn das Robert Koch-Institut meldete im vergangenen Jahr noch 8 KI-Anwendungen, in diesem Jahr jedoch keine einzige. Im Jahr 2022 hatte der Bundesrechnungshof festgestellt, dass die Bundesregierung in ihrer damaligen Antwort auf meine erste Anfrage zum Einsatz von KI im Bund etwa 60 % aller KI-Anwendungen “vergessen” hatte. Ich habe keine Möglichkeit festzustellen, wie hoch der Anteil der unterschlagenen KI-Anwendungen in diesem Jahr ist. Vielleicht ist er genauso hoch wie damals, dann gibt es möglicherweise schon 550 KI-Anwendungen im Bund, vielleicht ist auch nur das Dunkelfeld aufgehellt worden und der Anstieg von 86 KI-Anwendungen in 2022 auf mind. 219 in 2024 ist gar kein echtes Wachstum, denn mit den “verschwiegenen” Anwendungen wurden auch 2022 schon 215 KI-Systeme im Bund genutzt. Vermutlich liegt die Realität irgendwo in der Mitte – aber parlamentarische und öffentliche Kontrolle sollte nicht schätzen oder raten müssen, sondern klare Aussagen bekommen, sowohl was die nackte Anzahl eingesetzter KI-Systeme angeht (219 oder 550 oder noch mehr?), als auch was ihren Verwendungszweck, ihre Risikobewertung und viele andere Aspekte betrifft.

Vertrauen in den Einsatz einer mit hohen Chancen aber eben auch hohen Risiken behafteten Technologie baut man so nicht auf! Es ist eine der größten Schwächen der Ampel, dass sie zwar durchaus in diversen Strategien sinnvolle Ziele formuliert hatte, aber nicht ansatzweise in der Lage ist, die für die Umsetzung nötigen Voraussetzungen auch zu schaffen.

3.6 Nachhaltigkeit von KI spielt bei 3 von 4 Vorhaben überhaupt keine Rolle

KI-Systeme wachsen weltweit rasant, wodurch immer mehr und immer größere Rechenzentren entstehen, die riesige Mengen Wasser und eine exponentiell wachsende Menge erneuerbarer Energien verschlingen, die für andere Zwecke nicht mehr zur Verfügung steht, was den Ausstieg aus fossilen Energieträgern bremst. Ihre Hardware bindet außerdem Unmengen kritischer Rohstoffe, die in anderen Ländern z.T. unter fragwürdigen Umständen (Umwelt, Menschenrechte, Kinderarbeit…) gefördert werden und unsere Abhängigkeit erhöhen. Will man die Folgen der Klimakrise bekämpfen und die Umwelt schützen, muss der Einsatz von KI nachhaltig erfolgen.

Schon die GroKo verabschiedete ein Fünf-Punkte-Programm “KI für Umwelt und Klima” (Link), wonach der “Einsatz von KI-Technologien selbst klima- und umweltschonend erfolgen muss”, die Ampel kündigte in ihrer Digitalstrategie “Nachhaltigkeit by Design” an (Link) und das BMI versprach in seinen eigenen Leitlinien (Link) zum Einsatz von KI:

“Wir stellen stets Kosten und Nutzen von Anwendungen gegenüber. Dabei bewerten wir Nachhaltigkeit aus ökonomischer, ökologischer und organisatorischer Sicht”.

Nur 2% Förderungen mit umfassender Berücksichtigung ökol. Nachhaltigkeit

Diese Versprechungen haben mit der Realität einfach überhaupt nichts zu tun. Bei etwa 75 % der KI-Anwendungen im Bund werden ökologische Nachhaltigkeitsaspekte gar nicht berücksichtigt. Lediglich bei 2 % dieser knapp 219 Vorhaben wurden ökologische Nachhaltigkeitskriterien umfassend einbezogen. Selbst bei den vom Bund geförderten KI-Projekten spielt Nachhaltigkeit nur eine marginale Rolle. Wie will eine Regierung glaubwürdig ihre Forderung nach nachhaltigerem Einsatz von KI nach außen vertreten, wenn sie bei 98 Prozent der eigenen KI-Anwendungen selbst nicht hinreichend dafür sorgt? Man kann nicht Wasser predigen, aber Wein trinken, das führt zu Vertrauensverlusten, aber auch dazu, dass Unternehmen sich fragen, warum sie solchen Aufforderungen Folge leisten sollen, wenn es der Bund nicht mal selbst macht.

Enttäuschend ist dabei vor allem der Realitätscheck bei den beiden Ministerien, die sich ehrgeizige eigene KI-Leitlinien gegeben hatten. So hat das BMI, das laut eigenem Leitfaden “stets” Nachhaltigkeit beim KI-Einsatz berücksichtigen wollte, diesen Vorsatz in der eigenen Praxis bei 45 seiner 46 KI-Vorhaben (98%) komplett ignoriert, denn nur in einem einzigen Fall (BAMF) wurden Nachhaltigkeitsaspekte überhaupt betrachtet. Das BMDV wiederum schrieb sich in den eigenen Leitfaden: “Wir setzen auf nachhaltige KI-Lösungen”, aber tatsächlich spielten Nachhaltigkeitskriterien nur bei einem von 30 KI-Vorhaben (3%) tatsächlich eine Rolle und das war beim Deutschen Wetterdienst, der KI übrigens zur Simulation von Klimamodellen und zur Prognose schwerer Unwetterlagen verwendet.

Totalausfall: Klima- und Umweltministerium

Die beiden Ministerien mit Verantwortung für Umwelt und Klima sind leider ganz und gar keine Vorbilder. Das BMWK interessiert sich nicht mal, jedenfalls weiß man im Klimaministerium bei jedem vierten KI-Einsatz (11 der insgesamt 44 KI-Vorhaben) in seinem Geschäftsbereich nicht einmal, ob Nachhaltigkeit betrachtet wurde oder nicht, bei weiteren 31 KI-Vorhaben war die Antwort einfach “Nein”. Die Bilanz des Klimaministeriums bei seinen eigenen KI-Projekten ist daher bei 95 Prozent der Vorhaben (42 von 44) “keine Ahnung” oder “Nachhaltigkeit nicht betrachtet”. Ich wüsste schon gern, was Minister Habeck dazu sagt, ich vermute, dass er das nicht einmal weiß. Auch das Umweltministerium hat bei 11 KI-Projekten im eigenen Haus nur zwei mal Nachhaltigkeitskriterien berücksichtigt, und das ist erschütternd schlecht, denn das BMUV ist auch für das Thema Green IT im Bund zuständig.

Ökologische Nachhaltigkeit: keine Förderbedingung bei 98% der KI-Förderprojekte!

Aus dem Kopfschütteln kommt man aber erst recht nicht mehr raus, wenn man dann noch lesen muss, dass der Bund selbst bei der Vergabe von Fördergeldern nicht steuernd gewirkt hat, denn bei 98 Prozent der vom Bund seit Jan. 2023 geförderten KI-Forschungsprojektewar ökologische Nachhaltigkeit keinerlei Förderbedingung und bei über 80 Prozent der geförderten KI-Projekte war sie nicht einmal ein Förderkritierium, sondern spielte einfach überhaupt keine Rolle! Solche Zahlen lassen mich ehrlich gesagt ratlos zurück. Gerade wenn Millionen Euro ausgegeben werden, muss der Staat seiner Verantwortung gerecht werden und diese Mittel auch so ausgeben, dass sie das fördern, was auch langfristig für die Gesellschaft sinnvoll ist. Dazu gehört, KI-Systeme nur dann finanziell zu fördern, wenn sie auch in Sachen Nachhaltigkeit innovativ sind, denn so kann die Marktmacht des Staates gemeinwohlorientierten Innovationen einen Wettbewerbsvorteil verschaffen, der ihre Verbreitung unterstützt und sowohl einen direkten als auch einen indirekten Beitrag zur Erreichung der Klimaziele leisten.

4. Fazit und Forderungen aus Linker Sicht

Das Fazit ist klar, vermutlich wird immer mehr KI im Bund eingesetzt, ohne die dafür erforderliche Sorgfalt, ohne die notwendigen Standards und Prozesse, ohne hilfreiche Strukturen, ohne hinreichend Kompetenz bei Anwender:innen und Entscheider:innen, ohne öffentliche Debatte und die dafür benötigte Transparenz. Daraus ergeben sich vier grundlegende Forderungen.

Was es aus linker Sicht braucht:

  1. Schere schließen zwischen “Immer mehr Einsatz von KI” bei “weiterhin fehlenden Supportstrukturen u ohne zentrale Koordinierung, ungenügendem Kompetenzaufbau”
  • Stelle für zentrale Koordinierung einrichten
  • Support-Strukturen aufbauen! BEKI, Algorithmen-Bewertungsstelle für Behörden mit Sicherheitsaufgaben und hinreichend ausstatten mit Ressourcen
  • Kompetenzaufbau: Kein Einsatz ohne Schulung! 
  1. Verbindliche Prozesse und Standards für Auswahl, Einsatz, Evaluierung von KI-Systemen, zum Beispiel:
  • Risikobewertung, vor jedem Einsatz, mit standardisiertem Risikoklassenmodell, nicht ohne Schulung, und nicht durch Anwender:innen selbst
  • Evaluation, immer – während und nach jedem Einsatz, nach einheitlichen Qualitätsstandards, nicht durch Anwender:innen selbst
  1. Gemeinwohlorientierung im Vordergrund, insbesondere Klimawirkung einbeziehen
  • Nachhaltigkeit als relevantes Entscheidungskriterium bei Einsatz im Bund und bei Förderprojekten
  • Prüfen der Erforderlichkeit der KI-Anwendung anhand der Bedeutung erwartbarer gesellschaftlicher Fortschritte in Abwägung zu Ressourcenverbrauch (Rohstoffe, Energie), Treibhauseffekt, Steuergeldverbrauch und Lösungsalternativen wie Software mit regelbasierten Algorithmen
  1. Maximale Transparenz: Öffentliches Register für KI Einsatz durch den Staat zeitnah umsetzen
  • Offene, gesellschaftliche Debatte! – nur so sind Vertrauen und Akzeptanz möglich
  • Keine Blackbox für besonders grundrechtssensible Bereiche!

Bereits zum dritten Mal in Folge hat meine Kleine Anfrage einen Beitrag zur dringend notwendigen Transparenz in die KI-Anwendungspraxis der Bundesregierung geleistet. Es ist vermutlich meine letzte, denn die Ampel ist in Auflösung begriffen und dem nächsten Bundestag gehöre ich nicht mehr an. Ich hoffe, es wird sich trotzdem endlich viel verbessern!

Herzlichen Glückwunsch und ein Dankeschön an alle, die bis hier diesen sehr langen Text gelesen haben. Mein Team und ich haben viel Arbeit in diese Analyse gesteckt und schätzen die Aufmerksamkeit für dieses wichtige Thema. Sollte es Fragen und/oder Hinweise dazu geben, stehen wir unter anke.domscheit-berg@bundestag.de gerne zur Verfügung.

Meine erste Frage:
„Wie viele KI-Anwendungen setzt die Bundesregierung und ihre nachgeordneten Behörden insgesamt ein, die in der Antwort der Bundesregierung auf die Kleine Anfrage der Gruppe der Linken auf Bundestagsdrucksache 20/12191 mit Verweis auf eine mögliche Staatswohlgefährdung nicht genannt wurden, auch nicht in eingestufter Form (bitte je Behörde die Anzahl der KI-Anwendungen nennen, da ihre bloße Anzahl nach meiner Auffassung keinerlei staatswohlgefährdende Information darstellt), und ab wann plant die Bundesregierung die Verfügbarkeit und damit Nutzung eines öffentlichen KI-Registers (mindestens) für die KI-Anwendungen des Bundes, wie sie in der oben genannten Antwort der Bundesregierung zu Frage 14 der Kleinen Anfrage erwähnt wurde?“


Antwort der Bundesregierung vom 03.09.2024:

„Die Behörden, die Gegenstand der Frage sind, setzen unter anderem auch KI-Anwendungen ein. Darüber hinaus wird auf die Vorbemerkung der Bundesregierung zur Antwort der Bundesregierung auf die Kleine Anfrage der Gruppe DIE LINKE auf BT-Drs. 20/12191 verwiesen. Die Verfügbarkeit des in der Kleinen Anfrage genannten Marktplatzes der KI-Möglichkeiten ist derzeit im Herbst 2024 beabsichtigt.“

Meine zweite Frage:

„Wie grenzen sich die Angaben zu Haushaltsmitteln und Kosten in den Tabellen Anlage 1e (zu Frage 4; Kosten für KI-Anwendungen im Bund), Anlage 2 (zu Frage 6; Forschungsvorhaben, Pilotprojekte, Reallabore mit Beteiligung des Bundes, oder initiiert bzw. unterstützt vom Bund), Anlage 3 (zu Frage 8; bisher bewilligte und gebundene Mittel im Rahmen der KI-Strategie und ihre Verteilung auf Förderprogramme und Haushaltsmittel) sowie Anlage 3a (zu Frage 9; weitere Mittel außerhalb der KI-Strategie für die Förderung und den Einsatz von KI nach Förderprogrammen und Haushaltstiteln) in der Antwort der Bundesregierung auf die Kleine Anfrage der Gruppe der Linken auf Bundestagsdrucksache 20/12191 voneinander ab, und ggf. welche Überschneidungen von Angaben treten dabei konkret auf?“


Antwort der Bundesregierung vom 03.09.2024:

„Die Anlagen 1e, 2, 3 und 3a wurden separat erstellt. Die einzelnen Parameter wurden gezielt entsprechend den Fragen 4, 6, 8 und 9 der Kleinen Anfrage der Gruppe der Linken (Bundestagsdrucksache 20/11648) abgefragt, sodass die Anlagen getrennt voneinander zu betrachten sind.

Anlage 1e (zu Frage 4) beschreibt die Kosten für KI-Anwendungen, die innerhalb der Bundesregierung eingesetzt werden. Anlage 2 (zu Frage 6) stellt Forschungsvorhaben, Pilotprojekte sowie Reallabore mit Beteiligung des Bundes dar. Hierbei handelt es sich im Gegensatz zu Anlage 1e um Förderung für externe Projekte. Anlage 3 (zu Frage 8) beschreibt bisher bewilligte und gebundene Mittel im Rahmen der KI-Strategie und ihre Verteilung auf externe Förderprogramme und Haushaltsmittel. Diese adressieren das breite Spektrum der Ziele der KI-Strategie; der Fokus liegt damit nicht notwendigerweise auf der Entwicklung konkreter KI-Anwendungen. Davon abzugrenzen sind die Finanzmittel für Fördermaßnahmen in Anlage 3a (zu Frage 9), bei denen es sich um andere Mittel handelt, die nicht auf die KI-Strategie einzahlen.

Von maßgeblichen Überschneidungen in den Finanzmitteln wird nicht ausgegangen.“

Antwortschreiben im Original:

Zum Dritten Mal nach 2022 und 2023 befragte die Gruppe DIE LINKE im Bundestag die Bundesregierung nach dem Einsatz von Künstlicher Intelligenz im Bund und zur Förderung von KI. Aus der Antwort der Ampel zur diesjährigen Kleinen Anfrage ergibt sich ein starker Zuwachs der KI-Anwendungen sowie immense verfügbare finanzielle Mittel in Höhe von über 2,5 Milliarden Euro für KI-Vorhaben bei gleichzeitig fehlenden Supportstrukturen, mangelnden Kompetenzen, Standards und verbindlichen Prozessen, obwohl alles dies seit Jahren angekündigt wurde. Auch Ankündigungen der Ampel zur Nachhaltigkeit beim Einsatz von KI wurden flächendeckend nicht eingehalten.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Gruppe DIE LINKE im Bundestag:

Weiterlesen

05. Juni 2023

Meine Fragen:

1.: Wofür wurden die bisherigen Haushaltsmittel (siehe Antwort der Bundesregierung auf die Kleine Anfrage auf Bundestagsdrucksache 20/6862) für die 3 Vorhaben Beratungs- und Evaluierungszentrum für Künstliche Intelligenz, BEKI (1,1 Mio €); KI-Kompetenzzentrum (23,5 Mio €) und Algorithmenstelle für Behörden und Organisationen mit Sicherheitsaufgaben (2,77 Mio €) jeweils konkret verausgabt (bitte nach Ausgaben, Jahr und Vorhaben aufschlüsseln) und was ist der jeweils konkrete Zeitplan für den Aufbau dieser drei Einrichtungen?

2.: Was ist der konkrete Zweck der in der Antwort der Bundesregierung auf die Kleine Anfrage der Linksfraktion in Drs. 20/6862 genannten drei Vorhaben/Stellen: Beratungs- und Evaluierungszentrum für Künstliche Intelligenz, BEKI; KI-Kompetenzzentrum und Algorithmenstelle für Behörden und Organisationen mit Sicherheitsaufgaben und in welcher Organisationsform sollen diese Vorhaben/Stellen jeweils umgesetzt werden (bitte auch jeweils die Gesamtstellenanzahl angeben)?

Antwort des Parlamentarischen Staatssekretärs Johann Saathoff:

Zu 1.:
Die Überlegungen zum Beratungs- und Evaluierungszentrum für Künstliche Intelligenz (BEKI) sind weiter vorangeschritten, die Abstimmungen innerhalb der Bundesregierung dauern noch an. Bereits in der aktuellen Phase der Umsetzungsvorbereitung, die in 2023 abgeschlossen werden soll, ist die Pilotierung erster Angebote des BEKI vorgesehen.

Die Bundesregierung hat die Überlegungen zum Aufbau des Projektes Pilotierung eines Künstliche Intelligenz-Bewertungsvorgehens und Konzeption einer Algorithmenstelle für Behörden und Organisationen mit Sicherheitsaufgaben (PABOS) noch nicht abgeschlossen. Daher besteht noch kein endgültiger Zeitplan.

Das Kompetenzzentrum Künstliche Intelligenz (jetzt KI-Kompetenzcenter der Bundesverwaltung, kurz „KI-KC“), wird unmittelbar nach Vertragsschluss mit der Bundesdruckerei eröffnet. Die Vertragsunterzeichnung ist für Anfang Juni 2023 vorgesehen. Der Aufbau des KI-KC skaliert anschließend zur Anzahl der entsprechend des Konzepts umgesetzten Projekte in Form von Proof-of-Values (PoVs) über die Gesamtlaufzeit des Konjunkturpaketes.

Die von den in der Fragestellung genannten Haushaltsmitteln bereits vorgenommenen Ausgaben können der nachfolgenden Tabelle entnommen werden.

Zu 2.:
Die Planung für den Aufbau des BEKI für den Bereich der öffentlichen nicht sicherheitsbezogenen Verwaltung ist weiterentwickelt worden, der Prozess ist aber noch nicht abgeschlossen. Zweck des BEKI ist es, die öffentliche Verwaltung für den kompetenten und verantwortungsvollen Einsatz von Künstlicher Intelligenz (KI) weiter zu ertüchtigen. Das BEKI beabsichtigt dabei, die öffentliche Verwaltung auf rechtlicher, ethischer und technischer Ebene hinsichtlich der verantwortungsvollen Nutzung von KI zu beraten, die Vernetzung des öffentlichen Sektors weiter zu optimieren und zu koordinieren und den Kompetenzaufbau für die öffentliche Verwaltung zu unterstützen. Derzeit ist die Einrichtung des BEKI in der Startphase als „virtuelle“ Organisationsform geplant.

Hierdurch wird ausdrücklich das Ziel verfolgt, bereits bestehende, etablierte Strukturen und Formate einzubeziehen, auf gewonnen Erfahrungen aufzubauen und bestehende Strukturen durch koordinative Unterstützung des BEKI zu stärken. Die diesbezügliche Abstimmung innerhalb der Bundesregierung zur Organisationsform und zu damit verbundenen Ressourcen ist gleichwohl noch nicht abgeschlossen.

Der Zweck der im Rahmen des Projekts PABOS ist, die Sicherheitsbehörden des Bundes im Themenfeld qualitätsgesicherte KI zu unterstützen. Die Bundesregierung hat die Überlegungen zum Aufbau des das BEKI für den Sicherheitsbereich ergänzenden Vorhabens PABOS noch nicht abgeschlossen, dies betrifft insoweit auch die Frage nach etwaigen Stellen sowie der Organisationsform.

Der Zweck des KI-Kompetenzcenter der Bundesverwaltung ist die praktische Umsetzung von KI-Vorhaben im Rahmen von PoVs, um schnellstmöglich Mehrwerte der Nutzung von KI für die zivile Bundesverwaltung anhand konkreter Anwendungen aufzuzeigen. Das KI-KC wird mit der anstehenden Beauftragung der Bundesdruckerei dort im „Innovations“-Bereich angesiedelt. Die hierfür vorgesehenen Haushaltsmittel werden im Rahmen des Aufkommens geeigneter PoVs verausgabt. Die Anzahl der Stellen, die die Bundesdruckereihierüber finanziert, hängt vom Aufkommen von PoVs ab.

Die Aufnahme der verschiedenen Aktivitäten verdeutlicht die Bestrebungen der Bundesregierung im Bereich des Einsatzes von Künstlicher Intelligenz in der öffentlichen Verwaltung. Die Maßnahmen ergänzen sich und werden eng miteinander vernetzt, um einen gegenseitigen Austausch zu fördern, Doppelstrukturen zu vermeiden und eine bestmögliche Kompetenzentwicklung im Themenbereich Künstliche Intelligenz zu ermöglichen.

Frage

Bis wann hat sich die Bundeswehr an der Erfassung biometrischer Daten von afghanischen Staatsangehörigen und ihrer Weiterleitung an das US-Militär beteiligt (siehe Bundestagsdrucksache 17/6862), und wie viele biometrische Daten von sogenannten „Ortskräften“ (z. B. afghanischen Mitarbeiterinnen und Mitarbeitern und Unterstützerinnen und Unterstützern von militärischen Kräften und diplomatischem Dienst) wurden dabei erfasst und an das US-Militär weitergeleitet? (BT Drucksache 19/32251, Frage 85)

Antwort des Parlamentarischen Staatssekretärs Thomas Silberhorn vom 3. September 2021

Biometrische Daten konnten von Bundeswehrangehörigen auf der Grundlage der Mandate des Deutschen Bundestages und im Rahmen der dazu ergangenen Einsatz- und Verfahrensregeln bis zum Einsatzende Resolute Support gesammelt und an das Hauptquartier weitergeleitet werden. Die Anzahl der erfassten biometrischen Daten und inwieweit diese Daten aus dem Hauptquartier weitergegeben wurden, kann nicht nachgehalten werden, da diese Daten statistisch nicht erfasst wurden.

Frage: Wie ist der Planungsstand zur Entwicklung der polizeilichen KI-Strategie, und wurden neben dem Unternehmen msg systems AG weitere Firmen zur Entwicklung der polizeilichen KI-Strategie eingebunden (vgl. Bundestagsdrucksache 19/13866)? (BT-Drucksache 19/23047)

Antwort des Parlamentarischen Staatssekretärs Dr. Günter Krings vom 2. Oktober 2020
Zur Konkretisierung der Strategie Künstliche Intelligenz (KI) der Bundesregierung im Hinblick auf die innere Sicherheit (Kapitel 3.7) wurde im November 2019 mit der Entwicklung einer polizeilichen KI-Strategie begonnen. Die Strategieentwicklung befindet sich aktuell in der Phase der Finalisierung. Die Veröffentlichung der polizeilichen KI-Strategie wird zu Ende 2020/Anfang 2021 angestrebt.
Das Unternehmen msg systems AG ist Generalunternehmer einer Rahmenvereinbarung des Bundes. Die adesso AG ist als Unterauftragnehmer dieser Rahmenvereinbarung und unterstützt das Bundesministerium des Innern, für Bau und Heimat bei der Erstellung der polizeilichen KI-Strategie. Für den Entwicklungsprozess bedarf es der Einbindung weiterer externer und interner Experten, die innerhalb der unterschiedlichen Handlungsstränge durch das Einbringen ihrer konkreten Fachexpertisen einen wesentlichen Beitrag leisten. Neben den externen Experten von verschiedensten Hochschulen, die für ihre Expertise eine Aufwandsentschädigung erhielten, bestanden/bestehen vertragliche Vereinbarungen mit Fraunhofer FOKUS, der Schütze AG und PD – Berater der öffentlichen Hand GmbH.

Frage: Sind an dem Pilotprojekt der Deutschen Bahn AG in Stuttgart zur videobasierten Fahrgaststrom-Überwachung das Bundesministerium des Innern, für Bau und Heimat oder seine nachgelagerten Behörden an der Entwicklung, Planung, Umsetzung oder Finanzierung beteiligt, und wer hat Zugriff auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI (www.handelsblatt.com/technik/forschung-innovation/pilotprojekt-in-stuttgart-mit-kameras-gegen-corona-deutsche-bahn-will-passagierstroeme-bewusster-lanken/25774872.html)? (BT-Drucksache 19/19240)

Antwort des Parlamentarischen Staatssekretärs Enak Ferlemann vom 13. Mai 2020

Das Bundesministerium des Innern, für Bau und Heimat oder dessen Geschäftsbereichsbehörden sind an dem genannten Projekt nicht beteiligt.
Der Bundesregierung liegen keine eigenen Erkenntnisse hinsichtlich des Zugriffs auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI vor.

Episoden

Der letzte Digitalausschuss 2024 am 18. Dezember dauerte nur 1 Stunde und debattierte nur ein einziges Thema, das gleich 3 „Gremien“ in einen Topf warf: das Internet Governance Forum, die G7 und die G20 mit den jeweiligen „Digital-Tracks“. Deshalb habe ich diesen Podcast mit spannenderem Bonus-Content angereichert: die Risiken durch illegitime Einflussnahme auf unsere Wahlen z.B. durch Desinformationen und was man dagegen tun kann, meine jüngsten Parlamentarischen Initiativen von verstorbenen Waffenbesitzenden bis zur Nachhaltigkeit der IT des Bundes und das Thema meiner letzten Rede: da gehts um digitale Ausweis-Brieftaschen und Nicht-Wissen-Beweise und ich erzähle Euch vom 38C3, wo Ihr mich treffen könnt. Kommt gut ins Neue Jahr!

Transkript (KI-generiert und kann Fehler enthalten) 📜

Kapitelmarken:

00:00:07 Intro
00:01:25 Intro Digitalausschuss
00:03:25 Internet Governance Forum 2024
00:07:43 G7 + Digitales
00:12:45 G20 + Digitales
00:22:57 Desinformation + Wahlen: Rumänien, USA, DE
00:33:16 Desinfo: illegitime Einflussnahme: Prozess + Abwehr
00:42:13 Allerletzte Rede: eIDAS
00:46:15 Parl. Initiativen: Nachhaltigkeit IT im Bund; verstorbene Waffenbesitzenden; KI im Militär
00:48:57 38C3-Kongress in Hamburg
00:54:59 Outro

Weiterführende Links:

G20 + G7

HP der G20

Abschlusserklärung G20-Gipfel, Nov. 2024

Aktuelles zu G7 u G20 vom Auswärtigen Amt

G7-u G20 „Gipfel-Dokumente“

Erläuterung Hiroshima-KI-Prozess, 21.13.23

Attacken auf Glasfaserkabel in der Ostsee

IGF

IGF 2024 Saudi Arabien Landing Page

BMDV-Sts Stefan Schnorr auf dem IGF 24 in Riad, Videomitschnitt vom 16.12.24

DerADBPodcast #36 zum IGF vom 10.07.24

DerADBPodcast #27 zur UN Cybercrime Convention vom 19.01.24

Desinformation:

Bericht Ausschuss f Technikfolgenabschätzung zu Algorithmen in dig. Medien + ihr Einfluss auf Meinungsbildung

Correctiv-Analyse – Doppelgänger-Kampagne, 13.11.24

Techn. Bericht Auswärtiges Amt zur Doppelgänger-Kampagne

EU Aufbewahrungsanordnung an TikTok nach Rumänienwahl-Beeinflussung, 05.12.24

Paper von Carl Miller zur Analyse u Bekämpfung illegitimer Manipulationsoperationen, 2024

Meldung von Bot-Netzwerken an das BMI: lagezentrum-btw@bmi.bund.de

Meldung bei Verstößen von Plattformen gg den Dig. Services Act an Beschwerdeportal der Bundesnetzagentur

eIDAS:

Meine (fast letzte) Rede im Plenum zur Vorratsdatenspeicherung mit Abschiedserklärung vom Bundestag, 05.12.24

Meine allerletzte Rede im Plenum zu eIDAS

Antrag Union zu eIDAS vom 12.11.24

DerADBPodcast Folge #36 zu eIDAS

Öff. Konsultation EU-KOM zu Umsatzungsakten der eIDAS-Verordnung (eng.)

Stellungnahme epicenter.works zu eIDAS-Umsetzungsakten

zu meinen Parlamentarische Initiativen:

Web-tool zur Abschätzung des CO2e-Fußabdrucks von Websites

Antwort auf meine schrift. Frage zur Regulierung von KI im Militär, 06.12.24

Antwort auf mein schriftl. Frage zu verstorbenen Waffenbesitzenden im Waffenregister, 06.12.24

38C3:

Thematische Übersicht diesen Jahres und Stream
Mein Talk vom #37C3 (2023) zur Nachhaltigkeit der Bundes-IT als Stream

Outro:

Meine Kolumne in der Frankfurter Rundschau (2016-2018)

Dieser Podcast ist etwas anders, denn der Parlamentsbetrieb ist auch nicht wie sonst. Der Digitalausschuss vom 13.11.24 dauerte nur wenige Minuten, alle inhaltlichen Themen waren abgesetzt. Immerhin fand die Anhörung zum Data Governance Gesetz statt, mit Debatten u.a. zur Frage, wie man mehr Open Data bekommt (und wie nicht). Weil aber auch das Große Ganze wichtig ist, gibt es außerdem ein Update zum Prozedere bis zu den Neuwahlen und zu zwei großartigen, überparteilichen parlamentarischen Initiativen. Mit ein bisschen Glück erleben wir nach dem Ampel-Aus noch vor Weihnachten eine echte Sternstunde des Parlaments, legalisieren Schwangerschaftsabbrüche und machen den Weg frei für ein AfD Verbotsverfahren! Ich bin so was von dabei und berichte in dieser Folge was bisher geschah, wie es weitergehen soll und was Ihr dazu beitragen könnt.

Transkript 📜 (KI-erstellt und kann daher Fehler aufweisen):

Kapitelmarken:

00:00:07 Intro
00:01:35 Quo Vadis Bundestag nach dem AmpelAus?
00:15:40 Anhörung Daten-Governance-Gesetz – Intro
00:25:01 Aufsicht, Transparenzgesetz, Recht auf OpenData, Evaluation
00:34:07 AfD-Entgleisung in der Anhörung
00:38:46 Update Prüfantrag für AfD-Verbot
00:45:16 Neue Initiative: Legalisierung Schwangerschaftsabbruch
00:51:37 Outro

Weiterführende Links:

Bundestag vor den Neuwahlen:

Mietwuchergesetz von DIE LINKE vom 08.10.24

Antrag gegen Mietenwucher von DIE LINKE vom 03.07.24

Mietenwucher-Webapp!

Rede Clara Bünger zum Omnibus-Gesetz – Quellen-TKÜ / Staatstrojaner in der Höfeverordnung vom 14.11.24

Netzpolitik.org zum Entwurf eines neuen BKA-Gesetzes vom 06.08.24

Positionspapier der BAG Netzpolitik der Linken gegen Staatstrojaner vom 11.11.17

Info des Wiss. Dienstes im Bundestag zur Vertrauensfrage und Neuwahlen vom 14.11.24

Anhörung Daten-Governance-Gesetz:

Übersicht

Anhörung in der BT-Mediathek

Entwurf Daten Governance Gesetz

EU Data Governance Act

Stellungnahme Aline Blankertz

Structural Integrity auf LinkedIn

Stellungnahme RfII

Stellungnahme Dr. Sarah Rachut

Bundeshaushalt maschinenlesbar

AfD-Verbot und AfD-Schrott:

Grusel-AfD-Antrag – Daten zu individuellen Einbürgerungen veröffentlichen vom 18.12.23

🎧 Der ADB Podcast Folge 30 vom 22.03.24 mit Trixi von Storch zu DSA

Überparteilicher Antrag im Bundestag zur Überprüfung der AfD vom 13.11.24

Musterbrief an Abgeordnete zum AfD Verbot:

Tool zum Finden Eurer Abgeordneten

AfD will MDR abschaffen – Thüringer Allgemeine vom 13.11.24

Thüringen-Projekt

Weg mit §218:

Überparteilicher Gesetzentwurf zur Legalisierung des Schwangerschaftsabbruchs

Medical Students for choice

Studierende üben Schwangerschaftsabbrüche an Papayas

Bericht zu Sexismus nach der Trump-Wahl „Your body, my choice“ (engl.)

Recht auf Abtreibung in französischer Verfassung

Outro:

Mein Blogpost zum Einsatz von KI im Bund vom 08.11.24

Meine Schriftlichen Fragen zu KI-Organisationen BEKI und ABOS, Desinformations-Projektgruppe ZEAM u Dateninstitut, 08.11.24:

Interview mit mir im STERN zum Mauerfall vom 09.11.24

Meine Tagebucheinträge rund um den Mauerfall Okt./Nov. 1989

Mehr von mir und Feedback von euch zu #DerADBPodcast:

Zum Polit-Drama nach Trump Sieg und Ampel-Aus gibts meine Einschätzung zu möglichen Konsequenzen. Und es gibt viel Digitales vom vielleicht letzten „normalen“ Digitalausschuss dieser Legislatur vom 6.11.2024. Dort ging es um Folgendes: 1) Aktionsplan eCommerce des BMWK – für digitalen Verbraucherschutz gegen Temu, Shein u Konsorten, 2) BKA und BNetzA Erfahrungen bei Anwendung des DSAs (gibt es z.B. Massenmeldungen und Zensur? Spoiler: nö). 3) ging es um die Haushalte 2025 für Innen- u Verteidigungsministerium – auch wenn wohl kein HH25 mehr kommt, über die Ampel-Digitalpolitik erfährt man da viel! Thema 4) Die z.T. merkwürdige OECD Einschätzung zu KI in DE – ein Gefälligkeitsgutachten?

KI-Transkript (kann Fehler aufweisen) 📜

Kapitelmarken:
00:00:07 Intro
00:11:45 Aktionsplan E-Commerce gg Temu u Shein
00:16:11 DSA Umsetzung durch BKA und BNetzA – Intro
00:25:20 DSA: Meldungen an BKA, Trusted Flagger @ BNetzA
00:35:01 Haushalt BMI – Cybersec, Open Source, dig. Souveränität
00:40:23 Haushalt BMVg – KI, hybride Kriegsführung
00:42:26 OECD-Bericht: Künstl. Intelligenz in DE
00:53:40 Ampel-Aus: Einschätzung und mögliche Folgen01:01:46 Outro

Weiterführende Links:

Öffentlicher Teil des Digitalausschusses vom 06.11.24

Aktionsplan E-Commerce (Temu, Shein) 🛒:

Podcast-Folge #35 zu Temu u Shein vom 15.06.24 🎧

EU-KOM zu DSA-Verletzungen von Temu vom 31.10.24

BMWK Aktionsplan zu E-Commerce vom 06.09.24

DSA Umsetzung durch BNetzA u BKA:

BNetzA-DSA-Beschwerdeportal

Podcastfolge #34 zum DSA im Digitalausschuss vom 05.06.24 🎧

Antworten auf meine Schriftlichen Fragen zu Haushaltsmitteln BNetzA vom 04.10.24 und 07.11.24:

EU-KOM Arbeitspapier „fitness-check“ unter anderem zu Dark Patterns vom 03.10.24

ADB Podcast Folge #28 vom 23.02.24 🎧

Leitfaden zur Zertifizierung von Trusted Flaggers vom Mai 2024

Haushaltsberatung BMI & BMVg

Offener Brief OSB-Alliance, AG KRITIS vom 06.11.24

Haushaltsentwurf der BuReg BMI vom August 2024

Haushaltsentwurf der BuReg BMVg vom August 2024

Mein Artikel zur Kleinen Anfrage KI im Bund vom 08.11.24:

OECD zu KI in Deutschland

OECD-Bericht zu Künstlicher Intelligenz in DE vom 11.06.24

Fortgeschriebene KI-Strategie der BuReg von 2020

Ampel-Aus 💥

Wissing in FAZ zu Ampel-Streit vom 01.11.24

Parlamentarische Initiativen

  • Blogtext „Millionen in Blockchain ­– Wirkung egal“ vom 01.11.24

Mehr von mir und Feedback von euch zu #DerADBPodcast:

Krankheitsbedingt (FU Corona!) eine Doppelfolge zu den Digitalausschüssen vom 26.6. und 3.7.24 mit diesmal sehr vielen Themen: 1) innovative Datenpolitik – eine Anhörung mit Max Schrems als unseren Sachverständigen, 2) Googles Selbsteinladung in den Ausschuss – zur IT-Sicherheit in Cloud-Infrastrukturen (wir fragten mehr), 3) eIDAS – die Umsetzung der eID Wallet in DE, 3) Welche Bandbreiten gibts künftig beim Grundrecht auf (lahmes) Internet? 4) Das ominöse Memorandum of Understanding von Wissing mit der chin. Cyber-Administration, 5) UN-Global Digital Compact: was ist das? Wird es gut? Kommt es überhaupt? Was tut die Ampel? Und zum Schluss noch 3 meiner parlamentarischen Initiativen, von Hackerparagraph-Reform über Künstliche Intelligenz im Bund bis zu VMWare. Schönen Sommer Euch allen! Der nächste Podcast kommt erst im September.

Kapitelmarken:
00:00:07 Intro
00:02:26 Anhörung innov. Datenpolitik
00:13:14 Google zu IT-Sicherheit u Cloud, DELOS
00:21:09 eIDAS – eID Wallet
00:33:51 Recht auf Mindestinternetversorgung
00:40:22 Targeting bei pol. Online Werbung
00:47:48 Volker Wissings Daten-Deal mit China
00:53:33 UN Global Digital Compact
01:00:00 Outro: Kleine Anfrage VMWare, Antrag zur Reform “Hackerparagraph”, Kleine Anfrage KI im Bund

Weiterführende Links:

Aufzeichnung öff. Tops Digitalausschuss vom 03.07.24

Anhörung “Innovative Datenpolitik” im Digitalausschuss vom 26.06.24

Google zu IT-Sicherheit/ Cloudinfrastrukturen

eIDAS- VO

TK-MindestversorgungsVO/ Recht auf Internet-Grundversorgung

EU VO zu Targeting polit. Online Werbung

Wissings Daten-Deal mit China

Global Digital Compact

Kleine Anfrage VM-Ware

Kleine Anfrage zum KI-Einsatz im Bund

Antrag Reform Hackerparagraph

Mehr von mir und Feedback von euch zu #DerADBPodcast:

Zusammenfassung:
Unser wilder Ritt im Digitalausschuss vom 16.5.24 bringt Euch vertraute Themen mit neuen Aspekten: Wie schützt man Kinder besser vor sexualisierter Gewalt? In der Debatte: der alte Zombi Chatkontrolle (immer noch nutzlos und grundrechtsverletzend) und eine Richtlinie der EU zum Kinderschutz, die mal nicht für die Füße ist. Ein weiteres heißes Eisen: Bundesregierung beschuldigt offen den russ. Militärgeheimdienst nach Hackerangriffen u.a. auf SPD Mailkonten – was aber macht sie sonst noch und wie stehts um die Cybersicherheitsagenda? Außerdem ein Klassiker: die Umsetzung der EU-KI-Verordnung in DE, in der Variante: Anhörung zu den Spielräumen für dt. Regulierung (spannende Sachverständige zur biometrischen Fern-Identifikation – was ist schon und was sollte verboten sein? zu Aufsicht und Verbraucherschutz sowie ein KI-Register für staatliche KI-Systeme). Kurz gestreift wird die Premiere der Digitalministerkonferenz und als Bonus gibt es einen Einblick in mysteriöse Pläne des Familienministeriums zur Altersverifikation im Internet. Enjoy!

Kapitelmarken:
00:00:07 Intro
00:01:06 Chatkontrolle reloaded u neue EU RL zum Kinderschutz: Intro
00:12:13 BuReg Positionen zu Chatkontrolle u KiSchu-RL
00:18:25 linke Forderungen: Prävention statt Massenüberwachung
00:24:22 Russ. Cyberangriffe u.a. auf SPD, Unternehmen: Intro
00:29:46 Russ. Cyberangriffe: Attribuierung, nä. Schritte, Cyber Sicherheitsagenda
00:39:37 Anhörung: Spielräume EU-KI-VO: Intro, biom. Fern-ID,
00:48:30 Anhörung KI-VO: Aufsichtsstrukturen, KI-Register
00:55:05 1. Digitalminister*innen Konferenz
01:01:15 Outro mit schrägem Ampel-Plan zur Altersverifizierung u Termine

Weiterführende Links:

Chatkontrolle und Kinderschutz-RL

Cyberangriffe auf Parteien & Co.

Anhörung Spielräume für die nationale Umsetzung der KI-Verordnung:

Digitalministerkonferenz & OZG:

Outro/Termine:

Mehr von mir und Feedback von euch zu #DerADBPodcast:

Zusammenfassung:
Harte Themen gab es im Digitalausschuss vom 24.4.24: Verteidigungsminister Pistorius war mit mehreren Generälen präsent und stellte sich unseren Fragen zu KI, Drohnen, Cloud und hybride Bedrohung, natürlich ging es auch um den Ukraine-Krieg und digitale Kriegsführung – von Kamikaze-Drohnen bis Satelliten-Konnektivität. Ethisch alles nicht so einfach. Wir haben außerdem Microsoft vorgeladen und nebst BSI und BMI zu den jüngsten 3 Hackerangriffen befragt: Erkenntnisse, Folgen, Sicherheitsrisiken und Konsequenzen für die digitale Souveränit des Bundes. Kürzer gehts ums dritte Thema: Umsetzung der KI-Verordnung. Bonusthema diesmal: der Girlsday! Ich hatte 8 Mädels zu Gast, die im Podcast kurz zu Wort kommen.

Kapitelmarken:
00:00:07 Intro
00:01:18 Girls Day
00:04:16 Pistorius: Meine u seine Intro
00:12:19 Pistorius: Sicherheitslücken, Graubereiche, Hackback
00:20:47 Pistorius: Konnektivität, Ukraine-Krieg, KI
00:27:47 Pistorius: Cloud, WebEx Leak, Nachhaltigkeit, Fazit
00:33:04 Hackerangriffe auf Microsoft: Intro – 3 Fälle
00:44:36 MSFT Hacks: BSI, BMI – Betroffenheit, Konsequenzen
00:47:43 MSFT Hacks: Sicherheit souveräner Clouds, Rahmenverträge
00:54:51 KI-Verordnung – next Steps dt. Umsetzung
00:57:03 Outro

Weiterführende Links:

Rede zur internationalen Digitalpolitik vom 25.04.24

GirlsDay

Verteidigungsmininister Pistorius u Digitalisierung im Militär

Microsoft-Gate

KI-Verordnung – AI Act

Mehr von mir und Feedback von euch zu #DerADBPodcast:


In diesem Podcast zum Digitalausschuss vom 10.04.24 erzähle ich Euch, wie meine Rechte als Linke im Ausschuss nun endgültig beschnitten wurden und zu den folgenden 3 Fachthemen: 1) Wohngeld- und Bauanträge digital, Smart Cities und Smart Regions, digitale Zwillinge von Städten, Geldregen für Einzelprojekte und Geldnot bei Verwaltungsdigitalisierung und vieles mehr debattierten wir mit Bauministerin Klara Geywitz, die erstmalig im Ausschuss zu Gast war. Außerdem: 2) Die jüngst und geräuschlos verabschiedete EU-Verordnung zu politischer Werbung und was sie für kommende Wahlen bedeutet und 3) ein Gutachten zur Forschungs- und Innovationslandschaft in DE mit Schwerpunkt KI und smarte Landwirtschaft. Enjoy!

Kapitelmarken:
00:00:07 Intro
00:01:08 Update Linke im Bundestag
00:05:32 Bauministerin Geywitz: digitale Vorhaben
00:20:54 Baumin.: OZG, Open Source, Standards
00:30:36 Baumin.: Smart Cities, Smart Regions
00:32:10 Baumin.: Nachhaltigkeit, Digitalstrategie
00:38:11 Baumin.: IT-Sicherheit u Fazit
00:39:22 EU-Verordnung Polit. Werbung: Intro
00:49:05 Polit. Werbung: Zeitplan, Aufsicht, sensible Daten
00:55:44 Experten Gutachten zu KI + Smarter Landwirt. in DE
01:03:48 Outro: Schriftl. Frage zu Standards in Verw.Dig.

Weiterführende Links:

Bauministerin Geywitz / Digitales im BMWSB

EU-Verordnung zu Politischer Werbung / Political Targeting:

EFI-Gutachten 2024 zu KI und smarte Landwirtschaft

Schriftl. Frage zur Entwicklung von Standards im IT-Planungsrat

Mehr von mir und Feedback von euch zu #DerADBPodcast:

Eine “wilde Woche” im Bundestag, meine Linksfraktion beschließt ihre Auflösung und Umwandlung in eine Gruppe, das Verfassungsgericht kippt die Finanzierung des Klimatransformationsfonds (60Mrd €!) und bringt Abläufe im Digitalausschuss vom 15.11.23 durcheinander. Im Podcast geht es um alles das und um die 3 Themen, die wir debattierten: 1) KI Regulierung (mal wieder, wegen Antrag Union) und der kürzliche AI Safety Summit in London zu “Frontier-KI”, 2) Denkfabrik digitale Gesellschaft des BMAS und was sie außer KI-Themen macht sowie 3) die IT-Konsolidierung des Bundes nach 8 J. Umsetzung: zB mit eAkte, Bundescloud, Netze des Bundes, eGesetzgebung, jede Menge Geld und jede Menge Rechenzentren.

Kapitelmarken:
00:00:07 Intro
00:01:35 AI Safety Summit UK, KI-Verordnung EU
00:07:27 KI-VO: biometrische Identifizierung im öff. Raum
00:16:45 Denkfabrik Dig. Arbeitsgesell. (o. nur KI?), BMAS
00:28:08 IT-Konsolidierung Bund, ein 3,5 Mrd EUR Projekt
00:35:38 IT-Kons.: Bundescloud, eGesetzgebung, RZ, IT-Sicherheit
00:40:48 Update zur Zukunft der Linksfraktion
00:45:50 Outro u. Hinweise
 

Weiterführende Links:

Öffentlicher Teil Digitalausschuss vom 15.11.23

KI Verordnung EU/ AI Safety Summit:

Denkfabrik des BMAS:

IT-Konsolidierung des Bundes:

Hinweise:

Dreimal ging es direkt oder indirekt um die EU im Digitalausschuss am 8.11.2023. Zu den Verhandlungen der KI-Verordnung diskutierten wir den (wirklich guten!) Antrag der (noch) Linksfraktion. Weitere Themen: Der Digital Services Act, der nach dem Hamas Terror vom 7.10.23 mit 1.400 Toten in Israel seine erste Bewährungsprobe mit massenhaft Desinformationen auf großen Plattformen hat, der Einsatz von KI zur Früherkennung von Straftaten und strafbaren Inhalten im Netz, und die schleppende Umsetzung des DSA in DE. Bonus-Inhalt: Wie geht es weiter mit der Linksfraktion?

Transkript dieser Folge:

Kapitelmarken:
00:00:07 Intro
00:03:18 Digitalausschuss – Antrag Linke zur EU- KI Verordnung
00:16:56 Israel-Hass u Antisemitismus in sozialen Netzen: Intro 
00:18:28 Israel-Hass: Bewährungsprobe Dig. Services Act
00:24:40 KI beim Bund: intell. Videoanalyse, Früherkennung Straftaten
00:28:35 Bundesamt für Justiz: 1.400 liegengebliebene NetzDG Beschwerden?
00.30:26 Dig. Services Act in DE: Gesetz u nat. Dig. Dienste Koordinator
00:38:48 Netzsperren im Digitale Dienste Gesetz
00:40:52 Zukunft der Linksfraktion
00:44:54 Outro und Hinweise

Weiterführende Links:

Rückblick:

KI-Regulierung:

Israel-Hass in sozialen Medien:

Nationaler Koordinator Digitale Dienste/Digitale Dienste Gesetz:
 

Weitere Links:

Diesmal gibts digitale Infos auch aus dem Familienausschuss, wo am 21.6.23 ein Fachgespräch zum Thema Jugendschutz im Internet stattfand (es ging v.a. um Vorratsdatenspeicherung und die EU Chatkontrolle Verordnung). Außerdem gibt es Neues für Euch aus dem Digitalausschuss mit folgenden Themen: was ist und was macht das Kommando Cyber- und Informationsraum der Bundeswehr? Wie gehts weiter mit der EU-KI-Verordnung? Was sind Rundfunk- und Kulturfrequenzen und warum ist ihre Zukunft bedroht? Und superkurz gehts um die Digitalstrategie und das 49€ Ticket.

Ich freue mich, wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast.

Dafür bin ich hier zu finden:

Kapitelmarken:

00:00:07 Intro
00:01:09 Familienausschuss – Jugendschutz im Internet/ Chatkontrolle
00:17:42 Digitalausschuss – Kommando Cyber- und Informationsraum (CIR)
00:32:42 EU KI-Verordnung
00:44:13 Rundfunk- und Kulturfrequenzen
00:53:57 Digitalstrategie, digital only 49€ Ticket
00:55:32 Hinweise und Outro
 

Weiterführende Links:

Jugendschutz im Internet und Chatkontrolle:

Kommando Cyber- und Informationsraum der Bundeswehr:

EU KI-Verordnung

Rundfunk- und Kulturfrequenzen

DIgitalstrategie


 

Medienecho