„Wie wird erfasst beziehungsweise überprüft, ob im Nationalen Waffenregister als waffenbesitzend erfasste Personen verstorben sind und die Vorgaben des Waffengesetzes im Falle der Erbschaft (siehe www.bva.bund.de/SharedDocs/Downloads/DE/Buerger/Ausweis-Dokumente- Recht/Waffenrecht/Einzelerlaubnisse/merkblatt_erbwaffen.pdf) eingehalten werden (bitte auch zuständige Organisationseinheit(en) angeben), insbesondere dann, wenn durch die Erben kein waffenrechtliches Bedürfnis geltend gemacht werden konnte, und die geerbten Schusswaffen durch ein dem Stand der Technik entsprechendes Blockiersystem durch speziell eingewiesene Inhaber einer Waffenherstellungs- oder einer Waffenhandelserlaubnis oder durch entsprechend bevollmächtigte Mitarbeiter zu sichern sind und die erlaubnispflichtige Munition binnen angemessener Frist unbrauchbar zu machen oder einem Berechtigten zu überlassen ist (§ 20 Abs. 3 Satz 2 des Waffengesetzes – WaffG), und welche Kenntnis hat die Bundesregierung zu möglichen Größenordnungen verstorbener waffenbesitzender Personen beispielsweise durch Kenntnis von Stichprobenabfragen im Rahmen des National- Once-Only-Technical-Systems (NOOTs) und der Steuer-ID?“
Antwort der Bundesregierung vom 06.12.24:
„Der Vollzug des Waffengesetzes (WaffG) ist Ländersache. Die Meldebehörde übermittelt den Tod eines Erlaubnisinhabers nach § 44 Abs. 2 WaffG an die zuständige Waffenbehörde oder die Waffenbehörde erhält selbst Kenntnis vom Versterben der Person. Die Waffenbehörde speichert das Sterbedatum nach § 6 Abs. 1 Nr. 2 lit. i des Waffenregistergesetzes im Nationalen Waffenregister. Die Einhaltung des § 20 WaffG (Erwerb und Besitz von Schusswaffen durch Erwerber infolge eines Erbfalls) wird durch die Waffenbehörden gesichert. Die Bundesregierung hat keine Kenntnis zur Anzahl verstorbener waffenbesitzender Personen im Nationalen Waffenregister. Diese Zahl ist weder Bestandteil der Monatsstatistiken des Nationalen Waffenregisters, noch wurde diese Zahl im Rahmen des Pilotprojektes zur Registermodernisierung im Nationalen Waffenregister erhoben.“
„Warum sind diverse organisatorische Strukturen, darunter das Dateninstitut, das Beratungs- und Evaluierungszentrums für Künstliche Intelligenz (BEKI), die Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben (ABOS) und die Zentrale Stelle für die Erkennung ausländischer Informationsmanipulation (ZEAM) zum Teil schon seit mehreren Jahren „im Aufbau“ (bitte begründen, warum dieser Prozess so viel Zeit beansprucht), und wann sollen sie jeweils tatsächlich in ihrer finalen Rechtsbeziehungs-weise Organisationsform offiziell die Arbeit aufnehmen und nicht mehr nur „im Aufbau“ oder „in Gründung“ sein (bitte jeweils geplanten Zeitpunkt zum finalen Ausbau und die geplante Rechts- beziehungsweise Organisationsform angeben)?“
Antwort der Bundesregierung vom 08.11.24:
„Der zur Schaffung des Dateninstituts („DI“) für Deutschland gewählte Vergabeprozess eines sog. Wettbewerblichen Dialogs ist inzwischen weit fortgeschritten: Teilnahmewettbewerb, erste Dialogrunde und Überarbeitung der Vergabeunterlagen sind abgeschlossen, die Bieter überarbeiten derzeit ihre Lösungsvorschläge und nach einer oder maximal zwei weiteren Dialogrunden wird der Zuschlag erteilt und unmittelbar anschließend – nach aktuellem Stand im Mai / Juni 2025 – die eigentliche Gründung vollzogen. In Form einer Verprobung hat die Arbeit des DI jedoch bereits vor dem Vergabeprozess begonnen, nämlich mit dem Start der vorgelagerten Use Cases eines offenen Datenmodells zur Long-Covid-Forschung (Form: Challenge, geleitet durch das Bundesministerium des Innern und für Heimat [BMI]) und einem Testfeld und einer Konsultationsumgebung zur dezentralen Datennutzung in Energienetzen (In-House-Vergabe des Bundesministeriums für Wirtschaft und Klimaschutz [BMWK] an die Deutsche Energieagentur). Die letztendliche Rechtsform des DI wird derzeit im o. g. Dialog ausgehandelt. Im Moment des Zuschlags wird vertraglich festgelegt sein, dass der Regelbetrieb des DI nach einer bestimmten Anzahl von Monaten nach Zuschlag aufgenommen sein muss. Details hierzu können aus vergaberechtlichen Gründen hier nicht mitgeteilt werden. Die Hintergründe zum zeitlichen Verlauf des Vorhabens wurden durch die federführenden Häuser BMWK und BMI in Abständen auch öffentlich kommuniziert, u. a. bei einer großen Kick-Off-Veranstaltung am 10. April diesen Jahres: Nachdem die Haushaltsmittel zeitweilig durch den Deutschen Bundestag gesperrt gewesen waren, mussten zunächst die o. g. gemäß Vorgaben der Gründungskommission vor die formelle Gründung zu ziehenden Use Cases gestartet und das taugliche Vergabeverfahren für die eigentliche Gründung er- mittelt und vorbereitet werden, wozu auch zwei sogenannte Marktdialoge durchge- führt wurden.
Mit dem Beratungszentrum für Künstliche Intelligenz („BeKI“) im BMI soll eine zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung geschaffen werden. Das BeKI soll der Bundesverwaltung Expertise zur verantwortungsvollen Nutzung von KI in Form eines Beratungsangebots zur Verfügung stellen, gezielt den sektor- und ebenenübergreifenden Austausch und die Vernetzung rele- vanter Stakeholder fördern sowie zukünftig zu Fortbildungsmaßnamen zu KI beraten und deren (Weiter-)Entwicklung anstoßen. Dabei wird auf bereits gewonnenen Erfahrungen aufgebaut und werden etablierte Strukturen und Formate einbezogen, um diese durch koordinative Unterstützung des BeKI zu stärken. Der Aufbau des BeKI erfolgt durch die im BMI eingerichtete Projektgruppe Künstliche Intelligenz (PG KI). Für die Wahrnehmung der Gesamtaufgaben der PG KI sind im Jahr 2024 elf Vollzeitäquivalente eingeplant. Um einen unmittelbaren Mehrwert für die Bundesverwaltung sicherzustellen, führt die Projektgruppe KI im Rahmen des Aufbaus des BeKI bereits mehrere Pilotinitiativen durch. Die Einrichtung des BeKI steht in Abhängigkeit verfügbarer Haushaltsmittel und Stellen. Ein weiterer Aufbau des BeKI ist beabsichtigt.
Die Algorithmenbewertungsstelle für Organisationen und Behörden mit Sicherheitsaufgaben („ABOS“) soll die Unterstützung der Bundessicherheitsbehörden bei Fragen zu KI-Regulierung, sowie qualitätsgesicherter und vertrauenswürdiger KI zentralisieren. Insbesondere soll die ABOS bei der Umsetzung der KI-Verordnung (https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/de/pdf (https://atpscan.global.hornetsecurity.com/…)) der EU im sicherheitsbehördlichen Bereich wichtige Aufgaben im Sinne eines Kompetenzzentrums übernehmen. Dies umfasst beispielsweise:
Zentrale Beratung und Unterstützung für Sicherheitsbehörden des Bundes be- züglich der Umsetzung der KI-Verordnung sowie weiteren Themen zu KI-Re- gulierung und qualitätsgesicherter KI
Erstellung allgemeiner / zentraler Leitlinien und Frameworks für die Umset- zung der KI-Verordnung bei Sicherheitsbehörden des Bundes
Beobachtung von relevanten nationalen und internationalen Gremien zu KI- Regulierung, insbesondere einschlägige Standardisierungsgremien
Die ABOS soll daher nicht mit Plattformen oder nur zu spezifischen Plattformen arbeiten, sondern betrachtet die Anforderungen und die KI-Systeme der Sicherheitsbehörden individuell und ganzheitlich. Der Aufbau und die Konzeption einer solchen Stelle wird bis 2025 aus dem Paket der Bundesregierung zur Konjunktur- und Krisenbewältigung aus dem Jahr 2020 finanziert.
Die Bundesregierung hat eine Projektgruppe zum Aufbau einer Zentralen Stelle zur Erkennung ausländischer Informationsmanipulation („ZEAM“) im BMI eingerichtet, die vom Auswärtigen Amt (AA), dem Bundesministerium der Justiz (BMJ) und dem Presse- und Informationsamt der Bundesregierung (BPA) unterstützt wird. Die Projektgruppe hat am 1. Juni 2024 ihre Arbeit aufgenommen. Die Schaffung einer ressort-übergreifenden Stelle zur Erkennung von ausländischer Informationsmanipulation ist ein wichtiger Schritt, um den Schutz unserer demokratischen Grundordnung in diesem Sinne nachhaltig zu stärken. Ein weiterer Aufbau der ZEAM ist beabsichtigt.“
„Soll das BeKI weiterhin wie ursprünglich geplant, Beratungen und Evaluationen im Zusammenhang mit dem Einsatz von KI im Bund leisten, für den Marktplatz KI Anwendungen im Bund verantwortlich und als Koordinierungsstelle für KI im Bund zuständig sein (bitte jeweils bestätigen oder eingrenzen für die genannten Aufgabenbereiche und gegebenenfalls weitere Aufgaben ergänzen), und wie grenzen sich genau die Aufgaben des BeKI vom KI-Kompetenzzentrum der Bundesdruckerei GmbH ab (bitte als tabellarische Gegenüberstellung)?“
Antwort der Bundesregierung vom 05.11.24:
„Mit dem im Aufbau befindlichen Beratungszentrum für Künstliche Intelligenz („BeKI“) schafft das Bundesministerium des Innern und für Heimat (BMI) eine zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung. Das BeKI soll der Bundesverwaltung Expertise zur verantwortungsvollen Nutzung von KI in Form eines Beratungsangebots zur Verfügung stellen, gezielt den sektor- und ebenenüber-greifenden Austausch und die Vernetzung relevanter Stakeholder fördern sowie zukünftig zu Fortbildungsmaßnamen zu KI beraten und deren (Weiter-)Entwicklung anstoßen. Das BeKI soll außerdem mit dem Markplatz der KI Möglichkeiten („MaKI“) eine Vernetzungsplattform für die Bundesverwaltung bilden und so einen transparenten Überblick über die bestehenden Projekte im Bereich der Künstlichen Intelligenz aufzeigen. Darüber hinaus koordiniert das BeKI das Angebot einer KI-Plattform zur Nutzung von Sprachmodellen (KIPITZ) und entwickelt KI-Leitlinien für die Bundesverwaltung. Im Rahmen der nationalen Umsetzung der KI-Verordnung und damit verbundener Marktüberwachungsstrukturen befindet sich der Aufgabenbereich Evaluation aktuell in Abstimmung.
Das KI-Kompetenz-Center der Bundesverwaltung (KI-KC) unterstützt bei der agilen Entwicklung nutzerzentrierter KI-Lösungen für und mit der Bundesverwaltung. Der Schwerpunkt der angebotenen Unterstützung liegt auf der technischen Umsetzungsdimension innerhalb von Proof-of-Values (PoVs) von KI-Anwendungen in der öffentlichen Verwaltung. Die an den PoV anschließende Produktentwicklung, beginnend mit Minimal Viable Products oder Piloten, liegt außerhalb des Verantwortungsbereiches des KI-KC.
Tabellarische Darstellung „Abgrenzung der Aufgaben des BeKI vom KI-Kompetenz-Center“:
Meine 3. Kleine Anfrage zum Einsatz von KI im Bund ergab erstaunliche Ergebnisse: die Nutzung von KI steigt rasant, aber die nötigen Voraussetzungen dafür fehlen einfach weiter. Meine Kleine Anfrage stellt dazu wenigstens rudimentäre Transparenz und eine Vergleichbarkeit der Daten her. Die Analyse ist aufwändig, aber die Ergebnisse sind aufschlussreich.
Es gibt auch im 3. Jahr (!) in Folge keine Umsetzungsstrategie für den KI-Einsatz im Bund, inkl. Kompetenzaufbau sowie Unterstützungsstrukturen, insbesondere gibt es weiterhin keine Zentralstelle mit Überblick über die KI-Projekte des Bundes, die Folge u.a.: ineffiziente Doppelentwicklungen (z.B. 2 verschiedene KI-Vorhaben zur Fisch-Identifikation) und keine sinnvolle Koordinierung
Wichtige organisatorische Strukturen, wie das Beratungszentrum für Künstliche Intelligenz (BeKI) und die Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben (ABOS) sind weiterhin nur “in Planung” oder “im Aufbau” (seit Jahren), dies bedeutet bei stark steigendem Einsatz von KI jedoch steigende Risiken: die Schere zwischen Fähigkeiten und Einsatz geht auseinander
Keine Mindeststandards zur Nachhaltigkeit, Risikobewertung, Evaluation oder Kosten-Nutzen-Analyse, bei keinem der “NfD eingestuften” KI-Vorhaben von Sicherheitsbehörden hat eine Risikobewertung stattgefunden
Besonders kritisch: fehlende Standardprozesse zur Risiko- und Evaluationsbewertung von KI-Systemen in grundrechtssensiblen Bereichen (z.B. bei Sicherheitsbehörden)
Mangelnde Transparenz: Geheimdienste sind eine vollkommene Blackbox, BMVg und Sicherheitsbehörden antworten eingestuft sowie unvollständig, das untergräbt Vertrauen in den Staat
Ein nationales KI-Register nach Vorgabe der KI-Verordnung der EU ist geplant, wann es kommt und wie es ausgestaltet wird, bleibt weiterhin offen.
Nachhaltigkeit wird zwar in Leitlinien und Strategien betont, spielt jedoch weder beim Einsatz von KI-Anwendungen im Bund noch bei der erheblichen Vergabe von Fördergeldern für KI-Vorhaben eine Rolle
Die mehr als 220 KI-Anwendungen im Bund haben eine große thematische Bandbreite, von Texttools für mehr Effizienz bei Verwaltungsaufgaben bis hin zum digitalen Zwilling von Deutschland, darunter sind jedoch auch grundrechtssensible KI-Anwendungen z.B. vom BAMF oder BKA zur Analyse von Massendaten
Geld fließt reichlich, insgesamt stehen von 2023-2025 mehr als 2,5 Milliarden Euro für KI-Vorhaben aus Steuermitteln zur Verfügung.
2. Hintergrund
Der aktuell heißeste Hype ist (immer noch) Künstliche Intelligenz. Mit ihrer Hilfe sollen viele Probleme gelöst werden, selbst die, für die es gar keine technischen, sondern soziale Lösungen braucht. Geld spielt hier anders als bei Kindergrundsicherung oder Deutschlandticket keine Rolle. Bei Hype Themen lohnt jedoch immer ein gründlicher Blick, denn da besteht grundsätzlich das Risiko, dass Technologien ohne die notwendige Sorgfalt eingesetzt werden, überzogene Erwartungen damit verbunden und Risiken ausgeblendet werden. Deshalb habe ich zum 3. Mal in 3 Jahren den Bund gefragt, wofür und wie er KI einsetzt, aber auch wofür und wie er KI-Vorhaben finanziell fördert.
Wichtig: sinnvolle Balance zwischen Nutzen und Nachteilen
Die Risiken und Nebenwirkungen von KI-Systemen können hoch sein, z.B. wenn sie für Zwecke eingesetzt werden, für die sie nicht trainiert wurden oder wenn die Datenbasis zu diskriminierenden Ergebnissen führt. Nutzen und Nachteile können wie bei Medikamenten in ein Missverhältnis geraten, daher ist es wichtig, sowohl den erwarteten Nutzen als auch die möglichen Nachteile sachlich kompetent zu bewerten. Zu den Nachteilen gehören z.B. eventuelle Grundrechtsverletzungen aber auch ein hoher Ressourcenverbrauch.
Politisch haben sich mit dem Thema KI eine Enquete Kommission im Bundestag (Link), eine von der GroKo eingesetzte Datenethikkommission (Link), aber auch die EU mit der KI-Verordnung (AI-Act. Link) intensiv auseinandergesetzt, um die Risiken zu minimieren und den Einsatz von KI sicher und verantwortungsvoll auszugestalten. Beim Einsatz von KI durch staatliche Stellen müssen dabei besonders hohe Standards gelten.
Kleine Anfrage als Ausgleich für mangelnde Transparenz
Über den Einsatz von KI in der Bundesverwaltung gab und gibt es viel zu wenig Transparenz. Ein KI-Register wie in den Niederlanden gibt es in Deutschland nicht. Daher habe ich 2022 (Link), 2023 (Link) und nun erneut in 2024 (Link) eine Kleine Anfrage an die Bundesregierung gestellt, und damit sozusagen das erste KI-Transparenzregister des Bundes im PDF-Format geschaffen. Jede der Antworten der Bundesregierung war bisher lückenhaft, dennoch ist auch die diejährige Anfrage erneut die einzige Quelle, der man die KI-Nutzungen und Förderungen des Bundes gesammelt entnehmen kann.
Aktuelle Versprechen der Bundesregierung zum Einsatz von KI
Regierungsvertreter:innen betonen häufig, z.B. in der Fortschreibung der KI-Strategie (Link), dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar sein soll, damit ihr Nutzen für die Allgemeinheit maximiert, Risiken verringert und insgesamt die Akzeptanz erhöht wird. Die KI-Strategie der GroKo (Link) versprach mehr Effizienz, Qualität und die Sicherheit von Verwaltungsdienstleistungen durch KI und eine Vorreiterrolle des Bundes dabei und die Digitalstrategie der Ampel (Link) versprach: “Wir setzen (…) auf Nachhaltigkeit by Design”. Nachhaltigkeit und KI gehören zusammen, deshalb habe ich gezielt in meiner KA danach gefragt.
Ein jüngeres 24-seitiges Papier des BMI (Mai 2024; Link) enthält Leitlinien für den Einsatz von KI, zu Governance, Standards, Nachhaltigkeit und Transparenz. So sollen z.B. “stets Kosten und Nutzen von Anwendungen gegenüber” gestellt werden, um “Nachhaltigkeit aus ökonomischer, ökologischer und organisatorischer Sicht” zu bewerten. Es werden “nachhaltiger Kompetenzaufbau und Energieeffizienz” angekündigt, sowie “Vermeidung von Doppelstrukturen und die effiziente Nachnutzung verfügbarer Infrastrukturen, Modelle und Anwendungen”. Außerdem wird “größtmögliche Transparenz” versprochen und standardisierte Prozesse, da geht es um die Nutzung von “Vorgehensmodellen für die KI-Implementierung sowie die Verankerung von Themen wie Risiko-, Qualitäts- und Anforderungsmanagement in KI-relevanten Prozessen”. Das klingt alles ziemlich gut, aber hat es mit der gelebten Praxis irgendetwas zu tun? Wir werden sehen…
3. Detailanalyse der Ampel-Antwort – Kleine Anfrage KI 2024
3.1 KI im Bund 2024 in Zahlen
Hinweise:
Die Analyse meiner Anfrage KI im Bund von 2022 gibt es HIER, für die Anfrage KI im Bund von 2023 gibt’s meine Pressemitteilung (Link).
Die Links zu sämtlichen Dokumenten, meiner Anfrage, der Antwort der Bundesregierung und all ihren Anlagen gibt’s am Ende dieses Beitrages
Was ist aus der Umsetzung der Versprechen von GroKo und Ampel-Regierung geworden? Wie hat sich überhaupt der Einsatz von KI beim Bund verändert? Das werde ich Euch nachfolgend auseinanderklamüsern.
Über 220 Mal setzt der Bund KI ein, plus hohe Dunkelziffer
Die Transparenz selbst der Anzahl vom Bund eingesetzter KI-Systeme ist mangelhaft, die angegebenen Zahlen sind unvollständig, lassen aber dennoch ein rasantes Wachstum eingesetzter KI-Systeme im Bund stark vermuten. Nach meiner Kleinen Anfrage KI im Bund von 2022 kritisierte der Bundesrechnungshof, dass die Bundesregierung etwa 60% der eingesetzten KI-Systeme nicht erwähnt hatte, obwohl das Grundgesetz Abgeordneten das Recht auf vollständige und umfassende Antworten einräumt (Link). In 2023 wurden nach meiner öffentlichen Kritik an der absoluten Geheimhaltung der KI-Systeme, die von Sicherheitsbehörden eingesetzt wurden, 24 dieser Anwendungen als Nachbericht nachgereicht (Link), mit monatelanger Verspätung und ohne mich darüber auch nur zu benachrichtigen.
In 2024 wurden 7 Anwendungen von Behörden mit Sicherheitsaufgaben nur eingestuft mitgeteilt, darunter das BKA (2), das ZITIS (3), das Bundespolizeipräsidium zur Unterstützung des Bundesamts für Verfassungsschutz (1) und das BMVg (1). Sämtliche KI- Anwendungen der Geheimdienste bleiben über alle Jahre hinweg völlig intransparent, ich erfahre sie nicht, weil das “das Staatswohl gefährden würde”. Zwei Ministerien melden überhaupt keine KI-Nutzung, die einzige KI-Nutzung im BMVg gab es nur in eingestufter Fassung – im Vergleich zum Vorjahr ist das unplausibel wenig.
Tabelle 1: Einsatz von KI Systemen im Bund steigt stark von 2023 zu 2024
Quelle: Antwort auf Fragen 1a-d, Anlage 1a)
Hinweis: KI-Anwendungen der Geheimdienste wurden wg. potenzieller “Staatswohlgefährdung” nicht mitgeteilt .
Fast 300 Mio Euro fließen in die Förderung von 277 KI-Forschungsvorhaben
Tabelle 2: Förderungen von KI-Forschung, Piloten, Reallaboren seit 01.01.2023
Quelle: Antwort auf Frage 6, Anlage 2, sowie NfD eingestufte Anlage (nicht öffentlich),
Hinweis: Enthält 2 Forschungsvorhaben des BMVg, die als NfD eingestuft und daher nicht in den veröffentlichten Anlagen enthalten sind, mit einem Gesamtfinanzvolumen von 13,64 Mio €. Ausgaben für Reallabore wurden nicht angegeben und werden daher mit 0€ angesetzt.
2,3 Mrd Euro für KI-Vorhaben zur Umsetzung der KI-Strategie bis 2025
Das Geld ist nicht knapp, wenn es um die Finanzierung von KI-Vorhaben geht. Der Bund stellt allein im Rahmen der Umsetzung der KI-Strategie 2,3 Milliarden Euro dafür bereit, der größte Teil soll in 2024 ausgegeben werden und 85% dieser 2,3 Milliarden entfallen auf nur 4 Ministerien: BMBF, BMG, BMWK und BMDV.
Tabelle 3: Finanzmittel für KI-Vorhaben aus dem Budget zur Umsetzung der KI-Strategie
Quelle: Antwort auf Frage 8, Anlage 3
Weitere 210 Mio Euro in 2023-25 zusätzlich zur Umsetzung der KI-Strategie
Tabelle 4: Finanzierung von KI-Vorhaben des Bundes außerhalb der KI-Strategie
Quelle: Antwort auf Frage 9, Anlage 3a
Mehr als 2,5 Mrd Euro Steuergeld innerhalb von 3 Jahren für KI!
Mehr als 2,5 Milliarden Euro gibt es also insgesamt für KI aus dem Budget für die Umsetzung der KI-Strategie sowie aus zusätzlichen Mitteln von 2023 bis 2025! Zum Vergleich: 2,23 Milliarden standen in 2024 für die gesamte humanitäre Hilfe zur Verfügung, mit 1,5 Milliarden bezuschusst der Bund das Deutschlandticket.
Tabelle 5: Alle Mittel für KI-Vorhaben mit Beteiligung des Bundes (Tabelle 2 und 3 addiert)
Quelle: Addition der Daten aus den Antworten auf Fragen 8 und 9, Anlagen 3 und 3a
Mehr als 84,2 Mio gibt es für den Einsatz der über 200 KI-Projekte im Bund, die v.a. extern beauftragt wurden, die Angaben sind jedoch unvollständig, v.a. für die 7 eingestuften Projekte. Das geht aus der Anlage 1e hervor, die Antwort auf Frage 4 der Kleinen Anfrage.
3.2 Kein Durchblick im Bund, keine Koordinierung, aber immer mehr KI-Projekte
4 Ministerien setzen 71 % der mehr als 219 KI-Anwendungen ein
Inzwischen werden mindestens 219 KI-Anwendungen im Bund genutzt. Vier Ministerien, BMWK (44), BMI (40+6 NfD), BMEL (35) und BMDV (30) meldeten zusammen 155 KI-Vorhaben, das sind 71% aller KI-Systeme im Bund. Seit dem 1.1.2023 kamen 194 Forschungsvorhaben, 28 Pilotprojekte und 5 Reallabore neu hinzu, also insgesamt 227 neue Vorhaben. Diese Zahlen zeigen: es ist höchste Zeit, verbindliche Prozesse zu etablieren, die den Einsatz von KI begleiten, oder falls ihre Risiken unvertretbar sind, den Einsatz nicht zulassen oder wieder zu beenden. Es geht dabei auch um jede Menge Haushaltsmittel: allein von 2023 bis 2025 sollen mehr als 2,5 Mrd. EUR für KI Vorhaben ausgeben werden.
Keine Umsetzungsstrategie, keine zentrale Steuerung, keine verbindlichen Standards
Was auf den ersten Blick wie ein Innovationsschub in einer bisher eher analog beschriebenen Verwaltung aussieht, hat seine Schattenseiten, denn die Antwort der Bundesregierung zeigt auch, dass sie keine Umsetzungsstrategie für diese nicht nur chancen- sondern auch risikoreiche Technologie hat, dass sie weder beim Kompetenzaufbau noch beim Aufbau geplanter Unterstützungsstrukturen voran gekommen ist, dass es weiterhin null Koordinierung gibt und keine einzige Stelle, die einen Überblick hat über den Einsatz von KI im Bund.
Die Folge dieser fehlenden strategischen Steuerung und Strukturen ist der Mangel an verbindlichen Vorgaben für Standards und Prozesse, z.B. zur Risiko-, oder Kosten-Nutzen-Bewertung, zur Nachhaltigkeit oder auch dazu, wer, wann und wie eine Evaluation durchführen sollte. Und so macht offenbar jede Behörde ihr eigenes Ding, hauptsache KI.
Das ist einerseits ineffizient, weil oft verschiedene Anwendungen für die gleichen Aufgaben verwendet werden (z.B. Chatbots) und andererseits werden Mindeststandards regelmäßig nicht eingehalten, weder zur Nachhaltigkeit, noch zur Risiko- oder Kosten-Nutzen-Betrachtung, was nicht nur der Bundesrechnungshof problematisch findet, sondern letztlich auch das Vertrauen in Regierungshandeln und in die Technologie Künstliche Intelligenz insgesamt erschüttert.
Wenn Strukturen fehlen, steigen Risiken – vor allem wenn Grundrechte berührt sind
Ohne klare Strukturen und Zuständigkeiten erhöht sich das Risiko, dass KI-Systeme ineffizient oder unsicher eingesetzt werden. Für einen guten Einsatz von KI im Bund braucht es sinnvolle sowie klare Strukturen, mit Fachkräften, die beraten, Kompetenz aufbauen, den KI-Einsatz evaluieren, Standards entwickeln, koordinieren und alle Akteur:innen vernetzen. Der hier schon häufiger zitierte Bericht des Bundesrechnungshofs monierte auch schon 2023: “Eine fehlende Aufsicht und zentrale Koordinierung sowie eklatanten Personalmangel.” Leider hat die Bundesregierung hier wenig Abhilfe geschaffen.
Verhöhnung des parlamentarischen Fragerechts durch die Ampel
Abbildung 2: Frage 10 in der Kleinen Anfrage:
In meiner Frage 10 erfragte ich zu den verschiedenen geplanten organisatorischen Strukturen die verfügbaren und geplanten Ressourcen (Stellen und Haushaltsmittel), die Governance bzw. Organisationsstruktur, die Zuständigkeit und Federführung, die jeweilige Aufsicht, wie sie sich von einander abgrenzen und ob es eine zentrale Stelle zur Koordinierung gibt. Die Antwort der Bundesregierung auf diese Frage ist eine Frechheit, denn kaum eine meiner Fragen wurde überhaupt beantwortet. Es fehlen jegliche Angaben zu:
Stellen und Haushaltsmitteln
Governance und Organisationsstrukturen
Zuständigkeiten, Federführung und Aufsicht
Zentrale Stelle für die Koordinierung
Stattdessen wird vage von “Prüfung bestehender Strukturen” geschrieben und oberflächliche Angaben zu den verschiedenen Strukturen gemacht. In einer schriftlichen Beschwerde habe ich eine Nachreichung der fehlenden Informationen angefordert (Link).
Keine zentrale Koordinierung, kein Chief AI Officer, kein Beratungszentrum für KI
Offensichtlich ist jedoch, dass es weiterhin keine zentrale Koordinierungsstelle innerhalb der Bundesregierung gibt. Auch nicht im Sinne der Chief AI Officer, wie sie aktuell innerhalb der US-Administration eingeführt werden. Eine solche ist zwar laut Antwort auf meine Frage 13 “in Prüfung”, bisher jedoch ergebnislos. Eine zentrale koordinierende Stelle müsste einen Überblick über alle KI-Projekte des Bundes haben, Doppelentwicklungen verhindern, für Wissenstransfer sorgen und beratende sowie unterstützende Funktionen übernehmen. Diese Funktionen sollte eigentlich das seit 3 Jahren angekündigte Beratungszentrum für Künstliche Intelligenz (BeKI) übernehmen, auch laut Bundesregierung, die das BeKI in seiner Antwort beschreibt als “künftige zentrale Anlauf- und Koordinierungsstelle für KI-Vorhaben in der Bundesverwaltung”. Leider ergeben meine Anfragen seit ebenfalls 3 Jahren, dass das BeKI über den Planungsstand einfach nicht hinauskommt und weiterhin nicht existiert. Für das BeKI sind von 2022 bis 2023 bereits 280.000 Euro an externen Beratungsleistungen geflossen, wie meine Schriftliche Frage vom Juni 2023 ergab (Link).
Die Schere zwischen dem rasant wachsenden Einsatz von KI-Systemen im Bund und den dafür notwendigen Kompetenzen, Standards, Koordinierung und Überblick geht dadurch immer weiter auseinander.
Ineffizient: Parallelentwicklung von KI-Systemen
Es ist ineffizient, wenn verschiedene Ministerienzwei KI-Systeme entwickeln, für die Identifikation von Fischen und offenbar nichts voneinander wissen (BMDV – Bundesamt für Gewässerkunde Zeile 95 und BMEL – Max Rubner Institut, Zeile 166 in der Anlage 1a). Es werden außerdem von einigen Behörden kommerzielle (und aus Datenschutz- und Informationssicherheitsgründen fragwürdige) KI-Dienste von US-Konzernen für die gleichen Aufgaben genutzt, für die andere Behörden auf vertrauenswürdigere KI-Systeme beim ITZ-Bund zurückgreifen.
Microsoft Co-Pilot oder ITZ-Bund-KI-Plattform? – Fehlende Richtlinien führen zu Wildwuchs
Warum wird im Geschäftsbereich des BMDV ausgerechnet der Microsoft Co-Pilot für die KI-gestützte Texterstellung genutzt, obwohl es mit KIPITZ eine ITZ-Bund Plattform gibt, die solche Leistungen ebenfalls anbietet? Immerhin wurde sie dafür schon mit einem eGovernment Preis ausgezeichnet. Seltsamerweise gibt die Bundesregierung in ihrer Antwort an, dass sie die ressortübergreifende Pilotierung von KIPITZ erst vorbereitet, obwohl im Juli 2024 schon über 2.000 Nutzende im Rahmen des eGov Wettbewerbes öffentlich kommuniziert wurden (Link). Das Angebot klingt sehr vielversprechend, hier ist ein Lob angebracht. Das ITZ-Bund schreibt selbst, dass es v.a. auf Open Source basierende LLM nutzt, kommerzielle Sprachmodelle integrieren kann und im Sinne des Einer-für-Alle Prinzips KI-basierte Apps für Behörden entwickelt und anschließend auf der Plattform verfügbar macht. In der Antwort der Ampel kann man das alles aber nicht lesen, das stand auf LinkedIn.
KI-Kompetenzzentrum – bei Bundesdruckerei statt in der Bundesverwaltung
Laut BMI Leitlinien sollen Doppelstrukturen verhindert werden, aber wie sich das KI-Kompetenzzentrum (KIKC) von all den anderen geplanten Strukturen abgrenzt, bleibt unklar. Die Frage nach seinen Aufgaben und der Abgrenzung wurde nicht beantwortet. Immerhin existiert es und ist seit Juni 2023 “als eigenständige Organisationseinheit“ der Bundesdruckerei GmbH produktiv. Was es leistet, den Steuerzahler kostet, wie es mit den anderen zuständigen Stellen kooperiert, alles das bleibt im Dunkeln. Laut Selbstdarstellung der Bundesdruckerei soll das KIKC vor allem Ausprobieren und Testen, Prototypen entwickeln, aber auch technische Kompetenzen aufbauen und bei der Vernetzung unterstützen (Link).
Grundrechtsgefährdend: fehlende Algorithmenbewertungsstelle für Behörden mit Sicherheitsaufgaben
Bei KI-Anwendungen in Behörden mit besonderem Grundrechtsbezug stellen sich noch ganz andere Herausforderungen. Für die ist auch seit mehreren Jahren die “Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben” (ABOS) geplant. Für das ABOS sind sogar schon in 2022 über eine Million Euro Steuergelder an Externe bezahlt worden, wie aus meiner o.g. schriftlichen Frage (Link) hervorging. Für Berater war das offenbar ein gutes Geschäft, aber bisher fehlt der notwendige Mehrwert für die Verwaltung und für die Gesellschaft, denn Sicherheitsbehörden haben den höchsten Grundrechtsbezug, die geringste Transparenz und es gibt dort besonders viele KI-Projekte. So verteilen sich 36 der 46 KI-Anwendungen (ein Anteil von knapp 80%!) beim BMI auf das BKA (19), die Bundespolizei (14) und auf die staatliche Hackerbehörde ZITIS. Es ist zutiefst beunruhigend, wenn es weder hinreichend Informationen für eine sinnvolle parlamentarische Kontrolle gibt, noch ausreichend Transparenz für den kritischen Blick von Journalist:innen und NGOs und gleichzeitig nicht einmal die versprochene interne Algorithmenbewertungsstelle. Betrachtet man die folgenden Ausführungen zur Risikobewertung und zu den Evaluationen, schläft man danach nicht besser.
3.3. Fehlende Risikobewertungen gefährden Grundrechte und zerstören Vertrauen
“Ein Bild sagt mehr als 1.000 Worte”, daher gibts hier exemplarisch vorab einen Screenshot aus der Antwort der Bundesregierung auf meine Frage nach der Bewertung von Risiken der KI-Anwendung. Tabelle 6:
Quelle: Anlage 1d, Antwort des BMI/BKA auf Frage 3 zu Risikobewertungen
Die Datenethikkommission forderte bereits 2019 ein Risikoklassenmodell, damals noch “Kritikalitätspyramide” genannt, dennoch fehlt auch 5 Jahre später eine systematische Risikobewertung von KI-Anwendungen im Bund. Die Folgen fehlender Risikobewertungen sind nicht immer gleich.
KI-Anwendungen des Bundes mit offensichtlich geringem Risiken
Es gibt viele KI-Anwendungen mit vorstellbar geringem Risikopotenzial, wo es vermutlich keine bis wenig Auswirkungen hat, ob eine Risikoeinschätzung stattfand. Hier ein paar Beispiele aus den KI-Anwendungen des Bundes, Anlage 1a:
Entzifferung alter Handschriften (Zeile 41),
Analyse von Bodenprofilfotos (Zeile 55),
Stresserkennung von Hühnern durch KI-Auswertung von Videodaten (Zeile 192 ),
Identifizierung von Baumarten (Zeile 170) oder von Fischarten (Zeilen 95 und 165),
Altersbestimmung von Fischen (Zeile 168)
Erkennen von Plastik in Flüssen oder Öl auf dem Meer (Zeilen 92 und 94).
Solche Fälle lassen sich leicht mit gesundem Menschenverstand einschätzen.
KI-Anwendungen des Bundes mit unklarem Risikopotenzial
Bei vielen anderen Anwendungen ist das schon komplizierter, und aus dem Bauch heraus würden da einige Menschen Potenziale für Risiken sehen, andere nicht. Es braucht daher ein standardisiertes Modell, um das Risiko sinnvoll zu bewerten. Nachfolgend Beispiele für diese Kategorie:
Aufdeckung von Giftstoffen im Wasser (Zeile 22),
Waldbranderkennung (Zeile 172),
Identifikation von Cyberangriffen (Zeile 137)
Chatbot für Bevölkerungsfragen bei radiologischem Notfall (Zeile 28).
KI-Anwendungen des Bundes mit potenziell hohen Risiken
Konsens sollte aber sein, dass alle KI-Anwendungen mit eindeutigen Grundrechtsbezügen auf ihre potenziellen Risiken VORAB zu überprüfen sind. Schön wäre, wenn es dafür die angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben schon geben würde, aber – siehe Abschnitt 3.2., die ist ja immer noch in Planung, auch wenn immer mehr KI-Anwendungen in diesen Bereichen eingesetzt werden.
Mangelnde Risikobewertung bei Hochrisiko KI-Anwendungen
Wenn immer wieder von Vertrauen und Akzeptanz die Rede ist, gleichzeitig aber gerade in grundrechtssensiblen Bereichen, wie der Strafverfolgung und der Gefahrenabwehr, viele KI-Anwendungen ohne jede Risikobewertung betrieben werden, ist das ein Riesenproblem. Grundrechtsverletzungen werden wahrscheinlicher, und damit sinkt das Vertrauen in den Staat und die Demokratie. Solche Entwicklungen sind gefährlich. Allein im Geschäftsbereich des BMI ist die Bilanz eine Katastrophe, obwohl das BMI sich selbst schön klingende Leitlinien für den Einsatz von KI gegeben hat (Link). So wurde beim BKA für keine einzige der 19 KI-Anwendungen eine Risikobewertung durchgeführt, zwei davon waren sogar eingestuft und dürfen nicht einmal öffentlich genannt werden.
BKA, Bundespolizei, Zitis: hohe potenzielle Risiken werden nicht einmal untersucht
Zu den 19KI-Anwendungen des BKA ohne durchgeführte Risikoanalyse gehören u.a.:
Gesichtserkennungssystem zur Strafverfolgung und Gefahrenabwehr (Zeile 156)
Zu den 10 der 14 Anwendungen der Bundespolizei ohne Risikobewertung (eine davon eingestuft für die Unterstützung des Verfassungsschutzes) gehören u.a.:
Videoanalyse zur Gefahrenabwehr am Bahnhof (Zeile 138),
Sensordatenanalyse zur Gefahrenabwehr an Bahnhöfen (Zeile 140)
Sensordatenanalyse zur Gefahrenabwehr an Eisenbahntunneln (Zeile 139).
Keinerlei Risikobewertung gab es für sämtliche 3 KI-Anwendungen des ZITIS (alle eingestuft). What can possibly go wrong. Die wenigen Male, wo es im Geschäftsbereich des BMI überhaupt zu einer Risikoeinschätzung kam, führten nur bei einer der 46 Anwendungen zur Einschätzung “hohes Risiko” – bei der “Auswertung von Videodaten – Sichtung und Kategorisierung von Massendaten” durch das Bundespolizeipräsidium. Ich stelle mir darunter die Auswertung zum Beispiel von Videokameras im öffentlichen Raum vor, z.B. von Demos. Das gibt kein gutes Gefühl, insbesondere nicht, wenn die Antwort auf meine Frage nach den Auswirkungen der jeweiligen Risikobewertung auch bei dieser Hochrisiko-Anwendung “nicht bekannt” lautete.
Nancy Faeser hat falsche Prioritäten beim Einsatz von KI
Die Wahrung der Grundrechte und ein transparenter, nachvollziehbarer und professioneller Umgang mit KI-Anwendungen bei Behörden mit Sicherheitsaufgaben scheinen für Innenministerin Nancy Faeser keinerlei Priorität zu haben, eine denkbar schlechte Ausgangslage.
Darüberhinaus wurden generell meine eindeutigen Fragen zum Umgang mit den Risiken von KIschlecht beantwortet, nämlich überwiegend an der Frage vorbei, unpräzise und inkonsistent und insgesamt extrem unvollständig. So habe ich explizit danach gefragt, welches Risikoklassenmodell konkret verwendet wurde und bat darum, explizit NICHT auf die (simplifizierten) Risikokategorien der KI-VO zu referenzieren. Das wurde durchweg ignoriert, stattdessen tauchte die KI-VO sogar in der Tabellen-Überschrift der Ampel-Antworten auf und daneben eine Spalte “Klassifizierung”, wodurch etliche Antworten in beide Spalten das gleiche eintrugen, nämlich “minimales Risiko”, aber (fast) nirgendwo das Risiko-Modell, nach dem die Bewertung vorgenommen wurde.
Klar wurde dennoch daraus, dass es weiterhin keinerlei Standards, keine einheitlichen Prozesse, keinerlei Vorgaben zum Umgang und zur Bewertung von Risiken gibt.
Mantel des Schweigens: Viele KI-Anwendungen der Sicherheitsbehörden bleiben intransparent
Darüber hinaus gibt es weitere Einschränkungen des parlamentarischen Fragerechts im grundrechtssensiblen Bereich: über ganze drei (!) Seiten erfolgte eine Rechtfertigung, in wieweit mir wegen potenzieller Gefährdung des Staatswohls viele Informationen zum Einsatz von KI in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden überhaupt nicht mitgeteilt werden können. Einige wenige (7) KI-Anwendungen dieser Sicherheitsbehörden wurden mir in eigestufter (VS-NfD) Form mitgeteilt, ich darf sie also nicht öffentlich diskutieren.
Zum Einsatz von KI bei den Geheimdiensten erfahre ich auch absolut gar nichts, dabei ist vermutlich dort das Risiko für Grundrechtsverletzungen und die Gefahr gravierender negativer Auswirkungen auf Individuen und die Gesellschaft durch einen Missbrauch besonders hoch. Eine sinnvolle parlamentarische Kontrolle ist so jedenfalls nicht möglich. Auch die immer wieder auch von der Ampel-Regierung propagierte offene Debatte zum Einsatz von KI durch staatliche Stellen und die Diskussion dazu, welche Risiken wir als Gesellschaft zu tragen bereit sind und welcher Nutzen dem dafür gegenüber stehen soll, kann es auch nicht geben.
Abbildung 1: Ausschnitt aus den Vorbemerkungen der Bundesregierung zu ihrer Antwort
Statt “öffentlich, transparent und vollständig” dem “verfassungsrechtlich verbrieften Aufklärungs- und Informationsanspruch des Bundestages zu entsprechen”, wie die Ampel in ihrer Antwort offenbar ohne jede Ironie schreibt,
Erfahre ich NICHTS über alle KI-Systeme beim Verfassungsschutz, BND und MAD
Erfahre ich WENIG über die KI-Systeme bei ZITIS (Zentrale Stelle für Informationstechnik im Sicherheitsbereich, aka Hackerbehörde der Bundesregierung), BDBOS (Bundesanstalt für den Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben), das BKA oder andere Sicherheitsbehörden. Und über einen Teil dieser Informationen darf ich nicht einmal öffenlich reden.
Wie groß der blinde Fleck ist, darf ich leider auch nicht wissen, denn ich habe die Bundesregierung in einer schriftlichen Frage gefragt, um wie viele KI-Anwendungen es sich dabei handelt, über die ich wegen potenzieller Staatswohlgefährdung keine Informationen erhalte. Und selbst diese Antwort, eine zusammengefasste Zahl, die nichts über den Zweck des KI-Systems und seinen Einsatz verraten hätte, wurde mir mit Verweis auf eine mögliche Staatswohlgefährdung verweigert (Link).
Der Mangel an wenigstens internen Strukturen und Standards, z.B. die weiter fehlende Bewertungsstelle für Algorithmen bei sicherheitsrelevanten Behörden wie Geheimdiensten und Polizei sind dabei besonders besorgniserregend. Gerade wenn Menschenrechte, das Recht auf Diskriminierungsfreiheit oder andere Grundrechte berührt sind, braucht es ein hohes Maß an Nachvollziehbarkeit und Überprüfbarkeit und Mindeststandards für vertrauenswürdige Checks and Balances, die bisher schlichtweg nicht etabliert werden. Wenn Sicherheitsbehörden jedoch Technologien wie Künstliche Intelligenz vermehrt einsetzen wollen, ohne dass es diese Checks and Balances gibt, steigen mit jedem Tag die Gefahren für einen Missbrauch oder Fehleinsatz von KI zum Nachteil der Öffentlichkeit. Die Versuchung wird hoch sein, also müssen es die Standards für Kontrolle und Transparenz auch sein.
Einsatz von KI im Hochrisikobereich Asyl und Migration
Besonders besorgniserregend sind in diesem Kontext auch die jüngsten Äußerungen von Kanzler Olaf Scholz, der sich einen vermehrten Einsatz Künstlicher Intelligenz bei Asylverfahren vorstellen kann (Link). Unklar bleibt, ob sich Olaf Scholz dabei neue bzw. weitere KI-Verfahren wünscht oder auf bereits bestehende Anwendungen bezog – denn das BAMF setzt seit mehreren Jahren KI bereits aktiv ein, wie meine Kleinen Anfragen und auch die Recherchen von Netzpolitik.org seit Jahren zeigen.
So verwendet das BAMF z.B. das sogenannte “Assistenzsystem, das Entscheidende dabei unterstützt, sicherheitsrelevante Sachverhalte zu erkennen, die an Sicherheitsbehörden weitergeleitet werden müssen.” Verständlicher formuliert werden durch die KI-Anwendung sog. Anhörungsprotokolle aus Asylverfahren und Befragungen erfasst, ausgewertet und gegebenenfalls Hinweise an Sicherheitsbehörden weitergegeben – ohne dass die Betroffenen darüber informiert werden. Doch die Systeme sind immer auch fehleranfällig, können erhebliche Auswirkungen für die Schutzbedürftigen haben – auch aufgrund eines automation sowie confirmation bias, die gewiss auch dort noch nicht ausgeschlossen werden können. Es zeigt sich eine eklatante Diskrepanz zwischen den formulierten Zielen und deren Umsetzung. Insbesondere in der Digitalpolitik klaffen auch bei der selbsternannten Fortschrittskoalition Anspruch und Wirklichkeit, Worte und Taten meilenweit auseinander. Beim Thema Künstliche Intelligenz scheint allein das Mantra „Digital first, Bedenken second“ zu gelten, wobei Milliarden an Steuergeldern ohne klare Regeln oder koordinierende Instanzen für KI-Vorhaben bereitgestellt werden – auch in sensiblen Bereichen, wo es hohe Schutzstandards statt freier Experimentierräume braucht.
3.4 Fortschritt bei Evaluationen, aber nicht genug
Zum KI-Hype gehört die Erwartung, dass man mit künstlicher Intelligenz auf einmal alle möglichen Probleme lösen kann. Die Technologie ist aber noch experimentell, vieles geht noch schief und viele Erwartungen werden nicht erfüllt. Die “Risiken und Nebenwirkungen” werden oft schlecht oder falsch eingeschätzt. Aus all diesen Gründen ist es besonders wichtig, jeden Einsatz von KI zu evaluieren, damit sicher gestellt ist, dass der Nutzen die möglichen unerwünschten Nebenwirkungen übersteigt, zu denen ja auch nicht nur Diskriminierungsfälle oder Grundrechtsverletzungen gehören, sondern z.B. auch der negative Klima-Impact, den die ressourcenfressenden KI-Systeme nun mal mit sich bringen.
Erfreulicherweise betont der BMI-Leitfaden zum Einsatz von KI sogar die Notwendigkeit einer Evaluation und nennt folgende zu evaluierende Aspekte:
Erfüllung der Nutzungserwartungen,
Überwachung rechtlicher Vorgaben,
Einhaltung ethischer Anforderungen,
Datenschutz,
Transparenz und Verantwortlichkeit
Fehleridentifikation und -behebung,
Kosten-Nutzen-Analyse,
Mitarbeiterakzeptanz und -schulung,
Sicherstellung der Fairness
Evaluationen erfolgen vor allem intern – das ist ein Problem
Darüber hinaus ist ein Fortschritt, dass inzwischen bei fast drei Viertel (73 %) der KI-Anwendungen im Bund irgendeine Form der Evaluation vollzogen wird. Aber der Teufel steckt im Detail. So finden die Evaluationen überwiegend intern statt, z.B. durch die eigenen Fachtabteilungen und Projektbeteiligte, also oft durch die Nutzenden der KI-Anwendungen selbst. Selbstevaluationen sind aber nur mäßig sinnvoll, da man dabei weder Neutralität noch Objektivität sicher annehmen kann, was für eine gute Evaluation aber unbedingte Voraussetzung sein muss. Wie sollen verantwortungsvolle KI-Nutzung, Transparenz, Fehlersuche, Kosten-Nutzenanalysen, ethische Regelkonformität etc. durch interne Selbstevaluation sinnvoll möglich sein? Dafür braucht es geschulte Fachkräfte, z.B. des geplanten (immer noch nicht existierenden) Beratungszentrums für Künstliche Intelligenz, das bis vor Kurzem noch Beratungs- und Evaluationszentrum für Künstliche Intelligenz hieß. Warum wurde der Name von der Ampel geändert? Soll das BEKI keine Evaluationen mehr vornehmen, die nach standardisierten Prozessen ablaufen würden? Das wäre bedauerlich, denn das BEKI kann dafür genau die richtige Stelle sein, wenn es dafür auch die nötigen Ressourcen erhält.
Zu oft keine Evaluation – vor allem im BMI
Bei immer etwa jedem 5. Einsatz von KI im Bund (19 %) fand keinerlei Evaluation statt. Besonders fällt auf und beunruhigt, dass fast jede zweite nicht evaluierte Anwendung (49 %) im BMI angesiedelt ist, wo viele grundrechtssensible KI-Einsätze stattfinden. Dazu zählen Anwendungen wie die Videodatenanalyse (Bundespolizei, Zeile 129, Anlage 1f) und die Sicherung und Aufbereitung für die Mobilfunkforensik und Cloudsicherung, wo KI eingesetzt wird, um “Massendaten zu sichten und zu kategorisieren” (Bundespolizei, Zeile 135, ebd.). Auf die Frage nach einer Begründung für die ausgebliebene-Evaluierung steht als Antwort ein schlichtes “Nein”. Bei der BKA KI-Anwendung zur Papillarleistenerkennung (Fingerabdruckerkennung) wurde die Antwort auf die Ja / Nein Frage nach Durchführung einer Evaluation einfach komplett verweigert, weil ein “öffentliches Bekanntwerden die Verwendbarkeit des Werkzeugs stark beeinträchtigen würde” (Zeile 145, ebd.). Da fehlen mir schon die Worte, denn wie soll ein Ja oder Nein auf die Evaluationsfrage die Verwendbarkeit der KI-Anwendung negativ beeinflussen? Die Frage nach “gab es ein Ergebnis der Evaluation wurde übrigens beantwortet – mit “Nein”.
Tabelle 7:Fehlende Evaluationen in BMI-Anwendungen – Auszug aus Anlage 1f
Für einen verantwortungsvollen Einsacht von Künstlicher Intelligenz innerhalb der Bundesverwaltung sind Audits bzw. Evaluationen unverzichtbar. Nur durch die Durchführung objektiver und umfassender Überprüfung der Systeme können die versprochenen Vorteile des Einsatzes realisiert und die möglichen Risiken minimiert werden. Daher fordere ich die Bundesregierung auf, sich endlich an die selbstgesteckten Ziele und die selbst erstellten Leitfäden zu halten und die dafür notwendigen Strukturen und Prozesse zu schaffen, um Transparenz, ethische Grundfragen und Risiken sowie die Nachvollziehbarkeit ihrer KI-Anwendungen sicherzustellen.
3.5 Mangelnde Transparenz
Die Nutzung von KI im Bund sollte besonders hohen Transparenzanforderungen genügen. Leider zeigt sowohl die fehlende Transparenz zum Einsatz von KI im Bund im Allgemeinen als auch die unvollständige Antwort der Ampel-Regierung auf meine Kleine Anfrage im Besonderen, wie groß die Defizite sind.
Wir brauchen eine einheitliche, einfach zugängliche und transparente Datenbasis über eingesetzte Algorithmen- und KI-Systeme in der öffentliche Verwaltung, z.B. damit die Überprüfung und Evaluierung möglicher Diskriminierungspotenziale, die Einhaltung (und Förderung) von Grundrechten genauso wie von Nachhaltigkeitskriterien oder schlicht Kontrolle und Bewertung durch die digitale Zivilgesellschaft, die freie Presse, sowie durch Forschende möglich sind.
Begrüßenswert sind die aktuellen Pläne des BMI, ein KI-(Transparenz) Register für Anwendungen des Staates aufzubauen. Dieses Register soll beim (immer noch nicht existierenden) Beratungszentrum für Künstliche Intelligenz (BEKI) angesiedelt werden, der künftig zentralen Koordinierungsstelle für KI im Bund. Ein solches Register muss verpflichtend für alle KI-Anwendungen im Bund sein, aber für KI-Anwendungen aller staatlichen Stellen in Deutschland (auch auf Länder- und kommunaler Ebene) geöffnet werden. Dafür sollte das BMI rechtzeitig in einen offenen Dialog unter Einbeziehung der Zivilgesellschaft und der Wissenschaft starten, um Bedarfe, Schnittstellen, Potenziale und Herausforderungen (z.B. Finanzierung) rechtzeitig zu adressieren. Im Ausland gibt es schon Erfahrungen, etwa in Helsinki (Link) sowie Amsterdam (Link), und auch in Deutschland gibt es bereits Konzepte (Link).
Ein „Marktplatz für KI-Anwendungen“ ersetzt kein KI-Register
Im BEKI soll es künftig auch einen “Marktplatz für KI-Anwendungen” geben, der offensichtliche Doppelentwicklungen verhindern und zum Kompetenzaustausch zwischen Behörden beitragen könnte. Aber ein KI-Transparenzregister ist so ein Marktplatz natürlich nicht und er kann auch keine Strukturen zum Kompetenzaufbau und zur Koordinierung ersetzen, die der Bundesrechnungshof bereits 2023 angemahnt hatte (Link). Außerdem sollte das künftige KI- Transparenzregister gerade auch solche KI-Anwendungen enthalten, die in Behörden und staatlich kontrollierten Organisationen eingesetzt werden, die Ordnungs- und Sicherheitsaufgaben wahrnehmen, also häufig qua Amt mit der Verletzung von Grundrechten zur Wahrung weiterer Grundrechte zu tun haben, aber ihre KI-Systeme sicher nicht auf einem Marktplatz für KI-Anwendungen teilen werden. Auf meine schriftliche Nachfrage erfuhr ich, dass der Start dieses KI-Marktplatzes für Herbst 2024 geplant sei (Link). Stand 01.11.24 gibt es von ihm noch keine Spur.
Jenseits der grundsätzlichen und allgemeinen Herstellung von struktureller Transparenz zum Einsatz von KI im Bund zeigt auch die vorliegende Antwort der Bundesregierung auf meine 3. Kleine Anfrage zu KI im Bund, dass es mit der Transparenz nicht weit her ist. Das wird einen Mix aus Gründen haben: fehlender Durchblick, überbordende Geheimniskrämerei, mangelnder Respekt gegenüber dem Parlament und schlichte Schlamperei – vielleicht auch Personalmangel und Überarbeitung, man steckt ja nicht drin.
Schlechtes Handwerk: lückenhaft, inkonsistent, an Fragen vorbei geantwortet
Die Antwort der Ampel hat jedenfalls erhebliche Lücken, ist in einigen Bereichen inkonsistent, lässt einige Fragen komplett unbeantwortet oder enthält Aussagen, die komplett an der Frage vorbei gehen. Manche Antworten sind trotz präziser Fragestellung so daneben, dass sie eine sinnvolle Auswertung verhindern, z.B. im Bereich der Risikoeinschätzung von KI-Systemen. Über Geheimdienste erfährt man gar nichts, über andere Behörden mit Sicherheitsaufgaben verstümmelte Antworten, Bullshit-Antworten oder als NfD eingestufte Antworten oder auch gar nichts, wegen vermeintlicher Staatswohlgefährdung. Mehrere Ministerien melden überhaupt keine KI-Anwendungen (BMFSFJ, BMWSB). Wie weiter oben bereits erwähnt, wurde mir selbst die Anzahl der eingesetzten und intransparent bleibenden KI-Systeme für die Behörden mit Sicherheitsaufgaben und Geheimdienste verweigert, weil selbst dadurch das Staatswohl in Gefahr sei (Link).
Das Militär: eine besonders finstere Blackbox
Das Verteidigungsressort mit dem größten IT-Bereich der gesamten Bundesregierung (im Kommando Cyber und Informationsraum arbeiten über 10.000 Fachleute) meldete eine einzige Anwendung und die ist als NfD eingestuft. Das überrascht vor allem deshalb, weil die Bundeswehr öffentlich frei über diverse KI-Anwendungen berichtet – z.B. auf dem Start Up Summit in Berlin 2024 oder auf ihrer Website, dort z.B. erfährt man über das KI-Labor der Bundeswehr (Link) von KI-Projekten wie „Voice Activity Detector“, „Sparrow Tracking“ und „CWBuddy“ (Link). Auch im aktuellen Haushaltsentwurf 2025 für das BMVg (Stand 01.11.24) sind in Titelgruppe 02 „Forschung, Entwicklung und Künstliche Intelligenz“ immerhinsatte 795 Mio Euro vorgehen (Link). Auch im Cyber-Innovation-Hub der Bundeswehr laufen KI-Projekte wie z.B. „ImageAware“ (Link), die alles Andere als geheim sind. Ich habe deshalb eine Schriftliche Frage hinterhergeschickt und die Ampel mit diesem Widersprüchen konfrontiert.
IT-Auslagerung an GmbH als Ausrede für Intransparenz
Statt „sorry“ und mehr Informationen gab es darauf nur eine absurde Antwort der Bundesregierung (Link): Die erwähnten Aktivitäten liefen bei der BWI GmbH und damit nicht im Geschäftsbereich des BMVg, und deswegen könne man sich eine genauere Auskunft sparen. Die BWI GmbH gehört immerhin zu 100% dem Bund, dort arbeiten 7.000 Menschen und machen 1,5 Milliarden Euro Umsatz, ihre Selbstbezeichnung lautet: „Wir sind das IT-Systemhaus der Bundeswehr“. Es ist ziemlich wenig vertrauensbildend, null Transparenz zum Einsatz von KI zu schaffen, nur weil man sich einer staatseigenen GmbH bedient, um diesen Einsatz zu ermöglichen. Verwiesen wird auch darauf, dass die KI-Anwendungen, die ich über öffentliche Quellen fand, ja nur „im Rahmen von explorativem Lernen, Erproben und Entwickeln zum Zwecke des Erwerbs von Methoden-, Bewertungs- und Entscheidungskompetenz bei Innovationen, Analysen und Planungen dienen“ – na dann ist ja völlig egal, was man da so macht (WTF!). Übrigens sind militärische Anwendungen vom Geltungsbereich der KI-Verordnung komplett ausgenommen, weil für Verteidigungsfragen die Mitgliedsstaaten die Verantwortung tragen. Es gibt also nur dann Regeln für die Anwendung von KI im Militär, wenn die Bundesregierung sich selbst welche gibt. Das stimmt mich nicht gerade optimistisch.
Laut Digitalstrategie (Link) will sich die Ampel bis 2025 übrigens daran messen lassen, dass sie
“Kapazitäten und Fähigkeiten aufgebaut (ADB: hat), um Daten auf dem Gefechtsfeld schneller mit Hilfe von KI zu analysieren und damit die Effektivität auf dem Gefechtsfeld zu erhöhen.“
Abbildung 2: Auszug aus der Digitalstrategie der Bundesregierung:
60 Prozent KI-Systeme verschwieg der Bund in 2022. Heute? Unbekannt.
Stutzig wird man auch bei den Angaben aus dem Gesundheitsministerium, denn das Robert Koch-Institut meldete im vergangenen Jahr noch 8 KI-Anwendungen, in diesem Jahr jedoch keine einzige. Im Jahr 2022 hatte der Bundesrechnungshof festgestellt, dass die Bundesregierung in ihrer damaligen Antwort auf meine erste Anfrage zum Einsatz von KI im Bund etwa 60 % aller KI-Anwendungen “vergessen” hatte. Ich habe keine Möglichkeit festzustellen, wie hoch der Anteil der unterschlagenen KI-Anwendungen in diesem Jahr ist. Vielleicht ist er genauso hoch wie damals, dann gibt es möglicherweise schon 550 KI-Anwendungen im Bund, vielleicht ist auch nur das Dunkelfeld aufgehellt worden und der Anstieg von 86 KI-Anwendungen in 2022 auf mind. 219 in 2024 ist gar kein echtes Wachstum, denn mit den “verschwiegenen” Anwendungen wurden auch 2022 schon 215 KI-Systeme im Bund genutzt. Vermutlich liegt die Realität irgendwo in der Mitte – aber parlamentarische und öffentliche Kontrolle sollte nicht schätzen oder raten müssen, sondern klare Aussagen bekommen, sowohl was die nackte Anzahl eingesetzter KI-Systeme angeht (219 oder 550 oder noch mehr?), als auch was ihren Verwendungszweck, ihre Risikobewertung und viele andere Aspekte betrifft.
Vertrauen in den Einsatz einer mit hohen Chancen aber eben auch hohen Risiken behafteten Technologie baut man so nicht auf! Es ist eine der größten Schwächen der Ampel, dass sie zwar durchaus in diversen Strategien sinnvolle Ziele formuliert hatte, aber nicht ansatzweise in der Lage ist, die für die Umsetzung nötigen Voraussetzungen auch zu schaffen.
3.6 Nachhaltigkeit von KI spielt bei 3 von 4 Vorhaben überhaupt keine Rolle
KI-Systeme wachsen weltweit rasant, wodurch immer mehr und immer größere Rechenzentren entstehen, die riesige Mengen Wasser und eine exponentiell wachsende Menge erneuerbarer Energien verschlingen, die für andere Zwecke nicht mehr zur Verfügung steht, was den Ausstieg aus fossilen Energieträgern bremst. Ihre Hardware bindet außerdem Unmengen kritischer Rohstoffe, die in anderen Ländern z.T. unter fragwürdigen Umständen (Umwelt, Menschenrechte, Kinderarbeit…) gefördert werden und unsere Abhängigkeit erhöhen. Will man die Folgen der Klimakrise bekämpfen und die Umwelt schützen, muss der Einsatz von KI nachhaltig erfolgen.
Schon die GroKo verabschiedete ein Fünf-Punkte-Programm “KI für Umwelt und Klima” (Link), wonach der “Einsatz von KI-Technologien selbst klima- und umweltschonend erfolgen muss”, die Ampel kündigte in ihrer Digitalstrategie “Nachhaltigkeit by Design” an (Link) und das BMI versprach in seinen eigenen Leitlinien (Link) zum Einsatz von KI:
“Wir stellen stets Kosten und Nutzen von Anwendungen gegenüber. Dabei bewerten wir Nachhaltigkeit aus ökonomischer, ökologischer und organisatorischer Sicht”.
Nur 2% Förderungen mit umfassender Berücksichtigung ökol. Nachhaltigkeit
Diese Versprechungen haben mit der Realität einfach überhaupt nichts zu tun. Bei etwa 75 % der KI-Anwendungen im Bund werden ökologische Nachhaltigkeitsaspekte gar nicht berücksichtigt. Lediglich bei 2 % dieser knapp 219 Vorhaben wurden ökologische Nachhaltigkeitskriterien umfassend einbezogen. Selbst bei den vom Bund geförderten KI-Projekten spielt Nachhaltigkeit nur eine marginale Rolle. Wie will eine Regierung glaubwürdig ihre Forderung nach nachhaltigerem Einsatz von KI nach außen vertreten, wenn sie bei 98 Prozent der eigenen KI-Anwendungen selbst nicht hinreichend dafür sorgt? Man kann nicht Wasser predigen, aber Wein trinken, das führt zu Vertrauensverlusten, aber auch dazu, dass Unternehmen sich fragen, warum sie solchen Aufforderungen Folge leisten sollen, wenn es der Bund nicht mal selbst macht.
Enttäuschend ist dabei vor allem der Realitätscheck bei den beiden Ministerien, die sich ehrgeizige eigene KI-Leitlinien gegeben hatten. So hat das BMI, das laut eigenem Leitfaden “stets” Nachhaltigkeit beim KI-Einsatz berücksichtigen wollte, diesen Vorsatz in der eigenen Praxis bei 45 seiner 46 KI-Vorhaben (98%) komplett ignoriert, denn nur in einem einzigen Fall (BAMF) wurden Nachhaltigkeitsaspekte überhaupt betrachtet. Das BMDV wiederum schrieb sich in den eigenen Leitfaden: “Wir setzen auf nachhaltige KI-Lösungen”, aber tatsächlich spielten Nachhaltigkeitskriterien nur bei einem von 30 KI-Vorhaben(3%) tatsächlich eine Rolle und das war beim Deutschen Wetterdienst, der KI übrigens zur Simulation von Klimamodellen und zur Prognose schwerer Unwetterlagen verwendet.
Totalausfall: Klima- und Umweltministerium
Die beiden Ministerien mit Verantwortung für Umwelt und Klima sind leider ganz und gar keine Vorbilder. Das BMWK interessiert sich nicht mal, jedenfalls weiß man im Klimaministerium bei jedem vierten KI-Einsatz (11 der insgesamt 44 KI-Vorhaben) in seinem Geschäftsbereich nicht einmal, ob Nachhaltigkeit betrachtet wurde oder nicht, bei weiteren 31 KI-Vorhaben war die Antwort einfach “Nein”. Die Bilanz des Klimaministeriums bei seinen eigenen KI-Projekten ist daher bei 95 Prozent der Vorhaben (42 von 44) “keine Ahnung” oder “Nachhaltigkeit nicht betrachtet”. Ich wüsste schon gern, was Minister Habeck dazu sagt, ich vermute, dass er das nicht einmal weiß. Auch das Umweltministerium hat bei 11 KI-Projekten im eigenen Haus nur zwei mal Nachhaltigkeitskriterien berücksichtigt, und das ist erschütternd schlecht, denn das BMUV ist auch für das Thema Green IT im Bund zuständig.
Ökologische Nachhaltigkeit: keine Förderbedingung bei 98% der KI-Förderprojekte!
Aus dem Kopfschütteln kommt man aber erst recht nicht mehr raus, wenn man dann noch lesen muss, dass der Bund selbst bei der Vergabe von Fördergeldern nicht steuernd gewirkt hat, denn bei 98 Prozent der vom Bund seit Jan. 2023 geförderten KI-Forschungsprojektewar ökologische Nachhaltigkeit keinerlei Förderbedingung und bei über 80 Prozent der geförderten KI-Projekte war sie nicht einmal ein Förderkritierium, sondern spielte einfach überhaupt keine Rolle! Solche Zahlen lassen mich ehrlich gesagt ratlos zurück. Gerade wenn Millionen Euro ausgegeben werden, muss der Staat seiner Verantwortung gerecht werden und diese Mittel auch so ausgeben, dass sie das fördern, was auch langfristig für die Gesellschaft sinnvoll ist. Dazu gehört, KI-Systeme nur dann finanziell zu fördern, wenn sie auch in Sachen Nachhaltigkeit innovativ sind, denn so kann die Marktmacht des Staates gemeinwohlorientierten Innovationen einen Wettbewerbsvorteil verschaffen, der ihre Verbreitung unterstützt und sowohl einen direkten als auch einen indirekten Beitrag zur Erreichung der Klimaziele leisten.
4. Fazit und Forderungen aus Linker Sicht
Das Fazit ist klar, vermutlich wird immer mehr KI im Bund eingesetzt, ohne die dafür erforderliche Sorgfalt, ohne die notwendigen Standards und Prozesse, ohne hilfreiche Strukturen, ohne hinreichend Kompetenz bei Anwender:innen und Entscheider:innen, ohne öffentliche Debatte und die dafür benötigte Transparenz. Daraus ergeben sich vier grundlegende Forderungen.
Was es aus linker Sicht braucht:
Schere schließen zwischen “Immer mehr Einsatz von KI” bei “weiterhin fehlenden Supportstrukturen u ohne zentrale Koordinierung, ungenügendem Kompetenzaufbau”
Stelle für zentrale Koordinierung einrichten
Support-Strukturen aufbauen! BEKI, Algorithmen-Bewertungsstelle für Behörden mit Sicherheitsaufgaben und hinreichend ausstatten mit Ressourcen
Kompetenzaufbau: Kein Einsatz ohne Schulung!
Verbindliche Prozesse und Standards für Auswahl, Einsatz, Evaluierung von KI-Systemen, zum Beispiel:
Risikobewertung, vor jedem Einsatz, mit standardisiertem Risikoklassenmodell, nicht ohne Schulung, und nicht durch Anwender:innen selbst
Evaluation, immer – während und nach jedem Einsatz, nach einheitlichen Qualitätsstandards, nicht durch Anwender:innen selbst
Gemeinwohlorientierung im Vordergrund, insbesondere Klimawirkung einbeziehen
Nachhaltigkeit als relevantes Entscheidungskriterium bei Einsatz im Bund und bei Förderprojekten
Prüfen der Erforderlichkeit der KI-Anwendung anhand der Bedeutung erwartbarer gesellschaftlicher Fortschritte in Abwägung zu Ressourcenverbrauch (Rohstoffe, Energie), Treibhauseffekt, Steuergeldverbrauch und Lösungsalternativen wie Software mit regelbasierten Algorithmen
Maximale Transparenz: Öffentliches Register für KIEinsatz durch den Staat zeitnah umsetzen
Offene, gesellschaftliche Debatte! – nur so sind Vertrauen und Akzeptanz möglich
Keine Blackbox für besonders grundrechtssensible Bereiche!
Bereits zum dritten Mal in Folge hat meine Kleine Anfrage einen Beitrag zur dringend notwendigen Transparenz in die KI-Anwendungspraxis der Bundesregierung geleistet. Es ist vermutlich meine letzte, denn die Ampel ist in Auflösung begriffen und dem nächsten Bundestag gehöre ich nicht mehr an. Ich hoffe, es wird sich trotzdem endlich viel verbessern!
Herzlichen Glückwunsch und ein Dankeschön an alle, die bis hier diesen sehr langen Text gelesen haben. Mein Team und ich haben viel Arbeit in diese Analyse gesteckt und schätzen die Aufmerksamkeit für dieses wichtige Thema. Sollte es Fragen und/oder Hinweise dazu geben, stehen wir unter anke.domscheit-berg@bundestag.de gerne zur Verfügung.
/von
https://mdb.anke.domscheit-berg.de/wp-content/uploads/signal-desktop-mac-universal-5.62.0-e1696580587591.png162533Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2024-11-08 13:53:042024-11-12 12:54:52immer mehr KI im Bund, doch Strukturen und Durchblick fehlen
„Wie viele der als Erfüllungsaufwand in der jeweiligen gesetzlichen Grundlage genannten Personalstellen wurden für die seit Anfang 2024 der Bundesnetzagentur (BNetzA) neu übertragenen oder noch zu übertragenden Aufgaben, die spätestens ab 2025 ganz oder teilweise von ihr zu erfüllen sind, für den Haushalt 2025 als Bedarf angemeldet und dort berücksichtigt (siehe Übersicht der neuen Aufgaben in der Antwort der Bundesregierung auf meine Schriftliche Frage 6 auf Bundestagsdrucksache 20/13317; bitte zu jeder neuen Aufgabe die dafür als Erfüllungsaufwand bestimmten, als Bedarf für den Haushalt 2025 angemeldeten und die dort berücksichtigten Stellen auflisten), und wie soll die BNetzA ihre neuen Aufgaben wahrnehmen, sollte es eine Diskrepanz zwischen dem Erfüllungsaufwand,den angemeldeten und den im aktuellen Haushaltsentwurf 2025 geplanten Haushaltsmitteln geben?“
Antwort der Bundesregierung vom 07.11.24:
„Die in der Bundestagsdrucksache 20/13317 genannten gesetzlichen Aufgaben sehen folgende stellenmäßige Haushaltsausgaben vor:
Für die EnWG-Novellen 2023 wurden im Haushalt 2024 bereits 15 Planstellen im Kapitel 0918 der Bundesnetzagentur (BNetzA) neu ausgebracht. Für das Digitale-Dienste-Gesetz (DDG), mit dem der Digital Service Act umgesetzt wurde, wurden im Haushalt 2024 15 Planstellen im Kapitel 0918 ausgebracht und darüber hinaus weitere 33 Planstellen wegen Aufgabenübergangs nach § 50 Bundeshaushaltsordnung vom Bundesamt für Justiz an die BNetzA umgesetzt. Entsprechend des Haushaltsaufstellungsrundschreibens des BMF zum Bundeshaushalt 2025 und des Finanzplans bis 2028 wurden im Regierungsentwurf für den Haushalt 2025 keine neuen Planstellen und Stellen ausgebracht. Folglich hat das Bundesministerium für Wirtschaft und Klimaschutz – aufgrund der entsprechenden Vorgaben des BMF – auch keine neuen Planstellen oder Stellen im Rahmen des Haushaltsaufstellungsverfahrens angemeldet. Ob im parlamentarischen Verfahren für den Haushalt 2025 neue Planstellen und Stellen ausgebracht werden und wenn ja, für welche Bereiche, obliegt der Entscheidung des Haushaltsgesetzgebers.
Aus einer möglichen Diskrepanz zwischen personellem Erfüllungsaufwand und etatisierten Stellen kann keine Schlussfolgerung auf die Aufgabenerfüllung gezogen werden. Häufig werden neue Aufgaben schrittweise umgesetzt, so dass nicht alle im Erfüllungsaufwand enthaltenen Stellen gleich zu Beginn zur Verfügung stehen müssen. Daher werden in der Regel neue Stellen in Tranchen über mehrere Haushaltsjahre ausgebracht. Ziel ist es dennoch immer, eine größtmögliche Effizienz in der Aufgabenwahrnehmung zu erreichen und gleichzeitig sicherzustellen, dass sowohl kurz- und mittelfristig als auch langfristig den Aufgaben genügend Personalressourcen zugeordnet sind. Dazu wird der bestehende Aufgabenbestand auch einer regelmäßigen Aufgabenkritik unterzogen.“
https://mdb.anke.domscheit-berg.de/wp-content/uploads/signal-desktop-mac-universal-5.62.0-e1696580587591.png162533Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2024-11-08 12:35:502024-11-08 12:38:15Meine Schriftliche Frage zu Personal für neue Aufgaben der BNetzA im Haushalt 2025
„Was ist der Grund für die Auswahl der umstrittenen Plattform X und gegen mögliche Alternativen für offizielle Livestreams, zum Beispiel beim Auswärtigen Amt für das Gespräch der Bundesministerin des Auswärtigen Annalena Baerbock mit dem indischen Außenminister Subrahmanyam Jaishankar am 10. September 2024 über das Konto @AuswaertigesAmt und am gleichen Tag ein Livestream auf dem Konto von @BMF_Bund, insbesondere vor dem Hintergrund, dass die EU-Kommission gegen X beziehungsweise deren Eigentümer und Milliardär Elon Musk wegen möglicher erheblicher Verstöße gegen den Digital Services Act ermittelt und Elon Musk die Bundesaußenministerin Annalena Baerbock dergestalt kritisierte, dass er im September 2023 rassistische Verschwörungserzählungen von einer Herbeiführung eines “europäischen Suizides” durch die Unterstützung von Seenotrettungs-NGOs durch die Bundesregierung sowie einen Wahlaufruf für die AfD bei Wahlen in Deutschland auf seiner Plattform X verbreitete ( www.fr.de/politik/gegen-baerbock-ministerium-verschwoerungserzaehlung-musk-schiesst-92552088.html), und wie häufig haben seit Übernahme von X durch Elon Musk Vertreter innen und Vertreter der Bundesregierung Accounts auf X für Livestreams genutzt (bitte für die letzten acht Livestreams Datum, Account und Thema des jeweiligen Livestreams nennen)?“
Antwort der Bundesregierung vom 07.10.2024:
„Zur Veröffentlichung von Livestreams der Bundesregierung werden verschiedene Plattformen genutzt. Die Nutzung der Plattform X für Livestreams der Bundesregierung erfolgt insbesondere aufgrund der Reichweite der jeweiligen X-Kanäle. Die Ansprache einer möglichst breiten Öffentlichkeit im Rahmen von Livestreams dient der Erfüllung des verfassungsrechtlichen Auftrags des jeweiligen Ressorts, die Bürgerinnen und Bürger über die Tätigkeit, Vorhaben und Ziele der Bundesregierung zu informieren. Die Bundesregierung beobachtet die Entwicklung der Plattform X fortlaufend.
Die Bundesregierung führt keine Statistik über die Nutzung ihrer Accounts auf X für Livestreams. Nach überschlägiger Schätzung liegt die Zahl der Nutzung von X für Livestreams seit Oktober 2022 im niedrigen dreistelligen Bereich. Darunter zuletzt:
https://mdb.anke.domscheit-berg.de/wp-content/uploads/signal-desktop-mac-universal-5.62.0-e1696580587591.png162533Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2024-10-07 12:37:002024-11-08 14:03:27Meine Schriftliche Frage zu Livestreams der Bundesregierung auf X (Twitter)
„Berücksichtigt der kürzlich zwischen dem Beschaffungsamt des BMI und dem Unternehmen SAP geschlossene Rahmenvertrag im Volumen von knapp 700 Mio. Euro zu SAP Produkten und Dienstleistungen (siehe zum Beispiel https://news.sap.com/germany/2024/06/neue-rahmenvereinbarung-sap-digitalisierungbundesverwaltung/) ökologische Nachhaltigkeitsaspekte, zum Beispiel für die Energieeffizienz von Software oder von Cloud Dienstleistungen (siehe Leitfaden zur umweltfreundlichen öffentlichen Beschaffung von Software in der Fassung von 2023: www.umweltbundes-amt.de/publikationen/leitfaden-zur-umweltfreundlichenoeffentlichen-21 sowie die Vorgaben des Blauen Engels für ressourcen- und energieeffiziente Softwareprodukte (DE-UZ 215) https://produktinfo.blauer-engel.de/uploads/criteriafile/de/DE-UZ%20215-202001-de%20Kriterien-V4.pdf), und wenn ja, in welcher Weise, und wenn nein, wie begründet die Bundesregierung diese Abweichung von den Leitfäden und ihrem öffentlichen Commitment zur Nutzung nachhaltigerer IT im Bund, wie im Koalitionsvertrag zwischen SPD, BÜNDNIS 90/DIE GRÜNEN und FDP und in der Digitalstrategie festgehalten?“
Antwort der Bundesregierung vom 04.09.2024:
„Die Frage bezieht sich auf die Rahmenvereinbarung 21884 „Überlassung und Pflege von SAP-Software und die Bereitstellung von SAP Cloud-Services sowie Dienstleistungen“. Dabei handelt es sich um eine herstellerfestgelegte Ausschreibung, die explizit den genannten Leistungsgegenstand zum Inhalt hatte. Die in der Rahmenvereinbarung abgeschlossenen Leistungen werden von verschiedenen Behörden, darunter auch Behörden des Zivil- und Katastrophenschutzes, Sicherheitsbehörden, Infrastrukturdienstleistern benötigt, und sind für die Aufrechterhaltung des Dienstbetriebes der einzelnen Behörden notwendig. Die wesentlichen Bestandteile der Rahmenvereinbarung werden nur von SAP angeboten.
Die Aspekte der ökologischen Nachhaltigkeit konnten daher nur eingeschränkt berücksichtigt werden. Die Thematik Nachhaltigkeit wurde im Rahmen der Verhandlungen zwar besprochen. Gütezeichen konnten allerdings nur insoweit berücksichtig werden, wie sie die Produkte der Firma SAP AG ohnehin schon umfassen. Eine Auszeichnung des Blauen Engels von SAP Produkten bestand zum Zeitpunkt der Rahmenvereinbarung nicht. Bedarfsträgern und Bedarfsträgerinnen können durch ihre Abrufe aus der Rahmenvereinbarung die Nachhaltigkeit allerdings im Einzelfall fördern, indem sie z. B. IT-Dienstleistungen nachhaltig per Fernzugriff abrufen, statt einem Vor-Ort Service.“
https://mdb.anke.domscheit-berg.de/wp-content/uploads/signal-desktop-mac-universal-5.62.0-e1696580587591.png162533Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2024-09-04 13:36:002024-10-22 13:38:04Meine Schriftliche Frage zu Rahmenvertrag mit SAP Cloud Delos Nachhaltigkeit
Meine erste Frage: „Wie viele KI-Anwendungen setzt die Bundesregierung und ihre nachgeordneten Behörden insgesamt ein, die in der Antwort der Bundesregierung auf die Kleine Anfrage der Gruppe der Linken auf Bundestagsdrucksache 20/12191 mit Verweis auf eine mögliche Staatswohlgefährdung nicht genannt wurden, auch nicht in eingestufter Form (bitte je Behörde die Anzahl der KI-Anwendungen nennen, da ihre bloße Anzahl nach meiner Auffassung keinerlei staatswohlgefährdende Information darstellt), und ab wann plant die Bundesregierung die Verfügbarkeit und damit Nutzung eines öffentlichen KI-Registers (mindestens) für die KI-Anwendungen des Bundes, wie sie in der oben genannten Antwort der Bundesregierung zu Frage 14 der Kleinen Anfrage erwähnt wurde?“
Antwort der Bundesregierung vom 03.09.2024:
„Die Behörden, die Gegenstand der Frage sind, setzen unter anderem auch KI-Anwendungen ein. Darüber hinaus wird auf die Vorbemerkung der Bundesregierung zur Antwort der Bundesregierung auf die Kleine Anfrage der Gruppe DIE LINKE auf BT-Drs. 20/12191 verwiesen. Die Verfügbarkeit des in der Kleinen Anfrage genannten Marktplatzes der KI-Möglichkeiten ist derzeit im Herbst 2024 beabsichtigt.“
Meine zweite Frage:
„Wie grenzen sich die Angaben zu Haushaltsmitteln und Kosten in den Tabellen Anlage 1e (zu Frage 4; Kosten für KI-Anwendungen im Bund), Anlage 2 (zu Frage 6; Forschungsvorhaben, Pilotprojekte, Reallabore mit Beteiligung des Bundes, oder initiiert bzw. unterstützt vom Bund), Anlage 3 (zu Frage 8; bisher bewilligte und gebundene Mittel im Rahmen der KI-Strategie und ihre Verteilung auf Förderprogramme und Haushaltsmittel) sowie Anlage 3a (zu Frage 9; weitere Mittel außerhalb der KI-Strategie für die Förderung und den Einsatz von KI nach Förderprogrammen und Haushaltstiteln) in der Antwort der Bundesregierung auf die Kleine Anfrage der Gruppe der Linken auf Bundestagsdrucksache 20/12191 voneinander ab, und ggf. welche Überschneidungen von Angaben treten dabei konkret auf?“
Antwort der Bundesregierung vom 03.09.2024:
„Die Anlagen 1e, 2, 3 und 3a wurden separat erstellt. Die einzelnen Parameter wurden gezielt entsprechend den Fragen 4, 6, 8 und 9 der Kleinen Anfrage der Gruppe der Linken (Bundestagsdrucksache 20/11648) abgefragt, sodass die Anlagen getrennt voneinander zu betrachten sind.
Anlage 1e (zu Frage 4) beschreibt die Kosten für KI-Anwendungen, die innerhalb der Bundesregierung eingesetzt werden. Anlage 2 (zu Frage 6) stellt Forschungsvorhaben, Pilotprojekte sowie Reallabore mit Beteiligung des Bundes dar. Hierbei handelt es sich im Gegensatz zu Anlage 1e um Förderung für externe Projekte. Anlage 3 (zu Frage 8) beschreibt bisher bewilligte und gebundene Mittel im Rahmen der KI-Strategie und ihre Verteilung auf externe Förderprogramme und Haushaltsmittel. Diese adressieren das breite Spektrum der Ziele der KI-Strategie; der Fokus liegt damit nicht notwendigerweise auf der Entwicklung konkreter KI-Anwendungen. Davon abzugrenzen sind die Finanzmittel für Fördermaßnahmen in Anlage 3a (zu Frage 9), bei denen es sich um andere Mittel handelt, die nicht auf die KI-Strategie einzahlen.
Von maßgeblichen Überschneidungen in den Finanzmitteln wird nicht ausgegangen.“
https://mdb.anke.domscheit-berg.de/wp-content/uploads/signal-desktop-mac-universal-5.62.0-e1696580587591.png162533Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2024-09-03 12:32:002024-10-22 12:36:54Meine Schriftlichen Fragen zum KI Einsatz des Bundes
Zum Dritten Mal nach 2022 und 2023 befragte die Gruppe DIE LINKE im Bundestag die Bundesregierung nach dem Einsatz von Künstlicher Intelligenz im Bund und zur Förderung von KI. Aus der Antwort der Ampel zur diesjährigen Kleinen Anfrage ergibt sich ein starker Zuwachs der KI-Anwendungen sowie immense verfügbare finanzielle Mittel in Höhe von über 2,5 Milliarden Euro für KI-Vorhaben bei gleichzeitig fehlenden Supportstrukturen, mangelnden Kompetenzen, Standards und verbindlichen Prozessen, obwohl alles dies seit Jahren angekündigt wurde. Auch Ankündigungen der Ampel zur Nachhaltigkeit beim Einsatz von KI wurden flächendeckend nicht eingehalten.
Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Gruppe DIE LINKE im Bundestag:
https://mdb.anke.domscheit-berg.de/wp-content/uploads/signal-desktop-mac-universal-5.62.0-e1696580587591.png162533Birgithttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngBirgit2024-07-11 10:14:522024-07-15 11:29:27Pressemitteilung: Bund nutzt immer mehr KI, ignoriert dabei Nachhaltigkeit und versäumt Aufbau von Strukturen
In 2023 machte die Unternehmensübernahme von VMWare durch Broadcom Schlagzeilen, da VMWare Produkte u.a. bei sogenannten Virtualisierungen und Clouddiensten den Markt dominieren und Broadcom bei früheren Übernahmen durch radikale Veränderungen von Lizenzmodellen und Preisstrukturen zu Lasten der Kunden auffiel und dabei vorhandene Abhängigkeiten gnadenlos ausnutzte. Auch die Bundes-IT hängt stark von VMWare Produkten ab und ist potenziell erheblichen Preiserhöhungen unterworfen. Trotzdem vergab der Bund noch im Herbst 2023 Rahmenverträge im Volumen von 600 Mio Euro für VMWare-Produkte. Eine Kleine Anfrage der Gruppe DIE LINKE im Bundestag deckte auf, dass die Bundesregierung nicht einmal eine Risikobewertung vorgenommen hat, dass die Abhängigkeiten wie vermutet enorm sind, dabei Detailinformationen wegen potenzieller Staatswohlgefährdung eingestuft wurden, einschließlich der Folgekosten für den Bund.
Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linken im Bundestag:
„Die Bundesregierung verspricht immer wieder mehr Digitale Souveränität, aber tut weiterhin viel zu wenig, um dieses Versprechen in die Realität umzusetzen. Das rächt sich auch im Fall der einseitigen Abhängigkeit von VMWare-Produkten, für die allein von Nov. 2019 bis Mai 2024 Lizenzen im Wert von 460 Mio € vom Bund bezogen wurden. Der Bund ruht sich darauf aus, dass er Lizenzen über Rahmenverträge mit Dritten bezieht und diese noch bis zu drei Jahre Laufzeit haben, so dass die enormen Preissteigerungen erst mit Zeitverzug bei der IT des Bundes ankommen. Aber eine entscheidende Software in einem Gesamtsystem, wie z.B. in vielen der über 180 Rechenzentren des Bundes, kann man nicht von heute auf morgen austauschen. Dazu braucht es zuerst eine Gesamtrisikobewertung und darauf aufbauend eine Exitstrategie. In ihrer Antwort gibt die Bundesregierung zu, dass es beides bisher nicht gibt.
Kurzfristig sieht sie keinerlei Handlungsbedarf, nicht einmal ein Vergabestopp wird erwähnt. Für die Gesamtwirtschaft rechnet die Bundesregierung allerdings direkt mit Einschränkungen der Zuverlässigkeit des IT-Betriebs durch auslaufende Updates, sowie mit Kostensteigerungen. Der Fall “VMware” zeigt tatsächlich sehr anschaulich, wie ein Lock-in-Effekt funktioniert, denn viele VMware-Kunden können gar nicht zu Alternativen wechseln, weil ein Umstieg zu komplex oder technisch auf absehbare Zeit nicht machbar ist. Diese Kunden müssen in den sauren Apfel willkürlicher Preiserhöhungen beißen, was besonders kleine- und mittlere Unternehmen in finanzielle Schieflage bringen kann. Aber auf drei Jahren sicherer Konditionen kann sich der Bund nicht ausruhen.
Aktuell fehlt jedoch ohnehin jeglicher Überblick, denn von den öffentlich breit diskutierten Problemen wie dem Zwang zum Umstieg von on-premise Lösungen auf Cloud-Lösungen und von Einzel- auf (in vielen Fällen erheblich teurere und oft unnötige) Bündellizenzen oder den negativen Auswirkungen beim Zwangsumstieg auf Abo-Modelle und von gestoppten Wartungsverträgen, die zu erheblichen IT-Sicherheitsrisiken führen, hat die Bundesregierung nach ihrer Aussage bisher nichts mitbekommen.
Die Folgen des schlechten Risikomanagements sollen offenbar nicht öffentlich werden, denn wichtige Teile ihrer Antwort stellte sie nur in nichtöffentlichen Dokumenten bereit, wozu auch meine Frage zu erwarteten Kostensteigerungen gehört, die mit Verweis auf eine mögliche Staatswohlgefährdung zur Verschlusssache erklärt wurden.
Vor allem aber muss die Bundesregierung endlich ihr Bekenntnis zur digitalen Souveränität auch leben und dazu gehört eine angemessene Ausstattung des Zentrums für Digitale Souveränität, damit es seine Aufgabe, Open Source Alternativen für den Bund bereitzustellen, auch erfüllen kann. Statt immer wieder Milliardenschwere Rahmenverträge mit den immer gleichen großen US-Konzernen abzuschließen, sollte der Bund konsequent das Ökosystem für Open Source Produkte weiterentwickeln und wo immer es diese Möglichkeit gibt, leistungsfähige Open Source Lösungen einsetzen. Dies gilt insbesondere für den anstehenden Wechsel hin zu einer Cloud-basierten Bundes-IT. Denn wenn nicht endlich ein konsequentes Umdenken im Sinne einer tatsächlichen digitalen Souveränität und damit auch im Sinne des Gemeinwohls stattfindet, bleibt die unabhängige, hoheitliche und sichere Digitalisierung der Verwaltung unerreichbar.“
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.png00Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2024-06-25 19:22:472024-06-25 19:25:17Pressemitteilung: Nix mit Open Source: Bundes-IT von VMware stark abhängig, unklare Mehrkosten und Intransparenz