Eine aktuelle Kleine Anfrage der Linken im Bundestag zur Bewertung der Digitalen Souveränität des Bundes erfragte Informationen zu Rahmenverträgen der Bundes-IT und zu Ausgaben für proprietäre Software und Open Source Software (OSS). Aus der Antwort der Bundesregierung mit DS 20/9641 ergibt sich, dass die 10 größten Vertragspartner für IT-Rahmenverträge ein gemeinsames Rahmenvertragsvolumen von über 13,6 Mrd. Euro haben. Davon entfällt allein auf Produkte und Dienstleistungen des US-Herstellers Oracle ein Gesamtvertragsvolumen von 4,8 Milliarden Euro, mit dem größten Einzel-Rahmenvertrag über 4,6 Mrd Euro bei einer Laufzeit bis 2030. Weitere knapp 1,3 Milliarden entfallen auf zwei Rahmenverträge für Lizenzen des US-Unternehmens Microsoft.

Aus der detaillierten Abfrage von Ausgaben zu Entwicklungsaufträgen von Software und zu Dienstleistungen im Zusammenhang mit Software ergab sich, dass der Bund seit Beginn dieser Legislatur nur etwa 0,5 Prozent seiner entsprechenden Ausgaben für OSS einsetzte. So vergab das Digitalministerium Entwicklungsaufträge im Volumen von 22,3 Mio Euro, wovon aber nur 121.000 Euro (0,55 Prozent) auf die Entwicklung von OSS entfielen. Für Dienstleistungen im Zusammenhang mit Software verausgabte der Bund insgesamt sogar etwa 3,5 Milliarden Euro, auch davon flossen aber nur 18,6 Mio (0,54 Prozent) an Open Source. Sowohl der Koalitionsvertrag der Ampel-Regierung als auch ihre Digitalstrategie versprachen jedoch, auf Open Source zu setzen. Dazu erklärt Anke Domscheit-Berg:

“Ich kann mich an keine Regierung erinnern, bei der digitalpolitische Ankündigungen und ihre Umsetzung derart eklatant auseinander klafften! Die Förderung von Open Source und die Betonung der Digitalen Souveränität als Richtschnur für IT-Entscheidungen sind offensichtlich reine Lippenbekenntnisse, denn in der Praxis setzt auch die sogenannte Fortschrittskoalition auf die übliche Praxis, für sehr viel Geld teure proprietäre Software insbesondere von großen US-Konzernen einzukaufen. Nicht einmal der für die Digitalstrategie zuständige Minister Wissing hält sich an das, was er darin angekündigt, denn für OSS Entwicklung gab er nur 0,5 Prozent seines Budgets für Softwareentwicklung aus.

Dass außerdem mehrjährige IT-Rahmenverträge über extrem hohe Summen v.a. mit US-Konzernen sowie zu ihren Produkten abgeschlossen wurden, ist genau das Gegenteil von Stärkung der digitalen Souveränität und erhöht auf viele Jahre die Abhängigkeit des Bundes von einzelnen US-Konzernen. Mit einer einzigen US-Firma (Oracle) sogar einen Rahmenvertrag über 4,6 Mrd Euro abzuschließen, der noch bis zum Ende der nächsten (!) Legislatur laufen wird, ist schlicht auch obszön, denn diese Summe ist doppelt so hoch, wie die Kosten der mühsam erkämpften Kindergrundsicherung bei ihrer Einführung und auch in Anbetracht des für 2024 zu erwartenden Kahlschlaghaushalts für viele soziale Belange. Außerdem wird damit die Abhängigkeit von einem einzelnen Hersteller über Jahre hinweg extrem erhöht. Wer aber abhängig ist von einzelnen Firmen und ihren Produkten, wird erpressbarer – muss also häufig immer mehr bezahlen, ist außerdem weniger flexibel und geht ein zusätzliches IT-Sicherheitsrisiko ein. Deshalb ist es völlig inakzeptabel, dass der Koalitionsvertrag zwar einerseits verspricht, die digitale Souveränität durch mehr OSS zu sichern, aber gleichzeitig der Bund mit milliardenschweren Rahmenverträgen das Gegenteil erreicht und Tatsachen schafft, die bei einer Handvoll US-Konzernen die Kassen klingeln lassen, aber jede Menge Nachteile und Risiken bedeuten, bis hin zum Risiko, dass es über eingebaute Hintertüren Datenabflüsse an US-Geheimdienste gibt.

Am Ende erkennt man doch immer am Geld, wie ernst es eine Regierung mit ihren Versprechen meint! Bisher stehen auch im Haushalt für 2024 Kürzungen ausgerechnet für Open Source Initiativen an, denn die Haushaltsmittel für das Zentrum für Digitale Souveränität sollen fast halbiert werden. Diese Kürzungen betreffen die beiden wichtigsten Vorhaben des Bundes zur Förderung von OSS: die Entwicklung eines Open Source Arbeitsplatzes, als Alternative zu Microsoft Office, und die Plattform OpenCode, auf der Software der Verwaltung veröffentlicht werden soll.

Würde es die Bundesregierung ernst meinen mit der Förderung von Open Source in der eigenen Verwaltung, gäbe es messbare Ziele und ein Monitoring für den Anteil von OSS im Bund, beides existiert bisher nicht, selbst ein Software-Lizenzmanagementsystem befindet sich erst in der Planungsphase, was bei so hohen Ausgaben für Lizenzen schlicht nicht nachvollziehbar ist. Die gesamte Praxis der Bundesregierung zur Entwicklung von Software und Vergabe von Rahmenverträgen konterkariert ihre eigenen strategischen Ziele und trägt viel zu wenig zur Entwicklung europäischer Open Source Alternativen und eines Open Source Ökosystems bei, sie schadet außerdem aktiv der digitalen Souveränität.”

Links:

Anmerkung:

Die Detailtabellen zu den einzelnen Entwicklungs- und Dienstleistungsverträgen (3 weitere Anlagen) sind eingestuft als „Nur für den Dienstgebrauch“ und können daher nicht veröffentlicht werden.

Meine Frage:

Welche Stellen haben bisher Aufgaben innerhalb der Verbundprojekte “Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen (VIKING)” sowie „KI zur Früherkennung von Straftaten (KISTRA)“ (für beide siehe Bundestagsdrucksache 20/6862) erledigt bzw. werden sie künftig erledigen (bitte für alle beteiligten Verbundpartner ihre jeweiligen Rollen, Aufgaben und deren bereits erledigte und noch geplante Teilvorhaben ausführlich mit Beschreibung nennen), und in welcher Weise sind weltweite Erfahrungen und Forschungsergebnisse zu den Risiken von KI allgemein in polizeilichen Anwendungen und insbesondere bei Predictive Policing (Früherkennung von Straftaten) in die Gestaltung und Umsetzung dieser Verbundprojekte eingeflossen, die entsprechend von Entwürfen der europäischen KI- Verordnung als Hochrisiko-Anwendungen einzustufen sind, so dass besondere und hohe Anforderungen an den Grundrechtsschutz, die Diskriminierungsfreiheit aber auch an die Transparenz und Nachvollziehbarkeit erfüllt werden müssen?

Antwort des Parlamentarischen Staatssekretärs Mario Brandenburg:

Sowohl im Projekt „Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen“ (VIKING) als auch im Projekt „KI zur Früherkennung von Straftaten“ (KISTRA) haben alle
involvierten Partner ihre Aufgaben gemäß dem jeweiligen aktuellen Projektplan erledigt.

Das Projekt KISTRA läuft Ende dieses Jahres aus und alle Partner haben ihre geplanten Aufgaben umsetzen können. Eine Aufstellung der erledigten Aufgaben für jeden
Verbundpartner ist der Anlage 1 zu entnehmen.

Das Projekt VIKING erstreckt sich noch bis Ende 2024, hat jedoch zum letzten Berichtszeitpunkt Ende Juni 2023 erfolgreich seinen Meilenstein absolviert. Jeder Partner hat seine Aufgaben zum Meilenstein erledigt. Eine Aufstellung der erledigten sowie der noch zu erledigenden Aufgaben für jeden Verbundpartner ist der Anlage 2 zu entnehmen.

Im Rahmen beider Projekte wird die KI-Forschung in enger Zusammenarbeit mit gesellschaftswissenschaftlichen Partnern durchgeführt. Diese erarbeiten Empfehlungen für einen ethisch und juristisch konformen Einsatz der KI-Methoden. Im Projekt VIKING werden darüber hinaus die Themen der Diskriminierungsfreiheit sowie der Transparenz und Nachvollziehbarkeit als konkrete Aufgaben bearbeitet. Das Thema Predictive Policing wurde in beiden Projekten nicht adressiert.

Antwortschreiben im Original (pdf)

Meine Fragen:

1. Welche Rolle spielt Künstliche Intelligenz (KI) beim Forschungsvorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862; bitte KI-Projektanteile ausführlich beschreiben, so dass ein guter Eindruck davon vermittelt wird, welche Zwecke KI wie erreichen soll), und was ist der Stand des Vorhabens mit Bezug auf seine KI-Anteile (bitte den Stand im Projekt-Zeitplan und in Bezug auf er-reichte und noch geplante Meilensteine verorten)?

2. Auf Grundlage welcher Daten wurde oder wird die im Rahmen des Forschungs-vorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862) eingesetzte KI-gestützte Software zur Erkennung kritischer Situationen trainiert, und mit welchen standardisierten oder alternativen Methoden wurde oder wird vor Beginn eines Einsatzes auf einem Bahnhof auch als Test- oder Pilotbetrieb eine nachvollziehbare Risikoklassifizierung/-bewertung vorgenommen (bei standardisierter und alternativer Methode bitte präzisieren, welche Methode; und wenn keine derartige Risikoklassifizierung vorgenommen wurde, bitte begründen, warum nicht)?

3. Wofür wurden und werden Haushaltmittel im Rahmen des Forschungsvorhabens Sicherheitsbahnhof für KI-Aspekte (siehe Bundestagsdrucksache 20/6862) verausgabt (bitte tabellarisch Höhe und Verwendungszweck für alle KI-bezogenen Ausgaben angeben), und wie wird öffentliche Transparenz über das Projekt her-gestellt, z. B. zu Zwischenergebnissen, Risikobewertung, Evaluationprozessen und -ergebnissen, Diskriminierungsfreiheit etc., da es sich um ein Vorhaben handelt, das nach meiner Einschätzung ein hohes Risiko für Grundrechtsverletzungen birgt und nach EU KI-Verordnung vermutlich als Hochrisiko-KI-Anwendung eingestuft würde?

Antwort der Parlamentarischen Staatssekretärin Rita Schwarzelühr-Sutter (BMI):

Die Deutsche Bahn und die Bundespolizei identifizieren ordnungspartnerschaftlich sicherheitsrelevante Naht- und Schnittstellen im Eisenbahnverkehr und entwickeln
partnerschaftlich bauliche, technische und übergreifende Maßnahmen, um einen sicheren und störungsfreien Bahnverkehr auch in Zukunft zu gewährleisten. Gemein-sam mit Wissenschaft und Wirtschaft konzipieren sie interdisziplinär erste innovative Lösungen unter Labor- und Realbedingungen. Das Ziel des Forschungsvorhabens Sicherheitsbahnhof ist es, Gefahrensituationen zu reduzieren beziehungsweise früh-zeitig zu erkennen, um diese rechtzeitig bewältigen zu können. Die Optimierung der Fahrgastsicherheit, insbesondere in Bahnhöfen, stehen im Vordergrund dieser Forschung. Nachfolgende Teilprojekte des Forschungsvorhabens Sicherheitsbahnhof haben einen KI-Bezug: Erprobung intelligenter Videoanalyse: Zusammen mit dem „KI-Campus der Polizei“ des Bundesministeriums des Innern
und für Heimat (BMI) erforschen die Deutsche Bahn und die Bundespolizei, auf welche Weise KI-gestützte Software bei der Analyse von Videobildern zum Einsatz kommen könnte. Für die Bewertung und Erprobung polizeilicher KI-Lösungen kommen hierbei Wissenschaft, Behörden und ausgewählte Unternehmen zusammen. Die zu entwickelnde Software soll helfen, potenzielle Gefahrensituationen zu erkennen, wie
beispielsweise das unbefugte Betreten von Gleisanlagen oder das Fallen oder Stoßen in diese. Gemeinsam wird sowohl unter Labor- als auch unter realitätsnahen Bedingungen erforscht, wie eine Software für solche speziellen Situationen trainiert und in der Folge das Sicherheitspersonal der Deutsche Bahn oder die Bundespolizei auf diese hinweisen könnte. Zur bestmöglichen Erprobung erfolgt ein stufenweises Vor-gehen, welches die Einhaltung der rechtlichen, datenschutzrechtlichen und ethischen Anforderungen sicherstellt.

Wenn ein Anwendungsfall interdisziplinär als machbar und nützlich bewertet wird, erfolgt seine Erprobung unter Laborbedingungen. Diese soll nachweisen, ob das System technisch grundsätzlich in der Lage ist, das sich aus dem Anwendungsfall ergebende Problem zu lösen. Die anschließende technische Erprobung unter realitätsnahen Bedingungen stellt das System in Bezug auf die
Komplexität realistischer Betriebseinflüsse auf die Probe. Um das Zusammenspiel zwischen Technik und Mensch zu prüfen (Wirksamkeit und Nutzen), erfolgt schließlich eine soziotechnische Erprobung. Sämtliche Stufen der Erprobung werden fortlau-fend unter den Gesichtspunkten der interdisziplinären Bewertung betrachtet, sodass eine verantwortungsbewusste Entwicklung sichergestellt ist. Deshalb sind „Quality
Gates“ zwischen diesen stufenweisen Erprobungsphasen installiert. Nur wenn das System nach jeder Phase die an sie gestellten, stufenspezifischen Anforderungen er-füllt, wird die Erprobung fortgesetzt.

Erprobung sensorgestützter Tunnelmundüberwachung: In einer Machbarkeitsstudie untersuchen die Ordnungspartner, ob mit Hilfe eines Dynamic Vision Sensor (DVS) eine sichere und zuverlässige Erfassung sich bewegen-der Objekte im Zugangsbereich von Tunneln zur teilautomatisierten Gefahrenerkennung erreicht werden kann. Ziel ist es, die Sicherheit im öffentlichen Verkehr zu verbessern und die Anzahl von Sperrzeiten zu reduzieren. Der DVS unterscheidet sich gegenüber herkömmlichen Kameras, da hier keine Videobilder aufgezeichnet werden; der hier erzeugte Datenstrom besteht lediglich aus Pixeln, die sich über die Zeit
in der Helligkeit ändern. Diese Sensoren sind wesentlich lichtempfindlicher, so dass sie auch in Bereichen mit wechselnder Beleuchtung oder in sehr dunklen Umgebungen arbeiten. Zum Erreichen der Witterungsunabhängigkeit soll ein maßgeschneiderter Erkennungsalgorithmus entwickelt werden, der mit Hilfe von Methoden der künstlichen Intelligenz eine sichere Klassifikation zwischen Personen und anderen sich
bewegenden Objekten im Tunneleingangsbereich ermöglicht. Durch die zuverlässige Erkennung und die teilautomatisierte Alarmierung kann das Sicherheitspersonal
ohne Zeitverzug gefahrenabwehrende Maßnahmen, auch zum Schutz der kritischen Infrastruktur und des störungsfreien Bahnverkehrs, einleiten. Im Teilprojekt TUNUKI hat die Hochschule Niederrhein die Feldphase zur Aufnahme der Sensordaten abge-schlossen, die Auswertung dieser Daten dauert noch an. Es wurden Daten vom Tunneleingang des BER-Eisenbahntunnels (nicht öffentlicher Bereich) über eine Dauer
von sechs Monaten aufgezeichnet. Ziel ist es, auf Grundlage dieser Datenbasis ein KI-Modell zu trainieren, welches Anwesenheit von Personen im Tunnel erkennen und
diese zuverlässig bei allen Licht- und Wetterverhältnissen von Tieren, Zügen und an-deren Objekten unterscheiden kann. Personenbezogene Daten werden nicht erhoben.

Zu 3.

Der KI-Campus sowie die derzeit in Anspruch genommenen Entwicklungsleistungen der PD-Berater der öffentlichen Hand GmbH werden durch das BMI finanziert. Die
Finanzierung des Teilprojekts TUNUKI erfolgte aus den Fördermitteln mFUND des Bundesministeriums für Digitales und Verkehr. Das Forschungsvorhaben Sicherheitsbahnhof wird anteilig über Eigenmittel der DB Station&Service AG finanziert. Die Bundespolizei hat keine eigenen Haushaltsmittel für das Forschungsprojekt Sicherheitsbahnhof bereitgestellt. Die notwendige Transparenz während des Projekts wird durch die Informationen auf der Webseite https://sicherheitsbahnhof.bahnhof.de/ gewährleistet. Zur Erprobung sensorgestützter Tunnelmundüberwachung wurden vom Projektpartner Hochschule Niederrhein ferner folgende Beiträge veröffentlicht: https://www.hs-niederrhein.de/aktuelles/news-detail/tunnelmuendungen-mithilfe-ku-enstlicher-intelligenz-sicherer-machen/, https://www.hs-niederrhein.de/ipattern/nach-richten-detailseite/ki-zur-ueberwachung-von-tunnelmuendungen/.

Antwortschreiben im Original (pdf): https://mdb.anke.domscheit-berg.de/wp-content/uploads/231103_3-SFs-zu-KI-Projekten-Antwort-BuReg_Geschwaerzt.pdf

Die Union versucht erneut, eine verfassungswidrige Vorratsdatenspeicherung einzuführen und argumentiert mit Schutz von Kindern vor sexualisierter Gewalt, um Massenüberwachung zu legitimieren. Prävention und mehr Ressourcen für spezialisierte Ermittler würden Kinder besser schützen. Mit einem aktuellen EUGH Urteil ist die beabsichtigte IP Adress-Speicherung von 6 Monaten nicht vereinbar.

Meine Rede vom 20.09.2023 zu TOP 4:

Schutz vor sexuellem Missbrauch, IP-Adr.-speicherung
Beratung des Berichts des Rechtsausschusses (6. Ausschuss)
gemäß § 62 Absatz 2 der Geschäftsordnung zu dem Antrag der Fraktion der CDU/CSU
IP-Adressen rechtssicher speichern und Kinder vor sexuellem Missbrauch schützen
Drucksachen 20/368720/8373

im Wortlaut:

Sehr geehrte Präsidentin! Liebe Kolleginnen und Kollegen! Jetzt gibt es schon seit fast 20 Jahren immer wieder neue Versuche, die Vorratsdatenspeicherung einzuführen. 

(Dr. Günter Krings (CDU/CSU): Nur, das ist ja keine!)

Früher war vor allem der Kampf gegen den Terrorismus das Argument, um grundrechtswidrige, anlasslose Massenüberwachung zu legitimieren. 

(Stephan Brandner (AfD): Damit kennen Sie sich ja aus!)

Man hat die Angst der Bevölkerung vor Terroranschlägen instrumentalisiert. Weil diese Angst weitgehend aus dem Alltag verschwunden ist, nutzt die Union jetzt die entsetzliche Gewalt gegen Kinder als neuen Vorwand

(Dr. Günter Krings (CDU/CSU): Kann man Ihnen das eigentlich glauben?)

und hofft, dass Überwachungskritiker/-innen schweigen wegen des Vorwurfes, sie würden Kinder nicht schützen wollen. 

Ginge es Ihnen in der Union tatsächlich darum, Kinder zu schützen, 

(Dr. Günter Krings (CDU/CSU): Ihnen geht es darum nicht! Ihnen geht es darum offenbar nicht!)

würden Sie den Fokus darauf legen, Verbrechen zu verhindern, meine Damen und Herren,

(Beifall des Abg. Matthias W. Birkwald (DIE LINKE))

und zum Beispiel Anträge für niedrigschwellige Hilfsangebote für Kinder oder Anträge für mehr Aufklärung für Erwachsene, die mit Minderjährigen zu tun haben, stellen.

(Dr. Günter Krings (CDU/CSU): Wahnsinn!)

Sie legen den Fokus ausschließlich auf die Strafverfolgung. Dann haben Kinder aber die Gewalt schon erlitten, und das offenbart Ihre Scheinheiligkeit. 

(Dr. Martin Plum (CDU/CSU): Und die Täter machen weiter!)

Die Union fordert nicht, was effektiv die Strafverfolgung verbessern würde:

(Dr. Günter Krings (CDU/CSU): Eine echte Täterschutzrede!)

eine ausreichende personelle und technische Ausstattung zum Beispiel. Der Mangel daran ist die Hauptursache für schleppende Ermittlungen. Das hat Ihr eigener Sachverständiger in der Anhörung so gesagt.

(Beifall des Abg. Matthias W. Birkwald (DIE LINKE) – Dr. Günter Krings (CDU/CSU): Täterschutzrede!)

Auch eine Login-Falle kann Ermittlungen effektiver machen. Wenn ein Verdächtiger sich einloggt, werden dessen Daten anlassbezogen erfasst. Engagieren Sie sich doch dafür.

(Dr. Günter Krings (CDU/CSU): 20 000 Einstellungen!)

Dann kann man nämlich Täter tatsächlich schneller aus dem Verkehr ziehen.

(Beifall bei der LINKEN – Dr. Günter Krings (CDU/CSU): 20 000 Schicksale! 20 000!)

– Ich weiß gar nicht, wie Sie gleichzeitig reden und zuhören können. Es wäre gut, Sie würden mal zuhören. 

(Dr. Günter Krings (CDU/CSU): Sie halten doch die gleiche Rede wie beim letzten Mal! Ihnen fällt gar nichts anderes ein scheinbar!)

So ist Ihr Antrag nur ein weiterer Versuch der Union, eine verfassungswidrige Überwachung einzuführen. Dabei hat erst gerade wieder das Bundesverwaltungsgericht der Vorratsdatenspeicherung eine Absage erteilt. 

(Dr. Martin Plum (CDU/CSU): Es geht um IP-Adressen-Speicherung! Das ist etwas anderes!)

Ihre Forderung, IP-Adressen von sämtlichen IT-Nutzerinnen und IT-Nutzern sechs Monate zu speichern, ist nicht vereinbar mit dem EuGH-Urteil von 2022;

(Beifall bei der LINKEN – Dr. Martin Plum (CDU/CSU): Da gibt es keine konkrete Aussage zu! Das haben Sie nicht gelesen!)

denn das limitiert die Speicherung auf den Zeitraum, der absolut notwendig ist, um nämlich über 80 Millionen Bürger/-innen vor staatlicher Massenüberwachung zu schützen. Ihr eigener Sachverständiger, der Leitende Staatsanwalt der Cybercrimestelle Nordrhein-Westfalen, sagt, das sei maximal eine Woche. 

Die Linksfraktion empfiehlt der Union eine Weiterbildung zur Prävention, zur Verhinderung sexualisierter Gewalt an Kindern, aber auch zu Grundrechten. 

(Dr. Günter Krings (CDU/CSU): Das müssen Sie gerade sagen!)

Dann können Sie die von Ihnen behaupteten Ziele nämlich viel besser erreichen und Sie scheitern seltener vor Gericht.

(Beifall bei der LINKEN sowie bei Abgeordneten der SPD und des Abg. Helge Limburg (BÜNDNIS 90/DIE GRÜNEN) – Dr. Volker Ullrich (CDU/CSU): Dass die SPD da klatscht!)

Die Ampel sollte der Vorratsdatenspeicherung endgültig eine Absage erteilen und vor allem im BMI die Blockade gegen das grundrechtssensiblere Quick-Freeze-Verfahren aufgeben, außerdem bestehende Überwachungsgesetze hinsichtlich ihrer Wirksamkeit evaluieren und, solange die versprochene Überwachungsgesamtrechnung nicht da ist, auf keinen Fall neuen Überwachungsbefugnissen zustimmen. Dazu gehört ein klares Nein in Brüssel in den Verhandlungen zur Chatkontrolle, mit der die größte Überwachungsinfrastruktur seit Bestehen des Internets geschaffen werden soll. Das müssen Sie verhindern! Ich drücke Ihnen dafür die Daumen, liebe Damen und Herren der Regierungskoalition. Den Antrag der Union lehnt die Linksfraktion selbstverständlich ab.

(Dr. Günter Krings (CDU/CSU): Die ganze?)

Vielen Dank.

(Beifall bei der LINKEN sowie bei Abgeordneten der SPD und des Abg. Helge Limburg (BÜNDNIS 90/DIE GRÜNEN))

„Wie lautet der aktuelle Umsetzungsstand der in der Cybersicherheitsagenda formulierten Maßnahmen und Ziele für die 20. Legislaturperiode (bitte je Maßnahme und Ziel den aktuellen Stand anführen) und wann plant die Bundesregierung die von ihr weiterentwickelte, sowie im Einklang mit der Nationalen Sicherheitsstrategie stehende, Cybersicherheitsstrategie zu veröffentlichen?“

Antwort des Parlamentarischen Staatssekretärs Johann Saathof:

„Hinsichtlich des aktuellen Umsetzungsstands der Cybersicherheitsagenda wird auf die Anlage verwiesen. Im Koalitionsvertrag wurde vereinbart, dass die Cybersicherheitsstrategie für Deutschland 2021 weiterentwickelt wird. Der Prozess dauert an.“

Antwortschreiben im Original (pdf, geschwärzt)

06. Juni 2023

Meine Frage:
Warum stehen dem Unabhängigen Beauftragten für Fragen des sexuellen Kindesmiss­brauchs (UBSKM) zur Bekämpfung sexueller Gewalt an Kindern im Jahr 2023 weniger Haushaltsmittel als in den beiden Vorjahren zur Verfügung (vgl. Antwort der Bundesre­gierung auf die Schriftliche Frage 91auf Bundestagsdrucksache 20/4277), obwohl die Hot­line des Unabhängigen Beauftragten für betroffene Minderjährige nur an zwei Werktagen nachmittags für Schulkinder erreichbar ist, die Bundesregierung das Thema zu einer ho­hen Priorität erklärte, sowie sogar serverseitiges Scannen privater Kommunikation und weitere Überwachungsbefugnisse im Zuge des „Chatkontrolle“ bekannt gewordenen EU Vorhabens (Verordnung des Europäischen Parlaments und des Rates zur Festlegung von Vorschriften für die Prävention und Bekämpfung des sexuellen Missbrauchs von Kinder) explizit unterstützt und plant die Bundesregierung analog zum Digitalpakt Schule eine gemeinsame Finanzierung zur Bekämpfung sexualisierter Gewalt an Kindern mit den Bundesländern?

Antwort der Parlamentarischen Staatssekretärin Ekin Deligöz:
Im Rahmen des parlamentarischen Verfahrens wurden der Unabhängigen Beauftragten für Fragen des sexuellen Kindesmissbrauchs für das Haushaltsjahr 2023 zusätzlich
5 Millionen Euro
für die Aufklärungs- und Aktivierungskampagne „Schieb den Gedan­ken nicht weg!“ zur Verfügung gestellt. Somit beträgt der Etat im Bereich Maßnahmen zur Verhinderung, Bekämpfung und Aufarbeitung von sexuellem Kindesmissbrauch und dessen Folgen (Kapitel 1716 Titel 684 01) insgesamt 6,4 Millionen Euro. Damit stehen der Unabhängigen Beauftragten für Fragen des sexuellen Kindesmissbrauchs in 2023 mehr Mittel als in 2022 zur Verfügung.

Die Bundesregierung plant keine gemeinsame Finanzierung zur Bekämpfung sexuali­sierter Gewalt an Kindern und Jugendlichen mit den Bundesländern. Es findet aber regelmäßig ein Austausch im Nationalen Rat gegen sexuelle Gewalt an Kindern und Ju­gendlichen sowie im Rahmen der Sitzungen der sich mit dem Thema befassenden Fachkonferenzen der Länder statt.

In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:

„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.

Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird. 

Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.

Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.

Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.

Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.

Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.

Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.

Hintergrund

Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.

Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):

Meine Rede der Debatte von 17.03.2023:

Die CDU fordert 6 Monate Vorratsdatenspeicherung von IP-Adressen und stellt alle Internetnutzer:innen unter Generalverdacht. Was sie vorschlägt, schützt Kinder nicht und ist auch nicht mit EU-Grundrechten vereinbar. Es braucht mehr Prävention und Ressourcen, nicht Massenüberwachung.

Hier bin ich auf Social Media zu finden:

Twitter

Youtube

Facebook

Mastodon

Instagram

Am 19.01.2023 wurde im Bundestag ein Antrag der Linksfraktion zur Chatkontrolle Verordnung der EU debattiert. Dazu hatte ich 120 Sekunden Redezeit, in der man natürlich nur grob an der Oberfläche dieses wichtigen Themas kratzen kann. Daher findet sich hier eine Sammlung mit weiterführenden Informationen:

Zum Hintergrund:

Die Pressemitteilung der Linksfraktion im Bundestag zur Debatte im Bundestag am 19. Januar

Der Antrag der Linksfraktion zur Ablehnung der Chatkontrolle-Verordnung durch die Bundesregierung und insbesondere zur Verhinderung von Client Side Scanning.

Das in meiner Rede zitierte Gutachten des  Wissenschaftlichen Dienstes des Bundestages zur Vereinbarkeit des Verordnungsentwurfs der EU mit europäischen und deutschen Grundrechten.

Hier kann ein Linxxnet-Podcast zur Chatkontrolle mit mir als Gast gehört werden. In dem einstündigen Podcast vom 16.01.2022 sprechen wir ausführlich über alles rund ums Thema. In den Shownotes der Folge finden sich viele weitere, spannende Links.

Hier findet ihr meine Landing-Page zum Thema Chatkontrolle

Frage:

Teilt die Bundesregierung die aktuelle Einschätzung des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI), nach der es bislang keinen rechtlich klar abgesicherten Beschlagnahmeschutz für die elektronische Patientenakte gegenüber Strafverfolgungsbehörden gibt (https://ddrm.de/haben-strafverfolgungs-behoerden-zugriffsmoeglichkeiten-auf-die-elektronische-patientenakte-epa-die-antwort-des-bundesdatenschutzbeauftragten-das-ist-nicht-ausgeschlossen/), da sich der Beschlagnahmeschutz aus § 97 StPO bislang nur auf die Gesundheitskarte erstreckt, jedoch unklar sei, ob die ePA und die darin enthaltenen Gesundheits- und Behandlungsdaten vor Zugriffen durch die Strafverfolgungsbehörden (u.a. Polizei und Justiz) geschützt sind (bitte begründen, warum die Bundesregierung diese Auffassung teilt oder nicht teilt) und wenn ja, wie will die Bundesregierung verhindern, dass das Vertrauen von Patientinnen und Patienten sowie Ärztinnen und Ärzten in Digitalisierungsprojekte im Gesundheitswesen nicht massiv beschädigt und die ärztliche Schweigepflicht nicht durch digitale Zugriffe auf die ePA defacto unterlaufen wird (bitte ausführlich darlegen und falls ein expliziter und eindeutiger rechtlicher Beschlagnahmeschutz für die ePA eingeführt werden soll, bitte erklären, wie die rechtliche Umsetzung geplant ist)?

Antwort des parlamentarischen Staatssekretärs Prof. Dr. Edgar Franke:
Es bedarf aus Sicht der Bundesregierung derzeit keiner gesonderten gesetzlichen Regelungen zum Schutz vor Beschlagnahme der Daten, die sich in der elektronischen Patientenakte befinden. Nach geltendem Recht besteht ein Beschlagnahmeverbot, wenn sich die Daten bei der behandelnden Ärztin oder dem behandelnden Arzt befinden und auch, wenn sich diese bei der aktenführenden Krankenkasse befinden.

Schriftliche Aufzeichnungen oder schriftliche Mitteilungen eines Zeugnisverweigerungsberechtigten unterfallen dem Beschlagnahmeverbot des § 97 Absatz 1 Strafprozessordnung (StPO), wenn sie im Gewahrsam des Zeugnisverweigerungsberechtigten sind (hier der behandelnden Ärztin oder dem behandelnden Arzt). Nach § 11 Absatz 3 Strafgesetzbuch (StGB) gilt dies auch für Daten, die von dem Zeugnisverweigerungsberechtigten in die elektronische Patientenakte eingestellt werden. Darüber hinaus greift das Beschlagnahmeverbot für die elektronische Patientenakte gemäß §§ 97 Absatz 3 StPO auch dann, wenn sich die elektronische Patientenakte bei der aktenführenden Krankenkasse (§ 342 Fünftes Buch Sozialgesetzbuch SGB V) befindet, da es sich bei letzterer im Rahmen der Führung der elektronischen Patientenakte um eine „mitwirkende Person“ nach § 53a Absatz1 Satz1 StPO handelt.