Beiträge

Meine Frage:

Welche Stellen haben bisher Aufgaben innerhalb der Verbundprojekte “Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen (VIKING)” sowie „KI zur Früherkennung von Straftaten (KISTRA)“ (für beide siehe Bundestagsdrucksache 20/6862) erledigt bzw. werden sie künftig erledigen (bitte für alle beteiligten Verbundpartner ihre jeweiligen Rollen, Aufgaben und deren bereits erledigte und noch geplante Teilvorhaben ausführlich mit Beschreibung nennen), und in welcher Weise sind weltweite Erfahrungen und Forschungsergebnisse zu den Risiken von KI allgemein in polizeilichen Anwendungen und insbesondere bei Predictive Policing (Früherkennung von Straftaten) in die Gestaltung und Umsetzung dieser Verbundprojekte eingeflossen, die entsprechend von Entwürfen der europäischen KI- Verordnung als Hochrisiko-Anwendungen einzustufen sind, so dass besondere und hohe Anforderungen an den Grundrechtsschutz, die Diskriminierungsfreiheit aber auch an die Transparenz und Nachvollziehbarkeit erfüllt werden müssen?

Antwort des Parlamentarischen Staatssekretärs Mario Brandenburg:

Sowohl im Projekt „Vertrauenswürdige Künstliche Intelligenz für polizeiliche Anwendungen“ (VIKING) als auch im Projekt „KI zur Früherkennung von Straftaten“ (KISTRA) haben alle
involvierten Partner ihre Aufgaben gemäß dem jeweiligen aktuellen Projektplan erledigt.

Das Projekt KISTRA läuft Ende dieses Jahres aus und alle Partner haben ihre geplanten Aufgaben umsetzen können. Eine Aufstellung der erledigten Aufgaben für jeden
Verbundpartner ist der Anlage 1 zu entnehmen.

Das Projekt VIKING erstreckt sich noch bis Ende 2024, hat jedoch zum letzten Berichtszeitpunkt Ende Juni 2023 erfolgreich seinen Meilenstein absolviert. Jeder Partner hat seine Aufgaben zum Meilenstein erledigt. Eine Aufstellung der erledigten sowie der noch zu erledigenden Aufgaben für jeden Verbundpartner ist der Anlage 2 zu entnehmen.

Im Rahmen beider Projekte wird die KI-Forschung in enger Zusammenarbeit mit gesellschaftswissenschaftlichen Partnern durchgeführt. Diese erarbeiten Empfehlungen für einen ethisch und juristisch konformen Einsatz der KI-Methoden. Im Projekt VIKING werden darüber hinaus die Themen der Diskriminierungsfreiheit sowie der Transparenz und Nachvollziehbarkeit als konkrete Aufgaben bearbeitet. Das Thema Predictive Policing wurde in beiden Projekten nicht adressiert.

Antwortschreiben im Original (pdf)

Meine Fragen:

1. Welche Rolle spielt Künstliche Intelligenz (KI) beim Forschungsvorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862; bitte KI-Projektanteile ausführlich beschreiben, so dass ein guter Eindruck davon vermittelt wird, welche Zwecke KI wie erreichen soll), und was ist der Stand des Vorhabens mit Bezug auf seine KI-Anteile (bitte den Stand im Projekt-Zeitplan und in Bezug auf er-reichte und noch geplante Meilensteine verorten)?

2. Auf Grundlage welcher Daten wurde oder wird die im Rahmen des Forschungs-vorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862) eingesetzte KI-gestützte Software zur Erkennung kritischer Situationen trainiert, und mit welchen standardisierten oder alternativen Methoden wurde oder wird vor Beginn eines Einsatzes auf einem Bahnhof auch als Test- oder Pilotbetrieb eine nachvollziehbare Risikoklassifizierung/-bewertung vorgenommen (bei standardisierter und alternativer Methode bitte präzisieren, welche Methode; und wenn keine derartige Risikoklassifizierung vorgenommen wurde, bitte begründen, warum nicht)?

3. Wofür wurden und werden Haushaltmittel im Rahmen des Forschungsvorhabens Sicherheitsbahnhof für KI-Aspekte (siehe Bundestagsdrucksache 20/6862) verausgabt (bitte tabellarisch Höhe und Verwendungszweck für alle KI-bezogenen Ausgaben angeben), und wie wird öffentliche Transparenz über das Projekt her-gestellt, z. B. zu Zwischenergebnissen, Risikobewertung, Evaluationprozessen und -ergebnissen, Diskriminierungsfreiheit etc., da es sich um ein Vorhaben handelt, das nach meiner Einschätzung ein hohes Risiko für Grundrechtsverletzungen birgt und nach EU KI-Verordnung vermutlich als Hochrisiko-KI-Anwendung eingestuft würde?

Antwort der Parlamentarischen Staatssekretärin Rita Schwarzelühr-Sutter (BMI):

Die Deutsche Bahn und die Bundespolizei identifizieren ordnungspartnerschaftlich sicherheitsrelevante Naht- und Schnittstellen im Eisenbahnverkehr und entwickeln
partnerschaftlich bauliche, technische und übergreifende Maßnahmen, um einen sicheren und störungsfreien Bahnverkehr auch in Zukunft zu gewährleisten. Gemein-sam mit Wissenschaft und Wirtschaft konzipieren sie interdisziplinär erste innovative Lösungen unter Labor- und Realbedingungen. Das Ziel des Forschungsvorhabens Sicherheitsbahnhof ist es, Gefahrensituationen zu reduzieren beziehungsweise früh-zeitig zu erkennen, um diese rechtzeitig bewältigen zu können. Die Optimierung der Fahrgastsicherheit, insbesondere in Bahnhöfen, stehen im Vordergrund dieser Forschung. Nachfolgende Teilprojekte des Forschungsvorhabens Sicherheitsbahnhof haben einen KI-Bezug: Erprobung intelligenter Videoanalyse: Zusammen mit dem „KI-Campus der Polizei“ des Bundesministeriums des Innern
und für Heimat (BMI) erforschen die Deutsche Bahn und die Bundespolizei, auf welche Weise KI-gestützte Software bei der Analyse von Videobildern zum Einsatz kommen könnte. Für die Bewertung und Erprobung polizeilicher KI-Lösungen kommen hierbei Wissenschaft, Behörden und ausgewählte Unternehmen zusammen. Die zu entwickelnde Software soll helfen, potenzielle Gefahrensituationen zu erkennen, wie
beispielsweise das unbefugte Betreten von Gleisanlagen oder das Fallen oder Stoßen in diese. Gemeinsam wird sowohl unter Labor- als auch unter realitätsnahen Bedingungen erforscht, wie eine Software für solche speziellen Situationen trainiert und in der Folge das Sicherheitspersonal der Deutsche Bahn oder die Bundespolizei auf diese hinweisen könnte. Zur bestmöglichen Erprobung erfolgt ein stufenweises Vor-gehen, welches die Einhaltung der rechtlichen, datenschutzrechtlichen und ethischen Anforderungen sicherstellt.

Wenn ein Anwendungsfall interdisziplinär als machbar und nützlich bewertet wird, erfolgt seine Erprobung unter Laborbedingungen. Diese soll nachweisen, ob das System technisch grundsätzlich in der Lage ist, das sich aus dem Anwendungsfall ergebende Problem zu lösen. Die anschließende technische Erprobung unter realitätsnahen Bedingungen stellt das System in Bezug auf die
Komplexität realistischer Betriebseinflüsse auf die Probe. Um das Zusammenspiel zwischen Technik und Mensch zu prüfen (Wirksamkeit und Nutzen), erfolgt schließlich eine soziotechnische Erprobung. Sämtliche Stufen der Erprobung werden fortlau-fend unter den Gesichtspunkten der interdisziplinären Bewertung betrachtet, sodass eine verantwortungsbewusste Entwicklung sichergestellt ist. Deshalb sind „Quality
Gates“ zwischen diesen stufenweisen Erprobungsphasen installiert. Nur wenn das System nach jeder Phase die an sie gestellten, stufenspezifischen Anforderungen er-füllt, wird die Erprobung fortgesetzt.

Erprobung sensorgestützter Tunnelmundüberwachung: In einer Machbarkeitsstudie untersuchen die Ordnungspartner, ob mit Hilfe eines Dynamic Vision Sensor (DVS) eine sichere und zuverlässige Erfassung sich bewegen-der Objekte im Zugangsbereich von Tunneln zur teilautomatisierten Gefahrenerkennung erreicht werden kann. Ziel ist es, die Sicherheit im öffentlichen Verkehr zu verbessern und die Anzahl von Sperrzeiten zu reduzieren. Der DVS unterscheidet sich gegenüber herkömmlichen Kameras, da hier keine Videobilder aufgezeichnet werden; der hier erzeugte Datenstrom besteht lediglich aus Pixeln, die sich über die Zeit
in der Helligkeit ändern. Diese Sensoren sind wesentlich lichtempfindlicher, so dass sie auch in Bereichen mit wechselnder Beleuchtung oder in sehr dunklen Umgebungen arbeiten. Zum Erreichen der Witterungsunabhängigkeit soll ein maßgeschneiderter Erkennungsalgorithmus entwickelt werden, der mit Hilfe von Methoden der künstlichen Intelligenz eine sichere Klassifikation zwischen Personen und anderen sich
bewegenden Objekten im Tunneleingangsbereich ermöglicht. Durch die zuverlässige Erkennung und die teilautomatisierte Alarmierung kann das Sicherheitspersonal
ohne Zeitverzug gefahrenabwehrende Maßnahmen, auch zum Schutz der kritischen Infrastruktur und des störungsfreien Bahnverkehrs, einleiten. Im Teilprojekt TUNUKI hat die Hochschule Niederrhein die Feldphase zur Aufnahme der Sensordaten abge-schlossen, die Auswertung dieser Daten dauert noch an. Es wurden Daten vom Tunneleingang des BER-Eisenbahntunnels (nicht öffentlicher Bereich) über eine Dauer
von sechs Monaten aufgezeichnet. Ziel ist es, auf Grundlage dieser Datenbasis ein KI-Modell zu trainieren, welches Anwesenheit von Personen im Tunnel erkennen und
diese zuverlässig bei allen Licht- und Wetterverhältnissen von Tieren, Zügen und an-deren Objekten unterscheiden kann. Personenbezogene Daten werden nicht erhoben.

Zu 3.

Der KI-Campus sowie die derzeit in Anspruch genommenen Entwicklungsleistungen der PD-Berater der öffentlichen Hand GmbH werden durch das BMI finanziert. Die
Finanzierung des Teilprojekts TUNUKI erfolgte aus den Fördermitteln mFUND des Bundesministeriums für Digitales und Verkehr. Das Forschungsvorhaben Sicherheitsbahnhof wird anteilig über Eigenmittel der DB Station&Service AG finanziert. Die Bundespolizei hat keine eigenen Haushaltsmittel für das Forschungsprojekt Sicherheitsbahnhof bereitgestellt. Die notwendige Transparenz während des Projekts wird durch die Informationen auf der Webseite https://sicherheitsbahnhof.bahnhof.de/ gewährleistet. Zur Erprobung sensorgestützter Tunnelmundüberwachung wurden vom Projektpartner Hochschule Niederrhein ferner folgende Beiträge veröffentlicht: https://www.hs-niederrhein.de/aktuelles/news-detail/tunnelmuendungen-mithilfe-ku-enstlicher-intelligenz-sicherer-machen/, https://www.hs-niederrhein.de/ipattern/nach-richten-detailseite/ki-zur-ueberwachung-von-tunnelmuendungen/.

Antwortschreiben im Original (pdf): https://mdb.anke.domscheit-berg.de/wp-content/uploads/231103_3-SFs-zu-KI-Projekten-Antwort-BuReg_Geschwaerzt.pdf

In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:

„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.

Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird. 

Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.

Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.

Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.

Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.

Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.

Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.

Hintergrund

Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.

Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):

17. Oktober 2022

Frage:

Warum setzt sich die Bundesregierung in den Verhandlungen zur EU KI-Verordnung dafür ein, dass KI-Anwendungen der öffentlichen Verwaltung durch gesonderten Rechtsakt oder ein gesondertes Kapitel der KI-Verordnung reguliert werden sollen, wie es die Bundesregierung in der Stellungnahme „KI-Regulierung – stärkere Berücksichtigung von Besonderheiten der öffentlichen Verwaltung insbesondere im Sicherheits- und Migrationsbereich“ (BReg-Dok 272/2022) formuliert, und wie unterscheiden sich nach Auffassung der Bundesregierung die jeweiligen Vor- und Nachteile einer Regulierung von KI-Anwendungen der öffentlichen Verwaltung in einem gänzlich gesonderten Rechtsakt im Vergleich zu einer Regulierung in einem gesonderten Kapitel der KI-Verordnung?

Antwort des Staatssekretärs Benjamin Strasser:

Die Bundesregierung strebt die Regulierung von Künstlichen Intelligenz-Systemen (KI-Systeme) an und unterstützt den europäischen Artificial Intelligence Act (AI Act). Dies umfasst auch die rasche und zeitgleiche Regulierung von KI-Systemen für die öffentliche Verwaltung, einschließlich der Bereiche der Sicherheits-, Migrations- und Asylbehörden sowie Steuer- und Zollverwaltung (einschließlich Financial Intelligence Unit (FIU)).

Die besonderen Belange der staatlichen Tätigkeit der vorgenannten Behörden werden durch den Entwurf der Kommission jedoch nicht in jeder Hinsicht hinreichend berücksichtigt. Es ist schwierig, den besonderen Belangen dieser Behörden sowie den für hoheitliche Maßnahmen geltenden grundrechtlichen Anforderungen im Rahmen der primär privatrechtlich- und binnenmarktorientierten Vorschriften des Vorschlags für den AI Act vollständig gerecht zu werden. Die Erfüllung staatlicher Aufgaben muss gewährleistet bleiben und gleichzeitig die unmittelbare Grundrechtsbindung der staatlichen Verwaltung Beachtung finden. Notwendige diverse Einzelausnahmen /-anpassungen in den Einzelvorschriften des aktuellen Verordnungsentwurfs können zu Rechtsunsicherheit bei den Normadressaten führen.

Aus Sicht der Bundesregierung kann den Besonderheiten der öffentlichen Verwaltung (ins- besondere von Sicherheits-, Migrations- und Asylbehörden sowie der Steuer- und Zollverwaltung einschließlich FIU) durch einen separaten, gesonderten Technologierechtsakt oder jedenfalls durch ein gesondertes Kapitel in der Verordnung mit jeweils abschließendem Regelungsinhalt besser Rechnung getragen werden. Für die Bundesregierung ist es dabei nicht entscheidend, ob entsprechende Regelungen in einem separaten Kapitel im Entwurf des europäischen AI Acts oder zeitgleich in einem eigenständigen Rechtsakt erfolgen.

Drei Themenblöcke beschäftigen den Digitalausschuss am 22.06.2022. Das BMI war zu Gast, um (auf meine Anregung hin) die Position der Bundesregierung zum Thema Chatkontrolle zu berichten. Was man da so hört aus der Bundesregierung ist mindestens verwirrend. Nachdem „Digitalminister“ Volker Wissing sich klar gegen diesen Entwurf einer grundrechtswidrigen EU Verordnung aussprach, gab es von Seiten BMI leider weniger Klarheit. Ob das Recht auf Verschlüsselung (steht im KoaV!) bestehen bleibt, hängt für das BMI wohl auch davon ab, wie man den Verschlüsselungsprozess definiert. Das macht mir Sorgen. Meine Kritik und welche Präventionsmaßnahmen zum Kinderschutz sinnvoller wären – aber null im Entwurf vorkommen – gibts im Video.

Weiterlesen

Frage:

Plant die Bundesregierung bzw. planen Behörden des Bundes, die Zuverlässigkeit, Wirksamkeit und Fehlerfreiheit algorithmischer Systeme, die im Bereich des Bundes eingesetzt werden, zu prüfen und zu bewerten, insbesondere, wenn sie in besonders sensiblen Bereichen eingesetzt werden (z.B. von Sicherheitsbehörden innerhalb der Strafverfolgung, Terrorismusbekämpfung etc.) und wenn ja, wie (bitte erläutern ob z.B. Risikoklassensysteme nach ggf. einheitlichen Vorgaben eingesetzt werden sollen) und wenn nein, warum nicht (Antwort bitte ausführlich begründen)? Drucksache 201355 Frage 83

Weiterlesen

Künstliche Intelligenz: Nutzen und Risiken

Seit Jahren steigt der Einsatz von Künstlicher Intelligenz (KI), längst ist sie im Alltag der Menschen angekommen und wird weiter zunehmen, nicht nur in der Wirtschaft und in unseren elektronischen Geräten, sondern auch in der öffentlichen Verwaltung.

Weiterlesen

Frage

Kann die Bundesregierung ausschließen, dass von der Bundeswehr gesammelte biometrische Daten von afghanischen Staatsangehörigen den Taliban in die Hände fielen (vgl. www.heise.de/news/Afghanistan-Biometrie-Geraete-und-Datenbanken-von-Taliban-erbeutet-6168158.html), und in welcher Weise hat die Bundeswehr im Zusammenhang mit dem Ende des ISAF Einsatzes sichergestellt, dass der Passus im Memorandum of Understanding zwischen der Bundeswehr und dem US-Militär zur Sammlung und Verarbeitung biometrischer Daten in Afghanistan (siehe Bundestagsdrucksache 17/6862) umgesetzt wird, in dem eine Löschung aller von der Bundeswehr gesammelten Daten vereinbart ist, sobald der ISAF-Einsatz endet? (BT Drucksache 19/32251, Frage 86)

Antwort des Parlamentarischen Staatssekretärs Thomas Silberhorn vom 3. September 2021

Die Bundesregierung arbeitet mit anderen, insbesondere verbündeten, Staaten auf Grundlage des Grundsatzes gegenseitigen Vertrauens zusammen. Ihr liegen keine Anhaltspunkte dafür vor, dass die Löschung der Daten entsprechend der gegenseitigen Vereinbarung nicht erfolgt ist. Daher wird davon ausgegangen, dass die Löschung der von der Bundeswehr an das Hauptquartier übermittelten und im Automated Biometric Identification System (ABIS) gespeicherten Daten erfolgt ist. In der Vereinbarung wurde darüber hinaus festgelegt, dass die USA die Daten gegen unberechtigte Zugriffe sichert.

Frage: Wie ist der Planungsstand zur Entwicklung der polizeilichen KI-Strategie, und wurden neben dem Unternehmen msg systems AG weitere Firmen zur Entwicklung der polizeilichen KI-Strategie eingebunden (vgl. Bundestagsdrucksache 19/13866)? (BT-Drucksache 19/23047)

Antwort des Parlamentarischen Staatssekretärs Dr. Günter Krings vom 2. Oktober 2020
Zur Konkretisierung der Strategie Künstliche Intelligenz (KI) der Bundesregierung im Hinblick auf die innere Sicherheit (Kapitel 3.7) wurde im November 2019 mit der Entwicklung einer polizeilichen KI-Strategie begonnen. Die Strategieentwicklung befindet sich aktuell in der Phase der Finalisierung. Die Veröffentlichung der polizeilichen KI-Strategie wird zu Ende 2020/Anfang 2021 angestrebt.
Das Unternehmen msg systems AG ist Generalunternehmer einer Rahmenvereinbarung des Bundes. Die adesso AG ist als Unterauftragnehmer dieser Rahmenvereinbarung und unterstützt das Bundesministerium des Innern, für Bau und Heimat bei der Erstellung der polizeilichen KI-Strategie. Für den Entwicklungsprozess bedarf es der Einbindung weiterer externer und interner Experten, die innerhalb der unterschiedlichen Handlungsstränge durch das Einbringen ihrer konkreten Fachexpertisen einen wesentlichen Beitrag leisten. Neben den externen Experten von verschiedensten Hochschulen, die für ihre Expertise eine Aufwandsentschädigung erhielten, bestanden/bestehen vertragliche Vereinbarungen mit Fraunhofer FOKUS, der Schütze AG und PD – Berater der öffentlichen Hand GmbH.

Frage: Sind an dem Pilotprojekt der Deutschen Bahn AG in Stuttgart zur videobasierten Fahrgaststrom-Überwachung das Bundesministerium des Innern, für Bau und Heimat oder seine nachgelagerten Behörden an der Entwicklung, Planung, Umsetzung oder Finanzierung beteiligt, und wer hat Zugriff auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI (www.handelsblatt.com/technik/forschung-innovation/pilotprojekt-in-stuttgart-mit-kameras-gegen-corona-deutsche-bahn-will-passagierstroeme-bewusster-lanken/25774872.html)? (BT-Drucksache 19/19240)

Antwort des Parlamentarischen Staatssekretärs Enak Ferlemann vom 13. Mai 2020

Das Bundesministerium des Innern, für Bau und Heimat oder dessen Geschäftsbereichsbehörden sind an dem genannten Projekt nicht beteiligt.
Der Bundesregierung liegen keine eigenen Erkenntnisse hinsichtlich des Zugriffs auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI vor.

Episoden

In diesem Podcast zum Digitalausschuss vom 10.04.24 erzähle ich Euch, wie meine Rechte als Linke im Ausschuss nun endgültig beschnitten wurden und zu den folgenden 3 Fachthemen: 1) Wohngeld- und Bauanträge digital, Smart Cities und Smart Regions, digitale Zwillinge von Städten, Geldregen für Einzelprojekte und Geldnot bei Verwaltungsdigitalisierung und vieles mehr debattierten wir mit Bauministerin Klara Geywitz, die erstmalig im Ausschuss zu Gast war. Außerdem: 2) Die jüngst und geräuschlos verabschiedete EU-Verordnung zu politischer Werbung und was sie für kommende Wahlen bedeutet und 3) ein Gutachten zur Forschungs- und Innovationslandschaft in DE mit Schwerpunkt KI und smarte Landwirtschaft. Enjoy!

Kapitelmarken:
00:00:07 Intro
00:01:08 Update Linke im Bundestag
00:05:32 Bauministerin Geywitz: digitale Vorhaben
00:20:54 Baumin.: OZG, Open Source, Standards
00:30:36 Baumin.: Smart Cities, Smart Regions
00:32:10 Baumin.: Nachhaltigkeit, Digitalstrategie
00:38:11 Baumin.: IT-Sicherheit u Fazit
00:39:22 EU-Verordnung Polit. Werbung: Intro
00:49:05 Polit. Werbung: Zeitplan, Aufsicht, sensible Daten
00:55:44 Experten Gutachten zu KI + Smarter Landwirt. in DE
01:03:48 Outro: Schriftl. Frage zu Standards in Verw.Dig.

Weiterführende Links:

Bauministerin Geywitz / Digitales im BMWSB

EU-Verordnung zu Politischer Werbung / Political Targeting:

EFI-Gutachten 2024 zu KI und smarte Landwirtschaft

Schriftl. Frage zur Entwicklung von Standards im IT-Planungsrat

Mehr von mir und Feedback von euch zu #DerADBPodcast:

Dreimal ging es direkt oder indirekt um die EU im Digitalausschuss am 8.11.2023. Zu den Verhandlungen der KI-Verordnung diskutierten wir den (wirklich guten!) Antrag der (noch) Linksfraktion. Weitere Themen: Der Digital Services Act, der nach dem Hamas Terror vom 7.10.23 mit 1.400 Toten in Israel seine erste Bewährungsprobe mit massenhaft Desinformationen auf großen Plattformen hat, der Einsatz von KI zur Früherkennung von Straftaten und strafbaren Inhalten im Netz, und die schleppende Umsetzung des DSA in DE. Bonus-Inhalt: Wie geht es weiter mit der Linksfraktion?

Transkript dieser Folge:

Kapitelmarken:
00:00:07 Intro
00:03:18 Digitalausschuss – Antrag Linke zur EU- KI Verordnung
00:16:56 Israel-Hass u Antisemitismus in sozialen Netzen: Intro 
00:18:28 Israel-Hass: Bewährungsprobe Dig. Services Act
00:24:40 KI beim Bund: intell. Videoanalyse, Früherkennung Straftaten
00:28:35 Bundesamt für Justiz: 1.400 liegengebliebene NetzDG Beschwerden?
00.30:26 Dig. Services Act in DE: Gesetz u nat. Dig. Dienste Koordinator
00:38:48 Netzsperren im Digitale Dienste Gesetz
00:40:52 Zukunft der Linksfraktion
00:44:54 Outro und Hinweise

Weiterführende Links:

Rückblick:

KI-Regulierung:

Israel-Hass in sozialen Medien:

Nationaler Koordinator Digitale Dienste/Digitale Dienste Gesetz:
 

Weitere Links:

Themen dieser Doppel-Ausgabe: Anhörung im Digitalausschuss zu Generativer KI im Rahmen der EU KI-Verordnung, als Bonus verrate ich, was mir die Bundesregierung auf meine neue Kleine Anfrage zum Einsatz von KI im Bund antwortete (Spoiler: über 100 KI-Systeme werden genutzt, die Details werden Euch beunruhigen). Im Digitalausschuss selbst gings 1.) um eine EU Verordnung zum schnelleren Ausbau der Gigabitinfrastruktur und was das für DE bedeutet und 2.) um das Zombie-Thema “sicherer” Datenaustausch zwischen der EU und USA, denn nachdem Max Schrems und EUGH schon zwei EU-US-Abkommen dazu gekippt haben, gibts nun einen 3. Versuch (Privacy Shield 2.0) und wir diskutierten, wie gut/schlecht/anders der jetzt ist und ob ein “Schrems III”- Urteil auch dieses Vereinbarung killen könnte.
 
Ich freue mich, wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast.
Dafür bin ich hier zu finden:

Twitter

Instagram

Mastodon

Youtube

Facebook

Kapitelmarken:
00:00:00 Intro
00:01:51 Privacy Shield 2.0 – Datenverkehr EU-USA
00:13:36 EU Verordnung: Gigabit Infrastructure Act
00:21:14 Anhörung: Generative KI u EU KI-Verordnung, Intro, Risiken
00:35:56 Generative KI – Kennzeichnungspflicht, Arbeitsmarkt, High Risk Systeme
00:43:11 Bonus: Ergebnisse meiner Kl. Anfrage zum Einsatz von KI im Bund
00:50:04 Outro und Hinweise

Weiterführende Links:

“How to” Anmeldung öffentl. Anhörungen

Privacy Shield 2.0 – Datenaustausch zwischen EU und USA

Gigabit Infrastructure Act

Öffentliche Anhörung und  „Generative KI” im Ausschuss f. Digitales vom 24.05.2023

Meine Kleine Anfrage zum KI-Einsatz beim Bund

Weitere Themen:

In dieser Folge gehts um Twitter, Künstliche Intelligenz, Cybercrime und den Breitbandausbau. Ich berichte Euch vom Fachgespräch des Bildungsausschusses zu ChatGPT u ähnlichen KI-Modellen mit Vorlage eines Berichts des Büros für Technikfolgen und natürlich vom Digitalausschuss, wo es am 26.4.23 um die ebenso unbekannte wie gruselige UN Cybercrime Convention geht (potenziell alles drin, von Staatshacking über Vorratsdatenspeicherung bis Verfolgung Oppositioneller) und um die lang erwartete neue Breitbandförderung. Außerdem gibts nachgereichte Infos von Twitter (Spoiler: *KopfaufTisch*).

Ich freue mich, wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast

Dafür bin ich hier zu finden:

Twitter

Instagram

Mastodon

Youtube

Facebook

Timemarks:

00:00:07 Intro und Nachreichung von Twitter

00:05:51 Bild.Ausschuss: Fachgespräch ChatGPT, Bericht Büro für Technikfolgen

00:14:11 Debatte ChatGPT: Wirt. Potenziale, Regulierung, Bildung und Forschung

00:31:11 ChatGPT: Demokratiegefährdung, Gemeinwohlorientierung

00:42:56 DigAusschuss: UN Cybercrime Convention, Verhandlungsstand

00:52:31 UN Cybercrime Convention: Haltung BuReg zum Brief von 90 NGOs

00:56:26 Breitbandförderung 2023, Budget, Prozesse, Potenzialanalyse, Fazit

01:07:37 Outro

Weiterführende Links:

Twitter:

Fachgespräch ChatGPT im Ausschuss Bildung, Forschung und Technikfolgen

Thema UN Cybercrime Convention

Thema Antrag Union zu Breitbandförderrichtlinie

In der letzten Sitzungwoche im März 2023 gab es eine Sondersitzung des Digitalausschusses zum Whistleblowerschutz (Hinweisgeberschutzgesetz), mit viel Hektik um ein überfälliges und schlecht gemachtes Gesetz, das dann doch nicht wie geplant verabschiedet wurde. Die planmäßige Sitzung wiederum stand im Zeichen der EU: wie bildet die KI-Verordnung die Herausforderungen durch disruptive generative KI ab (ChatGPT und Co)? Wie ist die Haltung der Ampel zur biometrischen Überwachung im öffentlichen Raum? Außerdem gab es Updates zu den EU Verordnungen Chips-Act und Raw Material Act, wo es um mehr Souveränität und Versorgungssicherheit bei Halbleitern und kritischen Rohstoffen geht.

Ich freue mich wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast

Dafür bin ich hier zu finden:

Twitter

Instagram

Mastodon

Youtube

Facebook

Kapitelmarken:

00:00:07 Intro

00:01:07 Nachreichung zu Zuständigkeiten in der Digitalpolitik

00:03:02 Hinweisgeberschutzgesetz – Sondersitzung Digitalausschuss 28.3.23

00:19:18 Digitalausschuss 29.3.23 – KI-Verordnung der EU

00:21:48 Intro zu Disruption durch generative KI wie zB ChatGPT

00:28:06 Intro Bundesregierung, Risikobewertung generativer KI

00:33:33 Generative KI und ihre Folgen für die Gesellschaft

00:40:39 Biometrische Überwachung, LEAM, Fazit KI-VO

00:49:29 Critical Raw Materials Act – krit. Rohstoffe Verordnung EU

00:56:32 EU Chips Act

01:04:55 Outro

Shownotes:

Meine Rede zum Data Act vom 31.3.2023:

Whistleblower: Hinweisgeberschutzgesetz

Zum AI-Act (Künstliche Intelligenz-Verordnung):

Zum Critical Raw Materials Act (kritische Rohstoffe-Verordnung) der EU

Zu Chips-Act (Halbleiter-Verordnung) der EU:

Großer Schwerpunkt dieser Ausgabe ist die Anhörung zur EU-Chatkontrolle Verordnung am 01.03.2023, die das Potenzial hat, die größte Überwachungsinfrastruktur aller Zeiten in der EU zu veranlassen. Mit dabei der von mir vorgeschlagene Sachverständige Felix Reda. Im Digitalausschuss direkt danach ging es einerseits um eine von der EU Kommission geplante Infrastrukturabgabe für sog. Over-the-Top-Anbieter und andererseits um das geplante Dateninstitut der Bundesregierung – was da der Stand seiner Gründung ist, wie die 10 Mio € Haushaltsmittel ausgegeben werden sollen und andere offene Fragen. Hinter der Infrastrukturabgabe verbirgt sich die neu aufgewärmte (und sehr dumme) Idee, datenintensiven Inhalteanbietern (Netflix, Amazon, Google u Co) ein Zwangsgeld überzuhelfen, mit dem sie sich an den Ausbaukosten der Netzbetreiber beteiligen sollen (wer zahlt da wohl am Ende mehr?). Ihr erfahrt, warum diese Abgabe gefährlich ist für das gesamte Ökosystem des Internets und welche Position (vermutlich) die Bundesregierung vertritt.

Ich freue mich wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast

Dafür bin ich hier zu finden:

Twitter

Instagram

Mastodon

Youtube

Facebook

Kapitelmarken:

00:00:07 Intro
00:01:05 Nachreichung: OSS und Open Data beim Breitbandportal
00:01:43 Anhörung Chatkontrolle – Intro
00:08:09 Scannen von privater Kommunikation
00:13:12 Künstl. Intelligenz – Filter, Fehlerraten
00:21:43 Hash-basierte Filter-Verfahren
00:24:53 Altersverifizierung  Folgen für Anonymität, Minderjährige, Open Source
00:33:30 Netzsperren
00:36:29 EU-Zentrum
00:37:44 BfDI Kelber zum Datenschutz
00:39:43 Chatkontrolle Verordnung und ePrivacy Richtlinie
00:41:07 Rechtsgrundlage der Chatkontrolle VO
00:44:43 Empfehlungen der Sachverständigen zur Haltung der BuReg
00:49:37 Ausschusssitzung 01.03.23, TOP Infrastrukturabgabe OTT-Anbieter Intro
00:51:00 Befürworter und Gegner und ihre Argumente
00:54:13 Der ungewöhnliche Prozess
00:56:12 Einführung Staatssekretär Schnorr, BMDV
00:58:38 Marktversagen ja oder nein und Position der BNetzA
01:01:10 ganz schön fishy: was Telco Orange und Kommissar Breton verbindet
01:02:19 Viele weitere Fragen und Fazit zur Infrastrukturabgabe
01:06:03 Ausschusssitzung 01.03.23 TOP Dateninstitut – Intro
01:07:18 Einführung von BMWK, BMI und BMBF
01:09:48 Zeitplan und wie werden 10 Mio € ausgegeben?
01:11:36 Governance des Dateninstitutes
01:12:50: Use Cases und künftige Finanzierung
01:14:47 Ausblick und Fazit
01:15:18  Outro mit Terminhinweisen 

Weiterführende Links:

Thema Chatkontrolle:

Thema Infrastrukturabgabe für Over-the-Top Anbieter:

Thema Dateninstitut:

Weil sich Twitter als Privateigentum von Elon Musk verändert hat, befragten wir im Digitalausschuss am 8.2.2023 Twitter EU-Repräsentant Costello zur Gesetzeinhaltung trotz Massenentlassungen, zu Veränderungen bei Diensten, Einsatz von KI u.v.m., es wurde unfassbar peinlich. Außerdem berichtete das BMJ: zum NetzDG und zum Rechtsstreit mit Twitter und es geht kurz ums OZG 2.0 (Spoiler: Es kommt erst 2024!). News gibts zur Frage: Wie gut klappte der Warntag?

Kapitelmarken:

00:00:07 Intro

00:01:17 Update zur Öffentlichkeit des Ausschusses

00:03:08 Bilanz des bundesweiten Warntages 2022

00:05:16 Befragung Twitter, Intro Costello, Community Notes

00:09:14 Twitter: Entlassungen, Content Moderation, NetzDG , KI

00:17:22 Twitter Files, Blauer Haken, Suicide Feature, API, Nutzer*innenzahlen, DSA

00:25:07 BMJ: Rechtsstreit mit Twitter, allg. Umgang mit Musk-Twitter

00:31:46 BMJ: NetzDG allg.

00:33:50 OZG 2.0: Zeitplan, Evaluierung, keine E2E Digitalisierung per Gesetz

00:38:51 Outro und Terminhinweise

Weiterführende Links:

Warntag 2022

Twitter

Termine:

Mehr von mir hören und sehen:

Dieser Podcast ist eine Doppelfolge, denn am 25.01.2023 gab es zuerst eine Anhörung zu Cybersicherheit, in der wir Hackbacks, Sicherheitslücken, die unübersichtliche Cybersicherheitsarchitektur und Regulierungsbedarfe debattierten. Anschließend gab es den Digitalausschuss mit folgenden Themen: 1) die Nicht-Öffentlichkeit als Standard für den Digitalausschuss (wurde leider ohne Debatte so beschlossen), 2) digitalpolitische Projekte des BMVg, inkl. Cyber Innovation Hub, Cyber-Agentur und Kommando Cyber- und Informationsraum 3) geplante EU-Verordnung zur Regulierung politischer Werbung, 4) Aktuelle Entwicklungen bei der EU-Verordnung zu KI (AI Act).

Ich freue mich wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast

Dafür findet ihr mich hier:

Twitter
Instagram
Mastodon
Youtube
Facebook

Kapitelmarken
00:00:07 Intro

00:01:05 Öffentlichkeit von Ausschüssen im Bundestag

00:06:01 (Nicht-)zulassung der Öffentlichkeit im DigitalA

00:09:15 Anhörung Cybersicherheit: Intro, Cybersicherheitsarchitektur

00:18:58 Forts.: Hackback & Schwachstellen

00:32:08 ADi: Digitalpolitik des BMVg – CyberInnovationHub & Cyberagentur

00:37:22 Kommando Cyber- und Informationsraum der Bundeswehr

00:44:10 EU-Verordnung zu politischer Werbung

00:51:21 EU-Verordnung zu Künstlicher Intelligenz

00:54:49 Hinweise: Chatkontrolle (Antrag Linke) u IT Sicherheitsstellen

00:56:36 Outro und Termine

Weiterführende Links

Ausschussöffentlichkeit:

Aktuelle Regelung Öffentlichkeit von Ausschüssen Bundestag, §69: https://www.bundestag.de/parlament/aufgaben/rechtsgrundlagen/go_btg/go07-245166

Antrag der Linksfraktion: https://dserver.bundestag.de/btd/20/002/2000286.pdf

Anhörung Cybersicherheit:

Übersicht zur Anhörung: https://www.bundestag.de/ausschuesse/a23_digitales/Anhoerungen/928388-928388

Stellungnahme Dr. Martina Angela Sasse: https://www.bundestag.de/resource/blob/930264/1bb7776af72e8c3b1cecd59e18bc3551/Stellungnahme-Sasse-data.pdf

Stellungnahme Dr. Sven Herpig: https://www.bundestag.de/resource/blob/929844/6a44c7873556d39c82c150b1b8251841/Stellungnahme-Herpig-data.pdf

Wimmelbild Sven Herpig zur staatlichen Cypersicherheitsarchitektur: https://www.stiftung-nv.de/sites/default/files/cybersicherheitsarchitektur_visualisierung_neunteauflage_0.pdf

Stellungnahme Manuel Atug „HonkHase“ https://www.bundestag.de/resource/blob/929948/d607e3604be4c777cd8186265a912386/Stellungnahme-Atug-data.pdf

Meine Schriftliche Frage zur Definition von Hackbacks: https://mdb.anke.domscheit-berg.de/wp-content/uploads/2022/09/Hackback_Geschwaerzt.pdf

Digitalpolische Projekte des BMVg:

Buisness Insider zu Künstler- und Kritiker-Überwachung mittels KI durch Bundeswehr: https://www.businessinsider.de/politik/spionageaffaere-wie-die-bundeswehr-mit-hilfe-von-kuenstlicher-intelligenz-kuenstler-und-kritiker-im-inland-ueberwacht-c/

KI-Verordnung:

KI-Verordnung Einführung: https://www.youtube.com/watch?v=r2FP5bzBuk8

Antrag gegen Chatkontrolle:

Meine Rede im Plenum: https://www.youtube.com/watch?v=gslqzkeV7Fc

Antrag Linksfraktion gegen Chatkontrolle: https://mdb.anke.domscheit-berg.de/wp-content/uploads/2002336.pdf

Übersicht zur Debatte im Plenum: https://www.bundestag.de/dokumente/textarchiv/2023/kw03-de-praevention-kindesmissbrauch-927034

Alles zu Chatkontrolle auf meiner Homepage: https://mdb.anke.domscheit-berg.de/2023/01/chatkontrolle-eine-uebersicht/

IT Sicherheitsstellen:

Schriftliche Frage und Antwort: https://mdb.anke.domscheit-berg.de/2023/01/meine-schriftliche-frage-zur-besetzung-von-it-sicherheitsstellen-in-bundesministerien-2023/

Pressemitteilung: https://mdb.anke.domscheit-berg.de/2023/01/der-bund-als-sicherheitsluecke-jede-5-it-sicherheitsstelle-im-bund-ist-unbesetzt/

Medienecho