Beiträge

Meine Fragen:

1. Welche Rolle spielt Künstliche Intelligenz (KI) beim Forschungsvorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862; bitte KI-Projektanteile ausführlich beschreiben, so dass ein guter Eindruck davon vermittelt wird, welche Zwecke KI wie erreichen soll), und was ist der Stand des Vorhabens mit Bezug auf seine KI-Anteile (bitte den Stand im Projekt-Zeitplan und in Bezug auf er-reichte und noch geplante Meilensteine verorten)?

2. Auf Grundlage welcher Daten wurde oder wird die im Rahmen des Forschungs-vorhaben Sicherheitsbahnhof (siehe Bundestagsdrucksache 20/6862) eingesetzte KI-gestützte Software zur Erkennung kritischer Situationen trainiert, und mit welchen standardisierten oder alternativen Methoden wurde oder wird vor Beginn eines Einsatzes auf einem Bahnhof auch als Test- oder Pilotbetrieb eine nachvollziehbare Risikoklassifizierung/-bewertung vorgenommen (bei standardisierter und alternativer Methode bitte präzisieren, welche Methode; und wenn keine derartige Risikoklassifizierung vorgenommen wurde, bitte begründen, warum nicht)?

3. Wofür wurden und werden Haushaltmittel im Rahmen des Forschungsvorhabens Sicherheitsbahnhof für KI-Aspekte (siehe Bundestagsdrucksache 20/6862) verausgabt (bitte tabellarisch Höhe und Verwendungszweck für alle KI-bezogenen Ausgaben angeben), und wie wird öffentliche Transparenz über das Projekt her-gestellt, z. B. zu Zwischenergebnissen, Risikobewertung, Evaluationprozessen und -ergebnissen, Diskriminierungsfreiheit etc., da es sich um ein Vorhaben handelt, das nach meiner Einschätzung ein hohes Risiko für Grundrechtsverletzungen birgt und nach EU KI-Verordnung vermutlich als Hochrisiko-KI-Anwendung eingestuft würde?

Antwort der Parlamentarischen Staatssekretärin Rita Schwarzelühr-Sutter (BMI):

Die Deutsche Bahn und die Bundespolizei identifizieren ordnungspartnerschaftlich sicherheitsrelevante Naht- und Schnittstellen im Eisenbahnverkehr und entwickeln
partnerschaftlich bauliche, technische und übergreifende Maßnahmen, um einen sicheren und störungsfreien Bahnverkehr auch in Zukunft zu gewährleisten. Gemein-sam mit Wissenschaft und Wirtschaft konzipieren sie interdisziplinär erste innovative Lösungen unter Labor- und Realbedingungen. Das Ziel des Forschungsvorhabens Sicherheitsbahnhof ist es, Gefahrensituationen zu reduzieren beziehungsweise früh-zeitig zu erkennen, um diese rechtzeitig bewältigen zu können. Die Optimierung der Fahrgastsicherheit, insbesondere in Bahnhöfen, stehen im Vordergrund dieser Forschung. Nachfolgende Teilprojekte des Forschungsvorhabens Sicherheitsbahnhof haben einen KI-Bezug: Erprobung intelligenter Videoanalyse: Zusammen mit dem „KI-Campus der Polizei“ des Bundesministeriums des Innern
und für Heimat (BMI) erforschen die Deutsche Bahn und die Bundespolizei, auf welche Weise KI-gestützte Software bei der Analyse von Videobildern zum Einsatz kommen könnte. Für die Bewertung und Erprobung polizeilicher KI-Lösungen kommen hierbei Wissenschaft, Behörden und ausgewählte Unternehmen zusammen. Die zu entwickelnde Software soll helfen, potenzielle Gefahrensituationen zu erkennen, wie
beispielsweise das unbefugte Betreten von Gleisanlagen oder das Fallen oder Stoßen in diese. Gemeinsam wird sowohl unter Labor- als auch unter realitätsnahen Bedingungen erforscht, wie eine Software für solche speziellen Situationen trainiert und in der Folge das Sicherheitspersonal der Deutsche Bahn oder die Bundespolizei auf diese hinweisen könnte. Zur bestmöglichen Erprobung erfolgt ein stufenweises Vor-gehen, welches die Einhaltung der rechtlichen, datenschutzrechtlichen und ethischen Anforderungen sicherstellt.

Wenn ein Anwendungsfall interdisziplinär als machbar und nützlich bewertet wird, erfolgt seine Erprobung unter Laborbedingungen. Diese soll nachweisen, ob das System technisch grundsätzlich in der Lage ist, das sich aus dem Anwendungsfall ergebende Problem zu lösen. Die anschließende technische Erprobung unter realitätsnahen Bedingungen stellt das System in Bezug auf die
Komplexität realistischer Betriebseinflüsse auf die Probe. Um das Zusammenspiel zwischen Technik und Mensch zu prüfen (Wirksamkeit und Nutzen), erfolgt schließlich eine soziotechnische Erprobung. Sämtliche Stufen der Erprobung werden fortlau-fend unter den Gesichtspunkten der interdisziplinären Bewertung betrachtet, sodass eine verantwortungsbewusste Entwicklung sichergestellt ist. Deshalb sind „Quality
Gates“ zwischen diesen stufenweisen Erprobungsphasen installiert. Nur wenn das System nach jeder Phase die an sie gestellten, stufenspezifischen Anforderungen er-füllt, wird die Erprobung fortgesetzt.

Erprobung sensorgestützter Tunnelmundüberwachung: In einer Machbarkeitsstudie untersuchen die Ordnungspartner, ob mit Hilfe eines Dynamic Vision Sensor (DVS) eine sichere und zuverlässige Erfassung sich bewegen-der Objekte im Zugangsbereich von Tunneln zur teilautomatisierten Gefahrenerkennung erreicht werden kann. Ziel ist es, die Sicherheit im öffentlichen Verkehr zu verbessern und die Anzahl von Sperrzeiten zu reduzieren. Der DVS unterscheidet sich gegenüber herkömmlichen Kameras, da hier keine Videobilder aufgezeichnet werden; der hier erzeugte Datenstrom besteht lediglich aus Pixeln, die sich über die Zeit
in der Helligkeit ändern. Diese Sensoren sind wesentlich lichtempfindlicher, so dass sie auch in Bereichen mit wechselnder Beleuchtung oder in sehr dunklen Umgebungen arbeiten. Zum Erreichen der Witterungsunabhängigkeit soll ein maßgeschneiderter Erkennungsalgorithmus entwickelt werden, der mit Hilfe von Methoden der künstlichen Intelligenz eine sichere Klassifikation zwischen Personen und anderen sich
bewegenden Objekten im Tunneleingangsbereich ermöglicht. Durch die zuverlässige Erkennung und die teilautomatisierte Alarmierung kann das Sicherheitspersonal
ohne Zeitverzug gefahrenabwehrende Maßnahmen, auch zum Schutz der kritischen Infrastruktur und des störungsfreien Bahnverkehrs, einleiten. Im Teilprojekt TUNUKI hat die Hochschule Niederrhein die Feldphase zur Aufnahme der Sensordaten abge-schlossen, die Auswertung dieser Daten dauert noch an. Es wurden Daten vom Tunneleingang des BER-Eisenbahntunnels (nicht öffentlicher Bereich) über eine Dauer
von sechs Monaten aufgezeichnet. Ziel ist es, auf Grundlage dieser Datenbasis ein KI-Modell zu trainieren, welches Anwesenheit von Personen im Tunnel erkennen und
diese zuverlässig bei allen Licht- und Wetterverhältnissen von Tieren, Zügen und an-deren Objekten unterscheiden kann. Personenbezogene Daten werden nicht erhoben.

Zu 3.

Der KI-Campus sowie die derzeit in Anspruch genommenen Entwicklungsleistungen der PD-Berater der öffentlichen Hand GmbH werden durch das BMI finanziert. Die
Finanzierung des Teilprojekts TUNUKI erfolgte aus den Fördermitteln mFUND des Bundesministeriums für Digitales und Verkehr. Das Forschungsvorhaben Sicherheitsbahnhof wird anteilig über Eigenmittel der DB Station&Service AG finanziert. Die Bundespolizei hat keine eigenen Haushaltsmittel für das Forschungsprojekt Sicherheitsbahnhof bereitgestellt. Die notwendige Transparenz während des Projekts wird durch die Informationen auf der Webseite https://sicherheitsbahnhof.bahnhof.de/ gewährleistet. Zur Erprobung sensorgestützter Tunnelmundüberwachung wurden vom Projektpartner Hochschule Niederrhein ferner folgende Beiträge veröffentlicht: https://www.hs-niederrhein.de/aktuelles/news-detail/tunnelmuendungen-mithilfe-ku-enstlicher-intelligenz-sicherer-machen/, https://www.hs-niederrhein.de/ipattern/nach-richten-detailseite/ki-zur-ueberwachung-von-tunnelmuendungen/.

Antwortschreiben im Original (pdf): https://mdb.anke.domscheit-berg.de/wp-content/uploads/231103_3-SFs-zu-KI-Projekten-Antwort-BuReg_Geschwaerzt.pdf

In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:

„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.

Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird. 

Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.

Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.

Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.

Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.

Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.

Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.

Hintergrund

Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.

Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):

17. Oktober 2022

Frage:

Warum setzt sich die Bundesregierung in den Verhandlungen zur EU KI-Verordnung dafür ein, dass KI-Anwendungen der öffentlichen Verwaltung durch gesonderten Rechtsakt oder ein gesondertes Kapitel der KI-Verordnung reguliert werden sollen, wie es die Bundesregierung in der Stellungnahme „KI-Regulierung – stärkere Berücksichtigung von Besonderheiten der öffentlichen Verwaltung insbesondere im Sicherheits- und Migrationsbereich“ (BReg-Dok 272/2022) formuliert, und wie unterscheiden sich nach Auffassung der Bundesregierung die jeweiligen Vor- und Nachteile einer Regulierung von KI-Anwendungen der öffentlichen Verwaltung in einem gänzlich gesonderten Rechtsakt im Vergleich zu einer Regulierung in einem gesonderten Kapitel der KI-Verordnung?

Antwort des Staatssekretärs Benjamin Strasser:

Die Bundesregierung strebt die Regulierung von Künstlichen Intelligenz-Systemen (KI-Systeme) an und unterstützt den europäischen Artificial Intelligence Act (AI Act). Dies umfasst auch die rasche und zeitgleiche Regulierung von KI-Systemen für die öffentliche Verwaltung, einschließlich der Bereiche der Sicherheits-, Migrations- und Asylbehörden sowie Steuer- und Zollverwaltung (einschließlich Financial Intelligence Unit (FIU)).

Die besonderen Belange der staatlichen Tätigkeit der vorgenannten Behörden werden durch den Entwurf der Kommission jedoch nicht in jeder Hinsicht hinreichend berücksichtigt. Es ist schwierig, den besonderen Belangen dieser Behörden sowie den für hoheitliche Maßnahmen geltenden grundrechtlichen Anforderungen im Rahmen der primär privatrechtlich- und binnenmarktorientierten Vorschriften des Vorschlags für den AI Act vollständig gerecht zu werden. Die Erfüllung staatlicher Aufgaben muss gewährleistet bleiben und gleichzeitig die unmittelbare Grundrechtsbindung der staatlichen Verwaltung Beachtung finden. Notwendige diverse Einzelausnahmen /-anpassungen in den Einzelvorschriften des aktuellen Verordnungsentwurfs können zu Rechtsunsicherheit bei den Normadressaten führen.

Aus Sicht der Bundesregierung kann den Besonderheiten der öffentlichen Verwaltung (ins- besondere von Sicherheits-, Migrations- und Asylbehörden sowie der Steuer- und Zollverwaltung einschließlich FIU) durch einen separaten, gesonderten Technologierechtsakt oder jedenfalls durch ein gesondertes Kapitel in der Verordnung mit jeweils abschließendem Regelungsinhalt besser Rechnung getragen werden. Für die Bundesregierung ist es dabei nicht entscheidend, ob entsprechende Regelungen in einem separaten Kapitel im Entwurf des europäischen AI Acts oder zeitgleich in einem eigenständigen Rechtsakt erfolgen.

Drei Themenblöcke beschäftigen den Digitalausschuss am 22.06.2022. Das BMI war zu Gast, um (auf meine Anregung hin) die Position der Bundesregierung zum Thema Chatkontrolle zu berichten. Was man da so hört aus der Bundesregierung ist mindestens verwirrend. Nachdem „Digitalminister“ Volker Wissing sich klar gegen diesen Entwurf einer grundrechtswidrigen EU Verordnung aussprach, gab es von Seiten BMI leider weniger Klarheit. Ob das Recht auf Verschlüsselung (steht im KoaV!) bestehen bleibt, hängt für das BMI wohl auch davon ab, wie man den Verschlüsselungsprozess definiert. Das macht mir Sorgen. Meine Kritik und welche Präventionsmaßnahmen zum Kinderschutz sinnvoller wären – aber null im Entwurf vorkommen – gibts im Video.

Weiterlesen

Frage:

Plant die Bundesregierung bzw. planen Behörden des Bundes, die Zuverlässigkeit, Wirksamkeit und Fehlerfreiheit algorithmischer Systeme, die im Bereich des Bundes eingesetzt werden, zu prüfen und zu bewerten, insbesondere, wenn sie in besonders sensiblen Bereichen eingesetzt werden (z.B. von Sicherheitsbehörden innerhalb der Strafverfolgung, Terrorismusbekämpfung etc.) und wenn ja, wie (bitte erläutern ob z.B. Risikoklassensysteme nach ggf. einheitlichen Vorgaben eingesetzt werden sollen) und wenn nein, warum nicht (Antwort bitte ausführlich begründen)? Drucksache 201355 Frage 83

Weiterlesen

Künstliche Intelligenz: Nutzen und Risiken

Seit Jahren steigt der Einsatz von Künstlicher Intelligenz (KI), längst ist sie im Alltag der Menschen angekommen und wird weiter zunehmen, nicht nur in der Wirtschaft und in unseren elektronischen Geräten, sondern auch in der öffentlichen Verwaltung.

Weiterlesen

Frage

Kann die Bundesregierung ausschließen, dass von der Bundeswehr gesammelte biometrische Daten von afghanischen Staatsangehörigen den Taliban in die Hände fielen (vgl. www.heise.de/news/Afghanistan-Biometrie-Geraete-und-Datenbanken-von-Taliban-erbeutet-6168158.html), und in welcher Weise hat die Bundeswehr im Zusammenhang mit dem Ende des ISAF Einsatzes sichergestellt, dass der Passus im Memorandum of Understanding zwischen der Bundeswehr und dem US-Militär zur Sammlung und Verarbeitung biometrischer Daten in Afghanistan (siehe Bundestagsdrucksache 17/6862) umgesetzt wird, in dem eine Löschung aller von der Bundeswehr gesammelten Daten vereinbart ist, sobald der ISAF-Einsatz endet? (BT Drucksache 19/32251, Frage 86)

Antwort des Parlamentarischen Staatssekretärs Thomas Silberhorn vom 3. September 2021

Die Bundesregierung arbeitet mit anderen, insbesondere verbündeten, Staaten auf Grundlage des Grundsatzes gegenseitigen Vertrauens zusammen. Ihr liegen keine Anhaltspunkte dafür vor, dass die Löschung der Daten entsprechend der gegenseitigen Vereinbarung nicht erfolgt ist. Daher wird davon ausgegangen, dass die Löschung der von der Bundeswehr an das Hauptquartier übermittelten und im Automated Biometric Identification System (ABIS) gespeicherten Daten erfolgt ist. In der Vereinbarung wurde darüber hinaus festgelegt, dass die USA die Daten gegen unberechtigte Zugriffe sichert.

Frage: Wie ist der Planungsstand zur Entwicklung der polizeilichen KI-Strategie, und wurden neben dem Unternehmen msg systems AG weitere Firmen zur Entwicklung der polizeilichen KI-Strategie eingebunden (vgl. Bundestagsdrucksache 19/13866)? (BT-Drucksache 19/23047)

Antwort des Parlamentarischen Staatssekretärs Dr. Günter Krings vom 2. Oktober 2020
Zur Konkretisierung der Strategie Künstliche Intelligenz (KI) der Bundesregierung im Hinblick auf die innere Sicherheit (Kapitel 3.7) wurde im November 2019 mit der Entwicklung einer polizeilichen KI-Strategie begonnen. Die Strategieentwicklung befindet sich aktuell in der Phase der Finalisierung. Die Veröffentlichung der polizeilichen KI-Strategie wird zu Ende 2020/Anfang 2021 angestrebt.
Das Unternehmen msg systems AG ist Generalunternehmer einer Rahmenvereinbarung des Bundes. Die adesso AG ist als Unterauftragnehmer dieser Rahmenvereinbarung und unterstützt das Bundesministerium des Innern, für Bau und Heimat bei der Erstellung der polizeilichen KI-Strategie. Für den Entwicklungsprozess bedarf es der Einbindung weiterer externer und interner Experten, die innerhalb der unterschiedlichen Handlungsstränge durch das Einbringen ihrer konkreten Fachexpertisen einen wesentlichen Beitrag leisten. Neben den externen Experten von verschiedensten Hochschulen, die für ihre Expertise eine Aufwandsentschädigung erhielten, bestanden/bestehen vertragliche Vereinbarungen mit Fraunhofer FOKUS, der Schütze AG und PD – Berater der öffentlichen Hand GmbH.

Frage: Sind an dem Pilotprojekt der Deutschen Bahn AG in Stuttgart zur videobasierten Fahrgaststrom-Überwachung das Bundesministerium des Innern, für Bau und Heimat oder seine nachgelagerten Behörden an der Entwicklung, Planung, Umsetzung oder Finanzierung beteiligt, und wer hat Zugriff auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI (www.handelsblatt.com/technik/forschung-innovation/pilotprojekt-in-stuttgart-mit-kameras-gegen-corona-deutsche-bahn-will-passagierstroeme-bewusster-lanken/25774872.html)? (BT-Drucksache 19/19240)

Antwort des Parlamentarischen Staatssekretärs Enak Ferlemann vom 13. Mai 2020

Das Bundesministerium des Innern, für Bau und Heimat oder dessen Geschäftsbereichsbehörden sind an dem genannten Projekt nicht beteiligt.
Der Bundesregierung liegen keine eigenen Erkenntnisse hinsichtlich des Zugriffs auf die erhobenen Daten vor der Anonymisierung durch das Software-Unternehmen Brighter AI vor.

Regulierungsempfehlungen für Daten und Algorithmen (06.11.2019)

Heute stellte die Dathenethikkomission ihr Abschlussgutachten im Ausschuss Digitale Agenda vor. Das wichtigste daraus erzähle ich euch im Video.

Weiterlesen

Medienecho

Episoden

Es konnte leider nichts gefunden werden

Entschuldigung, aber kein Eintrag erfüllt Deine Suchkriterien