Meine Frage: Warum stehen dem Unabhängigen Beauftragten für Fragen des sexuellen Kindesmissbrauchs (UBSKM) zur Bekämpfung sexueller Gewalt an Kindern im Jahr 2023 weniger Haushaltsmittel als in den beiden Vorjahren zur Verfügung (vgl. Antwort der Bundesregierung auf die Schriftliche Frage 91auf Bundestagsdrucksache 20/4277), obwohl die Hotline des Unabhängigen Beauftragten für betroffene Minderjährige nur an zwei Werktagen nachmittags für Schulkinder erreichbar ist, die Bundesregierung das Thema zu einer hohen Priorität erklärte, sowie sogar serverseitiges Scannen privater Kommunikation und weitere Überwachungsbefugnisse im Zuge des „Chatkontrolle“ bekannt gewordenen EU Vorhabens (Verordnung des Europäischen Parlaments und des Rates zur Festlegung von Vorschriften für die Prävention und Bekämpfung des sexuellen Missbrauchs von Kinder) explizit unterstützt und plant die Bundesregierung analog zum Digitalpakt Schule eine gemeinsame Finanzierung zur Bekämpfung sexualisierter Gewalt an Kindern mit den Bundesländern?
Antwort der Parlamentarischen Staatssekretärin Ekin Deligöz: Im Rahmen des parlamentarischen Verfahrens wurden der Unabhängigen Beauftragten für Fragen des sexuellen Kindesmissbrauchs für das Haushaltsjahr 2023 zusätzlich 5 Millionen Euro für die Aufklärungs- und Aktivierungskampagne „Schieb den Gedanken nicht weg!“ zur Verfügung gestellt. Somit beträgt der Etat im Bereich Maßnahmen zur Verhinderung, Bekämpfung und Aufarbeitung von sexuellem Kindesmissbrauch und dessen Folgen (Kapitel 1716 Titel 684 01) insgesamt 6,4 Millionen Euro. Damit stehen der Unabhängigen Beauftragten für Fragen des sexuellen Kindesmissbrauchs in 2023 mehr Mittel als in 2022 zur Verfügung.
Die Bundesregierung plant keine gemeinsame Finanzierung zur Bekämpfung sexualisierter Gewalt an Kindern und Jugendlichen mit den Bundesländern. Es findet aber regelmäßig ein Austausch im Nationalen Rat gegen sexuelle Gewalt an Kindern und Jugendlichen sowie im Rahmen der Sitzungen der sich mit dem Thema befassenden Fachkonferenzen der Länder statt.
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.png00Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-06-06 14:59:002023-06-13 13:22:00Meine Schriftliche Frage zu Haushaltsmitteln zur Bekämpfung von sexuellem Kindesmissbrauch
In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.
Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:
„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.
Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird.
Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.
Die geplante EU-KI-Verordnung klassifiziertdenEinsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.
Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.
Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.
Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.
Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.
Hintergrund
Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.
Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.png00Sebastianhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngSebastian2023-05-23 14:04:342023-05-24 16:03:40Pressemitteilung: Künstliche Intelligenz im Bund: Vertrauenswürdige KI geht anders
Die CDU fordert 6 Monate Vorratsdatenspeicherung von IP-Adressen und stellt alle Internetnutzer:innen unter Generalverdacht. Was sie vorschlägt, schützt Kinder nicht und ist auch nicht mit EU-Grundrechten vereinbar. Es braucht mehr Prävention und Ressourcen, nicht Massenüberwachung.
https://mdb.anke.domscheit-berg.de/wp-content/uploads/Bildschirmfoto-2023-03-17-um-17.22.04.png14962390Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-03-17 17:15:152023-03-17 17:15:17Meine Rede für Kinderschutz ohne Vorratsdatenspeicherung von IP-Adressen
Großer Schwerpunkt dieser Ausgabe ist die Anhörung zur EU-Chatkontrolle Verordnung am 01.03.2023, die das Potenzial hat, die größte Überwachungsinfrastruktur aller Zeiten in der EU zu veranlassen. Mit dabei der von mir vorgeschlagene Sachverständige Felix Reda. Im Digitalausschuss direkt danach ging es einerseits um eine von der EU Kommission geplante Infrastrukturabgabe für sog. Over-the-Top-Anbieter und andererseits um das geplante Dateninstitut der Bundesregierung – was da der Stand seiner Gründung ist, wie die 10 Mio € Haushaltsmittel ausgegeben werden sollen und andere offene Fragen. Hinter der Infrastrukturabgabe verbirgt sich die neu aufgewärmte (und sehr dumme) Idee, datenintensiven Inhalteanbietern (Netflix, Amazon, Google u Co) ein Zwangsgeld überzuhelfen, mit dem sie sich an den Ausbaukosten der Netzbetreiber beteiligen sollen (wer zahlt da wohl am Ende mehr?). Ihr erfahrt, warum diese Abgabe gefährlich ist für das gesamte Ökosystem des Internets und welche Position (vermutlich) die Bundesregierung vertritt.
Ich freue mich wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast
00:00:07 Intro 00:01:05 Nachreichung: OSS und Open Data beim Breitbandportal 00:01:43 Anhörung Chatkontrolle – Intro 00:08:09 Scannen von privater Kommunikation 00:13:12 Künstl. Intelligenz – Filter, Fehlerraten 00:21:43 Hash-basierte Filter-Verfahren 00:24:53 Altersverifizierung Folgen für Anonymität, Minderjährige, Open Source 00:33:30 Netzsperren 00:36:29 EU-Zentrum 00:37:44 BfDI Kelber zum Datenschutz 00:39:43 Chatkontrolle Verordnung und ePrivacy Richtlinie 00:41:07 Rechtsgrundlage der Chatkontrolle VO 00:44:43 Empfehlungen der Sachverständigen zur Haltung der BuReg 00:49:37 Ausschusssitzung 01.03.23, TOP Infrastrukturabgabe OTT-Anbieter Intro 00:51:00 Befürworter und Gegner und ihre Argumente 00:54:13 Der ungewöhnliche Prozess 00:56:12 Einführung Staatssekretär Schnorr, BMDV 00:58:38 Marktversagen ja oder nein und Position der BNetzA 01:01:10 ganz schön fishy: was Telco Orange und Kommissar Breton verbindet 01:02:19 Viele weitere Fragen und Fazit zur Infrastrukturabgabe 01:06:03 Ausschusssitzung 01.03.23 TOP Dateninstitut – Intro 01:07:18 Einführung von BMWK, BMI und BMBF 01:09:48 Zeitplan und wie werden 10 Mio € ausgegeben? 01:11:36 Governance des Dateninstitutes 01:12:50: Use Cases und künftige Finanzierung 01:14:47 Ausblick und Fazit 01:15:18 Outro mit Terminhinweisen
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2022/10/220908-Podcast-Logo-V5-1-e1674487903908.png12821391Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-03-03 15:56:202023-05-16 12:00:33Der ADB Podcast #10 – Anhörung zur EU – Chatkontrolle, EU Plan für Infrastrukturabgaben großer Inhalte-Anbieter und Dateninstitut der Bundesregierung
Am 19.01.2023 wurde im Bundestag ein Antrag der Linksfraktion zur Chatkontrolle Verordnung der EU debattiert. Dazu hatte ich 120 Sekunden Redezeit, in der man natürlich nur grob an der Oberfläche dieses wichtigen Themas kratzen kann. Daher findet sich hier eine Sammlung mit weiterführenden Informationen:
Hier kann ein Linxxnet-Podcastzur Chatkontrollemit mir als Gast gehört werden. In dem einstündigen Podcast vom 16.01.2022 sprechen wir ausführlich über alles rund ums Thema. In den Shownotes der Folge finden sich viele weitere, spannende Links.
Teilt die Bundesregierung die aktuelle Einschätzung des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI), nach der es bislang keinen rechtlich klar abgesicherten Beschlagnahmeschutz für die elektronische Patientenakte gegenüber Strafverfolgungsbehörden gibt (https://ddrm.de/haben-strafverfolgungs-behoerden-zugriffsmoeglichkeiten-auf-die-elektronische-patientenakte-epa-die-antwort-des-bundesdatenschutzbeauftragten-das-ist-nicht-ausgeschlossen/), da sich der Beschlagnahmeschutz aus § 97 StPO bislang nur auf die Gesundheitskarte erstreckt, jedoch unklar sei, ob die ePA und die darin enthaltenen Gesundheits- und Behandlungsdaten vor Zugriffen durch die Strafverfolgungsbehörden (u.a. Polizei und Justiz) geschützt sind (bitte begründen, warum die Bundesregierung diese Auffassung teilt oder nicht teilt) und wenn ja, wie will die Bundesregierung verhindern, dass das Vertrauen von Patientinnen und Patienten sowie Ärztinnen und Ärzten in Digitalisierungsprojekte im Gesundheitswesen nicht massiv beschädigt und die ärztliche Schweigepflicht nicht durch digitale Zugriffe auf die ePA defacto unterlaufen wird (bitte ausführlich darlegen und falls ein expliziter und eindeutiger rechtlicher Beschlagnahmeschutz für die ePA eingeführt werden soll, bitte erklären, wie die rechtliche Umsetzung geplant ist)?
Antwort des parlamentarischen Staatssekretärs Prof. Dr. Edgar Franke: Es bedarf aus Sicht der Bundesregierung derzeit keiner gesonderten gesetzlichen Regelungen zum Schutz vor Beschlagnahme der Daten, die sich in der elektronischen Patientenakte befinden. Nach geltendem Recht besteht ein Beschlagnahmeverbot, wenn sich die Daten bei der behandelnden Ärztin oder dem behandelnden Arzt befinden und auch, wenn sich diese bei der aktenführenden Krankenkasse befinden.
Schriftliche Aufzeichnungen oder schriftliche Mitteilungen eines Zeugnisverweigerungsberechtigten unterfallen dem Beschlagnahmeverbot des § 97 Absatz 1 Strafprozessordnung (StPO), wenn sie im Gewahrsam des Zeugnisverweigerungsberechtigten sind (hier der behandelnden Ärztin oder dem behandelnden Arzt). Nach § 11 Absatz 3 Strafgesetzbuch (StGB) gilt dies auch für Daten, die von dem Zeugnisverweigerungsberechtigten in die elektronische Patientenakte eingestellt werden. Darüber hinaus greift das Beschlagnahmeverbot für die elektronische Patientenakte gemäß §§ 97 Absatz 3 StPO auch dann, wenn sich die elektronische Patientenakte bei der aktenführenden Krankenkasse (§ 342 Fünftes Buch Sozialgesetzbuch SGB V) befindet, da es sich bei letzterer im Rahmen der Führung der elektronischen Patientenakte um eine „mitwirkende Person“ nach § 53a Absatz1 Satz1 StPO handelt.
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.png00Sebastianhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngSebastian2023-01-25 11:53:052023-01-25 11:53:06Meine Schriftliche Frage zur Besetzung von IT-Sicherheitsstellen in Bundesministerien – 2023
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.png00Max Blumhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMax Blum2023-01-20 17:53:412023-01-20 19:05:09Meine Rede zur Chatkontrolle im Bundestag
Als letzten Tagesordnungspunkt debattierte der Bundestag am Abend des 19. Januar 2023 einen Antrag der Linksfraktion mit der Aufforderung, die Bundesregierung zur Ablehnung der sogenannten Chatkontrolle Verordnung der EU zu verpflichten. Der Antrag wurde von allen übrigen Fraktionen abgelehnt. Der Entwurf einer EU-Verordnung für Regeln zur Prävention und Bekämpfung der Darstellung sexueller Gewalt an Kindern ist hochumstritten, da er vor allem auf weitreichende und grundrechtsverletzende Überwachungsmaßnahmen und nur sehr wenig auf Prävention setzt. Kritik kam nicht nur per offenem Brief von über 100 zivilgesellschaftlichen Organisationen in Europa, sondern auch von Kinderschutzorganisationen und besonders umfassend und grundsätzlich über ein Gutachten des Wissenschaftlichen Dienstes des Bundestages, das den Entwurf als unvereinbar mit europäischen und deutschen Grundrecht bewertet, sowie als ungeeignet für die Erreichung des beabsichtigten Ziels, Kinder besser zu schützen.
Seit Monaten streiten sich die Ampel-Parteien in der Frage, wie sie sich zur Chatkontrolle-Verordnung verhalten. Vor allem Innenministerin Faeser machte Schlagzeilen, als sie mehrfach öffentlich die Verordnung lobte und das sogenannte Client Side Scanning – das automatische Durchsuchen von Inhalten auf privaten Geräten vor der Verschlüsselung – befürwortete. Auch in der Debatte war erkennbar, dass ein Riß durch die Ampelkoalition geht, trotz Kritik von MdB aller drei Ampelfraktionen an grundrechtswidrigen Elementen der geplanten Verordnung und der erklärten Absage einer SPD Rednerin zum Client Side Scanning. Denn weiterhin ist nur sicher, dass Deutschland die Verordnung nicht ablehnen wird, offen ist aber weiterhin, ob es zu einer Zustimmung oder ein Enthaltung kommen wird und damit Deutschland direkt oder indirekt dazu beiträgt, die größte Überwachungsinfrastruktur seit Jahrzehnten aufzubauen. Schon im Herbst 2022 hatte bereits das österreichische Parlament daher seine Regierung auf Basis der Landesverfassung zur Ablehnung der Chatkontrolle Verordnung verpflichtet.
Die digitalpolitische Sprecherin der Fraktion DIE LINKE, Anke Domscheit-Berg, erklärt:
„Es ist mir unbegreiflich, dass eine Bundesregierung ohne Beteiligung der CDU/CSU es nicht schafft, sich unmissverständlich gegen ein EU-Verordnungsvorhaben zu positionieren, das nichts weiter als ein Gruselkabinett von Überwachungsmaßnahmen ist und keineswegs geeignet, Kinder besser vor sexualisierter Gewalt zu schützen. Die Ampel-Koalitionäre argumentieren, dass sie sich einerseits nur bei einer grundsätzlichen Unterstützung in Brüssel für positive Veränderungen des Verordnungsentwurfs einsetzen könnten und es andererseits ja auch unterstützenswerte Inhalte wie ein geplantes EU-Zentrum gäbe. Dieses Zentrum hat jedoch keineswegs den Zweck, vor allem der Prävention zu dienen, sondern soll insbesondere die Umsetzung technischer Überwachungsmaßnahmen unterstützen und begleiten.
Außerdem ist es völlig abwegig, eine Verordnung zu unterstützen, die nicht nur einen klaren Bruch mit dem Koalitionsvertrag darstellt, sondern in Gänze unvereinbar ist mit der Grundrechtecharta der EU und mit Verfassungsgrundrechten. Ein von mir beauftragtes Gutachten des Wissenschaftlichen Dienstes des Bundestages kam schon Ende 2022 zu einem vernichtenden Gesamturteil, wonach die Verordnung weder geeignet noch angemessen und verhältnismäßig sei und das Ende der Vertraulichkeit elektronischer Kommunikation bedeute. Sie gefährdet außerdem die IT-Sicherheit aller Nutzer und Nutzerinnen digitaler Dienste, denn um Inhalte auf privaten Geräten vor der Verschlüsselung z.B. über einen Messengerdienst automatisiert durchsuchen zu können, müssen überall Hintertüren in Apps und/oder Geräte eingebaut werden, und diese Hintertüren können und werden Kriminelle für verbrecherische Zwecke nutzen.
Die Koalition redet sich schön, dass sie sowohl mit einer Zustimmung als auch mit einer Enthaltung in Brüssel dazu beitragen wird, dass in Europa eine beispiellose Zensur- und Überwachungsinfrastruktur entsteht, die unkontrollierbar ist, von undemokratischen Drittstaaten begeistert für die Unterdrückung Oppositioneller kopiert werden wird und einen Geist aus der Flasche lässt, der kaum wieder eingefangen werden kann. Mit der Anwendung dieser Verordnung werden künftig Ermittlungsbehörden durch tausende Fälle falscher Verdächtigungen von der Verbrechensermittlung abgehalten, Jugendliche werden massenhaft kriminalisiert, weil Algorithmen Sexting von Grooming nicht unterscheiden können, und unzählige Unschuldige werden schrecklicher Verbrechen verdächtigt, weil künstliche Intelligenz legitime Familienfotos z.B. von badenden Kindern in Chats oder Foto-Cloud-Backups mit strafbaren Bildern verwechselt.
Soziale Probleme lassen sich mit technischen Mitteln nicht lösen, stattdessen braucht es endlich einen umfassenden Katalog wirksamer, aber eben nicht grundrechtsverletzender Maßnahmen, um Kinder tatsächlich besser vor sexualisierter Gewalt zu schützen. Ich bedaure sehr, dass die Ampelmehrheit im Bundestag sich dem Antrag der Linken nicht anschließen wollte und fordere die Regierungskoalition erneut dazu auf, sich weder aktiv noch passiv am Aufbau dieser beispiellosen Überwachungsinfrastruktur zu beteiligen.”
Hintergrund: Als letzten Tagesordnungspunkt debattierte der Bundestag am Abend des 19. Januar 2023 einen Antrag der Linksfraktion mit der Aufforderung, die Bundesregierung zur Ablehnung der sogenannten Chatkontrolle-Verordnung der EU zu verpflichten. Der Antrag wurde von allen übrigen Fraktionen abgelehnt. Der Entwurf einer EU-Verordnung für Regeln zur Prävention und Bekämpfung der Darstellung sexueller Gewalt an Kindern ist hochumstritten, da er vor allem auf weitreichende und grundrechtsverletzende Überwachungsmaßnahmen und nur sehr wenig auf Prävention setzt. Kritik kam nicht nur per offenem Brief von über 100 zivilgesellschaftlichen Organisationen in Europa, sondern auch von Kinderschutzorganisationen und besonders umfassend und grundsätzlich über ein Gutachten des Wissenschaftlichen Dienstes des Bundestages, das den Entwurf als unvereinbar mit europäischen und deutschen Grundrecht bewertet, sowie als ungeeignet für die Erreichung des beabsichtigten Ziels, Kinder besser zu schützen.
Seit Monaten streiten sich die Ampel-Parteien in der Frage, wie sie sich zur Chatkontrolle-Verordnung verhalten. Vor allem Innenministerin Faeser machte Schlagzeilen, als sie mehrfach öffentlich die Verordnung lobte und das sogenannte Client Side Scanning – das automatische Durchsuchen von Inhalten auf privaten Geräten vor der Verschlüsselung – befürwortete. Auch in der Debatte war erkennbar, dass ein Riss durch die Ampelkoalition geht, trotz Kritik von MdB aller drei Ampelfraktionen an grundrechtswidrigen Elementen der geplanten Verordnung und der erklärten Absage einer SPD-Rednerin zum Client Side Scanning. Denn weiterhin ist nur sicher, dass Deutschland die Verordnung nicht ablehnen wird, offen ist aber weiterhin, ob es zu einer Zustimmung oder einer Enthaltung kommen wird und damit Deutschland direkt oder indirekt dazu beiträgt, die größte Überwachungsinfrastruktur seit Jahrzehnten aufzubauen. Schon im Herbst 2022 hatte bereits das österreichische Parlament daher seine Regierung auf Basis der Landesverfassung zur Ablehnung der Chatkontrolle-Verordnung verpflichtet.“
Mein im Tagesspiegel Backround erschienener Artikel, vom 21.11.2022
Die Vorratsdatenspeicherung ist zwar weitgehend vom Tisch, aber nun droht ihre jüngste Schwester, bekannt als „Chatkontrolle“, per Europäischer Regulierung eine gefährliche Zensur-Infrastruktur zu schaffen, die von undemokratischen Regierungen, aber auch in der EU selbst missbraucht werden kann, ohne wirksame Kontrollmöglichkeiten durch Wissenschaft, Zivilgesellschaft, Journalismus oder Politik.
Die EU-Verordnung soll Kinder vor sexualisierter Gewalt schützen, in dem Bilder davon oder Cybergrooming eher entdeckt werden. Weitreichende Eingriffe in Grundrechte werden immer mit Zielen durchgesetzt, bei denen der gesellschaftliche Widerstand klein ist, wer will schon als jemand da stehen, der Kindervergewaltiger vor Strafverfolgung schützt? Nach 9/11 war es der Kampf gegen denTerrorismus, davor war die Angst groß und deshalb der Widerstand klein gegen Überwachung im Netz.
Aber die Hürde für Grundrechtseinschränkungen liegt hoch, drei Anforderungen müssen erfüllt sein, unabhängig davon, wie edel die erklärten Ziele sind. Genau diese Prüfung nahm der unabhängige Wissenschaftliche Dienst des Bundestages in meinem Auftrag vor, denn jede Grundrechtseinschränkung muss sowohl geeignet, als auch angemessen und verhältnismäßig sein. Nach aktuellem Stand würde die Verordnung Diensteanbieter dazu verpflichten, eine Risikobewertung ihres Dienstes hinsichtlich der Verbreitung dieser speziellen Inhalte vorzunehmen. Dazu muss ein Diensteanbieter aber wissen, ob sein Dienst dafür genutzt wird, wozu er alle Inhalte kontrollieren muss. Das erfordert wiederum algorithmische Filter, da Milliarden von Inhalten zu prüfen wären.
Das ginge in zwei Varianten: entweder man baut Löcher in verschlüsselte Kommunikation ein, was ein klarer Verstoß gegen den Koalitionsvertrag wäre, der ein Bekenntnis zur Unantastbarkeit sicherer Verschlüsselungen enthält. Oder man nutzt Client Side Scanning (CSS), bei dem noch vor dem Verschlüsseln die Inhalte überprüft werden. Laut Wissenschaftlichem Dienst des Bundestages erfordert das CSS den Einbau „kodifizierter, werkseitiger Hintertüren“ in den genutzten Geräten, also absichtliche Schwachstellen, die auch Dritte für Cyberangriffe nutzen können. Das reduziert die IT-Sicherheit in Zeiten hoher Angriffswahrscheinlichkeiten.
Auf meine Fragen nach ihrer Haltung zum CSS antwortete die Bundesregierung stets ausweichend. Hält Innenministerin Nancy Faeser eine Überwachung privater Kommunikationenper CSS etwa für vereinbar mit dem Koalitionsvertrag? Auch CSS macht verschlüsselte Kommunikation kaputt, denn ihr Zweck, vertrauliche und private Kommunikationen vor Kenntnisnahme Dritter zu schützen, ist nicht mehr erreichbar. Der Wissenschaftliche Dienst des Bundestages kommt daher zu der klaren Einschätzung, dass die verpflichtende Risikobewertung sichere Kommunikationswege faktisch abschafft.
Wäre die Chatkontrolle eine geeignete Maßnahme?
Schon bei der Prüfung der Eignung der Maßnahme dafür, ob sie Kinder vor sexualisierter Gewalt schützt, hat der Wissenschaftliche Dienst des Bundestages Bedenken und verweist u.a. auf den Kinderschutzbund, der die Verordnung für überzogen und in der Sache für nicht hilfreich hält. Das Hauptproblem sei nicht, dass es an Anzeigen fehlte, sondern dass es an Ressourcen fehlt, bei Anzeigen schnell und effektiv zu ermitteln. Es braucht schlicht mehr Personal. Die steigenden Fallzahlen der vergangenen Jahre liegen vor allem an der bereits stattfindenden Erhellung des Dunkelfeldes.
So arbeiteten in der zuständigen Stelle in NRW noch vor vier Jahren nur zwölf Fachkräfte, inzwischen sind es 90. Mit der Chatkontrolle bekämen diese bereits überlasteten Fachkräfte eine Welle Tausender falscher Meldungen zusätzlich, weil die Algorithmen auch bisher unbekannte Bilder flaggen und legales Sexting unterscheiden sollen von Cybergrooming, was hohe Fehlerraten unvermeidbar macht. Das bindet Ressourcen, die bei echten Fällen fehlen werden – das wirkt sogar gegen das erklärte Ziel.
Wäre die Chatkontrolle angemessen?
Der Wissenschaftliche Dienst prüfte auch, ob die Chatkontrolle angemessen ist, der EuGH meint damit, dass es keine andere Maßnahme gibt, die mit weniger Grundrechtseinschränkung das gleiche Ziel erreicht. Auch diese Prüfung besteht die Chatkontrolle nicht. Mehr Ressourcen für Strafverfolgung und vor allem für Prävention im Bereich Kinder-und Jugendschutz bereitzustellen, wären zum Beispiel grundrechtsfreundlichere Maßnahmen. Ich kenne selbst Fälle aus meinem Umfeld, wo weder von Cybergrooming betroffene Jugendliche noch deren Eltern und Lehrkräfte wussten, was zu tun war, wie groß potenzielle Gefahren sind und wie oft Täter mit falschen Identitäten unterwegs sind. Als Teil der Prävention zum Thema Cybergrooming könnte zum Beispiel der hervorragende Film „Gefangen im Netz“ in allen Schulen gezeigt und sein Material bearbeitet werden.
Wäre die Chatkontrolle verhältnismäßig?
Bei einer Grundrechtseinschränkung muss weiterhin der mit ihr erzielbare Nutzen in einem sinnvollen Verhältnis zu den unerwünschten Nebenwirkungen stehen, um vereinbar zu sein mit der EUGrundrechtecharta (Art. 7, 8, 11 GRCh) und mit der EU Richtlinie 2002/58/EG, die die Vertraulichkeit der Kommunikation schützt. Der Wissenschaftliche Dienst des Bundestages kommt auch bei dieser Prüfung zu einer eindeutigen Einschätzung: die Verhältnismäßigkeit sei nicht gegeben, da bereits der Nutzen fraglich sei, die zu erwartenden negativen Effekte sowohl für die gesamte Gesellschaft (Stichworte Chilling Effect, geminderte IT-Sicherheit u.a.) aber auch für die eigentlich zu schützenden Jugendlichen gravierend sind.
So stammen nach einem Bericht der „Frankfurter Allgemeinen Zeitung“ von 5. Oktober 2022 inzwischen schon etwa 50 Prozent der illegalen Verbreitung pornografischer Inhalte von Jugendlichen selbst. Da das Strafrecht in Deutschland nicht unterscheidet, ob ein 50-Jähriger mit einer 15-Jährigen explizite Bilder austauscht oder zwei 15-Jährige untereinander, werden Heranwachsende schon heute kriminalisiert. Da Algorithmen der Chatkontrolle Cybergrooming von Sexting zwischen Minderjährigen nicht unterscheiden können, geraten Jugendliche künftig noch häufiger unter Verfolgungsdruck. Der Wissenschaftliche Dienst des Bundestages verweist daher explizit auf die zu erwartenden negativen Folgen für die Entwicklung Heranwachsender.
Last but not least möchte ich auf die mangelnden Kontrollmöglichkeiten der Chatkontrolle hinweisen, denn schon in seinem Urteil zur Vorratsdatenspeicherung lehnten sowohl der EuGH als auch das Bundesverfassungsgericht deren Verhältnismäßigkeit auch mit dem Argument ab, dass es an hinreichendem Schutz vor Missbrauchsrisiken der Überwachung fehle.
Bei der Chatkontrolle wird ein als illegal identifiziertes Bild mit einem Algorithmus in einen Hash-Wert umgerechnet, der nicht wieder rückwärtsgerechnet werden kann. Dieser Hash-Wert wandert in eine Datenbank aller dorthin gemeldeten Hash-Werte. Ab da kann niemand mehr feststellen, was für ein Bild hinter einem solchen Hash steckt, es sei denn, man hat das Bild bereits und rechnet damit selbst einen Hash-Wert aus und kann dann beide Hash-Werte miteinander vergleichen. Will jemand die Verbreitung eines legalen, aber missliebigen Bildes behindern, bräuchte man nur den Hash-Wert dieses Bildes in die Datenbank laden und der Filter-Algorithmus der Chatkontrolle verhindert die Verbreitung dieses Bildes selbst in privaten Chats. Diese Eigenschaften machen die Chatkontrolle zu einer potenziell mächtigen Zensurmaschine, die sich externer Kontrolle entzieht. Bereits 2019 beschrieb die Electronic Frontier Foundation diese Missbrauchsmöglichkeiten von Client Side Scanning.
Ausblick
Viel Zeit bleibt nicht, um diese gefährliche Verordnung zu verhindern, sie soll den Digital Services Act ergänzen und voraussichtlich Anfang 2024 in Kraft treten. Mit an Sicherheit grenzender Wahrscheinlichkeit wäre eine Klage dagegen vor dem EuGH erfolgreich, aber bis zu einem Urteil vergingen Jahre, in denen Grundrechte verletzt werden, Diktaturen einen Blueprint für Zensurinfrastrukturen erhalten und den Einsatz mit Verweis auf die EU rechtfertigen können und in denen sinnlos Ressourcen gebunden werden, die für den wirksamen Schutz von Kindern vor sexualisierter Gewalt fehlen.
/von
https://mdb.anke.domscheit-berg.de/wp-content/uploads/Bildschirmfoto-2023-01-19-um-11.34.09-e1674124165258.png9321342Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2022-11-21 10:52:002023-03-01 19:03:12Warum die Chatkontrolle nutzlos, aber gefährlich ist