Die Umsetzung des EU Digital Services Act braucht Nachbesserung: Gefahren entstehen durch massenhafte Datenweiterleitungen an das BKA und Mißbrauch von Netzsperren. Die zuständige BNetzA hat nicht mal Stellen; KMU und dezentrale, nicht kommerzielle Dienste stehen im Regen.
Meine Rede zur Umsetzung des DSA auf nationaler Ebene im Wortlaut (18.01.2023):
Sehr geehrte Präsidentin! Liebe Kolleginnen und Kollegen! Meine Einschätzung zur Umsetzung des DSA gibt es jetzt in 90 Sekunden. Gut daran ist die Klarheit bei der Störerhaftung und die Beteiligung der Zivilgesellschaft im Beirat. Aber insgesamt finde ich die Umsetzung doch misslungen.
Erstens: Noch häufiger als bisher können Netzsperren wegen Urheberrechtsverletzungen direkt beim Anbieter und ohne Richtervorbehalt eingefordert werden. Wer die vorgesehene Verhältnismäßigkeit prüfen soll, bleibt dabei völlig offen. Als Linke kritisiere ich dieses Zensurheberrecht!
Zweitens. Die Pflicht zur proaktiven Datenweiterleitung an das BKA in Artikel 18 des DSA besteht bei „Gefahr für die Sicherheit von Personen“. Das ist ein sehr schwammiger Rechtsbegriff und muss konkretisiert werden, will man massenhaftes Ausleiten personenbezogener Daten verhindern und Gerichte nicht mit Klagen überlasten.
Drittens: Die Anwendung des Digitale-Dienste-Gesetzes ist bei nichtkommerziellen Diensten völlig unklar, wenn sie dezentral organisiert sind wie Mastodon oder das Wikimedia-Projekt „Wikimedia Commons“. Die Autorencommunity dort ist getrennt vom Verein Wikimedia. Sollen jetzt ehrenamtliche Autorinnen und Autoren das Beschwerdemanagement einrichten und Transparenzberichte erstellen? Eine Umsetzungsunterstützung für nichtkommerzielle Anbieter und viele kleine und mittlere Unternehmen unter den 5 000 betroffenen Anbieter/-innen gibt es bisher nicht.
Viertens hat die künftig zuständige Bundesnetzagentur als Digitale-Dienste-Koordinator bisher noch nicht einmal Stellen dafür, ist in vier Wochen aber bereits Ansprechpartnerfür über 5 000 Anbieter und mehrere Millionen Nutzer/-innen. Bessern Sie das nach, liebe Ampel, und das sehr schnell!
Mein im Tagesspiegel Backround erschienener Artikel, vom 21.11.2022
Die Vorratsdatenspeicherung ist zwar weitgehend vom Tisch, aber nun droht ihre jüngste Schwester, bekannt als „Chatkontrolle“, per Europäischer Regulierung eine gefährliche Zensur-Infrastruktur zu schaffen, die von undemokratischen Regierungen, aber auch in der EU selbst missbraucht werden kann, ohne wirksame Kontrollmöglichkeiten durch Wissenschaft, Zivilgesellschaft, Journalismus oder Politik.
Die EU-Verordnung soll Kinder vor sexualisierter Gewalt schützen, in dem Bilder davon oder Cybergrooming eher entdeckt werden. Weitreichende Eingriffe in Grundrechte werden immer mit Zielen durchgesetzt, bei denen der gesellschaftliche Widerstand klein ist, wer will schon als jemand da stehen, der Kindervergewaltiger vor Strafverfolgung schützt? Nach 9/11 war es der Kampf gegen denTerrorismus, davor war die Angst groß und deshalb der Widerstand klein gegen Überwachung im Netz.
Aber die Hürde für Grundrechtseinschränkungen liegt hoch, drei Anforderungen müssen erfüllt sein, unabhängig davon, wie edel die erklärten Ziele sind. Genau diese Prüfung nahm der unabhängige Wissenschaftliche Dienst des Bundestages in meinem Auftrag vor, denn jede Grundrechtseinschränkung muss sowohl geeignet, als auch angemessen und verhältnismäßig sein. Nach aktuellem Stand würde die Verordnung Diensteanbieter dazu verpflichten, eine Risikobewertung ihres Dienstes hinsichtlich der Verbreitung dieser speziellen Inhalte vorzunehmen. Dazu muss ein Diensteanbieter aber wissen, ob sein Dienst dafür genutzt wird, wozu er alle Inhalte kontrollieren muss. Das erfordert wiederum algorithmische Filter, da Milliarden von Inhalten zu prüfen wären.
Das ginge in zwei Varianten: entweder man baut Löcher in verschlüsselte Kommunikation ein, was ein klarer Verstoß gegen den Koalitionsvertrag wäre, der ein Bekenntnis zur Unantastbarkeit sicherer Verschlüsselungen enthält. Oder man nutzt Client Side Scanning (CSS), bei dem noch vor dem Verschlüsseln die Inhalte überprüft werden. Laut Wissenschaftlichem Dienst des Bundestages erfordert das CSS den Einbau „kodifizierter, werkseitiger Hintertüren“ in den genutzten Geräten, also absichtliche Schwachstellen, die auch Dritte für Cyberangriffe nutzen können. Das reduziert die IT-Sicherheit in Zeiten hoher Angriffswahrscheinlichkeiten.
Auf meine Fragen nach ihrer Haltung zum CSS antwortete die Bundesregierung stets ausweichend. Hält Innenministerin Nancy Faeser eine Überwachung privater Kommunikationenper CSS etwa für vereinbar mit dem Koalitionsvertrag? Auch CSS macht verschlüsselte Kommunikation kaputt, denn ihr Zweck, vertrauliche und private Kommunikationen vor Kenntnisnahme Dritter zu schützen, ist nicht mehr erreichbar. Der Wissenschaftliche Dienst des Bundestages kommt daher zu der klaren Einschätzung, dass die verpflichtende Risikobewertung sichere Kommunikationswege faktisch abschafft.
Wäre die Chatkontrolle eine geeignete Maßnahme?
Schon bei der Prüfung der Eignung der Maßnahme dafür, ob sie Kinder vor sexualisierter Gewalt schützt, hat der Wissenschaftliche Dienst des Bundestages Bedenken und verweist u.a. auf den Kinderschutzbund, der die Verordnung für überzogen und in der Sache für nicht hilfreich hält. Das Hauptproblem sei nicht, dass es an Anzeigen fehlte, sondern dass es an Ressourcen fehlt, bei Anzeigen schnell und effektiv zu ermitteln. Es braucht schlicht mehr Personal. Die steigenden Fallzahlen der vergangenen Jahre liegen vor allem an der bereits stattfindenden Erhellung des Dunkelfeldes.
So arbeiteten in der zuständigen Stelle in NRW noch vor vier Jahren nur zwölf Fachkräfte, inzwischen sind es 90. Mit der Chatkontrolle bekämen diese bereits überlasteten Fachkräfte eine Welle Tausender falscher Meldungen zusätzlich, weil die Algorithmen auch bisher unbekannte Bilder flaggen und legales Sexting unterscheiden sollen von Cybergrooming, was hohe Fehlerraten unvermeidbar macht. Das bindet Ressourcen, die bei echten Fällen fehlen werden – das wirkt sogar gegen das erklärte Ziel.
Wäre die Chatkontrolle angemessen?
Der Wissenschaftliche Dienst prüfte auch, ob die Chatkontrolle angemessen ist, der EuGH meint damit, dass es keine andere Maßnahme gibt, die mit weniger Grundrechtseinschränkung das gleiche Ziel erreicht. Auch diese Prüfung besteht die Chatkontrolle nicht. Mehr Ressourcen für Strafverfolgung und vor allem für Prävention im Bereich Kinder-und Jugendschutz bereitzustellen, wären zum Beispiel grundrechtsfreundlichere Maßnahmen. Ich kenne selbst Fälle aus meinem Umfeld, wo weder von Cybergrooming betroffene Jugendliche noch deren Eltern und Lehrkräfte wussten, was zu tun war, wie groß potenzielle Gefahren sind und wie oft Täter mit falschen Identitäten unterwegs sind. Als Teil der Prävention zum Thema Cybergrooming könnte zum Beispiel der hervorragende Film „Gefangen im Netz“ in allen Schulen gezeigt und sein Material bearbeitet werden.
Wäre die Chatkontrolle verhältnismäßig?
Bei einer Grundrechtseinschränkung muss weiterhin der mit ihr erzielbare Nutzen in einem sinnvollen Verhältnis zu den unerwünschten Nebenwirkungen stehen, um vereinbar zu sein mit der EUGrundrechtecharta (Art. 7, 8, 11 GRCh) und mit der EU Richtlinie 2002/58/EG, die die Vertraulichkeit der Kommunikation schützt. Der Wissenschaftliche Dienst des Bundestages kommt auch bei dieser Prüfung zu einer eindeutigen Einschätzung: die Verhältnismäßigkeit sei nicht gegeben, da bereits der Nutzen fraglich sei, die zu erwartenden negativen Effekte sowohl für die gesamte Gesellschaft (Stichworte Chilling Effect, geminderte IT-Sicherheit u.a.) aber auch für die eigentlich zu schützenden Jugendlichen gravierend sind.
So stammen nach einem Bericht der „Frankfurter Allgemeinen Zeitung“ von 5. Oktober 2022 inzwischen schon etwa 50 Prozent der illegalen Verbreitung pornografischer Inhalte von Jugendlichen selbst. Da das Strafrecht in Deutschland nicht unterscheidet, ob ein 50-Jähriger mit einer 15-Jährigen explizite Bilder austauscht oder zwei 15-Jährige untereinander, werden Heranwachsende schon heute kriminalisiert. Da Algorithmen der Chatkontrolle Cybergrooming von Sexting zwischen Minderjährigen nicht unterscheiden können, geraten Jugendliche künftig noch häufiger unter Verfolgungsdruck. Der Wissenschaftliche Dienst des Bundestages verweist daher explizit auf die zu erwartenden negativen Folgen für die Entwicklung Heranwachsender.
Last but not least möchte ich auf die mangelnden Kontrollmöglichkeiten der Chatkontrolle hinweisen, denn schon in seinem Urteil zur Vorratsdatenspeicherung lehnten sowohl der EuGH als auch das Bundesverfassungsgericht deren Verhältnismäßigkeit auch mit dem Argument ab, dass es an hinreichendem Schutz vor Missbrauchsrisiken der Überwachung fehle.
Bei der Chatkontrolle wird ein als illegal identifiziertes Bild mit einem Algorithmus in einen Hash-Wert umgerechnet, der nicht wieder rückwärtsgerechnet werden kann. Dieser Hash-Wert wandert in eine Datenbank aller dorthin gemeldeten Hash-Werte. Ab da kann niemand mehr feststellen, was für ein Bild hinter einem solchen Hash steckt, es sei denn, man hat das Bild bereits und rechnet damit selbst einen Hash-Wert aus und kann dann beide Hash-Werte miteinander vergleichen. Will jemand die Verbreitung eines legalen, aber missliebigen Bildes behindern, bräuchte man nur den Hash-Wert dieses Bildes in die Datenbank laden und der Filter-Algorithmus der Chatkontrolle verhindert die Verbreitung dieses Bildes selbst in privaten Chats. Diese Eigenschaften machen die Chatkontrolle zu einer potenziell mächtigen Zensurmaschine, die sich externer Kontrolle entzieht. Bereits 2019 beschrieb die Electronic Frontier Foundation diese Missbrauchsmöglichkeiten von Client Side Scanning.
Ausblick
Viel Zeit bleibt nicht, um diese gefährliche Verordnung zu verhindern, sie soll den Digital Services Act ergänzen und voraussichtlich Anfang 2024 in Kraft treten. Mit an Sicherheit grenzender Wahrscheinlichkeit wäre eine Klage dagegen vor dem EuGH erfolgreich, aber bis zu einem Urteil vergingen Jahre, in denen Grundrechte verletzt werden, Diktaturen einen Blueprint für Zensurinfrastrukturen erhalten und den Einsatz mit Verweis auf die EU rechtfertigen können und in denen sinnlos Ressourcen gebunden werden, die für den wirksamen Schutz von Kindern vor sexualisierter Gewalt fehlen.
/von
https://mdb.anke.domscheit-berg.de/wp-content/uploads/Bildschirmfoto-2023-01-19-um-11.34.09-e1674124165258.png9321342Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2022-11-21 10:52:002023-03-01 19:03:12Warum die Chatkontrolle nutzlos, aber gefährlich ist
Im zweiten Teil meines Videoreports zum Digitalausschuss vom 16. Februar geht es um den Verhandlungsstand der EU-Verordnungen Digital Market Acts und Digital Services Act. Die parallel laufenden Verfahren sollen große digitale Plattformen in ihre Schranken weisen, einen fairen Wettbewerb ermöglichen und Verbraucher:innen vor gefährlichen Geschäftsmodellen schützen. Komischerweise wurden die Zuständigkeiten in der neuen Ampelkoalition aufgeteilt, und so sprachen wir erst mit Franziska Brantner, parlam. Staatssekretärin im BMWK, zum DMA und anschließend mit Daniela Kluckert, parlam. Staatssekretärin im BMDV zum DSA. Es ging um strittige Aspekte, die nun im Trilog zwischen Europäischen Rat, Parlament und Kommission verhandelt werden, aber auch um die Position der Ampelkoalition dabei und darum, wobei Einigkeit herrscht.
Beim DMA ging es vor allem um den Wettbewerb, und dabei um Themen wie Interoperabilität für Messenger und Soziale Netzwerke, um Killer Acquisitions, Selbstbegünstigung von Plattformunternehmen und wirklich heftige Sanktionen bei Verstößen. Vor allem sogenannte Gatekeeper werden im DMA reguliert.
Beim DSA ging es vor allem um den Verbraucherschutz, den Umgang mit illegalen Inhalten und die Folgen für das deutsche NetzDG. In einer der beiden Verordnungen soll auch das Verbot verhaltensbasierter Online-Werbung für Kinder geregelt sein, laut BuReg im Ausschuss wandert dieser Abschnitt vom DMA ins DSA, aus Parlamentskreisen habe ich danach gehört, dass das noch offen ist. Im Video findet Ihr alle Details, auch zur Rolle der Nachhaltigkeit in den Verordnungen und was die BuReg dazu sagt.
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2022/02/20220216-Titelbild-DSA-DMA-final.png7201280adminhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngadmin2022-02-16 17:02:002022-07-04 13:18:59Digital Markets Act und Digital Services Act der EU – Videoreport Teil 2
In dieser Ausgabe berichte ich vom Digitalausschuss am 14.6.2023 mit 3 Themen: Content Moderierende waren zu Gast und berichteten von ihren unerträglichen Arbeitsbedingungen und wie sie sich weltweit dagegen wehren. Außerdem ging es um den „EU-US Trade and Technology Council“, ein noch junges Gremium mit einem starken Tech Fokus (Spoiler: vermutlich ein zahnloser Tiger), und als drittes ging es mal wieder um den EU Data Act, der in Kürze beschlossen wird und vermutlich auch nicht hält, was er verspricht. Und weil hier ja öfter von Künstlicher Intelligenz die Rede ist: diese Folge wurde (auch) mit Hilfe von KI geschnitten!
Ich freue mich, wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast.
Kapitelmarken: 00:00:07 Intro 00:00:58 Arbeitsbedingungen Content-Moderation 00:25:02 EU-US Tech- und Handelsrat (TTC) 00:32:36 EU Data-Act 00:43:33 Outro und Terminhinweise
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2022/10/220908-Podcast-Logo-V5-1-e1674487903908.png12821391Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-06-16 18:07:122023-09-21 20:18:01Der ADB Podcast #17 – Exploitation as a Service? Content-Moderation bei Plattformen, EU-US Tech- und Handelsrat (TTC) und was der EU Data-Act uns bringt (oder nicht)
In dieser 15. Ausgabe meines Podcasts aus dem digitalen Maschinenraum des Bundestages gehts um den Digitalausschuss vom 10.05.2023, an dem es 3 Themen gab: 1) die geplante EU Verordnung zu Transparenz und Regulierung (personalisierter) politischer Werbung (=political Targeting), 2) die von der Ampel vorgestellten Eckpunkte zum Gesetz gegen Digitale Gewalt (ich erkläre auch, warum der Titel völlig Banane ist) und 3) mal wieder CYBERCYBER, nur super kurz gehts da um EU-Ratsempfehlungen zu KRITIS und länger um eine EU-Verordnung für mehr Cybersicherheit bei Hardware, Software und allem, was zum Internet der Dinge gehört.
Ich freue mich, wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast
Beim Digitalausschuss vom 19.04.2023 debattierten wir 4 Themen. Aktuell ging es um Cyberangriffe auf Behörden Anfang April, ihre Verursacher und Folgen. Außerdem: EU Regulierung zur Verbesserung der Arbeitsbedingungen in der Plattformökonomie (UBER, Lieferando, Clickworker, Pflegevermittlungen etc) und die oft prekäre Lage der dort Beschäftigten, v.a. weil sie als Selbständige gelten, auch wenn sie es faktisch nicht sind. Uns interessierte die Position der Ampel (Spoiler: wir wurden nicht erhellt). Zwei weitere Themen drehten sich um Grundlagen der Verwaltungsmodernisierung: 1. die umstrittene Registermodernisierung (wichtig, aber in der Konzeption vermutlich verfassungswidrig) und 2. das größte Digitalprojekt der Bundesregierung – die “IT-Konsolidierung des Bundes” – für mich das “BER-Projekt der Bundes-IT”. Da gehts um richtig viel Kohle, lange Laufzeiten und ausbleibende Erfolge.
Ich freue mich wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2022/10/220908-Podcast-Logo-V5-1-e1674487903908.png12821391Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-04-21 15:03:172023-04-21 15:30:14Der ADB Podcast #13 – Cyberattacken auf Behörden, EU RL zu Arbeitsbedingungen bei Plattformen, Verwaltungsdigitalisierung (Registermodernisierung u. Neu-Organisierung der Bundes-IT)
Großer Schwerpunkt dieser Ausgabe ist die Anhörung zur EU-Chatkontrolle Verordnung am 01.03.2023, die das Potenzial hat, die größte Überwachungsinfrastruktur aller Zeiten in der EU zu veranlassen. Mit dabei der von mir vorgeschlagene Sachverständige Felix Reda. Im Digitalausschuss direkt danach ging es einerseits um eine von der EU Kommission geplante Infrastrukturabgabe für sog. Over-the-Top-Anbieter und andererseits um das geplante Dateninstitut der Bundesregierung – was da der Stand seiner Gründung ist, wie die 10 Mio € Haushaltsmittel ausgegeben werden sollen und andere offene Fragen. Hinter der Infrastrukturabgabe verbirgt sich die neu aufgewärmte (und sehr dumme) Idee, datenintensiven Inhalteanbietern (Netflix, Amazon, Google u Co) ein Zwangsgeld überzuhelfen, mit dem sie sich an den Ausbaukosten der Netzbetreiber beteiligen sollen (wer zahlt da wohl am Ende mehr?). Ihr erfahrt, warum diese Abgabe gefährlich ist für das gesamte Ökosystem des Internets und welche Position (vermutlich) die Bundesregierung vertritt.
Ich freue mich wenn ihr wieder reinhört, den Podcast weiterempfehlt und wie immer über Feedback an anke.domscheit-berg@bundestag.de oder gern auch auf Social Media mit Hashtag #DerADBPodcast
00:00:07 Intro 00:01:05 Nachreichung: OSS und Open Data beim Breitbandportal 00:01:43 Anhörung Chatkontrolle – Intro 00:08:09 Scannen von privater Kommunikation 00:13:12 Künstl. Intelligenz – Filter, Fehlerraten 00:21:43 Hash-basierte Filter-Verfahren 00:24:53 Altersverifizierung Folgen für Anonymität, Minderjährige, Open Source 00:33:30 Netzsperren 00:36:29 EU-Zentrum 00:37:44 BfDI Kelber zum Datenschutz 00:39:43 Chatkontrolle Verordnung und ePrivacy Richtlinie 00:41:07 Rechtsgrundlage der Chatkontrolle VO 00:44:43 Empfehlungen der Sachverständigen zur Haltung der BuReg 00:49:37 Ausschusssitzung 01.03.23, TOP Infrastrukturabgabe OTT-Anbieter Intro 00:51:00 Befürworter und Gegner und ihre Argumente 00:54:13 Der ungewöhnliche Prozess 00:56:12 Einführung Staatssekretär Schnorr, BMDV 00:58:38 Marktversagen ja oder nein und Position der BNetzA 01:01:10 ganz schön fishy: was Telco Orange und Kommissar Breton verbindet 01:02:19 Viele weitere Fragen und Fazit zur Infrastrukturabgabe 01:06:03 Ausschusssitzung 01.03.23 TOP Dateninstitut – Intro 01:07:18 Einführung von BMWK, BMI und BMBF 01:09:48 Zeitplan und wie werden 10 Mio € ausgegeben? 01:11:36 Governance des Dateninstitutes 01:12:50: Use Cases und künftige Finanzierung 01:14:47 Ausblick und Fazit 01:15:18 Outro mit Terminhinweisen
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2022/10/220908-Podcast-Logo-V5-1-e1674487903908.png12821391Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-03-03 15:56:202023-05-16 12:00:33Der ADB Podcast #10 – Anhörung zur EU – Chatkontrolle, EU Plan für Infrastrukturabgaben großer Inhalte-Anbieter und Dateninstitut der Bundesregierung
https://mdb.anke.domscheit-berg.de/wp-content/uploads/2021/05/mdr_logo.png550880Melissa Meyerhttps://mdb.anke.domscheit-berg.de/wp-content/uploads/2018/06/Logo_Anke.pngMelissa Meyer2023-01-30 13:35:422023-01-30 13:35:42Analyse: Datenschutz und Datensicherheit: Das große Missverständnis