Beiträge

Die Umsetzung des EU Digital Services Act braucht Nachbesserung: Gefahren entstehen durch massenhafte Datenweiterleitungen an das BKA und Mißbrauch von Netzsperren. Die zuständige BNetzA hat nicht mal Stellen; KMU und dezentrale, nicht kommerzielle Dienste stehen im Regen.

Meine Rede zur Umsetzung des DSA auf nationaler Ebene im Wortlaut (18.01.2023):

Sehr geehrte Präsidentin! Liebe Kolleginnen und Kollegen! Meine Einschätzung zur Umsetzung des DSA gibt es jetzt in 90 Sekunden. Gut daran ist die Klarheit bei der Störerhaftung und die Beteiligung der Zivilgesellschaft im Beirat. Aber insgesamt finde ich die Umsetzung doch misslungen.

Erstens: Noch häufiger als bisher können Netzsperren wegen Urheberrechtsverletzungen direkt beim Anbieter und ohne Richtervorbehalt eingefordert werden. Wer die vorgesehene Verhältnismäßigkeit prüfen soll, bleibt dabei völlig offen. Als Linke kritisiere ich dieses Zensurheberrecht!

Zweitens. Die Pflicht zur proaktiven Datenweiterleitung an das BKA in Artikel 18 des DSA besteht bei „Gefahr für die Sicherheit von Personen“. Das ist ein sehr schwammiger Rechtsbegriff und muss konkretisiert werden, will man massenhaftes Ausleiten personenbezogener Daten verhindern und Gerichte nicht mit Klagen überlasten.

Drittens: Die Anwendung des Digitale-Dienste-Gesetzes ist bei nichtkommerziellen Diensten völlig unklar, wenn sie dezentral organisiert sind wie Mastodon oder das Wikimedia-Projekt „Wikimedia Commons“. Die Autorencommunity dort ist getrennt vom Verein Wikimedia. Sollen jetzt ehrenamtliche Autorinnen und Autoren das Beschwerdemanagement einrichten und Transparenzberichte erstellen? Eine Umsetzungsunterstützung für nichtkommerzielle Anbieter und viele kleine und mittlere Unternehmen unter den 5 000 betroffenen Anbieter/-innen gibt es bisher nicht.

Viertens hat die künftig zuständige Bundesnetzagentur als Digitale-Dienste-Koordinator bisher noch nicht einmal Stellen dafür, ist in vier Wochen aber bereits Ansprechpartnerfür über 5 000 Anbieter und mehrere Millionen Nutzer/-innen. Bessern Sie das nach, liebe Ampel, und das sehr schnell!

Vielen Dank.

Mein im Tagesspiegel Backround erschienener Artikel, vom 21.11.2022

Die Vorratsdatenspeicherung ist zwar weitgehend vom Tisch, aber nun droht ihre jüngste Schwester, bekannt als „Chatkontrolle“, per Europäischer Regulierung eine gefährliche Zensur-Infrastruktur zu schaffen, die von undemokratischen Regierungen, aber auch in der EU selbst missbraucht werden kann, ohne wirksame Kontrollmöglichkeiten durch Wissenschaft, Zivilgesellschaft, Journalismus oder Politik.

Die EU-Verordnung soll Kinder vor sexualisierter Gewalt schützen, in dem Bilder davon oder Cybergrooming eher entdeckt werden. Weitreichende
Eingriffe in Grundrechte werden immer mit Zielen durchgesetzt, bei denen der gesellschaftliche Widerstand klein ist, wer will schon als jemand da stehen, der Kindervergewaltiger vor Strafverfolgung schützt? Nach 9/11 war es der Kampf gegen den Terrorismus, davor war die Angst groß und deshalb der Widerstand klein gegen Überwachung im Netz.

Aber die Hürde für Grundrechtseinschränkungen liegt hoch, drei Anforderungen müssen erfüllt sein, unabhängig davon, wie edel die erklärten Ziele sind. Genau diese Prüfung nahm der unabhängige Wissenschaftliche Dienst des Bundestages in meinem Auftrag vor, denn jede Grundrechtseinschränkung muss sowohl geeignet, als auch angemessen und verhältnismäßig sein. Nach aktuellem Stand würde die Verordnung Diensteanbieter dazu verpflichten, eine Risikobewertung ihres Dienstes hinsichtlich der Verbreitung dieser speziellen Inhalte vorzunehmen. Dazu muss ein Diensteanbieter aber wissen, ob sein Dienst dafür genutzt wird, wozu er alle Inhalte kontrollieren muss. Das erfordert wiederum algorithmische Filter, da Milliarden von Inhalten zu prüfen wären.

Das ginge in zwei Varianten: entweder man baut Löcher in verschlüsselte Kommunikation ein, was ein klarer Verstoß gegen den Koalitionsvertrag wäre, der ein Bekenntnis zur Unantastbarkeit sicherer Verschlüsselungen enthält. Oder man nutzt Client Side Scanning (CSS), bei dem noch vor dem Verschlüsseln die Inhalte überprüft werden. Laut Wissenschaftlichem Dienst des Bundestages erfordert das CSS den Einbau „kodifizierter, werkseitiger Hintertüren“ in den genutzten Geräten, also absichtliche Schwachstellen, die auch Dritte für Cyberangriffe nutzen können. Das reduziert die IT-Sicherheit in Zeiten hoher Angriffswahrscheinlichkeiten.

Auf meine Fragen nach ihrer Haltung zum CSS antwortete die Bundesregierung stets ausweichend. Hält Innenministerin Nancy Faeser
eine Überwachung privater Kommunikationen per CSS etwa für vereinbar mit dem Koalitionsvertrag? Auch CSS macht verschlüsselte Kommunikation kaputt, denn ihr Zweck, vertrauliche und private Kommunikationen vor Kenntnisnahme Dritter zu schützen, ist nicht mehr erreichbar. Der Wissenschaftliche Dienst des Bundestages kommt daher zu der klaren Einschätzung, dass die verpflichtende Risikobewertung sichere Kommunikationswege faktisch abschafft.


Wäre die Chatkontrolle eine geeignete Maßnahme?

Schon bei der Prüfung der Eignung der Maßnahme dafür, ob sie Kinder vor sexualisierter Gewalt schützt, hat der Wissenschaftliche Dienst des Bundestages Bedenken und verweist u.a. auf den Kinderschutzbund, der die Verordnung für überzogen und in der Sache für nicht hilfreich hält. Das Hauptproblem sei nicht, dass es an Anzeigen fehlte, sondern dass es an Ressourcen fehlt, bei Anzeigen schnell und effektiv zu ermitteln. Es braucht schlicht mehr Personal. Die steigenden Fallzahlen der vergangenen Jahre liegen vor allem an der bereits stattfindenden Erhellung des Dunkelfeldes.

So arbeiteten in der zuständigen Stelle in NRW noch vor vier Jahren nur zwölf Fachkräfte, inzwischen sind es 90. Mit der Chatkontrolle bekämen diese bereits überlasteten Fachkräfte eine Welle Tausender falscher Meldungen zusätzlich, weil die Algorithmen auch bisher unbekannte Bilder flaggen und legales Sexting unterscheiden sollen von
Cybergrooming, was hohe Fehlerraten unvermeidbar macht. Das bindet Ressourcen, die bei echten Fällen fehlen werden – das wirkt sogar gegen
das erklärte Ziel.

Wäre die Chatkontrolle angemessen?

Der Wissenschaftliche Dienst prüfte auch, ob die Chatkontrolle angemessen ist, der EuGH meint damit, dass es keine andere Maßnahme gibt, die mit weniger Grundrechtseinschränkung das gleiche Ziel erreicht. Auch diese Prüfung besteht die Chatkontrolle nicht. Mehr Ressourcen für Strafverfolgung und vor allem für Prävention im Bereich Kinder-und Jugendschutz bereitzustellen, wären zum Beispiel grundrechtsfreundlichere Maßnahmen. Ich kenne selbst Fälle aus meinem Umfeld, wo weder von Cybergrooming betroffene Jugendliche noch deren Eltern und Lehrkräfte wussten, was zu tun war, wie groß potenzielle Gefahren sind und wie oft Täter mit falschen Identitäten unterwegs sind. Als Teil der Prävention zum Thema Cybergrooming könnte zum Beispiel der hervorragende Film „Gefangen im Netz“ in allen Schulen gezeigt und sein Material bearbeitet werden.

Wäre die Chatkontrolle verhältnismäßig?

Bei einer Grundrechtseinschränkung muss weiterhin der mit ihr erzielbare Nutzen in einem sinnvollen Verhältnis zu den unerwünschten Nebenwirkungen stehen, um vereinbar zu sein mit der EUGrundrechtecharta (Art. 7, 8, 11 GRCh) und mit der EU Richtlinie 2002/58/EG, die die Vertraulichkeit der Kommunikation schützt. Der Wissenschaftliche Dienst des Bundestages kommt auch bei dieser Prüfung zu einer eindeutigen Einschätzung: die Verhältnismäßigkeit sei nicht gegeben, da bereits der Nutzen fraglich sei, die zu erwartenden negativen Effekte sowohl für die gesamte Gesellschaft (Stichworte Chilling Effect, geminderte IT-Sicherheit u.a.) aber auch für die eigentlich zu schützenden Jugendlichen gravierend sind.

So stammen nach einem Bericht der „Frankfurter Allgemeinen Zeitung“ von 5. Oktober 2022 inzwischen schon etwa 50 Prozent der illegalen Verbreitung pornografischer Inhalte von Jugendlichen selbst. Da das Strafrecht in Deutschland nicht unterscheidet, ob ein 50-Jähriger mit einer 15-Jährigen explizite Bilder austauscht oder zwei 15-Jährige untereinander, werden Heranwachsende schon heute kriminalisiert. Da Algorithmen der Chatkontrolle Cybergrooming von Sexting zwischen Minderjährigen nicht unterscheiden können, geraten Jugendliche künftig noch häufiger unter Verfolgungsdruck. Der Wissenschaftliche Dienst des Bundestages verweist daher explizit auf die zu erwartenden negativen Folgen für die Entwicklung Heranwachsender.

Last but not least möchte ich auf die mangelnden Kontrollmöglichkeiten der Chatkontrolle hinweisen, denn schon in seinem Urteil zur Vorratsdatenspeicherung lehnten sowohl der EuGH als auch das Bundesverfassungsgericht deren Verhältnismäßigkeit auch mit dem Argument ab, dass es an hinreichendem Schutz vor Missbrauchsrisiken der Überwachung fehle.

Bei der Chatkontrolle wird ein als illegal identifiziertes Bild mit einem Algorithmus in einen Hash-Wert umgerechnet, der nicht wieder rückwärtsgerechnet werden kann. Dieser Hash-Wert wandert in eine Datenbank aller dorthin gemeldeten Hash-Werte. Ab da kann niemand mehr feststellen, was für ein Bild hinter einem solchen Hash steckt, es sei denn, man hat das Bild bereits und rechnet damit selbst einen Hash-Wert aus und kann dann beide Hash-Werte miteinander vergleichen. Will jemand die Verbreitung eines legalen, aber missliebigen Bildes behindern, bräuchte man nur den Hash-Wert dieses Bildes in die Datenbank laden und der Filter-Algorithmus der Chatkontrolle verhindert die Verbreitung dieses Bildes selbst in privaten Chats. Diese Eigenschaften machen die Chatkontrolle zu einer potenziell mächtigen Zensurmaschine, die sich externer Kontrolle entzieht. Bereits 2019 beschrieb die Electronic Frontier Foundation diese Missbrauchsmöglichkeiten von Client Side Scanning.

Ausblick

Viel Zeit bleibt nicht, um diese gefährliche Verordnung zu verhindern, sie soll den Digital Services Act ergänzen und voraussichtlich Anfang 2024 in Kraft treten. Mit an Sicherheit grenzender Wahrscheinlichkeit wäre eine Klage dagegen vor dem EuGH erfolgreich, aber bis zu einem Urteil vergingen Jahre, in denen Grundrechte verletzt werden, Diktaturen einen Blueprint für Zensurinfrastrukturen erhalten und den Einsatz mit Verweis auf die EU rechtfertigen können und in denen sinnlos Ressourcen gebunden werden, die für den wirksamen Schutz von Kindern vor sexualisierter Gewalt fehlen.

Im zweiten Teil meines Videoreports zum Digitalausschuss vom 16. Februar geht es um den Verhandlungsstand der EU-Verordnungen Digital Market Acts und Digital Services Act. Die parallel laufenden Verfahren sollen große digitale Plattformen in ihre Schranken weisen, einen fairen Wettbewerb ermöglichen und Verbraucher:innen vor gefährlichen Geschäftsmodellen schützen. Komischerweise wurden die Zuständigkeiten in der neuen Ampelkoalition aufgeteilt, und so sprachen wir erst mit Franziska Brantner, parlam. Staatssekretärin im BMWK, zum DMA und anschließend mit Daniela Kluckert, parlam. Staatssekretärin im BMDV zum DSA. Es ging um strittige Aspekte, die nun im Trilog zwischen Europäischen Rat, Parlament und Kommission verhandelt werden, aber auch um die Position der Ampelkoalition dabei und darum, wobei Einigkeit herrscht. 

Beim DMA ging es vor allem um den Wettbewerb, und dabei um Themen wie Interoperabilität für Messenger und Soziale Netzwerke, um Killer Acquisitions, Selbstbegünstigung von Plattformunternehmen und wirklich heftige Sanktionen bei Verstößen. Vor allem sogenannte Gatekeeper werden im DMA reguliert. 

Beim DSA ging es vor allem um den Verbraucherschutz, den Umgang mit illegalen Inhalten und die Folgen für das deutsche NetzDG. In einer der beiden Verordnungen soll auch das Verbot verhaltensbasierter Online-Werbung für Kinder geregelt sein, laut BuReg im Ausschuss wandert dieser Abschnitt vom DMA ins DSA, aus Parlamentskreisen habe ich danach gehört, dass das noch offen ist. Im Video findet Ihr alle Details, auch zur Rolle der Nachhaltigkeit in den Verordnungen und was die BuReg dazu sagt.

Weiterlesen

Medienecho