In ihrer Antwort auf die zweite Kleine Anfrage der Linksfraktion zum Einsatz von KI in Bundesbehörden (Drucksache 20/6862) gab die Bundesregierung an, in mehr als 100 Fällen verteilt auf 12 Bundesministerien und ihre nachgeordneten Behörden KI-Systeme zu nutzen. Gleichzeitig unterstützt der Bund 446 Forschungsvorhaben, 58 Pilotprojekte und 10 Reallabore rund um Künstliche Intelligenz. Für die Umsetzung der KI-Strategie werden bis 2025 insg. 3,5 Mrd € zusätzlicher Mittel bereitgestellt, davon sind 2,78 Mrd € bereits verausgabt oder gebunden. Trotz starkem Zuwachs von KI im Bund fehlt es weiterhin an Kompetenzen, Strukturen und verbindlichen Prozessen, um die notwendige Transparenz und Nachvollziehbarkeit herzustellen und die potenziellen Risiken sowohl bewerten, als auch einschränken zu können. Auch die Nachhaltigkeit der KI-Systeme spielt kaum eine Rolle.

Dazu erklärt Anke Domscheit-Berg, digitalpolitische Sprecherin der Linksfraktion im Bundestag:

„Die Bundesregierung betont immer wieder, wie wichtig es sei, dass KI wertebasiert, gemeinwohlorientiert, transparent und nachvollziehbar eingesetzt wird, damit Vertrauen aufgebaut wird und die Akzeptanz steigt. Gelebt wird beim Bund das Gegenteil: Die Schere zwischen KI-Befähigung und KI-Einsatz geht weiter auseinander und hat im Bund ein erschreckendes Ausmaß angenommen, denn immer mehr KI-Systeme werden eingesetzt, ohne dafür die notwendigen Grundlagen zu schaffen. Es braucht aber keinen Hype, sondern ein strukturiertes Vorgehen, was ein Mindestmaß an Kompetenz zu KI in Bundesbehörden voraussetzt.

Die Antwort der Ampel offenbart: Grundlegende ethische Standards werden nicht eingehalten, es gibt keine allgemeinverbindlichen Richtlinien zur Risikobewertung von KI-Systemen, kein dafür vorgegebenes Risikoklassenmodell, obwohl das schon im letzten Jahr angekündigt wurde. Manche Behörden zeigten durch ihre Antwort, dass sie nicht einmal die Frage danach verstanden haben. Vielleicht auch, weil die schon vor 13 Monaten angekündigten unterstützenden Strukturen weiter hin fehlen, wie die Schaffung eines Beratungs- und Evaluierungszentrums für Künstliche Intelligenz und eines KI-Kompetenzzentrums für die öffentliche Verwaltung, deren Prüfung und Aufbau immer noch ‚weiter vorangetrieben’ wird. 

Ein absolutes NoGo ist jedoch der Umgang der Bundesregierung mit dem Einsatz von KI-Systemen in besonders grundrechtssensiblen Bereichen. Im letzten Jahr erhielt ich noch (eingestufte) Informationen zu KI-Systemen in Strafverfolgungs-, Ermittlungs- und Gefahrenabwehrbehörden des Bundes – so zu diversen Vorhaben bei ZITIS, die eine Laufzeit von mindestens bis 2023 haben, über die ich aber in der aktuellen Anfrage nichts mehr erfahren darf, weil selbst eine in der Geheimschutzstelle des Bundestages hinterlegte Information das Staatswohl gefährden würde. Zum Einsatz von KI-Systemen in sämtlichen Sicherheitsbehörden (Strafverfolgung, Ermittlung, Gefahrenabwehr und Geheimdienste) verweigert die Bundesregierung die Aussage, obwohl die Missbrauchsgefahren und Risiken hier besonders hoch sind.

Die geplante EU-KI-Verordnung klassifiziertden Einsatz von KI in der Strafverfolgung als Hochrisiko-Bereich, für den hohe Anforderungen gelten, z.B. hinsichtlich der Bewertung und Minimierung von Risiken, der Qualität der Datensätze, der Dokumentation des Einsatzes und der Information der Nutzer:innen. Es ist verantwortungslos und demokratiegefährdend, jegliche Transparenz dazu zu verweigern, denn sie ist sowohl Grundlage für die ständig angemahnte gesellschaftliche Debatte als auch für die notwendige parlamentarische Kontrolle. Auch die lang angekündigte Algorithmenbewertungsstelle für Behörden und Organisationen mit Sicherheitsaufgaben gibt es weiterhin nicht, es fehlt also selbst ein internes Sicherheitsnetz.

Bei beiden KI-Anwendungsfällen aus dem Hochrisiko-Bereich Migration wurde überhaupt keine Risikobewertung vorgenommen – spätestens nach Inkraft Treten der KI-Verordnung ist das ein Rechtsverstoß. Die Einstufung als Hochrisiko-KI gibt es nicht ohne Grund, denn Grundrechte können hier besonders leicht und besonders schwerwiegend verletzt werden.

Mehr als zwei Milliarden Euro hat der Bund bereits in die Finanzierung von KI-Projekten gesteckt, 3,5 Milliarden stehen insgesamt zur Verfügung, aber die Schaffung eigener Strukturen im Bund, die dazu beitragen würden, dass KI-Systeme nur verantwortungsvoll und kompetent eingesetzt und evaluiert werden, bleibt auf der Strecke. Mit dieser dilettantischen und gefährlichen Vorgehensweise wird die Bundesregierung wohl kaum Vertrauen und Akzeptanz für KI in der Gesellschaft erreichen.

Eine löbliche Ausnahme ist der Geschäftsbereich des BMAS, wo man sich kompetent mit den Prozessen rund um den Einsatz von KI befasst hat, Technikfolgeabschätzungen vornahm, Richtlinien für den KI-Einsatz im Arbeits- und Sozialbereich sowohl existieren als auch angewendet werden und wo auch Evaluationen stattfinden. Solche guten Beispielen müssen aber der Regelfall und nicht nur eine Ausnahme sein.

Im Übrigen kritisiere ich scharf, dass die Ampel-Regierung etliche meiner Fragen unvollständig, gar nicht oder irreführend beantwortet hat und damit das parlamentarische Fragerecht verletzt. Das ist entweder Schlamperei oder Absicht, alternativ beides und in jedem Fall inakzeptabel.

Hintergrund

Anwendungen künstlicher Intelligenz prägen die öffentliche Debatte, seit ChatGPT und andere generative KI-Modelle vorstellbar machten, welche Potenziale – gute wie bedrohliche – in dieser Technologie liegen und wie wichtig Transparenz und Nachvollziehbarkeit bei ihrem Einsatz sind. In der EU läuft aktuell die Trilog Verhandlung zur Verabschiedung der KI-Verordnung. In ihrer Antwort auf eine Kleine Anfrage von Anke Domscheit-Berg gab die Bundesregierung bereits im Januar 2022 an, 86 Mal KI-Systeme in der Bundesverwaltung einzusetzen, wobei nur ein einziges Mal eine Risikoklassifizierung vor dem Einsatz stattfand. Die Anfrage von 2022 offenbarte enorme Kompetenzlücken, einen eklatanten Mangel an Risikobewußtsein und strukturelle Defizite. In erweiterter Form wurde diese Kleine Anfrage von Anke Domscheit-Berg in 2023 erneut gestellt.

Anhang – Antwort der Bundesregierung im Original (eingestufte Informationen geschwärzt):

Weil sich Twitter als Privateigentum von Elon Musk verändert hat, befragten wir im Digitalausschuss am 8.2.2023 Twitter EU-Repräsentant Costello zur Gesetzeinhaltung trotz Massenentlassungen, zu Veränderungen bei Diensten, Einsatz von KI u.v.m., es wurde unfassbar peinlich. Außerdem berichtete das BMJ: zum NetzDG und zum Rechtsstreit mit Twitter und es geht kurz ums OZG 2.0 (Spoiler: Es kommt erst 2024!). News gibts zur Frage: Wie gut klappte der Warntag?

Kapitelmarken:

00:00:07 Intro

00:01:17 Update zur Öffentlichkeit des Ausschusses

00:03:08 Bilanz des bundesweiten Warntages 2022

00:05:16 Befragung Twitter, Intro Costello, Community Notes

00:09:14 Twitter: Entlassungen, Content Moderation, NetzDG , KI

00:17:22 Twitter Files, Blauer Haken, Suicide Feature, API, Nutzer*innenzahlen, DSA

00:25:07 BMJ: Rechtsstreit mit Twitter, allg. Umgang mit Musk-Twitter

00:31:46 BMJ: NetzDG allg.

00:33:50 OZG 2.0: Zeitplan, Evaluierung, keine E2E Digitalisierung per Gesetz

00:38:51 Outro und Terminhinweise

Weiterführende Links:

Warntag 2022

Twitter

Termine:

Mehr von mir hören und sehen:

17. Oktober 2022

Frage:

Warum setzt sich die Bundesregierung in den Verhandlungen zur EU KI-Verordnung dafür ein, dass KI-Anwendungen der öffentlichen Verwaltung durch gesonderten Rechtsakt oder ein gesondertes Kapitel der KI-Verordnung reguliert werden sollen, wie es die Bundesregierung in der Stellungnahme „KI-Regulierung – stärkere Berücksichtigung von Besonderheiten der öffentlichen Verwaltung insbesondere im Sicherheits- und Migrationsbereich“ (BReg-Dok 272/2022) formuliert, und wie unterscheiden sich nach Auffassung der Bundesregierung die jeweiligen Vor- und Nachteile einer Regulierung von KI-Anwendungen der öffentlichen Verwaltung in einem gänzlich gesonderten Rechtsakt im Vergleich zu einer Regulierung in einem gesonderten Kapitel der KI-Verordnung?

Antwort des Staatssekretärs Benjamin Strasser:

Die Bundesregierung strebt die Regulierung von Künstlichen Intelligenz-Systemen (KI-Systeme) an und unterstützt den europäischen Artificial Intelligence Act (AI Act). Dies umfasst auch die rasche und zeitgleiche Regulierung von KI-Systemen für die öffentliche Verwaltung, einschließlich der Bereiche der Sicherheits-, Migrations- und Asylbehörden sowie Steuer- und Zollverwaltung (einschließlich Financial Intelligence Unit (FIU)).

Die besonderen Belange der staatlichen Tätigkeit der vorgenannten Behörden werden durch den Entwurf der Kommission jedoch nicht in jeder Hinsicht hinreichend berücksichtigt. Es ist schwierig, den besonderen Belangen dieser Behörden sowie den für hoheitliche Maßnahmen geltenden grundrechtlichen Anforderungen im Rahmen der primär privatrechtlich- und binnenmarktorientierten Vorschriften des Vorschlags für den AI Act vollständig gerecht zu werden. Die Erfüllung staatlicher Aufgaben muss gewährleistet bleiben und gleichzeitig die unmittelbare Grundrechtsbindung der staatlichen Verwaltung Beachtung finden. Notwendige diverse Einzelausnahmen /-anpassungen in den Einzelvorschriften des aktuellen Verordnungsentwurfs können zu Rechtsunsicherheit bei den Normadressaten führen.

Aus Sicht der Bundesregierung kann den Besonderheiten der öffentlichen Verwaltung (ins- besondere von Sicherheits-, Migrations- und Asylbehörden sowie der Steuer- und Zollverwaltung einschließlich FIU) durch einen separaten, gesonderten Technologierechtsakt oder jedenfalls durch ein gesondertes Kapitel in der Verordnung mit jeweils abschließendem Regelungsinhalt besser Rechnung getragen werden. Für die Bundesregierung ist es dabei nicht entscheidend, ob entsprechende Regelungen in einem separaten Kapitel im Entwurf des europäischen AI Acts oder zeitgleich in einem eigenständigen Rechtsakt erfolgen.

In diesem Videoreport berichte ich von der Anhörung externer Sachverständiger zur Gigabitstrategie der Bundesregierung am 19.9.2022 und vom Digitalausschuss am 21.09.2022, in dem es ebenfalls um die Gigabitstrategie ging – diesmal befragten wir nicht Sachverständige, sondern Vertreter:innen der Bundesregierung, und es ging um die Europäische Verordnung AI Act – eine Verordnung zur Regulierung des Einsatzes Künstlicher Intelligenz in der EU, die gerade in Brüssel verhandelt wird.

Die Gigabitstrategie ist ein Papier des Grusels, das äußerst platt äußerst einseitige Interessen vertritt. Verantwortlich ist die FDP, man kann sich also denken, wessen Interessen vertreten werden und wessen nicht. Der AI Act kann ein totaler Schuss in den Ofen werden, oder eine kluge Regulierung, die Rechtssicherheit für Innovationen schafft und gleichzeitig Grundwerte und Grundrechte schützt. Noch ist der Ausgang offen. 

Dies war dann mein letzter Videoreport, nächstes Mal gibt es einen nagelneuen Podcast für Euch. Datensparsam und für unterwegs. Sobald es einen Link dazu gibt, wird er unten angezeigt. Wir hören uns!

Weiterlesen

Künstliche Intelligenz: Nutzen und Risiken

Seit Jahren steigt der Einsatz von Künstlicher Intelligenz (KI), längst ist sie im Alltag der Menschen angekommen und wird weiter zunehmen, nicht nur in der Wirtschaft und in unseren elektronischen Geräten, sondern auch in der öffentlichen Verwaltung.

Weiterlesen
Anke Domscheit-Berg, DIE LINKE: Zur Enquete-Kommission Künstliche Intelligenz

Enquete-Kommission Künstliche Intelligenz: Intransparent und bisher keine Bürger:innenbeteiligung Statt die Arbeit der Kommission für die Öffentlichkeit zu öffnen und Bürger:innen daran zu beteiligen, fand die Kommission hinter verschlossenen Türen statt. Die abgeschlossenen Teilberichte bleiben bis auf je ein Kapitel ein Jahr in der Schublade. Wir werden für die Themen Innere Sicherheit und Militär Sondervoten veröffentlichen, mit roten Linien bei Einsätzen von KI, die Grundrechte verletzen können.

Regulierungsempfehlungen für Daten und Algorithmen (06.11.2019)

Heute stellte die Dathenethikkomission ihr Abschlussgutachten im Ausschuss Digitale Agenda vor. Das wichtigste daraus erzähle ich euch im Video.

Weiterlesen

Frage: Welche Anweisungen und Verfahren gibt es im Rahmen des zweiten Teilprojekts der Deutschen Bahn AG und der Bundespolizei zum Test intelligenter Videoanalyse-Technik am Berliner Südkreuz bei Fällen, in denen die zu testende Software Situationen erkennt, die nicht durch eigens eingesetzte Darsteller erzeugt werden (z. B. von Dritten abgestellte Gegenstände, gestürzte unbeteiligte Personen), und wie werden solche nicht gestellten Situationen in der Auswertung des Teilprojekts berücksichtigt? (BT-Drucksache 19/11515)

Antwort des Staatssekretärs Dr. Helmut Teichmann vom 10. Juli 2019:

Im Rahmen des zweiten Teilprojekts zum Test intelligenter Videoanalyse-Technik am Bahnhof Berlin Südkreuz erfolgt die Erprobung parallel zum Realbetrieb, ohne Einbindung in bestehende Prozesse. Es werden hierzu aktuell vier Kameras, in vier zuvor festgelegten und durch auffällig blaue Markierungen gekennzeichneten Testbereichen, parallel betrieben. Die Szenarien werden durch die Bundespolizei durchgehend überwacht. Eine Verwechslung mit Situationen, die nicht durch eigens eingesetzte Darsteller erzeugt werden, ist aufgrund des Testaufbaus ausgeschlossen.

Parlamentarische Initiativen von Petra Sitte, Anke Domscheit-Berg, Simone Barrientos, Birke Bull-Bischoff, Nicole Gohlke, Jan Korte, Sören Pellmann, 02. Mai 2019

02.05.19 – Kleine Anfrage – Drucksache Nr. 19/9707

Darstellung der regional sehr unausgeglichenen Verteilung der Forschung im Bereich künstliche Intelligenz und maschinelles Lernen in der außeruniversitären Forschungslandschaft. Die Konzentration dieser Forschung auf wenige Regionen wird zu einer weiteren Spaltung zwischen Aglomerationsräumen und übrigen Gebiet. Dabei ist vor allem die Spaltung zwischen Ost- und Westdeutschland zu berücksichtigen.

Herunterladen als PDF

Hierzu liegt eine Antwort der Bundesregierung als Drucksache Nr. 19/10511 vor. Antwort als PDF herunterladen

Seit September 2018 tagt die vom Bundestag eingesetzte Enquete-Kommission Künstliche Intelligenz, deren Mitglied ich bin. Sie befaßt sich mit der Entstehung und dem Einsatz selbstlernender Systeme, also etwa mit Software, deren Algorithmen sich bei der Lösung eines Problems selbst verbessern können – bis hin zu Software, die allein Lösungen für Probleme findet und ohne Beteiligung von Menschen Entscheidungen trifft- zum Beispiel bei der Steuerung vollständig autonomer Fahrzeuge. Es stellen sich dabei sehr viele vor allem auch ethische Fragen, daher haben wir als Linksfraktion im Bundestag die Einsetzung der Enquete Kommission begrüßt. Unsere Obfrau ist Petra Sitte, weitere Mitglieder sind Jessica Tatti und Achim Kessler. Wir haben die Themen unter uns verteilt, denn jede*r hat so seine Spezialgebiete und vieles an der Arbeit findet parallel statt – man muss sich also in Untergruppen teilen. Dazu passend haben wir unsere Sachverständigen ausgewählt: Prof. Dr. Katharina Zweig ist nicht nur Professorin für Informatik an der TU Kaiserslautern und dabei in der kritischen Algorithmus- und Data-Science-Forschung tätig, sondern gründete dort auch den bundesweit ersten Studiengang „Sozioinformatik“, der sich mit den gesellschaftlichen Folgen der Digitalisierung auseinandersetzt. Bekannt ist sie auch als Gründerin der NGO Algorithmwatch. Mit ihr an Bord ist Dr. Florian Butollo, der am Weizenbaum Institut für die vernetzte Gesellschaft die Forschungsgruppe „Arbeit in hoch automatisierten digital-hybriden Prozessen“ leitet.

Gruppenfoto aus dem September 2018 von der konstituierenden Sitzung der Enquete-Kommission


Das Ziel der Enquete ist, Handlungsempfehlungen hinsichtlich der Förderung und Regulierung des Einsatzes künstlicher Intelligenz für die Bundesregierung zu entwickeln. Für einige Fraktionen scheint es dabei hauptsächlich darum zu gehen, wie Deutschland eine globale Spitzenposition bei dieser Technologie erreichen kann, um der Wirtschaft gute Rahmenbedingungen in einem neuen Wachstumsmarkt zu schaffen.

Unser Fokus als Fraktion in der Kommission ist allerdings anders, uns geht es um eine Weichenstellung, die sich an Grundrechten und Werten orientiert und die den gemeinwohlorientierten Einsatz von KI in den Vordergrund stellt – und nicht die Maximierung von Gewinnen für einzelne Unternehmen. Wir wollen Transparenz und Offenheit aber auch die Beteiligung von Bürgerinnen und Bürgern bei der Entwicklung von Schwerpunkten für den Einsatz von künstlicher Intelligenz und bei der Grenzziehung, also bei der Entscheidung, wo wir überhaupt einen Einsatz von künstlicher Intelligenz wollen und wo nicht.

Die Enquete Kommission beschäftigt sich seit einer gemeinsamen Einführungsphase in sechs Projektgruppen mit jeweils einen Themenblock. Seit Februar geht es in den ersten drei Projektgruppen um die Bereiche Wirtschaft, Staat und Gesundheit. Danach schließen sich im Herbst drei Projektgruppen mit den Themenfeldern Forschung /Bildung / Arbeit sowie Mobilität und Medien/Demokratie an. Aber nicht alle Arbeit findet nur noch in den Projektgruppen statt, die gesamte Enquete Kommission,19 MdB und 19 Sachverstände, trifft sich weiterhin jeden ersten Montag im Monat, z.B. für gemeinsame Anhörungen von Sachverständigen zu übergeordneten Themen oder um Zwischenstände aus den Projektgruppen untereinander auszutauschen.

Ich bin Leiterin der Projektgruppe KI in Staat und Verwaltung, plane und moderiere unsere Arbeitsgruppensitzungen, die mehrmals monatlich stattfinden. Auch dorthin laden wir Fachleute ein, die ebenso wie Mitglieder der Projektgruppe mit entsprechenden Fachkenntnissen Vorträge zu spezifischen Themen halten. Dazu gehört vor allem erst einmal zu sammeln, was der jeweilige Sachstand ist, welche guten und schlechten Erfahrungen es bei Anwendungen im In- und Ausland gibt, welche Chancen oder Risiken sich daraus ergeben. Gemeinsam versuchen wir auf dieser Wissensbasis Handlungsempfehlungen und Regulierungsbedarfe zu erarbeiten.

In „meiner“ Projektgruppe „KI und Staat“ bearbeiten wir uns eine ganze Bandbreite von Themen. Sie beginnt mit dem KI Einsatz innerhalb von Behörden für interne Prozesse z.B. Die Erkennung verdächtiger Muster in den Steuerdaten von Finanzämtern, um Steuerhinterziehungen besser zu entdecken oder die automatische Sortierung von Eingangspost durch intelligente Texterkennung mit selbst lernender Software. Wir befassen uns auch mit dem Einsatz von KI durch staatliche Stellen, die sich nach extern richtet, also zum Beispiel Gesichtserkennungssysteme zur Gefahrenabwehr aber auch mit der Nutzung von Chatbots, die bei der Antragstellung und dem Ausfüllen von Formularen hilfreich sein können oder als „City-Bot“ wie der Wienbot viele verschiedene Fragen beantworten können, rund um die Uhr, und mit denen man in natürlicher Sprache z.B. per Messenger kommunizieren kann. Sogenannte „Robo Lawyers“ (Roboter Anwälte) können helfen, Rechtsansprüche und Widersprüche gegenüber dem Staat automatisiert und ohne teure Anwälte durchzusetzen. Für viele Anspruchsberechtigte sind Antragshürden nach wie vor zu hoch – gerade bei den Bedürftigsten sind Anspruchnahmen daher gering. Messenger-basierte Chatbots sind aufgrund natürlicher Sprachverwendung barrierearm, multilingual möglich, erfordern keinen Amtsbesuch und sind immer erreichbar. Hier kann KI konkret und direkt für mehr Teilhabe sorgen.

Meinen Schwerpunkt innerhalb der Gruppe lege ich darauf, den staatlichen Einsatz von KI auf gemeinwohlorientierte Anwendungen zu fokussieren und bei Anwendungen im Bereich der inneren Sicherheit unbedingt jede Erosion der Grundrechte zu verhindern. Nicht alles, was möglich ist, darf auch gemacht werden, hier sind klare rote Linien zu ziehen, beispielsweise darf es keine Massenüberwachung im öffentlichen Raum durch intelligente Kameras geben, die Verdächtige identifizieren sollen. Nach wie vor sind die Fehlerquoten derartiger Systeme so hoch, dass unzählige Unschuldige zu Verdächtigen werden. Ab Mai befasst sich meine Projektgruppe auch mit dem Thema militärische Einsätze, auch hier haben wir von Seiten der Linksfraktion ganz klare rote Linien, denn auch autonome Waffensysteme sind KI-Systeme. Wir streben eine Ächtung aller digitalen Waffensysteme an, ihren Einsatz genauso wie ihre Herstellung und ihren Export. Waffen, die sich ihr Ziel selbst suchen, identifizieren und töten, darf es nicht geben.

Eines der übergreifenden Themen, das alle Projektgruppen der Enquete berührt, ist die Nutzung von Daten und die Abwägung zwischen Datenschutz, Privatsphäre und Nutzbarmachung. Wir wollen öffentliche Daten nutzen und private Daten schützen und nach Wegen suchen, wie man für die Entwicklung gemeinwohlorientierter KI-Anwendungen große Datenbanken für die Nutzung durch die Allgemeinheit verfügbar machen kann. So lange große Datenmengen nur digitalen Großkonzernen zur Verfügung stehen, werden sie Schindluder damit treiben, so wie wir das von den Datenskandalen z.B. von Facebook kennen. Kleinere Unternehmen, vor allem auch nicht-Gewinnorientierte Sozial-Startups haben jedoch ohne Daten zum Trainieren der KI-Systeme keine Chance auf Erfolg. Dazu zählen zum Beispiel Mobilitätsdaten in einer Kommune, die die Entstehung einer gemeinwohlorientierten Alternative zum Mitfahrdienst UBER ermöglichen würden. Denkbar ist für uns dabei unter anderem eine Idee aus unserer Projektgruppe, nicht-personenbezogene Daten zur öffentlichen Daseinsvorsorge zu zählen, um die Entwicklung von KI-Systemen, die dem Gemeinwohl nützen, zu erleichtern und zu beschleunigen. Wir werden diese und weitere Ideen in der Kommission weiterhin diskutieren.

Als Linksfraktion haben wir uns für diese Kommission klare Ziele gesetzt: Wir wollen und können das Wettrennen mit den USA und China nicht unterstützen. Beide Seiten können uns nicht die Vorbilder sein, denen wir in Deutschland und Europa nacheifern sollten: In den USA gibt es keinen vergleichbaren Datenschutz, wie wir ihn zum Beispiel mit der Datenschutzgrundverordnung haben und Unternehmen bekommen fast keine Schranken, in China wiederum nutzt eine autoritäre Regierung KI-Systeme zur vollumfänglichen Überwachung und Bewertung aller Bürger*innen. Wir wollen stattdessen eine Fokussierung auf Gemeinwohlorientierung, Nachhaltigkeit und den Schutz von Menschen mit all ihren Werten und Rechten.

Mit unseren Perspektiven stehen wir in der Kommission manchmal auch allein dar. Vor allem in den Themenfeldern anderer Projektgruppen, wo es um die Nutzung von KI-Systemen in der Wirtschaft geht, steht oft besonders einseitig die Unternehmensperspektive im Vordergrund, während die der Arbeitnehmer untergeordnet ist, und das obwohl KI große Umwälzungen für die Anzahl und Qualifikation von Erwerbstätigen in fast allen Branchen bedeuten kann und ihre Bedürfnisse daher eine wichtige Rolle spielen müssen. Für die weitere Arbeit und auch den Abschlussbericht im Sommer 2020 bedeutet dies für uns voraussichtlich eine Sonderrolle – und für einige Handlungsempfehlungen auch Sondervoten, die wir nun für den Zwischenbericht bereits vorbereiten. Mit einem Sondervotum kann eine Fraktion eine abweichende Position zum Abschlussbericht erklären, der von der Mehrheit der Kommission verabschiedet wird.