Die Enquete-Kommission des Deutschen Bundestages zum Thema „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ veröffentlichte gestern die jeweils ersten Kapitel der bereits vorliegenden Projektgruppenberichte. Die ersten Kapitel der Projektgruppenberichte stellen eine Zusammenfassung des gesamten Projektgruppenberichtes dar. Neben den Kapiteln zu den Themen „KI und Gesundheit“ und „KI und Wirtschaft“ wurde auch die Zusammenfassung des „KI und Staat“-Berichtes veröffentlicht. In der Projektgruppe „KI und Staat“ hatte ich den Vorsitz inne. Thematisch umfasste die Arbeit der Projektgruppe die Bereiche Verwaltung, innere Sicherheit und Militär.
Die bisherige Kommissionsarbeit war geprägt von für Bürger:innen intransparenten Vorgänge innerhalb der Kommission. Kommissionssitzungen waren prinzipiell nur teil-öffentlich, die Sitzungen der Projektgruppen für die Öffentlichkeit gar nicht zugänglich und bis zum Schluss musste dafür gestritten werden, dass wenigstens ein Kapitel der drei abgeschlossenen Projektgruppenberichte an die Öffentlichkeit gelangt. Die Öffentlichkeit bekommt so keine Möglichkeit, sich über alle bisherigen Erkenntnisse der Kommission zu informieren. Wer trotzdem ein paar Einblicke in die Arbeit der Kommission erhalten möchte, wird in diesem Blogbeitrag fündig.
Aber nicht nur an Transparenz mangelt es, Bürger:innen wurden bisher auch in keine Weise an der Arbeit der Enquete Kommission beteiligt. Dabei ist es wichtig, die gesamte Bevölkerung bei dieser Diskussion einzubeziehen, denn beim Einsatz von Künstlicher Intelligenz geht es auch um mögliche Diskriminierungen, es geht um potentielle Grundrechtseinschränkungen und beim militärischen Einsatz geht es sogar um Leben und Tod.
Ich leitete die Projektgruppe KI und Staat, in der es um KI-Einsatz in der Verwaltung, in der inneren Sicherheit – also z.B. durch die Polizei – und um das Militär ging. Die Kontroversen waren vor allem bei den letzten beiden Themen hoch, beim Behördeneinsatz gab es weniger Gegensätze zwischen den Fraktionen.
Es gibt durchaus eine Menge Potenziale z.B. durch Chatbots, die sich in anderen Ländern als sinnvolle Unterstützung bei Antragsverfahren erwiesen, denn sie können mehrsprachig, rund um die Uhr und in natürlicher Sprache dabei helfen, Anträge auszufüllen und dabei zu helfen, einen barriereärmeren Zugang zu Sozialleistungen zu ermöglichen. In Großbritannien wurde ein Chatbot entwickelt, der Menschen dabei hilft, bei drohender Obdachlosigkeit den entsprechenden Antrag auf staatliche Unterstützung zu stellen, um nicht in die Obdachlosigkeit zu rutschen. Dieser Fall ist auch ein schönes Beispiel für eine soziale Innovation, die mit offenen Daten möglich sind, denn der intelligente Chatbot wurde mit Daten trainiert, die über eine Informationsfreiheitsanfrage gewonnen wurden. Solche Projekte sollte staatlich gefördert werden. In Schweden wird Künstliche Intelligenz im Grundbuchamt eingesetzt, um Sachbearbeiter:innen die Arbeit zu erleichtern, denn die KI analysiert und übersetzt alte Dokumente in historischen Schriften.
Derzeit stammen allerdings viele derartige KI-Lösungen von privaten Anbietern, also z.B. auf dem Facebook Messenger als Chatbot. So lange es keine Alternativen von Seiten der öffentlichen Verwaltung gibt, werden also Nutzer:innen gezwungen, bei Drittanbietern wie Facebook ein Konto zu haben und ihre Daten mit ihren zu teilen. Das sollte in Deutschland natürlich nicht passieren, daher muss die Schaffung solcher Infrastrukturen für die öffentliche Verwaltung ein Ziel sein. Insbesondere muss der staatliche Einsatz von KI-Systemen immer die Monopol-Stellung des Staates bei seinen Dienstleistungen beachten: Wenn mir das KI-System eines Onlinehandels nicht gefällt, kann ich zu einem anderen Anbieter wechseln, bei staatlichen Dienstleistungen ist das nicht möglich. Aber KI darf immer nur für den Zweck eingesetzt werden, für den sie bestimmt und trainiert wurde, denn ansonsten drohen Gefahren z.B. durch Diskriminierung. Auch einen Wachhund kann man schließlich nicht als Blindenhund einsetzen. Die Diskriminierungsfreiheit staatlicher Anwendungen muss jederzeit sichergestellt sein. Auch zur Aufdeckung solcher Diskriminierungen aber auch zur Aufdeckung von Korruption und Amtsmissbrauch innerhalb von Behörden sehen wir ein sinnvolles Einsatzgebiet von KI-Systemen. Da gingen im Detail die Auffassungen in der Projektgruppe jedoch leider auseinander.
Noch größere inhaltliche Unstimmigkeiten innerhalb der Projektgruppe wurden bei den Themen innere Sicherheit und äußere Sicherheit/Militär deutlich. Der Einsatz von Gesichtserkennung im Rahmen des Pilotprojekts am Berliner Südkreuz wurde trotz heftiger Sachkritik des Chaos Computer Clubs schön geredet, kritische Erfahrungen im Bereich Predictive Policing ausgeblendet und stattdessen große Potenziale bei der Verbrechensbekämpfung herbeiphantasiert. Insbesondere eine mögliche Verwendung von KI-Systemen zur automatischen Identifizierung von Menschen im öffentlichen Raum lehnen wir ab. Generell müssen Menschen bei allen Entscheidungen, die potenziell Grundrechte einschränken, das letzte Wort haben. Bei den hohen Quoten der Falschidentifizierung würden bei flächendeckendem Einsatz z.B. an Bahnhöfen jeden Tag Tausende Menschen zu Unrecht ins Visier von Strafverfolgungsbehörden geraten.
Über militärische KI-Anwendungen wollte die große Koalition zuerst gar nicht im Rahmen der Enquete Kommission sprechen. Ich konnte jedoch durchsetzen, das dieses wichtige und viele Menschen bewegende Thema in der Projektgruppe KI und Staat behandelt wurde. Für DIE LINKE steht natürlich vor allem die friedliche Anwendung im Fokus, tödliche autonome Waffensysteme oder halbautonome Waffen, die ähnliche Wirkung haben, möchten wir sofort ächten, ihre Herstellung, Besitz und Export verbieten. Wie bei analogen Waffen vertritt die Linke hier eine deutlich konsequentere Position, als die GroKo Mehrheit. Zu den kontroversen Themen Innere Sicherheit und Militär werde ich ein Sondervotum verfassen, dass im kommenden Jahr veröffentlicht wird. In der Projektgruppe habe ich dafür bereits eigene Berichtsteile erstellt, die meine Auffassung zum Einsatz von KI bei innerer Sicherheit und Militär widerspiegeln. Was davon im Bericht der PG KI und Staat übrig blieb, kann man leider erst bei Erscheinen des Abschlussberichtes vorraussichtlich im Oktober 2020 durch einen direkten Vergleich feststellen. Meine beiden Inputtexte kann man hier und hier bereits jetzt nachlesen.