Wenn wir über die so genannte Künstliche Intelligenz (KI) diskutieren, geraten wir leicht in Versuchung, zukünftige Extreme zu betrachten: die möglichen Gefahren durch außer Kontrolle geratene Killerdrohnen oder die Folgen für Arbeitsplätze, wenn Roboter Menschen in jeglicher Hinsicht überlegen sind. Aber wir müssen gar nicht so weit gehen: Bereits die aktuellen Entwicklungen sind interessant – und beängstigend – genug.

Wir sammeln und verarbeiten massenhaft Daten und verwenden diese dann für automatisierte Entscheidungen, die wir nicht verstehen, die uns aber trotzdem beeinflussen. Wer weiß schon, warum uns die Google-Suche das zeigt, was sie zeigt, und auf welchen persönlichen Daten dies beruht? Wer kann schon sicher sein, dass er auf Booking.com dieselben Angebote bekommt wie die anderen, und wenn nicht, warum nicht? Dass es an Transparenz mangelt, öffnet der Manipulation und Diskriminierung Tür und Tor. Und gesellschaftlich betrachtet beeinflussen Systeme wie die Algorithmen für YouTubes Videoempfehlungen oder Facebooks Nachrichtenkanäle auch wichtige öffentliche Werte wie Demokratie und Toleranz.

Darüber hinaus sammeln und verarbeiten die Behörden in ganz Europa immer mehr Daten, anhand derer sie dann entscheiden, wer Zugang zu sozialen Dienstleistungen erhält und wer von der Polizei oder anderen Sicherheitsbehörden überwacht wird. Wie Professor Eubanks bemerkte, werden solche Systeme, wenn sie „nicht explizit darauf ausgelegt sind, strukturelle Ungleichheiten abzubauen, durch ihr eigenes Tempo und Ausmaß noch intensiviert“. Indem sie vorhandene Daten nutzen, die unweigerlich voreingenommen und unvollständig sind, neigen solche Systeme dazu, bestehende Ungleichheiten zu verstärken und sie in die Zukunft fortzuschreiben.

Wir sammeln und verarbeiten massenhaft Daten und verwenden diese dann für automatisierte Entscheidungen, die wir nicht verstehen, die uns aber trotzdem beeinflussen.

Natürlich regelt die Allgemeine Datenschutzverordnung der EU, wann und wo die persönlichen Daten der Bevölkerung genutzt werden dürfen, also bietet sie einen gewissen Schutz. Aber diese Verordnung ist nicht dazu da, alle menschenrechtlichen Fragen zu berücksichtigen, die durch algorithmische Entscheidungsfindungssysteme aufgeworfen werden und weit über das Recht auf Privatsphäre und die eigenen Daten hinausgehen. Diese Systeme diskriminieren nicht nur und gefährden die Sicherheit, sondern schränken auch die freie Rede und den Zugang zu öffentlichen Dienstleistungen ein. Und dies kann einen Umfang und eine Geschwindigkeit erreichen, für die der Ansatz der Datenschutzverordnung, der sich lediglich auf die individuellen Rechte bezieht, einfach nicht ausreicht.

Also hat das Europäische Parlament die Europäische Kommission bereits 2017 aufgefordert, Vorschläge für die gesetzliche Regulierung der KI und der Robotik zu machen. Daraufhin hat die Juncker-Kommission eine hochrangige Expertengruppe für KI einberufen, die dann im Juni 2019 ethische Richtlinien und Empfehlungen für Maßnahmen und Investitionen veröffentlicht hat. Leider befanden sich unter den 52 Mitgliedern der Expertengruppe eine überwältigende Mehrheit von Industrievertretern und nur vier Ethiker. Laut einem von ihnen, dem Philosophieprofessor Thomas Metzinger, liefen die Richtlinien der Gruppe lediglich auf eine „ethische Reinwaschung“ hinaus. Auf jeden Fall ist Ethik kein Ersatz für verbindliche Regeln. Wollen wir nicht nur bestimmte Datennutzungen einschränken, sondern auch Unternehmen und zunehmend auch öffentliche Behörden zu mehr Transparenz darüber verpflichten, welche Arten automatischer Entscheidungsfindung sie nutzen und zu welchem Zweck und aufgrund welcher Daten dies erfolgt, können wir uns nicht auf deren individuelle Bereitschaft verlassen.

Die Maßnahmenvorschläge der Expertengruppe, die über die ethischen Richtlinien hinausgingen, waren zum größten Teil nicht durchführbar. Es gab einige wertvolle Ideen zum Datenzugriff und zur gemeinsamen unternehmerischen Nutzung von Daten, aber als Grundlage für eine Gesetzgebung erwiesen sich beispielsweise die Empfehlungen der deutschen Datenethikkommission vom Oktober 2019 als viel praktikabler. Dabei überrascht es nicht, dass die Industrie in dieser Kommission nicht überrepräsentiert war.

Die KI berührt bestehende Regeln zur Nichtdiskriminierung und zum Datenschutz, zur Produktsicherheit und zum Zivilrecht – ganz zu schweigen von internen Märkten und Innovationen.

Positiver ist, dass Ursula von der Leyen, die designierte Präsidentin der Europäischen Kommission, im Sommer 2019 für die ersten 100 Tage ihrer Amtszeit eine „Gesetzgebung für einen koordinierten europäischen Ansatz zu den menschlichen und ethischen Auswirkungen der KI“ angekündigt hat. Diese Frist war zwar zu optimistisch und konnte nicht eingehalten werden, aber entsprechende Gesetzesvorschläge werden nun bis Ende 2020 erwartet.

Sogar dies wird eine Herausforderung sein. Die KI berührt bestehende Regeln zur Nichtdiskriminierung und zum Datenschutz, zur Produktsicherheit und zum Zivilrecht – ganz zu schweigen von internen Märkten und Innovationen. Diese Bereiche sind innerhalb der Kommission auf verschiedene Abteilungen verteilt, die unterschiedlichen politischen Aufsichten und institutionellen Interessen unterliegen. Bereits jetzt hat Thierry Breton, der Europäische Kommissar für den Gemeinsamen Markt, gesagt, er werde keine „Stimme für die Regulierung der KI“ sein, womit er sich von der Leyens Aussagen widersetzt. Stattdessen scheint er stärker am zugrundeliegenden Datenökosystem interessiert zu sein, da er die Datensätze, mit denen KI-Systeme lernen, als strategisches Kapital betrachtet. Kurz gesagt, er scheint gewährleisten zu wollen, dass Daten, die in Europa erzeugt werden, verstärkt an europäische Unternehmen verteilt werden, um auf dem Kontinent Innovationen zu fördern.

Auch wenn dieses Ziel erstrebenswert ist, muss es mit der Abteilung der Kommission abgestimmt werden, die für den Schutz der persönlichen Daten der Bürger zuständig ist – also der Generaldirektion für Justiz und Verbraucher. Diese Behörde könnte sich solchen Datenverteilungsstrategien widersetzen, da die Trennlinie zwischen persönlichen und nicht persönlichen Daten oft unscharf ist. Andererseits kann sie immer noch nicht gewährleisten, dass die Allgemeine Datenschutzgrundverordnung effektiv umgesetzt wird. Eine Einschätzung dazu soll im Mai dieses Jahres veröffentlicht werden. Diese Abteilung ist auch für neue zivilrechtliche Regeln in Bezug auf algorithmische Systeme zuständig – also beispielsweise dafür, wer verantwortlich ist, wenn etwas schief geht: die Entwickler, die Hersteller, die Nutzer oder die Softwareanbieter.

Für die Koordinierung der Arbeit in diesem Bereich ist die geschäftsführende Vizepräsidentin Margrethe Vestager zuständig. Sie überwacht die allgemeine Digitalstrategie der Kommission und leitet die Wettbewerbsabteilung. Letztere kümmert sich um die Datenverteilung zwischen Unternehmen – und das Problem, dass die enormen Datenmengen, die für KI-Anwendungen wichtig sind, von wenigen Großkonzernen gehortet und kontrolliert werden. Während Vizepräsidentin Vestager kein Problem damit hat, mithilfe der Wettbewerbspolitik Unternehmen zu bestrafen und Konsumenten zu schützen, unterscheidet sich dies stark von der proaktiven Industriepolitik für Daten, die Kommissar Breton und andere bevorzugen. Also stehen uns hier schwierige interne Diskussionen bevor.

Während sich die EU noch berät und Erklärungen über ethische KI abgibt, verbreitet sich über ganz Europa eine Überwachungs- und Prognose-Infrastruktur, die auch Technologien zur Gesichtserkennung einschließt.

Momentan ist klar, dass die Kommission im nächsten Monat noch keinen Gesetzesvorschlag machen wird. Stattdessen wird sie ein Weißbuch zur KI, eine Digitalstrategie und eine Strategie für Daten vorlegen – wahrscheinlich alles am 19. Februar 2020. Ende des Jahres könnte dann ein Gesetz zur KI folgen, ebenso wie Regeln zur Förderung der Datenverteilung unter Online-Plattformen, um die Entwicklung von KI-Anwendungen voranzutreiben. Der genaue Inhalt dieser Maßnahmen ist noch nicht klar, aber eine durchgestochene Version des Weißbuchs gibt uns eine ungefähre Idee: Laut diesem Dokument favorisiert die Kommission verpflichtende Regeln für hochriskante KI-Systeme, eine Änderung des zivilrechtlichen Rahmens und ein verstärktes Rahmenwerk zur öffentlichen Kontrolle und Durchsetzung. Dies ist nötig und lobenswert, aber der Teufel wird in den Details stecken – und die sind nicht enthalten. So ist unklar, welche Arten von Transparenz-, Verlässlichkeits- und Sicherheitsanforderungen für hochriskante Systeme gelten sollen. Auch was den Datenbereich betrifft, liefert die Kommission momentan noch mehr Fragen als Antworten – insbesondere zum Datenzugriff, zur Datenverteilung und zum Problem der Voreingenommenheit dieser Daten.

Deshalb wird wohl der größte Teil des Jahres 2020 den Beratungen zu diesen Themen gewidmet sein. Aber es ist wichtig, dass sich die Kommission mit ihrem rechtlichen Rahmen beeilt. So hat es, bis die Datenschutzgrundverordnung von der Kommission verabschiedet wurde, fast sechseinhalb Jahre gedauert – und dies ohne effektive Maßnahmen zu ihrer Durchsetzung. Denn während sich die EU noch berät und Erklärungen über ethische KI abgibt, verbreitet sich über ganz Europa eine Überwachungs- und Prognose-Infrastruktur, die auch Technologien zur Gesichtserkennung einschließt.

Aus dem Englischen von Harald Eckhoff