Die Digitalisierung verändert unsere Gesellschaft in einem rasenden Tempo. Und während viele Menschen diesen Wandel allmählich zu begreifen versuchen, kommt bereits ein neuer Faktor ins Spiel, der eine weitere, ungleich größere Veränderungswelle mit sich bringt: die Künstliche Intelligenz (KI). Sie beschleunigt die Digitalisierung erheblich und verändert die Art, wie sich digitale Geräte verhalten. Dabei geht es nicht um Terminator-ähnliche Szenarien, sondern um den konkreten Einsatz von künstlichen Intelligenzen an zentralen Stellen unseres Lebens. Damit wir Freiheit, Gerechtigkeit und auch Solidarität im 21. Jahrhundert sichern und den technischen Fortschritt zu einem Vorteil für alle gestalten können, bedarf es neuer politischer Spielregeln für unser digitales Zusammenleben.

Die aktuelle Debatte um Facebook und den Datenskandal rund um Cambridge Analytica zeigt auf: Wir stehen vor globalen Herausforderungen, die nur wenige vor fünf oder zehn Jahre haben kommen sehen. Wie frei ist unsere Gesellschaft im Digitalen? Existiert im Digitalen mehr Gerechtigkeit oder weniger als im realen Leben? Und gibt es überhaupt so etwas wie digitale Solidarität? Diese Fragen stellen sich umso mehr, wenn in den Systemen nicht mehr nur klassische Algorithmen stecken.

Wenn KI-Systeme in allen Bereichen des Lebens vorhanden sind, wie können wir die Freiheit des Einzelnen dann noch sicherstellen?

Alle großen IT-Firmen betreiben intensive Forschung im Bereich der künstlichen Intelligenz und setzen diese auch in ihren Produkten ein. Dank KI können Sprachassistenten wie Alexa oder Siri die Ansagen ihrer Besitzer besser verstehen und dazulernen. Facebook verwendet KI, um Beiträge daraufhin zu analysieren, ob ein Nutzer möglicherweise einen Suizid plant. Falls dem so ist, werden zum Beispiel Hinweise von einer Telefonseelsorge eingeblendet. Google bietet mit Magenta ein KI-System an, das Musik komponieren kann. (Ob daraus aber auch Kreativität entstehen kann, ist vermutlich ein philosophisches Problem.)

Diese aktuell noch sehr kleinteiligen Beispiele der KI werden sich in den nächsten fünf Jahren schlagartig auf alle Bereich des Lebens ausdehnen; häufig völlig unbemerkt – denn ob ein System künstliche Intelligenz beinhaltet, ist von außen kaum zu beurteilen.

Unter dem Sammelbegriff Künstliche Intelligenz versteht man Intelligenzleistungen, die zuvor nur von Menschen (oder Tieren) erbracht wurden und jetzt von Maschinen erledigt werden können. Science-Fiction-Filme beschäftigen sich mit der so genannten starken KI, in der Maschinen wie Menschen agieren und quasi ununterscheidbar sind. Auf absehbare Zeit realistisch ist hingegen die schwache KI, die einzelne Fähigkeiten des Menschen auf die Maschine überträgt. Zum Beispiel kann ein System auf Bildern Hunde von Katzen unterscheiden oder menschliche Sprache erkennen und interpretieren. Wenn ein System etwas Neues erlernt, so kann man von Machine Learning (ML) sprechen.

Ein Teilbereich des ML, der aktuell in der Tech-Szene am interessantesten ist, ist das so genannte Deep Learning. Hierbei erlernt ein System selbständig Strukturen und kann sich auch selbst verbessern. So sind Systeme mit künstlicher Intelligenz zu Beginn meist nutzlos. Werden diese jedoch mit vielen Daten „trainiert“, können sie später eine bestimmte Aufgabe mit hoher Wahrscheinlichkeit erfolgreich durchführen und sich gleichzeitig immer weiter verbessern. Hier liegt auch der grundsätzliche Unterschied zu Software klassischer Prägung: Während diese Algorithmen generell deterministisch waren, sind es die KI-Systeme nicht mehr. Zu welchem Ergebnis ein Computersystem kommt, entscheidet sich nicht nur durch den Algorithmus – zentral sind die Daten, mit denen es zuvor trainiert wurde. Dieser Paradigmenwechsel verändert nicht nur den Umgang mit der Digitalisierung und ihre Auswirkungen, sondern steigert auch den Wert von allgemeinen und personenbezogenen Daten.

Ob Systeme Küntlicher Intelligenz gerecht oder ungerecht funktionieren, hängt zu einem großen Teil von den Trainingsdaten ab. In der Tat ist es möglich, Systeme mit einer Art rassistischen KI zu erstellen.

Daten gewinnen somit weiter an Relevanz und entscheiden über die Ergebnisse der KI-Systeme. Daher ist eine allgemeine Forderung, den Quellcode einer Software offenzulegen, in der Zukunft nur noch bedingt hilfreich. Denn: Selbst wenn der Quellcode komplett offen liegt, sind bei Maschinen mit Deep Learning immer noch die Daten entscheidend, mit denen sie trainiert wurden. Weil es also immer schwieriger wird, technische Systeme nachvollziehbar zu machen, bedarf es neuer Instrumente und auch Festlegungen, um unsere Grundwerte auch in einer Welt mit KI-Systemen zu erhalten.

Wenn KI-Systeme in allen Bereichen des Lebens vorhanden sind, wie können wir die Freiheit des Einzelnen dann noch sicherstellen? Hier bedarf es Transparenz- und Kennzeichnungspflichten: Es muss klar sein, wann und wo algorithmische Entscheidungen zum Einsatz kommen und auch welche Daten verwendet werden. Als Beispiel sei der medizinische Sektor genannt: Wenn bei zukünftigen Diagnosen Computer entschieden, welche Therapieform bei einer Krankheit angewandt werden soll, muss der Patient zumindest darüber informiert werden. Es ist ferner zu überlegen, ob es bei kritischen Entscheidungen KI-Systeme zwar als Hilfe angesehen werden dürfen, endgültige Entscheidungen aber von Menschen gefällt werden müssen – und wie das kontrolliert werden kann.

Ob KI-Systeme gerecht oder ungerecht funktionieren, hängt zu einem großen Teil von den Trainingsdaten ab. Wenn eine Gesichtserkennungssoftware nur mit Fotos von Menschen mit heller Haut trainiert wird, hat es Probleme bei der Erkennung von dunkelhäutigen Menschen. In der Tat ist es also möglich, Systeme mit einer Art rassistischen KI zu erstellen. Anderseits könnte die gleiche Software, wird sie mit anderen, ausgewogenen Daten trainiert, völlig andere Entscheidungen treffen. Es bedarf daher einer Kontrolle darüber, dass entsprechende Systeme mit möglichst diskriminierungsfreien Daten angelernt werden. Diese Nachprüfbarkeit und Dokumentation der Lerneinheiten muss bei staatlichen Systemen obligatorisch sein. Auch bei privaten Systemen muss die Politik gesetzliche Verpflichtungen schaffen, damit der Grundsatz der Gleichbehandlung auch in Zukunft gewährleistet ist.

Die Grundwerte unserer Gesellschaft werden durch die Digitalisierung, insbesondere durch Systeme mit KI, vor neue Herausforderungen gestellt. Ich bin überzeugt: Die Vorteile der Digitalisierung überwiegen deutlich. Dennoch müssen sich Gesellschaft und Politik schneller und klarer mit diesen Zukunftsfragen beschäftigen, die zunehmend technischer Natur sind. Nur mit klugen Konzepten und einem positiven Ansatz lassen sich die Grundwerte Freiheit, Gerechtigkeit und Solidarität auch in Zukunft sichern und der Wohlstand aller vergrößern.