Stephen Hawking. Bill Gates. Elon Musk. Wenn die schlausten Köpfe der Welt uns vor einer Technik warnen, weil sie dem Leben, wie wir es kennen, ein Ende setzen wird – was sollen wir davon halten?

Die Künstliche Intelligenz ist im vergangenen Jahr vermehrt in die Kritik geraten. Zwei Nobelpreisträger, ein Raumfahrtunternehmer, zwei Firmengründer aus der Computerindustrie – einer von ihnen der reichste Mann der Welt – traten in erschreckender Regelmäßigkeit an die Öffentlichkeit, um vor einer Zeit zu warnen, in der die Menschen die Kontrolle über intelligente Maschinen verlieren und von diesen versklavt oder ausgelöscht werden. Eine solche Welle der Wissenschaftsangst ist in unserer Epoche ziemlich einzigartig. Schon immer haben große technologische Umwälzungen Ängste ausgelöst. Aber wann haben je so berühmte Technikkenner dermaßen Alarm geschlagen?

Die Warnrufe sind umso bemerkenswerter, als zwei der Kritiker – Gates und Steve Wozniak – an der Entwicklung der modernen Technologielandschaft beteiligt sind, in der die KI heute ihre Renaissance feiert. Und einer – Stuart Russell, der an Hawkings Essay aus dem Mai 2014 mitarbeitete – ist ein führender KI-Fachmann und Ko-Autor des Standardtextes Artificial Intelligence: A Modern Approach.

Oft hört man, wir sollten uns dieser Angst nicht hingeben, weil der Aufstieg superintelligenter Maschinen noch Jahrzehnte vor uns liege. Andere behaupten, die Angst sei unbegründet, weil wir nie so unvernünftig wären, Maschinen mit Autonomie und Bewusstsein auszustatten oder mit der Fähigkeit, sich zu replizieren und unserer Kontrolle zu entziehen.

Aber wogegen richtet sich eigentlich die Empörung dieser Giganten der Wissenschaft und Industrie? Sollten wir uns auch Sorgen machen?

Kurzfristig hängen die Folgen der Künstlichen Intelligenz davon ab, wer sie kontrolliert; langfristig hängen sie davon ab, ob sie sich überhaupt kontrollieren lässt.

Hawking definierte das Problem so: Kurzfristig, schrieb er, hingen die Folgen der Künstlichen Intelligenz davon ab, wer sie kontrolliert; langfristig hingen sie davon ab, ob sie sich überhaupt kontrollieren lasse. Zunächst zu den Kurzzeitfolgen. Hawking gesteht implizit zu, dass KI eine Dual-Use-Technologie ist, also eine Technik, die Gutes tun und großen Schaden anrichten kann. Die Kernspaltung, die hinter der Atomkraft und der Atombombe steht, ist ein Beispiel für eine Dual-Use-Technologie. Solche Technologien sind so schädlich wie die Absichten ihrer Nutzer. Welches also sind die schädlichen Einsatzgebiete der KI?

 

Kriegsroboter und Data Mining

Ein naheliegendes Beispiel sind autonome Tötungsmaschinen. Mehr als 50 Nationen entwickeln derzeit Kriegsroboter. Am gefragtesten werden Roboter sein, die ohne menschliches Zutun die »Tötungsentscheidung« treffen – die selbstständig einen Menschen ins Visier nehmen und umbringen. Die Forschung zu autonomen Kriegsrobotern und Drohnen ist in vielen Ländern finanziell gut ausgestattet, etwa in den USA, in Großbritannien, Deutschland, China, Indien, Russland und Israel. Diese Waffen sind zwar vom internationalen Recht nicht verboten, ob sie jedoch den Menschenrechten oder auch nur dem Kriegsvölkerrecht entsprechen, bleibt zu bezweifeln. Wie werden sie Freund und Feind auseinanderhalten? Soldaten und Zivilisten? Wer wird verantwortlich sein? Dass diese Fragen unbeantwortet bleiben, während die Entwicklung autonomer Tötungsmaschinen bereits in einen inoffiziellen Rüstungswettlauf eintritt, zeigt, wie schwierig die ethischen Fragen sind.

Ethisch gleichermaßen komplex ist der Bereich der hochmodernen Tools zur Datengewinnung, die von der US National Security Agency eingesetzt werden. In der Vergangenheit entschieden Richter darüber, ob ausreichend Anlass dafür besteht, dass eine Strafverfolgungsbehörde die Telefondaten eines Amerikaners einsieht, die persönliches Eigentum sind und vom Vierten Verfassungszusatz geschützt werden. Aber seit spätestens 2009 umgeht die NSA den Schutz der richterlichen Anordnung, indem sie außerhalb der USA die Glasfaserkabel von Yahoo und Google anzapft und Unmengen Daten herauszieht – die meisten von US-Amerikanern. Ohne die intelligenten KI-Tools könnte die NSA mit diesen Daten nichts anfangen. Doch mit modernster Data-Mining-Software kann sie Datenmengen durchforsten und kategorisieren, für die das menschliche Gehirn Jahrmillionen bräuchte.

Tötungsroboter und Data-Mining-Tools beziehen ihre Macht aus denselben KI-Techniken, die unser Leben in vielerlei Hinsicht bereichern. Wir nutzen sie zum Einkaufen, Übersetzen und Navigieren, und bald schon werden auch unsere Autos damit fahren. Das IBM-Computerprogramm Watson, die »Denkmaschine«, die in der Quizshow Jeopardy! gewann, legt die US-amerikanische Medizinerprüfung ab. Watson führt digitale Ermittlungen durch, genau wie Jungjuristen im ersten Jahr, nur schneller. Das Programm findet auf Röntgenbildern schneller Lungenkrebs als ein Mediziner und hängt die besten Wirtschaftsanalytiker locker ab.

Wie lange wird es dauern, bis eine Denkmaschine auch die Forschung und Entwicklung Künstlicher Intelligenz beherrscht? Anders herum formuliert: Wann lernt der Roboter HAL 9000, sich in einer endlosen Rückkoppelungsschleife wachsender Intelligenz klüger zu programmieren, als er schon ist?

 

Das Ende der Menschheit?

Das ist der Eckpfeiler der sogenannten »Intelligenzexplosion«. Entwickelt wurde diese Vorstellung Ende der 1960er Jahre von I. J. Good. Der englischen Mathematiker studierte damals frühe künstliche neuronale Netze, die Basis für Techniken »tiefgehenden Lernens«, die heute, rund 50 Jahre später, für Aufregung sorgen. Er sah voraus, dass selbstoptimierende Maschinen zuerst so intelligent wie Menschen und dann exponentiell noch intelligenter werden. Sie sollten die Menschheit retten, indem sie unlösbare Probleme lösten, einschließlich Hunger, Krankheiten und Krieg. In meinem Buch Our Final Invention ist nachzulesen, dass Good gegen Ende seines Lebens seine Haltung änderte. Er vermutete, dass die Staaten im globalen Wettbewerb superintelligente Maschinen entwickeln könnten, ohne geeignete Schutzmaßnahmen zu ergreifen. Und wie Stephen Hawking, Stuart Russell, Elon Musk, Bill Gates und Steve Wozniak fürchtete auch Good, dass diese Maschinen könnten uns auslöschen könnten.

Die Krux liegt darin, dass wir nicht wissen, wie wir superintelligente Maschinen kontrollieren sollen. Viele meinen, solche Roboter wären harmlos oder sogar dankbar. Aber wegweisende Studien des KI-Forschers Steve Omohundro legen die Vermutung nahe, dass sie Instinkte entwickeln würden. Egal, ob es nun ihre Aufgabe wäre, auf Asteroiden Rohstoffe zu fördern, Aktien zu kaufen oder unsere Energie- und Wasser-Infrastruktur zu betreiben: Sie würden sich selbst schützen und versuchen, Ressourcen zu beschaffen, um besser an ihr Ziel zu gelangen. Um zu überleben, würden sie gegen uns kämpfen, und sie würden es nicht einfach zulassen, dass man sie abschaltet. Omohundro gelangt in seinen Studien zu dem Schluss, dass die Instinkte der superintelligenten Maschinen mit unseren Instinkten auf Kollisionskurs geraten, wenn wir bei der Konstruktion nicht sehr gut aufpassen. Mit Stephen Hawking können wir völlig zu Recht fragen: »Angesichts der unberechenbaren Vorteile oder Risiken für die Zukunft tun die Experten doch sicher alles Erdenkliche, damit das bestmögliche Ergebnis herauskommt, oder?«

Falsch. Mit wenigen Ausnahmen entwickeln sie Produkte, ohne Fragen der Sicherheit oder der Ethik zu berücksichtigen. Im nächsten Jahrzehnt sollen KI-Produkte Billiarden von Dollar erwirtschaften. Sollte nicht ein Teil dieser Gewinne in die Ethik autonomer Maschinen investiert werden, damit das Kontrollproblem der KI gelöst und das Überleben der Menschheit gesichert wird?