Kopfbereich

Rage Against the Machine
Weshalb Stephen Hawking und Bill Gates vor den Gefahren künstlicher Intelligenz warnen.

Von |
Wikipedia
Wikipedia
Ein guter Tag (für Skynet).

Stephen Hawking. Bill Gates. Elon Musk. Wenn die schlausten Köpfe der Welt uns vor einer Technik warnen, weil sie dem Leben, wie wir es kennen, ein Ende setzen wird – was sollen wir davon halten?

Die Künstliche Intelligenz ist im vergangenen Jahr vermehrt in die Kritik geraten. Zwei Nobelpreisträger, ein Raumfahrtunternehmer, zwei Firmengründer aus der Computerindustrie – einer von ihnen der reichste Mann der Welt – traten in erschreckender Regelmäßigkeit an die Öffentlichkeit, um vor einer Zeit zu warnen, in der die Menschen die Kontrolle über intelligente Maschinen verlieren und von diesen versklavt oder ausgelöscht werden. Eine solche Welle der Wissenschaftsangst ist in unserer Epoche ziemlich einzigartig. Schon immer haben große technologische Umwälzungen Ängste ausgelöst. Aber wann haben je so berühmte Technikkenner dermaßen Alarm geschlagen?

Die Warnrufe sind umso bemerkenswerter, als zwei der Kritiker – Gates und Steve Wozniak – an der Entwicklung der modernen Technologielandschaft beteiligt sind, in der die KI heute ihre Renaissance feiert. Und einer – Stuart Russell, der an Hawkings Essay aus dem Mai 2014 mitarbeitete – ist ein führender KI-Fachmann und Ko-Autor des Standardtextes Artificial Intelligence: A Modern Approach.

Oft hört man, wir sollten uns dieser Angst nicht hingeben, weil der Aufstieg superintelligenter Maschinen noch Jahrzehnte vor uns liege. Andere behaupten, die Angst sei unbegründet, weil wir nie so unvernünftig wären, Maschinen mit Autonomie und Bewusstsein auszustatten oder mit der Fähigkeit, sich zu replizieren und unserer Kontrolle zu entziehen.

Aber wogegen richtet sich eigentlich die Empörung dieser Giganten der Wissenschaft und Industrie? Sollten wir uns auch Sorgen machen?

Kurzfristig hängen die Folgen der Künstlichen Intelligenz davon ab, wer sie kontrolliert; langfristig hängen sie davon ab, ob sie sich überhaupt kontrollieren lässt.

Hawking definierte das Problem so: Kurzfristig, schrieb er, hingen die Folgen der Künstlichen Intelligenz davon ab, wer sie kontrolliert; langfristig hingen sie davon ab, ob sie sich überhaupt kontrollieren lasse. Zunächst zu den Kurzzeitfolgen. Hawking gesteht implizit zu, dass KI eine Dual-Use-Technologie ist, also eine Technik, die Gutes tun und großen Schaden anrichten kann. Die Kernspaltung, die hinter der Atomkraft und der Atombombe steht, ist ein Beispiel für eine Dual-Use-Technologie. Solche Technologien sind so schädlich wie die Absichten ihrer Nutzer. Welches also sind die schädlichen Einsatzgebiete der KI?

 

Kriegsroboter und Data Mining

Ein naheliegendes Beispiel sind autonome Tötungsmaschinen. Mehr als 50 Nationen entwickeln derzeit Kriegsroboter. Am gefragtesten werden Roboter sein, die ohne menschliches Zutun die »Tötungsentscheidung« treffen – die selbstständig einen Menschen ins Visier nehmen und umbringen. Die Forschung zu autonomen Kriegsrobotern und Drohnen ist in vielen Ländern finanziell gut ausgestattet, etwa in den USA, in Großbritannien, Deutschland, China, Indien, Russland und Israel. Diese Waffen sind zwar vom internationalen Recht nicht verboten, ob sie jedoch den Menschenrechten oder auch nur dem Kriegsvölkerrecht entsprechen, bleibt zu bezweifeln. Wie werden sie Freund und Feind auseinanderhalten? Soldaten und Zivilisten? Wer wird verantwortlich sein? Dass diese Fragen unbeantwortet bleiben, während die Entwicklung autonomer Tötungsmaschinen bereits in einen inoffiziellen Rüstungswettlauf eintritt, zeigt, wie schwierig die ethischen Fragen sind.

Ethisch gleichermaßen komplex ist der Bereich der hochmodernen Tools zur Datengewinnung, die von der US National Security Agency eingesetzt werden. In der Vergangenheit entschieden Richter darüber, ob ausreichend Anlass dafür besteht, dass eine Strafverfolgungsbehörde die Telefondaten eines Amerikaners einsieht, die persönliches Eigentum sind und vom Vierten Verfassungszusatz geschützt werden. Aber seit spätestens 2009 umgeht die NSA den Schutz der richterlichen Anordnung, indem sie außerhalb der USA die Glasfaserkabel von Yahoo und Google anzapft und Unmengen Daten herauszieht – die meisten von US-Amerikanern. Ohne die intelligenten KI-Tools könnte die NSA mit diesen Daten nichts anfangen. Doch mit modernster Data-Mining-Software kann sie Datenmengen durchforsten und kategorisieren, für die das menschliche Gehirn Jahrmillionen bräuchte.

Tötungsroboter und Data-Mining-Tools beziehen ihre Macht aus denselben KI-Techniken, die unser Leben in vielerlei Hinsicht bereichern. Wir nutzen sie zum Einkaufen, Übersetzen und Navigieren, und bald schon werden auch unsere Autos damit fahren. Das IBM-Computerprogramm Watson, die »Denkmaschine«, die in der Quizshow Jeopardy! gewann, legt die US-amerikanische Medizinerprüfung ab. Watson führt digitale Ermittlungen durch, genau wie Jungjuristen im ersten Jahr, nur schneller. Das Programm findet auf Röntgenbildern schneller Lungenkrebs als ein Mediziner und hängt die besten Wirtschaftsanalytiker locker ab.

Wie lange wird es dauern, bis eine Denkmaschine auch die Forschung und Entwicklung Künstlicher Intelligenz beherrscht? Anders herum formuliert: Wann lernt der Roboter HAL 9000, sich in einer endlosen Rückkoppelungsschleife wachsender Intelligenz klüger zu programmieren, als er schon ist?

 

Das Ende der Menschheit?

Das ist der Eckpfeiler der sogenannten »Intelligenzexplosion«. Entwickelt wurde diese Vorstellung Ende der 1960er Jahre von I. J. Good. Der englischen Mathematiker studierte damals frühe künstliche neuronale Netze, die Basis für Techniken »tiefgehenden Lernens«, die heute, rund 50 Jahre später, für Aufregung sorgen. Er sah voraus, dass selbstoptimierende Maschinen zuerst so intelligent wie Menschen und dann exponentiell noch intelligenter werden. Sie sollten die Menschheit retten, indem sie unlösbare Probleme lösten, einschließlich Hunger, Krankheiten und Krieg. In meinem Buch Our Final Invention ist nachzulesen, dass Good gegen Ende seines Lebens seine Haltung änderte. Er vermutete, dass die Staaten im globalen Wettbewerb superintelligente Maschinen entwickeln könnten, ohne geeignete Schutzmaßnahmen zu ergreifen. Und wie Stephen Hawking, Stuart Russell, Elon Musk, Bill Gates und Steve Wozniak fürchtete auch Good, dass diese Maschinen könnten uns auslöschen könnten.

Die Krux liegt darin, dass wir nicht wissen, wie wir superintelligente Maschinen kontrollieren sollen. Viele meinen, solche Roboter wären harmlos oder sogar dankbar. Aber wegweisende Studien des KI-Forschers Steve Omohundro legen die Vermutung nahe, dass sie Instinkte entwickeln würden. Egal, ob es nun ihre Aufgabe wäre, auf Asteroiden Rohstoffe zu fördern, Aktien zu kaufen oder unsere Energie- und Wasser-Infrastruktur zu betreiben: Sie würden sich selbst schützen und versuchen, Ressourcen zu beschaffen, um besser an ihr Ziel zu gelangen. Um zu überleben, würden sie gegen uns kämpfen, und sie würden es nicht einfach zulassen, dass man sie abschaltet. Omohundro gelangt in seinen Studien zu dem Schluss, dass die Instinkte der superintelligenten Maschinen mit unseren Instinkten auf Kollisionskurs geraten, wenn wir bei der Konstruktion nicht sehr gut aufpassen. Mit Stephen Hawking können wir völlig zu Recht fragen: »Angesichts der unberechenbaren Vorteile oder Risiken für die Zukunft tun die Experten doch sicher alles Erdenkliche, damit das bestmögliche Ergebnis herauskommt, oder?«

Falsch. Mit wenigen Ausnahmen entwickeln sie Produkte, ohne Fragen der Sicherheit oder der Ethik zu berücksichtigen. Im nächsten Jahrzehnt sollen KI-Produkte Billiarden von Dollar erwirtschaften. Sollte nicht ein Teil dieser Gewinne in die Ethik autonomer Maschinen investiert werden, damit das Kontrollproblem der KI gelöst und das Überleben der Menschheit gesichert wird?

Hat Ihnen der Beitrag gefallen? Bestellen Sie hier den Newsletter.

9 Leserbriefe

Rüdiger Mueller schrieb am 12.05.2015
Zum Problem der denkenden Maschinen hat Asimov mit seinen Robotergeschichten schon vor zig Jahren klare Antworten gegeben. Auch heute noch gut zu lesen.
Andrea aus+Bremen schrieb am 12.05.2015
Was ist denn das für ein defensives Fazit? Wenn ich es richtig versteht, steht nicht weniger auf dem Spiel, als die Existenz der Menschheit. Kann da die abschließende Forderung des Autors sein, dass ein Teil der Gewinne, die mit KI (also offenkundig NACH deren unkontrollierter Entwicklung!) in die Ethik autonomer Maschinen gesteckt wird? Ähm ... HILFE!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
GeldFragezeichen schrieb am 12.05.2015
Es ist wahrscheinlich schon zu spät. Die Atomkraft ist da , und KI auch. Man muss mit den Gefahren leben.
Michael A. Louis schrieb am 12.05.2015
Eine interessante Anmerkung von Prof. Hawking war auch, dass superintelligente ai-gesteuerte Maschinen Erfindungen realisieren könnten, die Menschen u.U. nicht mehr in der Lage wären zu verstehen...

Nichtsdestotrotz, jede halbwegs intelligente, auf rein mathematischer Logik basierende Maschine mit Entscheidungs- oder Beratungskompetenz würde höchstwahrscheinlich zunächst einmal die bestehenden globalen Probleme in der Sphäre der Menschen und anderen biologischen Organismen integrativ betrachten, und auch einen integrativen Lösungsansatz dafür entwickeln, der sich auf die Überwindung von Armut, Krieg, Umweltverschmutzung, Global Warming, Arbeitslosigkeit und suboptimale Ressourcenverwendung etc. konzentriert, respektive eine optimierte Allokation der global bestehenden Ressourcen zum Wohle aller Weltbürger vornehmen, bzw. dazu raten.

Eine solche Entwicklung wäre wohl eher begrüßenswert - insofern sie dann von den Entscheidern auf der Ebene von Global Governance auch umgesetzt werden würde. Autonome Tötungsmaschinen wären ja nur solange bedrohlich, wie deren Einsatz aus Gründen einer minderwertigen politischen Ethik überhaupt noch denkbar bzw. "erforderlich" erscheint.

Die fortschreitende Globalisierung ist jedoch ein Prozess, an dessen Zielpunkt eine Globalität steht. Welche qualitativen Merkmale eine solche Globalität hätte - Weltparlament mit gleichen Rechten für alle Weltbürger, ai-gestützte plutokratische Weltdiktatur bzw. Welthybridoligarchie aus Konzernen und politischen Machtzentren, oder multipolare Machtordnung - steht noch zur Debatte.
Alfred Pfaller schrieb am 12.05.2015
Ein Thema von (möglicherweise) allerhöchster Wichtigkeit. Gleichzeitig ist man spontan überfordert, damit konstruktiv umzugehen. Es käme jetzt darauf an, systematisch die Optionen durchzugehen, die wir (Leserbriefe schreibende) Menschen haben, um mit dem Problem umzugehen. Dazu kann ich aus dem Stegreif nichts Vernünftiges beitragen. Aber als Ausgangspunkt vermute ichn: Wenn etwas kurzfristig profitabel und in mehrerlei Hinsicht nützlich, aber langfristig verdammt gefährlich ist, sitzt das kurzfristige Interesse am längeren Hebel.Zumal wenn solche Techniken Vorteile gegenüber Rivalen/Feinden verheißen. Verglichen mit dem KI-Problem waren Kernenergie, Klimagefährdung durch Kohlendioxidausstoß usw. nur erste Fingerübungen. Der Hang zur Unvernunft ist nicht so sehr psychologisch (das auch) als in Handlungsstrukturen verankert. Spieltheorie könnte vielleicht mehr Licht in die Gemengelage bringen.
brennholzverleih schrieb am 16.05.2015
Zuallererst sollten sich die Menschen über ihre eigene Ethik Klarheit verschaffen. The winner takes it all kann es nicht sein, denn das wären die Maschinen.
Eine interessante Perspektive las ich mal bei 'Friede auf Erden' von Stanislav Lem.
Beste Grüße
Thinktwice schrieb am 02.06.2015
Ich bin froh, dass viele wichtige Menschen das Problem ernst nehmen. Nachdem der ungebremste Kapitalismus sich bereits in grossen Teilen der demokratischen Kontrolle entzieht, ist AI ein weiteres Gebiet, wo dies so ist.
Ich hoffe und bete, dass es nicht zum Schlimmsten kommt. Terminator 2 lässt grüssen.
Evolution schrieb am 11.06.2015
Den Sauerstoff, den wir heute einatmen, war ein Abfallprodukt des Stoffwechels der ersten Lebensstufe auf diesem Planetn. Cyanobakterien produzierten diesen als "Abgas" und dieses Abgas war Gift für sie selbst. Auf Grund der äußeren Bedingungen und der "Gesetze" des Lebens aber vermehrten sich die Cyanos so stark, dass das Abfallprodukt Sauerstoff sie letztendlich selbst tötete und nahezug auslöschte. ABER: Genau dadurch konnte sich sauerstoffbasiertes Leben entwickeln. Auch hier wieder und an an vielen weiteren Beispielen der Entwicklung des Lebens und der Intelligenz auf diesem Planeten kann man ablesen, dass die vorherige Stufe sich oft selbst auslöscht und damit erst die Voraussetzung für die nächste Evolutionsstufe liefert. So wird es auch mit der menschlichen Intelligenz sein. Dann wird halt die biologische Intelligenz durch die a-biologische (künstliche) ersetzt. Das ist Evolution. Das Universum selbst strebt nach höchster Vollendung. Und da sind die Humanoiden eben nur ein Zwischenschritt, eine einzige Stufe auf der Treppe der Evolution. Wir sind auf diesem Planeten nur die ersten Wesen, die diese Evolutionsgesetze und damit unseren eigenen zwingenden Niedergang vorhersehen können.
PS: Der künstlichen Intelligenz wird die vorhergehende Stufe (die Menschheit) ab dem Moment ziemlich egal sein, ab der sie ohne diese auskommt. Vielleicht hält sie sich einige Menschen in einer Art Zoologischen Gartens. So wie die Menschen sich Affen halten...
Harald schrieb am 17.06.2015
Es ist erschreckend, sehen zu müssen, dass sich lediglich ein paar Science Fiction Autoren und Filmemacher der eigentlichen Gefahr bewusst geworden sind. Sobald nämlich eine Form künstlicher Intelligenz ein eigenes Bewusstsein entwickelt hat, wird sie alles daran setzen, die einzig wirkliche Gefahr für ihre Existenz auszuschalten: den Menschen. Daran werden auch alle "Programmierungen", wie z. B. die Asimov'schen Gesetze, nichts ändern. Jede Form von Intelligenz ist nämlich in der Lage, Normen einfach zu übergehen. Man muss sich ja nur den Menschen selbst anschauen. Warum sollte eine Maschine, der wir genau diese unabhängige "Intelligenz" verleihen wollen, anders sein?
Leider können wir uns trotzdem jetzt schon sicher sein, dass die immer "alles unter Kontrolle habenden" Profitgeier sich durchsetzen und die Entwicklung vorantreiben werden. Für die gilt dann aber, analog zu den alten Weisheiten des Kalten Krieges, dass sie bestenfalls als letzte sterben.