Schon sehr bald werden Roboter mit künstlicher Intelligenz in der Lage sein, Aufgaben zu übernehmen, die für uns Menschen zu gefährlich, zu langweilig oder zu schwierig sind. Aber es gibt einen Bereich, in dem gesetzlich geregelt werden muss, wieviel Kontrolle wir an die Maschinen abgeben: tödliche autonome Waffen (lethal autonomous weapons, LAWS). Es geht dabei um Waffensysteme, die keiner menschlichen Kontrolle mehr unterliegen. Bereits heute werden diese Waffen in aller Welt entwickelt – darunter von Staaten wie China, Großbritannien, Israel, USA oder Russland und sogar von Privatarmeen. Wir laufen Gefahr, blindlings in eine Lage zu geraten, in der die Entscheidung zum Töten nicht mehr unseren üblichen Kampfgesetzen unterliegt. Weder die Waffenkonvention der Vereinten Nationen noch die aktuellen internationalen Menschenrechte sind auf künstliche Intelligenz vorbereitet, die automatisch töten kann. 2014 hat daher die Internationale Kommission zur Kontrolle automatisierter Waffen (ICRAC, International Committee for Robot Arms Control) die Vereinten Nationen gebeten, ein entsprechendes Regelwerk zu entwickeln.

Die meisten Neuerungen im Bereich der künstlichen Intelligenz ergaben sich nicht aufgrund militärischer Nachfrage, sondern wurden vom zivilen Bereich angestoßen. Aber wie kann die Waffenindustrie angesichts der bereits heute verfügbaren Technologie gebremst werden? Das ist unmöglich. Ob wir es wollen oder nicht: Die Killer-Roboter sind auf dem Vormarsch, und wir müssen überlegen, wie wir mit ihnen umgehen.

Das Streben nach immer autonomeren Waffensystemen ist ein unvermeidlicher Schritt im Zuge einer Entwicklung, die Kriegsteilnehmer im Laufe der Zeit immer weiter von ihren Zielen entfernt hat. Wir sind von Blankwaffen zu Gewehren, dann zu Raketen und schließlich zu ferngesteuerten Drohnen übergegangen: Damit geraten die Getöteten zunehmend aus dem Blickfeld der Tötenden. In gewisser Hinsicht ist dies begrüßenswert – es führt zu weniger Kurzschlusshandlungen im Eifer des Gefechts, weniger Traumata bei den beteiligten Soldaten und zu einer präziseren Zielfindung.

Mit autonomen Waffen wird die Entscheidung, jemanden zu töten, prinzipiell an eine Maschine abgegeben.

Im vergangenen August kündigte das britische Verteidigungsministerium an, in den nächsten zehn Jahren 800 Millionen Pfund in die Entwicklung moderner Waffensysteme zu stecken – darunter auch sogenannte Insektendrohnen, also künstliche Mini-Flieger, und Laserkanonen. Forschung und Industrie sollen dazu gebracht werden, gemeinsam das Verteidigungsministerium zu unterstützen, oder mit anderen Worten, „die Herausforderungen der Zukunft vorherzusehen, um unseren Verteidigungs- und Sicherheitskräften einen entscheidenden Vorsprung zu verschaffen.“

In den USA arbeitet die Agentur für fortgeschrittene Forschungsprojekte im Verteidigungsbereich (DARPA, Defense Advanced Research Projects Agency) mit dem Robotikunternehmen Boston Dynamics zusammen, um Maschinen herzustellen, die laut Ansicht mancher Kommentatoren unsere Albträume wahr werden lassen. Erst im Juli hat die Agentur fünf Forschungsorganisationen und ein Unternehmen damit beauftragt, eine hochauflösende, implantierbare Neuronalschnittstelle zu entwickeln – mit anderen Worten, eine „Verbindung zum Gehirn“.

Auch wenn diese Art von Geräten klingt, als käme sie direkt aus einem Science-Fiction-Roman, unterliegt sie doch immer noch einer gewissen menschlichen Kontrolle – im Gegensatz zu den tödlichen autonomen Waffen, die in Zukunft hergestellt werden könnten. Und sowohl im Pentagon als auch im britischen Verteidigungsministerium gibt es noch interne Richtlinien, die ein „angemessenes Niveau menschlicher Entscheidung über die Anwendung von Gewalt“ oder auch „menschliche Eingriffsmöglichkeit“ vorschreiben.

Beim Einsatz ferngesteuerter Waffen lässt dies aber einige Fragen offen: Wer entwickelt die Schnittstelle? Wie kann das Bedienungspersonal die Umgebung verstehen, in der sie eingesetzt werden? Welche Sicherheitsmaßnahmen gibt es für Stimm- oder Sprachsteuerungssysteme?

Jetzt geht man von der Fernsteuerung zu autonomen Maschinen über. In gewisser Hinsicht ist auch diese Weiterentwicklung sinnvoll, denn die Kommunikationskanäle zwischen dem ferngesteuerten Gerät und dem Piloten können gestört, die Übertragung kann verzögert und ferngesteuerte Maschinen können leichter gehackt werden – insgesamt ist die Robotik sehr anfällig für Cyber-Angriffe.

Aber – und dies ist von entscheidender Bedeutung: Mit autonomen Waffen wird die Entscheidung, jemanden zu töten, prinzipiell an eine Maschine abgegeben. Wollen wir das wirklich? Eine solche Entwicklung ist nicht dasselbe wie unserem vernetzten Kühlschrank zu erlauben, frische Milch nachzubestellen.

Lernfähige Maschinen und künstliche Intelligenz sind nicht identisch. Die Lernfähigkeit von Maschinen ermöglicht es vielen unserer Alltagsgegenstände, ohne spezielle Programmierung zu funktionieren – wie der eben erwähnte vernetzte Kühlschrank oder die automatische Texterkennung auf dem Smartphone. Lernfähige Maschinen sind eine Voraussetzung für die Entwicklung künstlicher Intelligenz. In Großbritannien wurde versucht, diesen Begriff als „menschenähnlicher Intellekt“ zu definieren.

Eine einzige autonome Waffe reicht aus, um einen bewaffneten Konflikt auszulösen, der dann eskalieren kann.

Das große Problem dabei ist, dass der Lernvorgang bei Maschinen ganz anders funktioniert als bei Menschen. Selbst wenn man ganze Batallione von Ingenieuren, Militärs und Rechtsexperten zur Verfügung hat, können autonome Waffen nur für den Einsatz in Situationen getestet werden, die wir Menschen uns vorstellen können. Wie bei allen selbstlernenden Gegenständen führen schlechte Daten zu schlechten Ergebnissen. Dementsprechend werden unbewusste Tendenzen beim Programmieren, Anlernen und Testen solcher sich selbst entwickelnder Algorithmen auch zu entsprechenden Resultaten führen. Wenn der Kühlschrank deshalb die falsche Sorte Milch bestellt, ist das unproblematisch, aber autonome Waffensysteme haben die Fähigkeit, Menschen zu töten, Kriege zu beginnen und die internationale Stabilität zu gefährden.

Eine einzige autonome Waffe reicht aus, um einen bewaffneten Konflikt auszulösen, der dann eskalieren kann. Nehmen wir ein einfaches Beispiel: In einer sensiblen Grenzregion könnte ein Flugobjekt durch heftigen Wind von seinem Kurs abgelenkt werden. In einer solchen Lage könnten selbst geringfügige Berechnungs- und Entscheidungsfehler weitreichende Folgen haben.

Natürlich werden in vielen Ländern Gesetze zur Cyber-Verteidigung und zur Bestrafung von Cyber-Angriffen eingeführt. Sicherlich werden auch einige Arten der tödlichen autonomen Waffen oder zumindest der Software für deren Betrieb unter diese neuen Gesetze fallen. Aber das Hauptproblem besteht laut Marcel Dickow, dem Forschungsgruppenleiter für Sicherheitspolitik bei der Stiftung Wissenschaft und Politik (SWP), darin, dass „die Roboterleute und die Cyber-Leute beim Militär nicht miteinander sprechen“.

Damit müssen sie schnellstens beginnen.

Im Februar dieses Jahres forderte das Europäische Parlament die Gründung einer europaweiten Agentur, die die Entwicklungen im Bereich der Robotik, der künstlichen Intelligenz und der EU-weiten Gesetzgebung im Auge behalten soll. Ihr Schwerpunkt liegt aber auf Haftungsfragen und dem Einfluss der Robotik auf Gesundheit, Beschäftigung, Transport und Privatsphäre.

Bis jetzt wird dabei, wie der portugiesische Europaabgeordnete João Pimenta betonte, „die Verwendung der Robotik für Militär- und Sicherheitszwecke weder erwähnt noch verurteilt.”

Was ist, wenn es sich um einen absichtlichen und böswilligen strategischen Angriff einer Maschine handelt?

Natürlich brauchen wir dringend Antworten auf die Frage, wie die Gesellschaft bei Unfällen durch Roboter mit den damit verbundenen Haftungsproblemen umgehen soll. Aber was ist, wenn der Schaden nicht im Rahmen eines Unfalls verursacht wird? Was ist, wenn es sich um einen absichtlichen und böswilligen strategischen Angriff einer Maschine handelt?

Zumindest müssen wir die Terminologie definieren und die Bedeutung von Begriffen wie künstlicher Intelligenz, Roboter, Drohnen, autonomen Fahrzeugen, Cyborg, selbstlernend usw. festlegen. Allgemein gesagt sind schlechte Gesetze schlimmer als gar keine, insbesondere wenn wir die Technologie noch nicht völlig verstehen. Aber die Herstellung tödlicher autonomer Waffen wird sich nicht aufhalten lassen, und die internationale Gemeinschaft steht in der Verantwortung, diese Entwicklung endlich ernst zu nehmen.