Kopfbereich

Wenn Roboter Kriege führen
Warum wir ein Verbot autonomer Waffensysteme brauchen.

Von |
AFP
AFP
Ausreichend Raum für eine moralische Abwägung? Türkischer Soldat mit Drone in Nord-Irak.

Nachdem die Vereinigten Staaten und Russland aus dem INF-Vertrag ausgestiegen sind, droht eine neue atomare Aufrüstung, auch auf dem europäischen Kontinent. So gefährlich diese Entwicklung werden kann, so eingeübt sind die Reflexe auf beiden Seiten des Atlantiks: Am Ende wird ein wie auch immer geartetes Gleichgewicht den tatsächlichen Einsatz von nuklear bestückten Mittelstreckenraketen höchst unwahrscheinlich machen. Zu starr, zu vorhersehbar wäre ein nuklearer Abtausch: Schlägst du mich, schlage ich dich. Am Ende verlieren beide Seiten. Natürlich darf man die mit nuklearer Aufrüstung verbundenen Risiken nicht unterschätzen oder verharmlosen. Doch andere, oft weniger öffentlichkeitswirksame Abrüstungsthemen dürfen nicht in den Hintergrund gedrängt werden von den Muskelspielen Trumps, Putins oder Uns.

Eine solche völlig neue Dynamik entfaltet sich derzeit im Bereich der letalen autonomen Waffensysteme (LAWS). Während eine breite öffentliche Debatte über das Für und Wider dieser Waffen bislang kaum stattfindet, ist die Diskussion in Fachkreisen bereits ein paar Jahre alt. Auch wenn die Staatenwelt seit 2013 im Rahmen der in Genf tagenden UN-Abrüstungskonferenz über LAWS diskutiert, bleiben einige zentrale Fragen nach wie vor unbeantwortet. Das betrifft die Frage nach einer allgemeingültigen Definition von LAWS ebenso wie die Frage nach der Haftung bei von autonomen Maschinen begangenen Fehlern.

Die Verantwortung für die Anwendung von Gewalt, mithin für die Tötung eines anderen Menschen, darf nicht an Maschinen delegiert werden.

Unbeantwortet bleibt auch die Frage, wie letale autonome Waffengewalt mit der Menschenwürde und fundamentalen Grundrechten in Einklang zu bringen ist. Die Verantwortung für die Anwendung von Gewalt, mithin für die Tötung eines anderen Menschen, darf nicht an Maschinen delegiert werden. Tatsächlich hat dieser Befund weniger mit apokalyptischen Schreckensszenarien zu tun, in denen autonome Roboterarmeen gegeneinander kämpfen, als vielmehr damit, dass ein Algorithmus, möglicherweise sogar als selbstlernende Variante, die Entscheidung über ein Menschenleben trifft.

Diese Vorstellung widerspricht zutiefst den Werten der Aufklärung und der menschlichen Zivilisation. Die Konsequenz daraus kann und darf nur sein: Waffensysteme, die belebte Ziele bekämpfen, dürfen niemals vollständig der menschlichen Kontrolle entzogen werden. So trefflich es sich darüber streiten ließe, ob kriegerische Handlungen überhaupt jemals „menschlich“ oder „moralisch“ sein können, so eindeutig ist es, dass die Übertragung der Verantwortung auf einen Algorithmus – wie mathematisch sicher dieser auch scheint – eine gefährliche Werteverschiebung mit sich bringen würde.

Das bedeutet konkret: Die Autonomie in Waffensystemen darf die Rolle des Menschen nicht darauf reduzieren, das letzte Glied in der operativen Kette zu sein und als solches das Abfeuern einer Waffe lediglich „abzusegnen“. Im Gegenteil, der befehlshabende Soldat muss aktiv in die Zielauswahl, -priorisierung und -verfolgung eingreifen und diese steuern können. Es muss also ausreichend Raum für eine moralische Abwägung und die Belastung des eigenen Gewissens vorhanden sein.

Die sich über Jahre hinziehenden Gespräche in Genf zeigen, dass sich die Staatengemeinschaft schwer damit tut, in diesen Fragen einen Konsens zu finden und mögliche völkerrechtliche Konsequenzen aus den Gefahren der LAWS abzuleiten. In der Tat: Autonome Waffensysteme stellen das humanitäre Völkerrecht vor Herausforderungen, auf die es bislang nicht ausgelegt ist. Welche Eigenschaften, beispielsweise, charakterisieren einen Kombattanten, wenn das Schlachtfeld in Zukunft überwiegend von autonomen Maschinen besetzt ist? Aus zweierlei Gründen ist ein zügiger Fortschritt hin zu einem Verbot von LAWS,  zumindest jedoch zu einer umfassenden Regulierung, dringend geboten.

Zu unterschiedlich sind die Ziele jener Staaten, die militärtechnologisch in der ersten Liga mitspielen und jenen, die in diesem Rennen nur verlieren können und daher auf eine möglichst strenge Regulierung drängen.

Erstens: Autonomie in Waffensystemen wird nicht von heute auf morgen plötzlich auftauchen. Vielmehr handelt es sich um einen schleichenden Prozess, in dem sich Schritt für Schritt immer mehr einzelne (Assistenz-)Systeme in ihrem jeweiligen Autonomiegrad erhöhen. Anders als der populäre Begriff des „Killerroboters“ nahelegt, werden LAWS auf absehbare Zeit keine wie auch immer geartete „Seele“ haben – es wird sich um die Summe jener Einzelsysteme handeln, die ein funktionierendes Ganzes beschreiben. Findet keine Regulierung statt oder ist sie zu langsam, galoppiert der technische Fortschritt voraus und wird kaum wieder einzufangen sein. Ein Verschlafen solcher Entwicklungen, wie beispielsweise bei der Entgrenzung von Konflikten durch sogenannte extralegale Tötungen außerhalb klassischer Konfliktgebiete, darf uns nicht passieren.

Zweitens: Nicht nur in technologischer, auch in politischer Hinsicht ist Eile geboten. Die Genfer Verhandlungen drohen mangels Schnittmengen zu scheitern. Zu unterschiedlich sind die Ziele jener Staaten, die militärtechnologisch in der ersten Liga mitspielen und jenen, die in diesem Rennen nur verlieren können und daher auf eine möglichst strenge Regulierung drängen. Die wahrscheinlichste Konsequenz aus dieser verfahrenen Situation ist, dass ein Abkommen außerhalb oder parallel zu den Vereinten Nationen entsteht  – jedoch mit einem überschaubaren Kreis an teilnehmenden Staaten und entsprechend eingeschränkter rechtlicher und moralischer Strahlkraft.

Der Weg zu einem universellen Verbot letaler autonomer Waffen ist zweifellos steinig, insbesondere weil das militärische Potenzial dieser Waffensysteme erheblich und auch der mögliche Gewinn für zivile Nutzung enorm ist. Aussichtslos ist es jedoch nicht. Voraussetzung ist, dass nationale Regierungen, internationale Organisationen, nationale wie internationale Parlamente und die Zivilgesellschaft ihren Beitrag dazu leisten. Die mit dem Friedensnobelpreis ausgezeichnete Kampagne für die Abschaffung von Atomwaffen (ICAN) hat vorgemacht, wie internationaler Druck erfolgreich aufgebaut werden kann.

Im vergangenen Jahr hat das belgische Parlament eine Resolution verabschiedet, die das Verbot letaler autonomer Waffensysteme fordert. Das EU-Parlament hat kurz darauf ebenfalls den Ruf nach einem Verbot von LAWS bekräftigt. Die SPD-Bundestagsfraktion hat nun ihrerseits nachgezogen und fordert ein Verbot jener letalen autonomen Waffensysteme, die sich der menschlichen Verfügungsgewalt entziehen. Es gilt, diese Position nun als Deutscher Bundestag insgesamt zu untermauern, andere Parlamente und Regierungen zu ermutigen, sich ihr anzuschließen und langfristig in ein effektives Verbot letaler autonomer Waffensysteme münden zu lassen. Rückenwind für dieses Vorhaben kommt seitens der Industrie: Der Präsident des BDI beispielsweise forderte jüngst ein LAWS-Verbot nach dem Vorbild der Chemiewaffenkonvention.

Noch ist unklar, welches Ausmaß autonome Waffensysteme in der Zukunft auf den Schlachtfeldern spielen werden. Ob LAWS eines Tages gar als Massenvernichtungswaffen gelten werden, steht in den Sternen. Eines ist jedoch schon heute offensichtlich: Die Erosion der vormals klaren Strukturen eines nuklearen Rüstungswettlaufs  – Erst- und Zweitschlagfähigkeit, Gleichgewicht des Schreckens, nukleare Triade – würde durch einen Rüstungswettlauf mit autonomen Waffen noch einmal beschleunigt. Nimmt man noch den benachbarten Bereich der Cyber-Kriegsführung hinzu, lösen sich die Formen symmetrischer Kriegsführung vollständig auf. Sollten diese Technologien jemals auch nicht-staatlichen Akteuren zur Verfügung stehen, potenziert sich die Gefahr noch einmal massiv. Die Aufkündigung des INF-Vertrages wiegt schwer – unsere größte Sorge sollte jedoch diesen Technologien der Zukunft gelten.

Hat Ihnen der Beitrag gefallen? Bestellen Sie hier den Newsletter.