Nach der Drohnendiskussion kommen jetzt zunehmend autonome Waffensysteme in den Blick. Weshalb sind sie so umstritten?

Vorab: Noch gibt es autonome Waffen nicht. Allerdings gibt es deutliche Anzeichen für einen sich verstärkenden Trend hin zu immer mehr Autonomie in Waffensystemen. Damit verbunden ist ein bedenklicher Rückzug menschlicher Entscheidungsträger von kritischen Entscheidungen über Leben und Tod.

Autonome Systeme werden zukünftig in allen militärischen Bereichen und auf unterschiedlichen Entscheidungsebenen immer wichtiger werden. Sie können in vielen Bereichen schneller und präziser handeln, als Menschen es könnten. Routineaufgaben können sie erledigen, ohne zu ermüden. Genauso können sie in Hochrisikogebieten eingesetzt werden, ohne dass dadurch das Leben der eigenen Soldaten gefährdet würde. Noch wichtiger ist aber womöglich, dass sie der enormen Daten- und Informationsflut, mit der insbesondere moderne Armeen in bewaffneten Konflikten schon heute zu kämpfen haben, schneller und besser Herr werden können als menschliche Soldaten.

Auf der anderen Seite könnte diese Risikominimierung aber auch dazu führen, dass die Hemmschwelle zum Waffeneinsatz zukünftig deutlich herabgesetzt wird. Außerdem muss bei allen Vorzügen dieser Technologie, die es ja durchaus gibt, auch die ethische Dimension solcher Systeme diskutiert werden. Denn diese handeln ohne jede Empathie, allein auf der Basis von Computerprogrammen. Und auch wenn sie in vielen Bereichen vermeintlich effizienter handeln könnten als Menschen, muss die Frage diskutiert werden, ob es überhaupt ethisch und rechtlich vertretbar wäre, bestimmte (kritische) Entscheidungen an diese Systeme zu delegieren.

Was kann das Völkerrecht leisten, um diese neuen Technologien einzuhegen?

Grundsätzlich ist das (humanitäre) Völkerrecht gut gerüstet, um mit neuen Technologien umzugehen. Denn es ist flexibel genug gestaltet, um mit technischen Entwicklungen Schritt zu halten. Das Unterscheidungsprinzip von Kombattanten und Zivilisten beispielsweise gilt schließlich technologieunabhängig. Das heißt: Die Unterscheidung zwischen Zivilisten und Kombattanten muss auch von autonomen Systemen gewährleistet werden können. Wenn sie das nicht leisten können, verstoßen sie gegen das humanitäre Völkerrecht und dürfen nicht eingesetzt werden.

Gerade weil das Völkerrecht jedoch flexibel, vage und dynamisch gestaltet ist, lässt es zugleich auch Spielraum für Diskussionen und Interpretationen. Zudem gibt es gerade auch ethische Bedenken, die gegen den Einsatz autonomer Waffensysteme sprechen, und die in der aktuellen Debatte nicht in den Hintergrund geraten dürfen.

Aus diesem Grund wäre der Idealzustand im Umgang mit autonomen Waffensystemen ein völkerrechtlich verbindlicher Vertrag, der alle rechtlichen Detailfragen und technischen Definitionen zu neuen Waffensysteme detailliert regelt. Insbesondere sollte aus rechtlichen und ethischen Gründen eine Delegation von Entscheidungen über Leben und Tod an Maschinen rechtsverbindlich auf internationaler Ebene verboten werden. Das aber ist schwierig und bedarf einiger Kompromissbereitschaft. Denn nicht alle Staaten sind bereit, sich ihre Hände für technologische Neuentwicklungen im Voraus binden zu lassen.

In Genf finden derzeit informelle Gespräche über völkerrechtliche Möglichkeiten der Einhegung autonomer Waffensysteme statt. Besteht hier die Chance einer rechtsverbindlichen Regelung?

Die Chance besteht durchaus. Ich bin verhalten optimistisch. Für eine genauere Einschätzung ist es aber noch zu früh. Wir befinden uns an einem Punkt, an dem noch alles möglich ist. Das Spektrum reicht von einer rechtsverbindlichen Regulierung dieser neuen Waffensysteme, die auch ethische Aspekte aufnimmt, bis hin zu einer unverbindlichen Empfehlung, die wenig Aussagekraft haben würde.

Deutlich geworden ist in Genf allerdings: Ein Totalverbot autonomer Waffensysteme ist auf internationaler Ebene kaum konsensfähig. Nicht zuletzt, weil Autonomie als solche nicht per se ethisch oder völkerrechtlich bedenklich ist. Ein autonom agierendes Minensuchboot oder ein selbstfahrendes militärisches Transportfahrzeug sind unkritisch. Autonomie wird erst dann bedenklich, wenn kritische Funktionen eines Waffensystems, d. h. Funktionen wie die Zielauswahl und die Entscheidung zum Angriff an Maschinen delegiert werden. Da wäre eine rote Linie ganz klar überschritten und es ist wichtig, einer solchen zukünftigen Entwicklung schon jetzt einen Riegel vorzuschieben. Mit anderen Worten: Nach zwei informellen Verhandlungsrunden ist jetzt der Zeitpunkt gekommen, zu handeln, bevor die technologische Entwicklung den Rubikon überschreitet. Die informellen Gespräche sollten nun in formellere Treffen übergehen, die mögliche rechtliche Übereinkommen nach sich ziehen könnten. Das heißt: Die Staaten müssen sich positionieren und konkretisieren, ob und wie sie autonome Waffensysteme einhegen wollen.

Wie würden Sie in diesem Zusammenhang die Rolle der Bundesregierung bewerten?

Bislang durchaus positiv. Die Bundesregierung folgt hier dem Koalitionsvertrag, in dem die Ächtung vollautonomer Waffen ja ausformuliert ist, und positioniert sich klar. Hierzu passt, dass die Gespräche in Genf 2015 ja nicht von Ungefähr unter deutschem Vorsitz geführt wurden. Man kann derzeit mit einigem Recht von einer gewissen Vorreiterrolle Deutschlands sprechen. Die Grundposition der Bundesregierung ist dabei, dass die Entscheidung über Leben und Tod niemals an autonome Maschinen übertragen werden darf. Diese Position deckt sich mit dem Grundgesetz und unserem Verständnis von Menschenwürde.

Klar ist aber auch, dass der deutsche Ansatz nicht uneingeschränkt geteilt wird. Die USA, Großbritannien und andere vertreten in einigen Punkten dezidiert andere Auffassungen und stellen bei der juristischen Beurteilung dieser Waffensysteme ausschließlich auf das Kriegsvölkerrecht ab.