Kopfbereich

„Tötungsroboter sind nicht unvermeidlich!“
Vier Fragen zu autonomen Waffensystemen an Friedensnobelpreisträgerin Jody Williams.

Für Ihren Einsatz gegen Landminen wurde Ihnen der Friedensnobelpreis verliehen. Nun haben Sie den Kampf gegen autonome Waffensysteme aufgenommen. Können Sie erklären, warum diese Systeme Ihnen solche Sorgen bereiten?

Ich halte es grundsätzlich für moralisch und ethisch verwerflich, wenn Menschen Waffen entwickeln oder erwerben, die andere Menschen selbsttätig ohne weiteres menschliches Zutun anvisieren und töten können. Solche Waffen wären ein Angriff auf die Menschenwürde und weder mit Kriegsvölkerrecht noch mit den Menschenrechten vereinbar. Sie würden eine „militärische Notwendigkeit“ schaffen, wo derzeit keine ist, weil es solche Waffen nicht gibt, und sie würden ein neues tödliches Wettrüsten nach sich ziehen.

Das Wettrüsten findet zum Teil ja schon statt. Dutzende Länder entwickeln derzeit autonome Waffensysteme. Sind sie angesichts des Sicherheitsdilemmas in den internationalen Beziehungen nicht fast schon unvermeidbar?

Wie ich schon auf der Konferenz der UN-Waffenkonvention Convention on Conventional Weapons (CCW) in Genf in der abschließenden Diskussion über Tötungsroboter sagte, ist die Behauptung, diese Waffensysteme seien unvermeidlich, ein Totschlagargument. Wenn etwas „unvermeidlich“ ist, heißt das, wir geben die Macht ab und lassen uns abstumpfen. Wenn etwas unvermeidlich ist, ist es sinnlos, etwas daran ändern zu wollen.

Wir müssen die Partnerschaft aus Zivilgesellschaft, Staaten und internationalen Organisationen stärken, um Tötungsroboter zu verbieten, ehe sie auf dem Schlachtfeld oder in der Polizeiarbeit zum Einsatz kommen!

Wir von der Campaign to Stop Killer Robots stemmen uns entschieden gegen die Vorstellung, dass Menschen die Entscheidung über ihre eigene Zukunft nicht unter Kontrolle hätten. Wir bestreiten, dass Tötungsroboter unvermeidlich sind. Nur wenn rund um den Erdball die Gegner dieser Waffensysteme, die selbsttätig Menschen umbringen können, eben doch nachgeben und zulassen, dass das nicht unbedingt Unvermeidliche zur tödlichen und schrecklichen Realität wird, dann sind diese Waffen unvermeidbar. Wir lehnen nicht die Forschung und Entwicklung autonomer Technologien ab. Wir lehnen es ab, Entscheidungen über Leben und Tod an Maschinen zu delegieren.

Welche politischen Maßnahmen sind nötig, um das zu verhindern? Und was können wir dabei aus dem Kampf gegen Landminen lernen?

Auf der jüngsten CCW-Konferenz herrschte Einigkeit, dass die Kampagne gegen Tötungsroboter die treibende Kraft ist, um diese Waffen ins öffentliche Bewusstsein zu rücken und die internationale Debatte darüber in Gang zu bringen. Wenn die auf der Konferenz angestellten Überlegungen rasch und wirksam greifen sollen, muss die Kampagne ihre Arbeit weiterführen und ausdehnen, damit einzelne Staaten unilateral zu einem Verbot von Tötungsrobotern gelangen.

Wir brauchen einen Kern von Ländern, die unsere Vision und unser Ziel teilen und das Thema bei anderen Regierungen vorbringen. Wie schon in den frühen Tagen der Landminenkampagne findet das Internationale Komitee des Roten Kreuzes immer klarere Worte zu tödlichen autonomen Waffen. Es käme uns allen zugute, wenn sich das Komitee, wie damals im Kampf um das Landminenverbot, auch der Kampagne gegen Tötungsroboter anschließen und ein Verbot fordern würde.

Wir brauchen einen Kern von Ländern, die unsere Vision und unser Ziel teilen und das Thema bei anderen Regierungen vorbringen.

Wir müssen demnach die Partnerschaft aus Zivilgesellschaft, Staaten und internationalen Organisationen, die sich aus der Bewegung zum Landminenverbot entwickelt hat, stärken, um Tötungsroboter zu verbieten, ehe sie auf dem Schlachtfeld oder in der Polizeiarbeit zum Einsatz kommen. In der UN-Waffenkonvention ist so etwas bereits geschehen, als im Jahr 1995 blind machende Waffen vorsorglich verboten wurden. Das ist ein guter Präzedenzfall – wenn es schon einmal gelungen ist, kann es auch wieder gelingen.

Stephen Hawking, Bill Gates und andere haben jüngst vor den Risiken der Künstlichen Intelligenz gewarnt. In Deutschland diskutieren wir vor allem den Einsatz von Drohnen. Ist das das eigentliche Problem?

Mir ist bewusst, dass sich verschiedene Organisationen gegen bewaffnete Drohnen engagieren, doch unsere Arbeit in der Kampagne gegen Tötungsroboter strebt ein Verbot vollautomatischer Waffensysteme an, ehe sie Realität werden.

Drohnen sind ferngesteuerte Luftfahrzeuge, die quasi allein fliegen können, bei denen aber noch ein Mensch das Ziel auswählt und über den Angriff entscheidet. Wenn Tötungsroboter Realität werden, wäre an der Entscheidung, ein Ziel anzuvisieren und anzugreifen, kein Mensch mehr beteiligt. Die Waffe wäre, sobald sie auf den Weg gebracht würde, auf sich gestellt. Der Mensch würde das Töten anderer Menschen der Maschine überlassen. Viele sehen diese Maschinen als Teil eines größeren Ganzen, und unsere Aufgabe ist es, das zu verhindern.

 

Die Fragen stellte Michael Bröning.

Hat Ihnen der Beitrag gefallen? Bestellen Sie hier den Newsletter.