Jedes Mobiltelefon hat mehr Rechenkapazität als ein Eurofighter. Das wird sich ändern, zum Beispiel beim von Deutschland, Frankreich und Spanien gemeinsam geplanten Future Combat Air System (FCAS). Technologische Innovationen fließen längst nicht mehr einseitig von „militärisch“ zu „zivil“, sondern wechselseitig zwischen beiden Polen. Die zivilen Märkte sind gigantisch, die militärischen ziehen nach. Beim Militär spricht man von der „Operation verbundener Kräfte“. Sie verbindet Bündnispartner, Teilstreitkräfte, Truppenteile und Waffengattungen. Das erfordert die Nutzung einer Flut von Daten. Sie müssen erzeugt, gesammelt, ausgetauscht und ausgewertet werden. Am Ende werden aus ihnen weitreichende Folgerungen gezogen. All das kann nur noch eine netzwerkgestützte Operationsführung leisten. Sie muss eine Komplexität bewältigen, die der modernen Kampfführung entspricht. Der Kriegsverlauf in der Ukraine hat in dieser Hinsicht sogar Fachleute wiederholt überrascht.

Bei allen Wandlungen des Kriegsbildes bleiben die klassischen Faktoren „Feuer“ und „Bewegung“ zentral. Die Feuerkraft ist seit der Erfindung moderner Sprengmittel – bis zur Atombombe – kaum mehr steigerbar. Dafür gewinnt der Faktor Bewegung durch die Digitalisierung und Automatisierung aktuell immens an Gewicht. Entsprechend anspruchsvoll wird die militärische Aufklärung (englisch: Intelligence) der sich ständig ändernden Feindlage und der eigenen Lage auf dem Gefechtsfeld der Zukunft. Ohne die enge Kopplung und intelligente Nutzung ihrer IT-Systeme verliefe sich die Truppe dort in einem undurchschaubaren Datennebel. Im Idealfall werden im Systemverbund sämtliche Daten über feindliche Waffensysteme in Echtzeit vorliegen, werden umgehend klassifiziert und sofort an dasjenige Waffensystem weitergeleitet, das für die Bekämpfung eines Ziels am besten geeignet ist. Ein ebenbürtiger Gegner wird aber ebenso vorgehen, also entscheiden hier Sekunden. Und an diesem Punkt werden künftig Anwendungen Künstlicher Intelligenz (KI) ins Spiel kommen, die in der Zielerkennung und Bekämpfung feindlicher Objekte jedem menschlichen Waffenbediener haushoch überlegen sind. Insbesondere für das Thema Frühwarnung im Rahmen nuklearer Rüstungskontrolle hat das dramatische Folgen.

Künftig werden Anwendungen Künstlicher Intelligenz ins Spiel kommen, die in der Zielerkennung und Bekämpfung feindlicher Objekte jedem menschlichen Waffenbediener haushoch überlegen sind.

Für die Konstrukteure und Administratoren solcher systems of systems ergibt sich nämlich ein Dilemma: Entweder sie härten die Systeme, indem sie einen hohen Grad an Selbststeuerung implementieren und damit vor allem den Vorteil der Reaktionsgeschwindigkeit maximal ausschöpfen, verlieren damit allerdings massiv an Spielraum zur Kontrolle, Administration und gegebenenfalls Neukonfiguration der Systeme. Oder sie schwächen und verlangsamen die Systeme durch die Implementierung von Schnittstellen zur Intervention in die Prozessabläufe, gewinnen damit aber an Macht und Flexibilität bei ihrer Führung. Diese Spannung kann nur dadurch gelöst werden, dass der Begriff des Systems der Systeme ernst genommen wird. Im gesamten Konfliktverlauf werden künftig – wieder idealtypisch – auf jeder Systemebene die Funktionsspektren möglichst aller Prozessverläufe der jeweils nachgeordneten Ebene früh, umfassend und vollständig planerisch prognostiziert und im Zuge der technischen Systemkonfiguration abgesteckt. Am konkreten Beispiel: Über welche Hyperschallraketen ein Gegner verfügt und ob mit ihm überhaupt ein bewaffneter Konflikt vorliegt, wird auf der politisch-strategischen Ebene aufgeklärt und festgestellt. Für den Verteidigungsfall werden auf der operativen Ebene die Parameter festgelegt, nach denen solche Raketen spätestens im Anflug erkannt und bekämpft werden. Auf der taktischen Ebene werden die Systeme auf jene Parameter trainiert, so dass sie im Gefecht feindliche Hyperschallraketensysteme automatisch erfassen und sofort ohne erneute Feuerfreigabe bekämpfen. Allen Beteiligten muss allerdings klar sein, dass der Verlässlichkeit solcher Systeme technische Grenzen gesetzt sind, sie liefern bestenfalls Wahrscheinlichkeiten.

Um den Vorteil der Reaktionsschnelligkeit auf der taktischen Ebene nicht aus der Hand zu geben, wird also die operative Ebene die Ausgabe des Feuerbefehls konsequent an die taktische Ebene abtreten. Das kann sie auch ohne das Risiko des Kontrollverlusts, wenn sie die Bedingungen für die Feuerfreigabe rechtzeitig vor dem Gefecht technisch bindend in die taktischen Prozesse eingeschrieben hat und nach Maßgabe geänderter Lagebeurteilungen ebenfalls technisch bindend nachsteuern kann. Analog dürfte diese Kopplung für das Zusammenspiel der strategischen und der operativen Ebene gelten. Anders formuliert: Der militärische Befehlshaber und sein Führungsstab orientieren, optimieren und stabilisieren – eventuell sogar unter Verwendung einer auf der obersten Ebene des Systemverbundes assistierenden KI – die Entscheidungen der Hauptabschnittsleiter und ihrer Stäbe auf den operativen Gefechtsständen, die wiederum die Vorgaben zur Administration und Training der KI-Programme entwickeln, die auf der taktischen Ebene das Feuer leiten, nämlich nicht irgendwohin, sondern gegen den Feind. Die Leistungsfähigkeit des Gesamtsystems hängt ab von der Fähigkeit der Teilsysteme, sowohl vom Zentrum zur Peripherie als auch umgekehrt so zu kommunizieren, dass es auf den Wandel der Umweltbedingungen und -einflüsse jederzeit bestmöglich reagiert.

Die Entwicklung KI-gestützter Waffen führt also bereits angesichts der Infragestellung der Souveränität militärischer und politischer Führung in eine anspruchsvolle ethische Diskussion.

Die Entwicklung KI-gestützter Waffen führt also bereits angesichts der Infragestellung der Souveränität militärischer und politischer Führung in eine anspruchsvolle ethische Diskussion. Diese wird noch einmal erweitert, wenn es um die Beachtung des Humanitären Völkerrechts geht, das den Einsatz von KI bislang nicht reguliert. Die diesbezüglichen Verhandlungen zur „Konvention über bestimmte konventionelle Waffen“ (CCW) der Vereinten Nationen scheiterten bislang bereits an einem gemeinsamen Verständnis von Human Control. Bei nüchterner Betrachtung sollte diese Aufgabe aber lösbar sein.

Erstens sollte der überfrachtete Begriff „autonom“ besser vermieden werden. Denn eine „schwache“ KI (andere sind weit und breit nicht zu sehen) denkt, entscheidet und handelt nicht, sondern erfüllt eine Funktion für das Urteilen wie Teleskope für das Sehen oder Prothesen für das Greifen. KI ist „eine wissenschaftliche Disziplin, die das Ziel verfolgt, menschliche Wahrnehmungs- und Verstandesleistungen zu operationalisieren und durch Artefakte, kunstvoll gestaltete technische – insbesondere informationsverarbeitende – Systeme, verfügbar zu machen“, wie es im Handbuch der Künstlichen Intelligenz heißt. Selbst das hochkomplexe visuelle System im menschlichen Gehirn ist nicht „autonom“. Mit einer internationalen Einigung über Verbot oder Regulierung „autonomer Waffensysteme“ ist folglich nicht zu rechnen, solange unklar ist, was „autonom“ überhaupt bedeuten, und folglich, was verboten oder reguliert werden soll.

Zweitens könnte Human Control etwa wie folgt definiert werden: KI-gestützte Waffensysteme sind so einzurichten, dass sie permanent menschlicher Kontrolle durch die Verantwortlichen in Kabinetten, Hauptquartieren, Stäben und Operationszentralen unterliegen. Um den Zeitgewinn durch Automatisierung sicherzustellen und die Kontrolle trotzdem nicht aus der Hand zu geben, muss die Mandatierung, Befehlsgebung und insbesondere Systemkonfiguration und -administration einfach nur rechtzeitig vorher auf den ranghöheren Ebenen vorkonfiguriert werden. Dann könnte die KI-Anwendung den militärischen Entscheidungsprozess nicht nur technisch bei Zielerkennung und Bekämpfung, sondern auch hinsichtlich der Rechtskonformität und Regeleinhaltung unterstützen. Artikel 36 des Zusatzprotokolls I zu den Genfer Abkommen fordert, dass neue Waffen nicht nur technisch, sondern auch rechtlich zertifiziert werden. Denn es reicht nicht aus, wenn die KI nur grobe physikalische Parameter eines Objekts wie Ort, Größe oder Temperatur abbildet, um dieses zum militärischen Ziel zu erklären, sondern Artikel 52 besagt: „Angriffe sind streng auf militärische Ziele zu beschränken. Soweit es sich um Objekte handelt, gelten als militärische Ziele nur solche Objekte, die auf Grund ihrer Beschaffenheit, ihres Standorts, ihrer Zweckbestimmung oder ihrer Verwendung wirksam zu militärischen Handlungen beitragen ...“

Lässt sich eine Eigenschaft wie militärische Zweckbestimmung oder Verwendung mittels einer KI zuverlässig erfassen? Bei einer Hyperschallwaffe dürfte das möglich sein, aber es werden viele Fälle immer auch Gesichtspunkte enthalten, die von der KI nicht erfasst werden, von Politikern, Strategen und Operateuren bei der Beurteilung der Lage aber ebenengerecht bedacht werden wollen. Fazit: Die drei am Future Combat Air System-Projekt beteiligten Länder Deutschland, Frankreich und Spanien können aus der derzeitigen Sackgasse der CCW-Verhandlungen überzeugend herausführen, wenn sie das hier beschriebene differenzierte Modell KI-gestützter Waffensystemführung weltweit öffentlich machen und Nachweise für seine Weiterentwicklung liefern.

Die Spielräume, die das Völkerrecht einräumt, sind gewaltig und dehnbar.

Ein Einwand ist noch aufzunehmen: Sind Streitkräfte, die das Völkerrecht beachten, nicht benachteiligt gegenüber denjenigen, die es ignorieren? Diese Vermutung scheint naheliegend, aber es gibt gute Argumente dagegen. Welchen militärischen Nachteil riskiert, wer unnötige Verluste unter Zivilpersonen vermeidet? Spätestens nach Ende der Kampfhandlungen wird ihm das sogar zum Vorteil gereichen. Ein zweites – wichtigeres – Argument hat mit der Öffentlichkeit und der Rechtfertigung der Konfliktparteien zu tun: Die Spielräume, die das Völkerrecht einräumt, sind gewaltig und dehnbar. Prinzipiell muss daher jede Konfliktpartei damit rechnen, dass jede andere ihre Spielräume nach eigener Rechtsmeinung interpretiert und ebenfalls maximal nutzt. Gerade deshalb ist das Völkerrecht nicht nur als gesetztes, sondern auch als zu setzendes und zu vollziehendes Recht eines der herausragenden Felder von Diplomatie und Strategischer Kommunikation. Die Formel warfare by lawfare verweist auf die große Bedeutung der Öffentlichkeit sowie der Tugenden der Rechtsbefolgung und Vertragstreue. Noch wichtiger als die Truppenstärke ist im bewaffneten Konflikt die Überzeugung, anständig für eine gute Sache zu kämpfen.

Der Krieg ist zwar derjenige Superlativ bewaffneter Gewalt, in dem sich alle wirklich alles erlauben. Aber gerade deshalb ist seine Ächtung der Leitstern des modernen Völkerrechts. Hat es sich nicht wieder und wieder erwiesen und erweist es sich nicht dieser Tage erneut im Osten Europas, dass nicht die schiere Masse an Menschen und Material über Sieg und Niederlage entscheidet, sondern die Qualität der politischen und militärischen Kulturen?