Arbeitspapiere

Möglichkeiten und Grenzen der rechtlichen Regulierung "autonomer Waffensysteme"

33/2018
Die Erforschung und Entwicklung „Autonomer Waffensysteme“ hat in den letzten Jahren rasant zugenommen. Vor einigen Jahren noch als Science-Fiction belächelt („Killer Robots“), ist der Einsatz von Autonomie in Waffensystemen heute – etwa bei den Flugabwehrsystemen PATRIOT und MANTIS der Bundeswehr – in Teilen schon Realität. Die Entwicklung (teil)autonomer Waffensysteme geht zwangsläufig mit einem Rückgang oder im Extremfall dem völligen Verlust an menschlicher Steuerungskontrolle einher. Dies provoziert vielfältige Bedenken. So wird befürchtet, dass weitestgehend autonome Waffensysteme ohne eine ausreichende menschliche Kontrolle möglicherweise die Hemmschwelle für militärische Konflikte senken, die Kriegsführung erheblich beschleunigen, die Opferzahlen erhöhen, das Eskalationsrisiko steigern und die Einhaltung des humanitären Völkerrechts erschweren könnten. Wie kann Fehlentwicklungen vorgebeugt werden?

Regulierungshürde: Was ist Gegenstand der Regulierung?

Im Lichte der möglichen Gefahren und Herausforderungen (teil)autonomer Waffensysteme haben Staaten, beispielsweise im Rahmen einer Arbeitsgruppe zur UN-Konvention über bestimmte konventionelle Waffen, bereits mit ernsthaften Diskussionen zu einer Regulierung begonnen. Eine umfassende und globale Lösung ist jedoch noch in weiter Ferne. Die Schwierigkeiten eines solchen Unterfangens beginnen bereits bei der genauen Bestimmung des Gegenstandes und des Umfangs der beabsichtigten Regulierung. Was genau fällt alles unter den Begriff der „Autonomie“ von Waffensystemen? Sollte bereits die Entwicklung solcher Systeme beschränkt werden oder braucht es lediglich Regeln für deren Einsatz? Ist eine möglichst umfassende Regulierung das Ziel, so wäre es naheliegend, völkerrechtlich verbindlich bereits bei der Entwicklung von autonomen Waffensystemen anzusetzen, um zu verhindern, dass diese überhaupt erst zur Verfügung stehen. Allerdings setzt ein solcher Ansatz einen klar umrissenen Gegenstand voraus, welcher der konkrete Bezugspunkt der Regulierung ist.

Hierbei zeigt sich, wie schwierig es ist, pauschal von „autonomen Waffensystemen“ als eben diesem Gegenstand zu sprechen. Denn es gibt durchaus verschiedene Grade und Anwendungsformen von Autonomie in Waffensystemen. Die wenigsten Systeme handeln vollständig autonom und nicht alle teilautonomen oder autonomiegestützten Systeme sind Bedenken ausgesetzt. So werden in zahlreichen Abwehrwaffen insbesondere gegen Raketen, Marschflugkörper und Artilleriegranaten zu Land wie zu See Systeme eingesetzt, die diese anfliegenden Ziele eigenständig erkennen und bekämpfen. Eine Übernahme derselben Funktionen durch menschliche Akteure wäre wegen der längeren Reaktionszeiten und der Schnelligkeit der angreifenden Flugkörper nicht möglich. Dennoch bestehen gegen solche Systeme keine gesteigerten Bedenken, weil sie in einem eng umrissenen Kontext rein defensiv genutzt werden und aufgrund der Unbemanntheit der abzuwehrenden Flugkörper keine menschlichen Verluste fordern.

Hauptauslöser der Kritik an autonomen Waffensystemen ist vielmehr die Vorstellung der möglichen zukünftigen Verwendung vollständig autonom operierender offensiver Waffensysteme, die Angriffs- und/ oder Tötungsentscheidungen eigenständig treffen und ausführen – wie zum Beispiel einer Drohne, die in ein Zielgebiet einfliegt und dort lageabhängig selbst ein Ziel aus der Luft bekämpft, ohne dafür den übermittelten Befehl eines menschlichen Entscheidungsträgers erhalten zu haben. Entscheidend ist somit nicht das Phänomen der Autonomie an sich, sondern wie und zu welchem Zweck diese Autonomie eingesetzt werden kann. Gerade das erschwert aber die Abgrenzung des konkreten Gegenstands einer entwicklungsbezogenen Regulierung erheblich.

Treffender ist es demnach, sich verstärkt über Art und Umfang von „Autonomie in Waffensystemen“ Gedanken zu machen anstatt pauschal von „autonomen Waffensystemen“ als solchen zu sprechen, ohne hierbei hinreichend zu differenzieren. Die entscheidende Frage ist dann, welche Formen von Autonomie (un)bedenklich sind. Soll bereits die Entwicklung bestimmter „bedenklicher“ Systeme oder Systemfunktionen eingedämmt werden, so müsste man konkret bezeichnen können, was genau es ist, das diese „bedenklich“ macht. Das lässt sich jedoch nur schwerlich abstrakt erfassen. Eine völkervertragliche Regelung, die Autonomie in Waffensystemen ganz allgemein bändigen will, wird daher schon bei der Bestimmung des tauglichen Vertragsgegenstands auf Schwierigkeiten stoßen und dürfte kaum Unterstützung in der Staatenwelt finden. Damit erscheint eine Regulierung schwierig. Von dieser Warte aus betrachtet scheint es effektiver zu sein, beim Einsatz von (teil)autonomen Waffensystemen anzusetzen und zu erörtern, was genau an deren etwaigen Einsatzformen problematisch ist.

Chancen und Probleme der Regulierung des Einsatzes (teil)autonomer Waffensysteme

Fokussiert man sich im Lichte der eben geäußerten Bedenken zunächst auf die Regulierung des Einsatzes (teil)autonomer Waffensysteme, so stellt sich ebenfalls die Frage, nach welchen Kriterien zwischen „bedenklichen“ und „unbedenklichen“ Autonomievariationen in Waffensystemen zu unterscheiden ist – nur dass diese Frage diesmal unter dem Blickwinkel des Einsatzes und nicht primär der Entwicklung gestellt wird. Als Leitbild eines „bedenklichen“ Einsatzes können die bereits bestehenden Regeln des humanitären Völkerrechts herangezogen werden. Hierbei wird vielfach die Sorge geäußert, dass mit steigendem Grad an Autonomie die Einhaltung zentraler Regeln des humanitären Völkerrechts nicht mehr möglich sein werde. Dabei stehen an erster Stelle das Gebot der Differenzierung von Kombattanten und Zivilpersonen, die Identifizierung zulässiger Ziele und das Verbot unverhältnismäßiger Kollateralschäden.

Das humanitäre Völkerrecht hat sich allerdings im Lichte konventioneller Waffensysteme entwickelt. Diese konventionellen Waffen handeln gerade nicht autonom aufgrund selbst gesetzter Regeln, sondern sind bloße Werkzeuge eines entscheidungsberechtigten Anwenders. Der sie bedienende Soldat handelt als verantwortliches Subjekt im konkreten Einsatz, er selbst, sein Befehlsgeber und dessen politische Führung tragen die Verantwortung.

Das Kernproblem eines weitestgehend autonomen Systems ist demgegenüber, dass es sich im Rahmen seiner Softwareprogrammierung zumindest zu einem gewissen Grade selber Wenn-Dann-Regeln gibt, ohne in irgendeiner Weise verantwortlich sein zu können. Die gesetzte Regel ist lediglich das Ergebnis eines Rechenvorgangs, dessen Programmierung zwar durch einen Menschen vorgenommen wurde, dessen konkretes Ergebnis zum Zeitpunkt der Programmierung aber noch nicht absehbar sein kann. Es kommt zu einem Abreißen des erforderlichen Verantwortungszusammenhangs, wodurch ein solches System durchaus auch über das konventionelle humanitäre Völkerrecht hinaus als „bedenklich“ einzustufen ist. Anders als der Soldat, der die Erwägungen seines Entscheidungsvorgangs kennt, sie schildern und rechtfertigen kann und damit Verantwortung für die Einhaltung des Völkerrechts zeigt, schafft der Einsatz von (teil)autonomen Waffensystemen die Gefahr einer Verantwortungslücke. Der eigentliche Entscheidungsvorgang ist dann nämlich nur noch vom bereits vollzogenen Entscheidungsergebnis her rekonstruierbar. Eben hierin besteht der Hauptvorwurf, der gegen bestimmte autonome Waffensysteme zu erheben ist.

Da es jedoch nicht im Eigeninteresse der Staaten liegt, eine solche Verantwortungslücke künstlich herbeizuführen, erscheint es realistisch, die Staaten zumindest von einer schmalen völkervertraglichen Regelung zu überzeugen, welche die Verantwortungslücke zwischen der Entscheidung zum Einsatz eines Waffensystems durch einen menschlichen Entscheidungsträger und dem konkreten Angriff durch das Waffensystem füllt. Eine völkervertragliche Regelung könnte hierbei so ausgestaltet sein, dass sie den Einsatz von autonomen Waffensystemen nur dann erlaubt, wenn sichergestellt ist, dass eine „command responsibility“ bezüglich des konkreten Einsatzes besteht, es also einen Einsatzverantwortlichen geben muss, der sich für den jeweiligen Einsatz konkret verantwortlich zeigt. Kommt der Einsatzverantwortliche zu der Einschätzung, dass ein Einsatz nicht möglich ist, ohne die Einhaltung des humanitären Völkerrechts auf gleiche Weise wie bei menschlichen Akteuren zu garantieren, so muss der Einsatz unterbleiben oder es greifen neben den Regeln der allgemeinen Staatenverantwortlichkeit auch die Haftungsregeln des Kriegsvölkerrechts und Völkerstrafrechts. Durch diesen relativ simplen Mechanismus, der die bereits bestehenden Regeln des humanitären Völkerrechts absichert, könnte zudem auch bewirkt werden, dass schon bei der Entwicklung der Fokus auf solche Systeme gelegt wird, die von vornherein rechtlich zulässig sind.

Chancen und Probleme der Regulierung der Entwicklung von (teil)autonomen Waffensystemen

Allerdings leidet auch ein solches in erster Linie auf den Einsatz zielendes Regulierungsinstrument unter merklichen Schwächen. So ist es fraglich, ob der skizzierte Ansatz mehr bewirken kann als nur ex post-Verantwortlichkeiten zu klären. Es sollte zumindest ergänzend auch das Ziel sein, internationale, rechtsverbindliche Regeln aufzustellen, die bereits ex ante die Entwicklung von autonomen Waffensystemen verhindern, die so ausgestaltet sind, dass sie nahezu zwangsläufig das Völkerrecht verletzen würden. Der ausschließliche Fokus auf den Einsatz autonomer Waffensysteme reicht hierzu nicht aus. Vielmehr sollte ein internationales Regulativ geschaffen werden, welches auch die Entwicklung dieser Waffen einhegt und überwacht.

Ein Kernproblem von weitestgehend autonom handelnden Waffensystemen besteht darin, dass in einer Reihe typischer Problemsituationen auch der technische Fortschritt die menschliche Urteilskraft nicht ersetzen kann. Es wäre ein Trugschluss anzunehmen, dass autonome Waffen irgendwann so genau programmiert werden können, dass sie viel präziser als Menschen zwischen legitimen und illegitimen Zielen unterscheiden können. Dies wird insbesondere durch die konkrete Betrachtung möglicher Anwendungsfelder und Beispiele deutlich. In vielen Kriegskontexten sind Kombattanten und Zivilisten nur schwer unterscheidbar, da keine Uniformen getragen werden. Zivilisten werden als menschliche Schutzschilde verwendet, Kombattanten haben die Möglichkeit, sich dem Feind zu ergeben und dann kein legitimes Ziel mehr darzustellen. Kriegsgefangene stehen unter besonderem Schutz, können aber nicht immer problemlos von Kombattanten unterschieden werden. Darüber hinaus hat der auf den Einsatz autonomer Waffensysteme fokussierte Ansatz in erster Linie die „klassischen“ zwischenstaatlichen Konflikte im Blick. Allerdings werden die meisten derzeitigen bewaffneten Konflikte nicht zwischen Staaten, sondern innerstaatlich ausgetragen, meist gegen und unter Einsatz irregulärer bewaffneter Gruppen und Milizen. In solchen Konfliktsituationen wird in der Regel ohnehin nicht trennscharf zwischen Zivilisten und Kombattanten unterschieden.

Die richtige Entscheidungsfindung lässt sich demnach in den seltensten Fällen auf eine mathematische Gleichung reduzieren, sondern ist das Ergebnis eines komplexen Bewertungs- und Abwägungsprozesses. Es geht hierbei nicht um das schematische Kombinieren von Informationen, sondern um hochkomplexe Einzelfallentscheidungen. Die Fülle an Sachverhalten, die es hierbei zu bewerten gibt, lässt sich nicht ohne Weiteres in Algorithmen abbilden. Gravierende Fehler wären hierbei im wahrsten Sinne des Wortes „vorprogrammiert“. Dies bedeutet aber, dass Autonomie in Waffensystemen schon bei der Entwicklung so ausgestaltet sein muss, dass Menschen, welche über das hierzu erforderliche, praktische Urteilsvermögen verfügen, der letzte Zugriff auf Tötungsentscheidungen verbleibt („meaningful human control“).

In der Debatte um die Regulierung von autonomen Waffensystemen sollte nicht nur die Entscheidungsfindung beim Einsatz, sondern auch die mögliche Proliferation dieser Waffen in Betracht gezogen werden. Derartige Systeme müssen nicht komplex, teuer und „intelligent“ sein. Sie können potentiell auch einfach, günstig und „dumm“ sein. Dementsprechend könnten sie Teil sowohl regulärer Armeen als auch irregulärer bewaffneter Gruppen werden oder mit ihrer Autonomie sogar als Ersatz für eine irreguläre bewaffnete Gruppe dienen. Es ist sehr leicht vorstellbar, dass sich bei entsprechendem Angebot eine Regierung oder ein „Warlord“ in einem Bürgerkrieg mit billigen autonomen Waffen ausstattet, um die Chancen auf einen Sieg zu steigern. Autonome Waffensysteme können ähnlich eingesetzt werden wie Milizen, erschweren auf ähnliche Weise die Herstellung eines Zurechnungszusammenhangs, sind frei von menschlichen Skrupeln, etwa bei der Durchführung sogenannter Säuberungen und sind auf lange Sicht viel kostengünstiger. Potentiell könnte dies „Genozid leichtgemacht“ bedeuten. Ähnliche Erwägungen greifen für die Gefahr der Nutzung weitestgehend autonomer Systeme durch terroristische Gruppierungen.

Die hier nur grob skizzierten Problemfelder machen deutlich, dass eine Einbindung der Entwicklung autonomer Waffen in eine völkervertragliche Reglementierung insbesondere als Prävention potentiellen Missbrauchs autonomer Waffensysteme wichtig ist. Es wäre schlicht fahrlässig, bei der Entwicklung neuer Waffen oder Waffenarten nicht auch zukünftige, unerwartete Auswirkungen im Auge zu behalten. Der erste Schritt, um den Missbrauch und die Proliferation autonomer Waffen von Beginn an zu kontrollieren ist demnach auch die Regulierung und Einhegung ihrer Entwicklung.

Dies kann beispielsweise durch international verbindliche Grenzen der technischen Umsetzung von Autonomie in einzelnen Waffensystemen geschehen. Ziel sollte sein, Missbrauch und Proliferation nicht nur als unausweichliche Nebenfolgen zu betrachten, deren Auswirkungen ex post durch einen Bann bestimmter autonomer Waffen nachträglich gemindert werden. Vielmehr sollten vorbeugend Regeln geschaffen werden, welche das Ziel verfolgen, Missbrauch schon im Vorfeld so weit wie möglich zu verhindern.

Schlussbetrachtung

Die internationale Gemeinschaft hat derzeit eine historische Chance, in einem relativ frühen Stadium der Entwicklung einer neuen, höchst kontroversen und potentiell bedrohlichen Waffenart nicht nur die Vorteile, sondern gerade auch die möglichen und oft nicht intendierten negativen Auswirkungen zu betrachten. Internationale Verhandlungen sollten hierbei alle Formen völkerrechtlicher Vereinbarungen erwägen und offen sein für alle Dimensionen der Debatte. Eine Regulierung, die sich von vornherein auf einen Minimalkonsens beschränkt, droht hierbei die einmalige Gelegenheit zu verpassen, möglichen Fehlentwicklungen schon im Vorhinein Einhalt zu gebieten.

Der Arbeitskreis „Junge Sicherheitspolitiker“ wurde im April 2015 gemeinsam durch die BAKS und den Freundeskreis der BAKS gegründet. Ein Ziel dieses Nachwuchsnetzwerkes ist die Förderung des Austausches zwischen angehenden Führungskräften aus Politik, Wissenschaft, öffentlicher Verwaltung, Wirtschaft, Kirche und Bundeswehr über sicherheitspolitische Themen.

Copyright: Bundesakademie für Sicherheitspolitik | ISSN 2366-0805 Seite 1/4

 

Arbeitspapier Thema: 
Autonome Waffensysteme
Rüstungskontrolle
Rüstungstechnologie
Region: 
Deutschland
Schlagworte: 
Deutschland
Autonome Waffensysteme
Arbeitskreis „Junge Sicherheitspolitiker
Rüstungstechnologie
Rüstungskontrolle