Bewaffnete Drohnen als Einstieg?
Entscheiden bald autonome Kampfmaschinen über
Leben und Tod?
Gastbeitrag von Andreas Dawidzinski
Die Streitkräfte setzen schon lange auf
Hochtechnologie. Waffensysteme, die, wenn sie aktiviert sind,
automatisch feuern - ohne zutun der Soldaten - gibt es bereits. Zum
Beispiel das Aegis-Raketenabwehr-System auf US-Kriegsschiffen, oder
aber das zurzeit in der Türkei stationierte Luftabwehrsystem
Patriot der Bundeswehr, das anfliegende Raketen abwehren soll.
Diese Waffen dienen lediglich zur Verteidigung. Sie werden daher von
Rüstungskritikern und Vertretern von
Nichtregierungsorganisationen auch nicht zur Disposition
gestellt. Bedenklich gehalten wird aber eine in der
Öffentlichkeit kaum zur Kenntnis genommene Entwicklung von
autonomen Offensiv-Systemen. Beispielsweise Drohnen, die ihre Ziele
selbständig suchen, und anschließend sofort
bekämpfen können.
Der Physiker Jürgen Altmann vom International Committee for
Robot Arms Control ICRAC:
O-Ton
Altmann
„Wir möchten gerne autonomes Angreifen komplett
verbieten. Vor allem wegen der Grundsatzfrage, soll man Maschinen
überhaupt erlauben, Menschen zu töten. Und auf der
zweiten Ebene müssen für die nicht autonom
angreifenden [Systeme], die ferngesteuert angreifen würden,
- für die müssten in jedem Fall
Beschränkungen eingeführt werden."
Noch gibt es diese autonomen bewaffneten Offensivsysteme
nicht. Doch es wird daran gearbeitet, vor allem in den USA. Zugleich
wird sich dort bereits mit den möglichen Folgen
auseinandergesetzt. Eine solche Diskussion findet in Deutschland
allerdings nicht statt, kritisiert Niklas Schörnig von der
Hessischen Stiftung Friedens- und Konfliktforschung:
O-Ton
Schörnig
„Die amerikanische Direktive 3000.09 des Pentagon setzt sich
mit der Frage auseinander, was Autonomie sein kann auf dem Schlachtfeld
und legt gleichzeitig für die nächsten zehn Jahre
fest, dass in den USA zumindest immer eine menschliche Kontrolle
über einen Waffeneinsatz gewährleistet sein soll. Das
bedeutet nicht, dass man nicht an dem System forscht, das den Menschen
ersetzen kann. D.h. nicht, dass man in zehn Jahren anders
darüber nachdenken könnte. Aber zumindestens ist es
für die Diskussion ein Ansatz, sich a) mit den Definitionen,
was verstehen die USA unter autonomen Handeln, auseinanderzusetzen ,
und b) auch mit der Frage, wie stark muss der menschliche
Einsatz beim Waffeneinsatz bleiben. Ich würde mir
wünschen, dass wir so eine Vorlage, an der wir uns
abarbeiten könnten, auch von der deutschen Bundesregierung
bekämen.“
So ein Papier gibt es allerdings in Deutschland nicht.
Dabei prüft das Verteidigungsministerium zurzeit, ob die
Bundeswehr mit Drohnen ausgestattet werden soll, die sich auch
bewaffnen lassen. Weitere Modernisierungsschritte könnten
folgen. Denn die unbemannten Luftfahrzeuge lassen sich aus Sicht
der Militärs noch weiter
optimieren. Frank Sauer, Mitarbeiter der Münchner
Bundeswehr-Universität:
O-Ton
Sauer
„Wenn ich die Steuerungs- und Kommunikationsverbindung mit
dem System nicht mehr permanent aufrechterhalten muss, beispielsweise
über einen Satelliten, dann hat das mehrere Vorteile. Denn so
eine Verbindung ist störungsanfällig. Der Eurohawk
hat ja mehrmals die Verbindung zum Satelliten verloren, als er von den
USA nach Europa überflogen wurde. Und es ist
natürlich so, dass die Latenzen wegfallen, also die
Zeitverzögerung, die eben dadurch eintritt, dass das vom
Menschen ausgelöste Steuerungssignal zur Drohne geschickt
werden muss. Die Drohne muss reagieren, dann sieht der Mensch, was
passiert. All diese Dinge würden wegfallen. Taktisch gesehen
gibt es durchaus einen wertvollen Zeitgewinn dadurch, dass
dieses System handelt und entscheidet."
Bundesregierung und auch die Bundeswehr
bekräftigen zwar, dass beim Waffeneinsatz immer der
Mensch die letzte Entscheidung über Tod und Leben haben wird.
Doch der gleichzeitige Wunsch nach mehr Effizienz der Waffensysteme
könnte genau das Gegenteil bewirken. Zu diesem Schluss kommt
der hessische Konfliktforscher Niklas Schörnig:
O-Ton
Schörnig
„Wenn man sich mit Militärs unterhält, wird
immer wieder, teilweise auch recht schwärmerisch, von den
zukünftigen Leistungsfähigkeiten unbemannter Systeme
gesprochen. Da wird dann gesagt, die können extrem wendige
Manöver fliegen. Die können Sachen machen, die kein
bemannter Jet machen kann, weil der Pilot dann das Bewusstsein
verliert. Auf der anderen Seite wird dann gesagt, wir wollen den
Menschen in der Entscheidungsschleife halten. Für mich passt
das nicht zusammen, weil die Systeme aktuell ferngesteuert werden. Das
Signal läuft über Satellit. Man hat zwischen
Steuerimpuls und Reaktion des Systems dann eine Verzögerung
von zwei Sekunden. Und wenn ich diese Verzögerung
einkalkuliere, kann ich die technischen Möglichkeiten, die
hervorgestellt werden, überhaupt nicht ausnutzen. Um diese
Technologie wirklich ausnutzen zu können, kann der Mensch
nicht mehr in der Schleife bleiben.“
Wenn künftig aber komplexe Waffensysteme
selbständig über die Bekämpfung von Zielen
entscheiden sollten, stellen sich viele Fragen. Ethische aber auch
rechtliche. In einem bewaffneten Konflikt müsste beim
Waffeneinsatz beispielsweise das Prinzip der
Verhältnismäßigkeit beachtet werden. Das
autonome Waffensystem müsste abwägen, in welchem
Umfang bei einem Angriff auch zivile Opfer in Kauf genommen werden
können. Der Gießener Völkerrechtler Thilo
Marauhn ist skeptisch:
O-Ton
Marauhn
„Im Recht des bewaffneten Konflikts kommt es darauf an, ob
der konkrete und unmittelbare militärische Vorteil
außer Verhältnis zu den Nebenfolgen des Angriffs
steht. Wenn man das programmieren will, dann ist das nicht ganz so
einfach, jedenfalls nach meiner Einschätzung. Es
dürfte also relativ schwierig sein, so etwas in einen
Algorithmus zu übersetzen. Es ist jedenfalls schwer, zu
programmieren.“
Trotz des technischen Fortschritts ist es offenbar
schwierig für Sensoren, zwischen Kombattanten und Zivilisten
zu unterscheiden. Gerade in asymmetrischen Konflikten tauchen
Aufständische nach Kampfhandlungen aber immer wieder in der
Bevölkerung unter, sind dann äußerlich von
Zivilisten kaum zu unterscheiden. Vor diesem Hintergrund haben die
US-Streitkräfte bereits jetzt Konsequenzen gezogen,
sagt Thilo Marauhn:
O-Ton
Marauhn
„Die US-amerikanischen Streitkräfte haben eine
militärische Dienstvorschrift, die vorsieht, dass autonome
Waffensysteme nur gegen militärische Objekte eingesetzt werden
dürfen, nicht aber gegen Kombattanten, also nicht gegen
Menschen, sondern nur gegen Gegenstände... Das dürfte
vor allem damit zusammenhängen, dass es für ein
autonomes System schwieriger ist, zwischen einem Kombattanten und einer
Zivilperson zu unterscheiden als zwischen einem zivilen Objekt und
einem militärischen Objekt.“
Autonome Waffensysteme werden noch viel stärker
von der Software abhängig sein als die bisherigen
Technologien. Und damit werden sie zugleich verwundbarer -
durch Hackerangriffe. Denn schon jetzt zeigt sich, dass es bei fast
jeder Software immer wieder Lücken und Fehler gibt. Bei
autonomen Waffensystemen und weiterentwickelten Drohnen wird das nicht
anders sein. Marcel Dickow von der Stiftung Wissenschaft und Politik:
O-Ton
Dickow
„Das macht Robotik auf eine besondere Weise angreifbar und
führt möglicherweise dazu, sich Gegner von
robotischen Armeen, auf eine Strategie verlegen, diese Systeme digital
anzugreifen.“
Vor zwei Jahren landete beispielsweise eine
über Afghanistan eingesetzte hochmoderne
Sentinel-Aufklärungsdrohne der USA im Iran. Teheran behauptet,
das unbemannte Luftfahrzeug gekapert und die Kontrolle über
die Drohne übernommen zu haben.
Für Technikexperten gibt es einen nicht mehr zu stoppenden
Trend hin zu autonomen Systemen, die auch lernen können.
Haupttriebkraft ist der zivile Bereich. Industrieroboter werden immer
weiter verbessert, sie können immer mehr. Experimentiert wird
zudem mit selbständig fahrenden autonomen Autos.
Alles Systeme, die den Menschen entlasten und ihn unterstützen
sollen. Die Streitkräfte versuchen, sich diese technologischen
Fortschritte für ihre Zwecke zu nutzen –
für den Kampf.
Ein internationales Verbot bewaffneter Drohnen durchzusetzen, wird von
vielen Rüstungskennern inzwischen für unrealistisch
gehalten. Dieser Zug ist längst abgefahren, ist zu
hören. Stattdessen wird von
Nichtregierungsorganisationen auf die Ächtung autonomer
Drohnen und Waffensysteme gesetzt. Jürgen Altmann vom
International Committee for Robot Arms Control ICRAC ist
zuversichtlich, und verweist auf eine UN-Expertenkonferenz im
vergangenen Monat in Genf:
O-Ton
Altmann
„Dort hat es große Betroffenheit gegeben
– bei vielen Ländern. 87 Länder waren
anwesend. Einige haben sich schon für ein Verbot autonomer
Angriffe ausgesprochen. Eine große Zahl anderer Staaten hat
gesagt, wir sehen da ein Problem, und wir müssen uns genauer
informieren und Gedanken machen, was da passieren
sollte.“
Marcel Dickow von der Berliner Stiftung Wissenschaft und
Politik ist nicht ganz so optimistisch. Er plädiert
für einen anderen Ansatz:
O-Ton
Dickow
„Was ich mir vorstellen könnte, ist, dass man
bestimmte autonome Funktionen verbietet. Plausibel ist ein Verbot, wenn
eine Maschine autonom zu einer Tötungsentscheidung kommt oder
zu einer Entscheidung kommt, militärische Gewalt einzusetzen.
Ich denke, das ist die rote Linie, die wir ziehen sollten."
Der Konfliktforscher Niklas Schörnig
hält es für wichtig, bereits jetzt
entsprechende Pflöcke einzuschlagen, um einen
Rüstungsschub durch autonome Waffensysteme zu verhindern. Er
verweist dabei auf die aktuelle Debatte über die Beschaffung
von bewaffneten Drohnen für die Bundeswehr. Um autonome
Systeme zu ächten, würde er auch
Zugeständnisse machen:
O-Ton
Schörnig
„Ich glaube, dass angesichts der Tatsache, dass das Argument
des Schutzes der eigenen Soldaten gerade in demokratischen Staaten ein
gutes Argument ist, und angesichts der Tatsache, dass die Systeme schon
etabliert sind, und ein internationales Verbot bewaffneter
ferngesteuerter Drohnen nicht mehr durchsetzbar ist. Es wäre
in meinen Augen in Ordnung, bewaffnete ferngesteuerte Systeme zu
beschaffen, wenn gleichzeitig, a) sichergestellt wird, dass sie nur in
einem sehr engen Einsatzbereich, nämlich zum Schutz,
eingesetzt werden, und gleichzeitig, alles unternommen wird, um auch
andere Staaten daran zu hindern, sie offensiv in anderen Szenarien
einzusetzen - auch gegen die eigene Bevölkerung.
Zusätzlich müsste außerdem sichergestellt
werden, dass der Trend hin zur Autonomie, jetzt wo er noch stoppbar
ist, unterbunden wird."
Eine Folge des Einsatzes bewaffneter Drohnen, ob autonom
oder nicht, könnte aber sein, dass die Politik bei
internationalen Konflikten künftig öfter als bisher
auf militärische Instrumente bei internationalen Konflikten
zurückgreift. Die Hemmschwelle, Gewalt anzuwenden,
könnte sinken. Der Rüstungsexperte Niklas
Schörnig:
O-Ton
Schörnig
„Grundsätzlich gilt, wenn ich die Kosten reduzieren
kann, werden bei gleichen Erfolgen, gleichen Gewinnen, mehr
Einsätze führbar, mehr Einsätze dann
interessant. Dieses Argument gilt meines Erachtens für alle
Staaten, für alle Politiker, die diese Abwägung
treffen, das heißt nicht, dass es zu einer
Zwangsläufigkeit kommen muss, aber über die Bank
hinweg würde ich eine politische Enthemmung deutlich eher
erwarten, als auf der militärischen Ebene.“
Die Entwicklung könnte nur verhindert werden,
wenn sich die Abgeordneten künftig kritischer als bisher mit
Auslandseinsätzen auseinandersetzen. Denn mittlerweile kann
man den Eindruck haben, dass eine intensive Prüfung im
Parlament nicht mehr stattfindet, sondern Einsätze nur noch
abgenickt werden.
Die Zustimmung des Bundestages zu Auslandsmissionen ist inzwischen
Routine. Die Entsendung von Soldaten in bewaffnete Konflikte sollte
allerdings immer eine Ausnahme bleiben und nie der Normalfall werden.

Andreas Dawidzinski ist freier
Journalist.
|