|
||||||||
|
Hinweis: | |
Hier können Sie die Tonfassung
finden |
Heute geht
in Genf eine Konferenz der Vereinten Nationen zu Ende, deren Thema nach
Science Fiction klingt. Es geht um die Gefahr von Killerrobotern oder
wissenschaftlich korrekt, tödliche autonome Waffensysteme. Bei
bewaffneten Drohnen ist es ja so, dass immer noch ein Mensch am
Steuerknüppel über Leben und Tod entscheidet, wenn
auch Tausende Kilometer entfernt. Killerroboter würden als
Waffe programmiert werden und dann allein arbeiten. Noch gibt es sie
zwar nicht, aber Menschenrechtsorganisationen und Wissenschaftler
schlagen trotzdem schon seit Langem Alarm. Am Telefon ist jetzt dazu
Otfried Nassauer, Leiter des Informationszentrums für
Transatlantische Sicherheit und Mitglied im Internationalen Komitee zur
Kontrolle vollautonomer Waffensysteme. Guten Morgen, Herr Nassauer!
Otfried Nassauer: Schönen guten Morgen, Herr Hatting!
Hatting: Worauf
könnte denn so ein Roboter programmiert werden?
Nassauer: Der kann auf Verschiedenes programmiert werden, zum Beispiel,
dass er wie eine Drohne aus der Luft Ziele am Boden
beschießt. Er kann aber auch darauf programmiert werden, dass
beispielsweise ein automatisiertes Grenzschutzsystem entwickelt wird,
das also dazu dient, eine Grenze zu überwachen. Das
heißt, am Boden wird ein Fahrzeug entwickelt, das autonom
Grenzen überwacht, und wenn einer illegal diese Grenze
überschreitet, feststellen kann, ob das ein Mensch ist, kann
versuchen, den zu stoppen mit Anruf und mit Warnschuss, aber er kann
ihn auch bekämpfen. Das Gleiche kann ich in ein Kriegsfahrzeug
einbauen, und bei Schiffen ist es ähnlich.
Hatting: Und wie könnte zum Beispiel so ein Grenzroboter, den
Sie angesprochen haben, eine Katze von einem Menschen unterscheiden?
Nassauer: Ganz einfach über seine verschiedenen Sensoren und
über die zu fordernden Reaktionen. Da kann man zum Beispiel
Kameras verschiedener Art einbauen, da kann man beispielsweise
Infrarotgläser und andere Sensoren einbauen. Das
müssen Sie sich vorstellen wie noch ein bisschen
weiterentwickelt das, was vorgestellt worden ist, nämlich ein
erstes, praktisch selbstfahrendes Fahrzeug, das schon Fahrradfahrern
ausweichen kann, Fußgängern ausweichen kann, Kindern
ausweichen kann et cetera.
Schwierige Grenze zwischen Legalität und Illegalität
Hatting: Und kann
so ein System auch spielend dann einen Feind von einem Freund
unterscheiden, also einen legalen Grenzübertritt von einem
illegalen?
Nassauer: Das wird schon schwieriger. Da ist die Frage, wie baut man
entsprechende Abgrenzungen ein. Die Frage, ob das irrtumsfrei oder eben
nicht irrtumsfrei passieren wird, das ist der Punkt, über den
die Wissenschaft streitet, weil sie nämlich schlicht und
einfach befürchtet, dass man nicht so gut programmieren kann.
Dass das Ziel erreicht wird, dass der Roboter es besser macht als der
Mensch, der ja im Straßenverkehr zum Beispiel oft die
Unfallursache ist.
Hatting: Wie weit ist die Forschung aktuell eigentlich?
Nassauer: Zurzeit gibt es noch überhaupt keine letal
bewaffneten autonomen Systeme. Wir sind auf dem Weg, halbautonome
Systeme zu schaffen. Drohnen beispielsweise verlangen ja immer noch,
dass ein Operateur irgendwo am Boden sitzt und dafür sorgt,
dass das Ziel identifiziert und entschieden wird, ob das Ziel
bekämpft wird. Dabei kann man auch schön sehen, an
den zivilen Opfern, die entstehen, dass der Mensch auch irrt. Aber im
Moment gibt es das noch nicht. Wir befinden uns in vielen Bereichen im
Bereich der Grundlagenforschung und in einzelnen Bereichen auch im
Bereich der Anwendungsforschung.
Hatting: Und wer forscht da überhaupt, oder in wessen Auftrag
wird geforscht?
Nassauer: Ganz viel ist das in der Tat Militär- und
Sicherheitsindustrie, aber es gibt natürlich auch Firmen, die
im zivilen Bereich - ich erwähnte das selbstfahrende Auto -
Anwendungen erforschen für die Robotik, die dann den Menschen
als Akteur überflüssig machen könnten.
"Inhumane Waffen noch vor Einführung verbieten"
Hatting: Diese
UN-Konferenz berät also über etwas, das es so noch
nicht gibt. Sollte man trotzdem so schnell wie möglich
vollautomatische Waffensysteme verbieten?
Nassauer: Ich halte die Idee im Grundsatz für gut, weil es ja
tatsächlich ein Fortschritt wäre, wenn wir uns in der
Menschheit mal darauf einigen könnten, dass besonders riskante
Waffentechnologien verboten werden, bevor sie überhaupt
eingeführt werden. Also, das wäre auch für
besonders inhumane Waffensysteme wie zum Beispiel Atomwaffen eine Idee
gewesen.
Von daher ist das erst mal eine richtige und
vernünftige Idee, die auch eine gewisse Chance hat. Wir haben
ja schon gesehen, dass es internationale Konventionen gibt wie zum
Beispiel gegen Landminen und Streumunition, wo bestimmte
Waffenkategorien deswegen verboten werden, weil sie zum Beispiel nicht
zwischen zivilen und militärischen Zielen ausreichend
unterscheiden können. Das könnte man hier auch bei
den autonomen Systemen sich denken.
Hatting: Wer würde eigentlich völkerrechtlich
dafür belangt werden können, wenn solch ein Roboter
den Falschen erschießt? Das Land, in dessen Auftrag er
arbeitet, oder die Firma, die ihn programmiert hat?
Nassauer: Das ist eine gute Frage. Auch das stellt sich also quasi als
haftungsrechtliche Frage natürlich noch mal. Darüber
weiß heute keiner Bescheid. Eigentlich kann man nur das Land,
das diesen Roboter einsetzt, verantwortlich machen, und das Land kann
versuchen, seinen Hersteller verantwortlich machen für den
Fall, dass der tatsächlich was falsch programmiert hat.
"Gewaltige Veränderungen am Völkerrecht
wären nötig"
Hatting:
Müsste man dafür das Völkerrecht
modernisieren, anpassen für so einen Fall?
Nassauer: Mit dem heutigen Völkerrecht würde das
ganz, ganz schwer zusammenpassen, und in der Tat, es müsste
gewaltige Änderungen am Völkerrecht geben, weil da ja
immer davon ausgegangen wird, dass es verantwortliche Menschen gibt,
die ich zum Beispiel vor den Internationalen Strafgerichtshof bestellen
kann. Aber das ist hier bei einem Roboter natürlich nicht
gegeben.
Hatting: Erwarten Sie eigentlich, dass heute auf der Ebene der
Vereinten Nationen zumindest ein solches präventives Verbot
beschlossen wird, also ein Verbot von einer Sache, die es noch gar
nicht gibt?
Nassauer: Nein, keinesfalls. Denn die Konferenz, die in Genf im Moment
stattfindet, ist ja eine allererste Expertenkonferenz, die sich klar
machen sollen, was muss da eigentlich an Definitionen festgelegt
werden? Wollen wir was verbieten, wollen wir doch gar nichts verbieten?
Und insofern ist das eine Vorstufe für internationale
Verhandlungen, die dann darauf folgen sollen. Und wenn man aus der
Vergangenheit Schlussfolgerungen zieht, dann werden nicht alle Staaten
mitziehen wollen, einen solchen Vertrag jetzt auszuarbeiten, weil es
immer Staaten gibt, die sagen, nee, uns ist diese technologische
Entwicklungslinie besonders wichtig, wir wollen nichts verbieten, was
in der Zukunft noch mal nützlich werden
könnte…
USA setzen auf technologischen Fortschritt
Hatting: Welche zum Beispiel?
Nassauer: In der Vergangenheit waren das relativ oft die
Vereinigten Staaten von Amerika, weil das auch logisch ist, technisch
führende Staaten, die auf dem Wege zu irgendeiner
Fähigkeit schon besonders weit sind, die sind
natürlich geneigter zu sagen, nee, nee, das lassen wir nicht
verbieten, als diejenigen, die noch gar nicht angefangen haben.
Hatting: Otfried Nassauer, Leiter des Informationszentrums für
Transatlantische Sicherheit und Mitglied im Internationalen Komitee zur
Kontrolle vollautonomer Waffensysteme. Herzlichen Dank für das
Gespräch!
Nassauer: Auf Wiederhören nach Berlin
ist freier Journalist und leitet das Berliner Informationszentrum für Transatlantische Sicherheit - BITS
Neuigkeiten | Daten&Archive | Bits bei der Arbeit | Kalender |
Publikationen | Projekte | Netzwerke | Links |