Weltweiter Widerstand gegen Killer Roboter

Internationale Konferenz fordert verbindliches Verbot autonomer Waffensysteme

Aktion der Kampagne gegen Killer Roboter vor dem Brandenburger Tor, Foto: Ralf Schlesener

Vom 21. bis zum 23. März 2019 haben sich in Berlin internationale Teilnehmer*innen einer Konferenz zum Verbot von Killer Robotern getroffen. Diese Bezeichnung für autonome Waffensysteme klingt im ersten Moment nach Science Fiction – doch leider ist sie es nicht. Bereits jetzt werden automatisierte Waffen in Kriegen getestet und an Grenzen eingesetzt. Noch ist die Entwicklung nicht abgeschlossen. Deshalb fordert die Initiative „Campaign to Stop Killer Robots“ eine internationale Ächtung, noch bevor die neuen Tötungsmaschinen sich weltweit verbreiten.

Autonome Waffensysteme können selbstständig töten. Mit dem Einsatz von künstlicher Intelligenz suchen sie eigenständig ein Ziel, verfolgen es und attackieren ohne menschliche Entscheidung anhand von Algorithmen und durch neuronales Lernen. Das Töten von Menschen geschieht dann vollständig autonom. Noch sind die eingesetzten Waffensysteme nicht komplett eigenständig. Doch bereits jetzt gibt es mehr als 130 militärische Systeme, die autonom, d.h. ohne menschlichen Eingriff, eine Zielperson suchen und verfolgen können. Die endgültige Entscheidung über das Töten geschieht noch durch Menschen.

Warum müssen autonome Waffensysteme getrennt von bereits existierenden Waffen betrachtet werden? Was macht sie besonders gefährlich und warum müssen sie international verboten werden? Mit diesen Fragen beschäftigten sich die Teilnehmer*innen und Redner*innen der Konferenz. Sie gingen rechtlichen, moralischen und technologischen Fragen nach.

Rasha Abdul Rahim, stellvertretende Generaldirektorin für den Bereich Technologie und Menschenrechte bei Amnesty International, machte die Menschenrechtsprobleme autonomer Waffen deutlich. Diese beschleunigen Menschenrechtsverletzungen. Sie sind ein zusätzliches System zum Töten, das zudem auf dem Sammeln von Daten basiert. Kombiniert mit dem Lernen anhand neuronaler Netze werden so die Entscheidungsprozesse der Maschinen immer schwerer nachzuvollziehen. Killer Roboter bedrohten das Recht auf Leben: Töten ist demnach, so Abdul Rahim, nur dann rechtmäßig, wenn damit menschliches Leben beschützt wird. Die Entscheidung darüber ist komplex und kann von Maschinen nicht getroffen werden. Polizisten durchlaufen komplizierte Trainings, um solche Abwägungen zu treffen und sind verpflichtet, nicht gewalttätige Methoden vorzuziehen. Auch das Versammlungsrecht wird bedroht, weil Roboter beispielsweise gegen Demonstrationen eingesetzt werden können – Geräte für diesen Einsatz werden bereits jetzt von Herstellern beworben.

Matthew Griechen (Harward Law School) und Rasha Abdul Rahim (Amnesty International) (v.l.n.r.), Foto: Ralf Schlesener

Autonome Waffen sind zudem fehleranfällig. Schon jetzt nutzt das US-Militär im Drohnenkrieg künstliche Intelligenz und tötet auf Grundlage von Algorithmen. Bei der Operation Haymaker waren in den Jahren 2012 und 2013 fast 90 Prozent der Drohnenopfer keine vorher festgelegten Zielpersonen. Die Auswahl der Angegriffenen basierte u.a. auf Handy-Bewegungsdaten. Doch auch, wenn diese Fehler zumindest teilweise gelöst werden könnten, sind autonome Waffen inakzeptabel. Sie sind nicht mit den Prinzipien des humanitären Völkerrechts vereinbar, da sie ohne menschliche Kontrolle töten.

Eine feministische Sicht auf die Gefahren autonomer Waffensysteme brachte Ray Acheson ein. Die Direktorin des Abrüstungsprogramm der Women’s International League for Peace and Freedom (WILPF) beleuchtete, wie autonome Waffen gruppenbezogene Diskriminierung fortführen und verstärken – mit tödlichen Folgen. Es werden geschlechterbasierte Rollenbilder reproduziert, vor allem die Verbindung von Männlichkeit und Waffen. Das Konzept männlicher Gewalt zeigt sich beispielsweise in der umgangssprachlichen Benennung von Drohnen durch Soldat*innen: Sky Raper. Geschlechterbasierte Gewalt schlägt sich auch in der Programmierung autonomer Waffensysteme nieder, die beispielsweise wehrfähige Männer als bevorzugtes Zielobjekt erkennen. Die Diskriminierung endet jedoch nicht beim Geschlecht: auch Hinweise auf die ethische Herkunft oder die sexuelle Identität können einfließen. Afroamerikaner*innen sind stark überdurchschnittlich häufig Opfer von Polizeigewalt in den USA.

Computerprogramme entscheiden aufgrund von historischen Daten und menschlicher Programmierung. So sind People of Color besonders durch autonome Waffensysteme gefährdet, ebenso wie beispielsweise Transgender: Aktuelle Algorithmen erkennen Männer, die sich als Frauen verkleiden als potentielle Gefahr. Kurz: autonome Waffen verstärken bestehende Ungleichheiten.

Ray Acheson (Women’s International League for Peace and Freedom – WILPF), Foto: Ralf Schlesener

Matthew Griechen von der Harward Law School ging auf rechtliche Fragen ein. Killer Roboter können nicht sicher zwischen Zivilist*innen und Militär unterscheiden. Sie sind nicht in der Lage, nach den Prinzipien der Menschlichkeit zu handeln, die auch dann noch greifen, wenn andere Regeln im Krieg verloren gehen. Menschen handeln auch anhand von Gefühlen, sie erkennen den Wert eines Lebens, Maschinen können das nicht. Ihnen fehlt das Bewusstsein darüber, was ein Verbrechen ist.

Auch aus ethisch-moralischer Sicht werfen Killer Roboter große Probleme auf. Das zeigte Peter Asaro vom International Committee for Robot Arms Control (ICRAC) auf. Computerprogramme sind nicht in der Lage, moralische Entscheidungen zu treffen. Befürworter*innen autonomer Waffen argumentieren, diese würden Menschenleben retten, sowohl die von Soldat*innen als auch von Zivilist*innen. Roboter würden nicht müde oder wütend. Die Realität ist aber bereits jetzt eine andere. Drohnen haben zu mehr Bombardierungen geführt. Es wird leichter, in einen Krieg zu ziehen.

Peter Asaro (International Committee for Robot Arms Control – ICRAC), Foto: Ralf Schlesener

Autonome Waffensysteme sind eine neue Stufe tödlicher Eskalation. Geschieht das Töten vollständig aufgrund von Algorithmen, führt das zu einer Verantwortungslosigkeit in Politik und Militär: Wer ist für die Toten einer solchen Kriegsführung verantwortlich? Weil die Systeme zwar noch eingesetzt werden müssen, dann aber selbstständig agieren, wird das immer unklarer. Die Hemmschwelle für das Töten sinkt ebenso wie die Hemmschwelle, Kriege zu führen. Frieden und Sicherheit werden davon bedroht und es besteht die Gefahr einer internationalen Destabilisierung.

Die Kampagne ruft zu einer internationalen völkerrechtlichen Ächtung automatisierter Waffensysteme auf. Eine unverbindliche Absichtserklärung, wie sie derzeit von Deutschland und Frankreich diskutiert werde, reiche nicht aus. „Gerade die Länder, die Waffen mit autonomen Fähigkeiten haben, diese (weiter-) entwickeln oder diese zukünftig beschaffen wollen – und dazu gehört auch Deutschland – verhindern eine so dringend benötigte Weiterentwicklung des internationalen Völkerrechts, um ein Verbot vollautonomer Waffen sicherzustellen“, so Thomas Küchenmeister von Facing Finance und Sprecher der Kampagne in Deutschland. Unterstützung für ein Verbot gibt es aus verschiedenen Bereichen: Mehr als 4.500 Expert*innen aus dem Bereich der künstlichen Intelligenz unterstützen die Kampagne ebenso wie einige Staaten. In Deutschland sprechen sich außerdem 72% der Befragten für ein Verbot autonomer Waffen aus.

Dominik Kordt studiert Politikwissenschaft. Er hat die Konferenz im Rahmen eines Praktikums bei der IPPNW besucht.

Video der Kampagne zur Anwendung autonomer Waffensysteme:

Mehr Informationen auf der Homepage der Kampagne