Am 14. April veröffentlichte Dmitri Rogosin, einer der stellvertretenden Ministerpräsidenten Russlands, ein Video, welches einen humanoiden Kriegsroboter zeigt. Dies bedeutet einen erneuten Schritt in Richtung vollautonomer Waffensysteme. Trotz massiver Kritik wird die Technologie weiter vorangetrieben.

In einem am 14. April veröffentlichten Video des russischen stellvertretenden Ministerpräsidenten Dimitri Rogosin ist ein humanoider Killerroboter wie aus dem Film „Terminator“ zu sehen. Dem russischen Militär ist damit ein weiterer, wenn auch nach Expertenmeinung nicht maßgeblicher, Schritt in Richtung vollautonomer Kriegsmaschinen geglückt. Ein Entwicklungsstopp konnte trotz moralischer und rechtlicher Bedenken nie durchgesetzt werden. Seit Jahren bemängeln Kritiker, dass emotions- und verantwortungslose Roboter Entscheidungsgewalt über Menschenleben gegeben würde.

Autonome Waffensysteme

Bei vollautonomen Waffensystemen handelt es sich um Roboter, welche keinen „Menschen in der Schleife“ haben, welche also, nach der Programmierung, vollkommen selbstständig handeln können. Zum jetzigen Zeitpunkt existieren solche Geräte noch nicht. Wie das Beispiel des russischen Roboters zeigt, wird jedoch weiterhin an solchen Technologien geforscht. Autonome Waffensysteme könnten sowohl beim Militär als auch bei der Polizei eingesetzt werden. Sie sollen vor allem dazu dienen, Menschen aus Gefahrensituationen, wie z.B. Kampfeinsätzen oder Schießereien rauszuhalten. Tötungsaufträge an Maschinen zu delegieren bringt jedoch erhebliche moralische und rechtliche Probleme mit sich.

Probleme und Risiken

Ein Hauptgrund warum Menschen gegenseitig aufeinander Rücksicht nehmen ist, weil sie sich in ihrem Gegenüber selbst erkennen. Dies wird Mitgefühl genannt und ist prägend für das menschliche Miteinander. Fehlt einem Menschen dieses Empathievermögen, so spricht man von einem Psychopathen. Es handelt sich hierbei also um Menschen mit einer psychischen Erkrankung, von denen einige zu schweren Gewalttaten fähig sind. Militärische Roboter sind nicht auf Empathie programmiert. Im Falle von autonomen Waffensystemen würden gefühlslose Maschinen die Befugnis erhalten, über Leben und Tot von Menschen zu entscheiden – ohne Emotionen wie Reue oder Anteilnahme.

Doch es gibt auch noch andere, eher technische Probleme. In einer Welt mit unendlich vielen potentiell möglichen Szenarien ist es schier unmöglich, jede Situation vorher zu programmieren. Autonome Systeme wären zwar in der Lage selbstständig zu lernen und gewissermaßen Erfahrung zu sammeln, allerdings ist es zweifelhaft, dass sie in der Lage wären, in jeder Situation die teils fatalen Konsequenzen richtig einzuschätzen.

Ein Einwand, der häufig von Befürwortern angebracht wird ist, dass durch den Einsatz von Kriegsrobotern die Gefahr für Soldaten minimiert wird. Hier wird jedoch ein wichtiger Aspekt übersehen. Genau diese vermeintlich sichere Lösung führt dazu, dass es häufiger zu Kampfeinsätzen kommt, welche wiederum vermehrt zivile Opfer fordern. Ähnliches war in jüngster Zeit beim Einsatz von Drohnen zu beobachten. Die Gefahr würde sich also für Soldaten zwar tatsächlich verringern, für Unbeteiligte jedoch erhöhen.

Die größten Bedenken, welche auftauchen, wenn über die Entwicklung autonomer Waffen diskutiert wird, ist jedoch das Problem der Verantwortlichkeit. Auch Roboter könnten Verbrechen begehen. Dann stellt sich die Frage: Wer trägt die Verantwortung? Die Maschine? Der Programmierer? Der Staat?

Verantwortlichkeit

Roboter besitzen kein Bewusstsein, folglich auch kein Schuldbewusstsein, was bedeutet, dass so etwas wie moralische Überlegungen nicht auftauchen. Es findet keine Abwägung zwischen ‚richtig‘ und ‚falsch‘ statt. Verantwortung entsteht allerdings durch die Möglichkeit, falsches Verhalten einzusehen. Das bedeutet, dass Roboter aus moralischer Sicht nicht für ihre Taten verantwortlich gemacht werden können. Auch das internationale Recht verlangt persönliche Verantwortung; Menschen werden für Kriegsverbrechen zur Rechenschaft gezogen. Es gehört zur heutigen Gesetzgebung, dass Opfern die Möglichkeit gegeben wird, auf dem Rechtsweg gegen die Täter vorzugehen.

Nicht nur können Roboter nicht verantwortlich gemacht werden, sie können auch nicht bestraft werden. Doch wer würde dann für Vergehen von Kriegsmaschinen zur Rechenschaft gezogen. Es wäre eine Möglichkeit, den Programmierer des Roboters für dessen Verhalten haften zu lassen. Für vollautonome Geräte, ohne „Menschen in der Schleife“ ist dies jedoch kein sinnvoller Ansatz, da nach der Fertigstellung der Maschine keine Kontrolle seitens der Entwickler mehr möglich wäre.

Im Völkerrecht existiert die Rechtsfigur der Vorgesetztenverantwortlichkeit. Hierbei kann ein Vorgesetzter für Vergehen seiner Untergebenen zur Rechenschaft gezogen werden, wenn er es versäumt, einen Verstoß entweder zu vermeiden oder zu bestrafen. Für Kriegsroboter wäre ein ähnliches Vorgehen denkbar. Allerdings ergeben sich auch hier Probleme. So kann der „Vorgesetzte“ Vergehen eines autonomen Waffensystems häufig nicht vermeiden, da dieses unabhängig agiert und selbstständig Entscheidungen trifft. Bestrafung von Maschinen ist ebenfalls nicht möglich. Die Vorgesetztenverantwortlichkeit greift hier also nicht.

Kriegsroboter sind folglich nicht nur moralisch sondern auch juristisch nicht schuldfähig. Die Frage nach der Verantwortlichkeit bleibt ungeklärt.

Das Prinzip Verantwortung

Die Ethik stellt sich traditionell die Frage, wie man sich verhalten sollte, um ein vernünftiges Miteinander zu gewährleisten. Dass genau das durch den großen technischen Fortschritt und die damit verbundenen Machbefugnisse des Menschen zu kurz greift, argumentiert Hans Jonas in seinem 1979 veröffentlichten Buch „Das Prinzip Verantwortung“. Seiner Ansicht nach muss sich ethisches Verhalten nicht nur auf eine Gesellschaft beziehen, sondern auf alle Menschen überall auf der Welt und auch auf zukünftige Generationen. Wie Eltern für ihre Kinder haften, so sind alle Menschen für künftige Generationen verantwortlich.

Demzufolge müssen nicht nur direkte sondern auch implizierte Folgen neuer Technologien beachtet werden. Da sich solche Fernwirkungen nur abschätzen, niemals jedoch vorhersagen lassen, vertritt Jonas die Auffassung, dass eine pessimistische Zukunftsdiagnose gegenüber Heilsprophezeiungen vorzuziehen sei. Irrtümer lassen sich aufgrund unumkehrbarer Effekte neuer Technologien nicht mehr wiedergutmachen. Unter diesen Gesichtspunkten formuliert er das Prinzip Verantwortung folgendermaßen:

„Handle so, dass die Wirkung deiner Handlung verträglich ist mit der Permanenz echten menschlichen Lebens auf Erden.“

Wendet man dieses Prinzip nun auf die Entwicklung autonomer Waffensysteme an, so wird schnell deutlich wo Probleme entstehen. Die Gefahren, welche von selbstständig agierenden Kriegsrobotern ausgehen, sind nicht von der Hand zu weisen und mögliche schwerwiegende Folgen schwer vorhersehbar. Einmal entwickelt, könnten gerade autonome Systeme eine Eigendynamik entwickeln, welche nicht mehr aufzuhalten ist.

Es bleibt festzuhalten, dass die Entwicklung von Killer-Robotern eine Bedrohung darstellt, welche weder vorherzusehen noch zu kontrollieren ist. Ein weiteres Vorantreiben dieser Technologie wäre ein Spiel mit dem Feuer, eine Bedrohung nicht nur für die heutige, sondern vor allem auch für alle zukünftigen Generationen.

Titelbild:  LA(PHOT) von Dave Jenkins via flickr, Royal Navy Media Archive, licenced CC BY-NC 2.0