Zurück zur Startseite
Deutschland & Welt
Zurück zur Startseite
Deutschland & Welt

"Killer-Roboter": Fakten über tödliche Systeme | BR24

© BR

Töten - und zwar ohne dass ein Mensch vorher den Befehl dazu gegeben hat: Das könnte in ein paar Jahren Alltag im Krieg sein. Die UN berät deswegen über die Frage, wie menschlich der Krieg bleiben muss.

Per Mail sharen
  • Artikel mit Audio-Inhalten

"Killer-Roboter": Fakten über tödliche Systeme

In Genf tagen in dieser Woche Experten aus rund 70 Ländern. Es geht darum, wie die Weltgemeinschaft künftig mit "autonomen Waffen" umgeht - also mit tödlichen Systemen, die der Mensch nicht mehr kontrolliert. Wir beantworten fünf Kernfragen dazu.

Per Mail sharen

Was sind "Killer-Roboter"?

Darunter versteht man tödliche autonome Waffen - also Systeme, die dank künstlicher Intelligenz (KI) im Kampfeinsatz selbst entscheiden, welches Ziel sie angreifen, zerstören oder gar töten. Was in der Konsequenz die Frage aufwirft: Kann man überhaupt noch jemanden haftbar machen, wenn die Maschine falsch entschieden hat?

Bisher wird vor allem über Drohnen diskutiert. Das hat damit zu tun, dass es hier kaum Probleme bei der Umsetzung gibt. Der Luftraum ist in der Regel gut kontrolliert, man muss wenige Hindernisse einberechnen, die Gefahr für Zivilisten ist überschaubar. Kampfroboter können aber viel mehr sein: schießende Roboter im Gelände oder unbemannte U-Boote.

Länder, die solche Waffen entwickeln, wollen den technischen Fortschritt nicht behindert sehen. Dazu kommt eine große Sorge: Was tun, wenn man sich selbst Regeln auferlegt, und dann andere an einem vorbeiziehen und zur Bedrohung werden? Unter anderem deshalb streiten sich die Länder weltweit über eine klare Definition, um welche Waffensysteme es genau gehen soll bei einer internationalen Regelung. Die Verhandlungen gestalten sich deshalb zäh.

Wer forscht daran?

Solche Waffen sind ohne künstliche Intelligenz (KI) nicht denkbar. Und daran forschen weltweit große Technologiekonzerne. In den USA läuft eine Debatte, ob und inwieweit diese Konzerne wie etwa Google das Militär unterstützen sollten. In Deutschland findet die entsprechende technologische Entwicklung vor allem im zivilen Bereich statt. Bezeichnend in diesem Zusammenhang das kürzlich veröffentlichte Eckpunktepapier der Bundesregierung zu KI: Darin findet sich kein Hinweis auf eine militärische Nutzung.

Hat die Bundeswehr autonome Waffen?

Dem Verteidigungsministerium zufolge gibt es autonome Waffensysteme noch nicht. Man stehe hier vor einem grundlegenden Forschungsproblem: Bisher seien Computer noch nicht in der Lage, zum Beispiel ein verdächtiges Verhalten von Menschen auf dem Schlachtfeld zu erkennen und daraus Schlussfolgerungen zu ziehen. Was die Bundeswehr dagegen sehr wohl einsetzt, sind automatisierte Systeme. Das begründet das Verteidigungsministerium so: "Die heutige Bedrohung ist teilweise schneller als der Mensch entscheiden kann, wie zum Beispiel mit weit über 1.000 km/h anfliegende Raketen."

An Bord von Fregatten und Korvetten ist etwa das System "Rolling Airframe Missile" (RAM) installiert. Gerät das Schiff in Reichweite eines Gegners, der über ein Drohpotential wie etwa bewaffnete Drohnen verfügt, kann der Kommandant die Abwehrraketen aktivieren. Im Unterschied zu einem autonomen System gibt es einen On-Off-Modus, der Mensch behält die letzte Kontrolle und kann das System jederzeit ausschalten. Für das Verteidigungsministerium ist das entscheidende Kriterium: Die Waffen "reagieren vorhersehbar und nachvollziehbar".

© pa / dpa / ZUMA Press

Das Waffensystem Rolling Airframe Missile wird abgefeuert

Welche Länder sind für Regeln, welche dagegen?

Rund 70 Staaten sind am Verhandlungstisch in Genf vertreten. Dabei prallen verschiedene Definitionen aufeinander, ab wann eine Waffe nicht mehr automatisiert sondern schon autonom ist. Laut Anja Dahlmann, die bei der Stiftung Wissenschaft und Politik (SWP) zu autonomen Waffen forscht, gibt es zwar einen Konsens, dass eine Tötungsentscheidung vom Menschen kontrolliert werden sollte. Wie das allerdings in der Realität aussehen soll, da scheiden sich die Geister.

Sowohl die USA als auch Israel, beides führende Nationen in diesem hochtechnologisierten Bereich, wollen laut Dahlmann keine Form von Regulierung oder bindende politische Abkommen. Für ein Nutzungsverbot sprechen sich demnach vor allem Entwicklungsländer aus, außerdem (als erster EU-Mitgliedsstaat) auch Österreich. Die Haltung von Russland bezeichnet Dahlmann als unklar: Moskau sei nicht gegen eine Regulierung, aber auch nicht dafür.

Wie positioniert sich Deutschland?

Im Koalitionsvertrag haben sich CDU/CSU und SPD auf folgende Passage verständigt: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten." Außenminister Heiko Maas hat kürzlich in einer Rede die ethischen Probleme autonomer Waffen betont und eine politische Erklärung vorgeschlagen. SWP-Expertin Anja Dahlmann sieht das als einen pragmatischen, aber auch vorsichtigen Ansatz an. Damit erreiche Deutschland, dass es "vermutlich wenige Verhandlungspartner vergrämt, aber wohl auch nicht das Ziel einer Ächtung erreichen wird".