Zurück zur Startseite
Kultur
Zurück zur Startseite
Kultur

Außer Kontrolle: Drohnen, Roboter und der Krieg der Zukunft | BR24

© picture alliance/ZUMA Press

Abgeschossene Drohne der Terrororganisation IS bei Mossul, Februar 2017

Per Mail sharen
Teilen

    Außer Kontrolle: Drohnen, Roboter und der Krieg der Zukunft

    Schießen oder nicht? Autonome Waffensysteme treffen diese Entscheidung ohne menschliche Kontrolle. Doch wer trägt dann die Verantwortung? Seit 2014 verhandeln die Vereinten Nationen über ein Verbot sogenannter "Killerroboter" – bislang ohne Erfolg.

    Per Mail sharen
    Teilen

    Aus den USA gesteuerte Drohnen sind Kampfeinsätze in Afghanistan oder Pakistan geflogen. Inzwischen gibt es autonome Waffen, die in der Luft, auf dem Boden, im Wasser eingesetzt werden. Noch sind es Menschen, die diese Systeme steuern und dabei entscheiden, ob die Maschinen einen Menschen töten oder nicht. Allerdings wird es nicht mehr lange dauern, bis Kampfroboter und Drohnen selbst entscheiden.

    Kamikaze-Drohnen und automatische Maschinengewehre mit Bilderkennung

    Einen Vorgeschmack auf die Kriegsgeräte der Zukunft gibt es schon heute: Im vergangenen Jahr hat die Firma Kalaschnikow einen Geschützturm vorgestellt, der eine Bilderkennungssoftware mit einem Maschinengewehr koppelt, sagt der Politikwissenschaftler Frank Sauer von der Bundeswehruniversität in Neubiberg. Schon heute existieren kleine bewaffnete Kettenfahrzeuge, die mit Sensoren und Software ausgestattet sind. Und Israel hat das Raketensystem Harpy entwickelt, eine – wie es Sauer nennt – Kamikaze-Drohne – die ihr Ziel selbstständig anvisiert, angreift und sich dabei selbst zerstört.

    Ich kann ein x-beliebiges System nehmen – ganz egal ob es fliegt, fährt, schwimmt, taucht – und das im Prinzip durch diese ganzen neuen Möglichkeiten, die wir jetzt haben beispielsweise durch Bilderkennung damit beauftragen, und sagen: begibt sich an einen bestimmten Ort, such ein bestimmtes Ziel, … Alles was so aussieht wie ein Panzer, alles was so aussieht wie ein Artilleriegeschütze begibt sich dorthin und wenn du diese Kategorie von Zielen dort findest bekämpfe sie. Frank Sauer, Politikwissenschaftler

    Noch sind die autonomen Systeme nicht so ausgereift, als dass sie zwischen einem Zivilisten oder einem Soldaten unterscheiden könnten, sagt Christian Alwardt vom Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg. Das Risiko, in einem Häuserkampf statt einem feindlichen Kämpfer einen unbeteiligten Passanten zu töten, ist groß. Das ist ein völkerrechtliches Problem, verbietet doch das Völkerrecht zivile Opfer. Künstliche Systeme können aber auch große Datenmengen in kürzester Zeit analysieren. Im Kriegsfall kann das entscheidend sein. Die Geschwindigkeit, mit der autonome Systeme agieren, könne aber auch zum Problem werden, so Alwardt. Dann nämlich, wenn der Mensch nicht mehr die Kontrolle hat, Entscheidungen würden durch die Automatisierung deutlich schneller. "In dem Moment, wo der Mensch der Maschine vertraut, hat er der Maschine die Kontrolle ein Stück weit übergeben, weil er selber es nicht mehr überprüfen kann und letztlich hat die Maschine da die Entscheidung schon getroffen."

    Wer trägt die Verantwortung, wenn Maschinen töten?

    Außerdem stellt sich eine ganz grundsätzliche Frage: Ist es ethisch zu verantworten, die Entscheidung über Leben und Tod an eine Maschine zu delegieren. Oder anders gefragt, wer trägt die Verantwortung, wenn ein autonom agierendes künstliches System einen Menschen tötet? Bernhard Koch, stellvertretender Direktor des Instituts für Theologie und Frieden in Hamburg, geht sogar noch einen Schritt weiter. Wenn Maschinen wirklich autonom, das heißt selbstständig und vom Menschen unabhängig agierten, bringe das ein ein unabsehbares Risiko mit sich: Maschinen, die sich wie Menschen verhalten, deren Verhalten sich aber nicht vorhersagen lässt.

    UN verhandeln über Verbot, USA, Russland und Israel blockieren

    International gebe es durchaus ein Risikobewusstsein dafür, sagt der Politikwissenschaftler Frank Sauer von der Bundeswehruniversität in Neubiberg. Seit 2014 wird deshalb auf internationaler Ebene bei den Vereinten Nationen über ein Verbot sogenannter "Killerroboter" verhandelt. Bislang erfolglos, unter anderem blockieren die USA, Russland und Israel ein solches Abkommen. Im November kommt die Staatengemeinschaft in Genf wieder zusammen, um über ein Verbot autonomer Waffen zu verhandeln. Die Zeit drängt, denn weltweit rüsten Staaten rüsten auf. China und die USA sind die großen Player, aber auch Russland und Israel entwickeln autonome Waffensysteme.