Kampfroboter der US-Armee bei einer Übung in Abu Dhabi (Archivbild)
Bildrechte: picture alliance / ZUMAPRESS.com | U.S. Air Force

Autonome Drohnen, hochautomatisierte Waffensysteme, Killerroboter: Künstliche Intelligenz revolutioniert auch die Realität auf dem Schlachtfeld.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Gewinnt KI den nächsten Krieg?

Autonome Drohnen, hochautomatisierte Waffensysteme, Killerroboter: Künstliche Intelligenz revolutioniert auch die Realität auf dem Schlachtfeld. Gewinnt KI den nächsten Krieg? Oder verlieren am Ende alle?

Raketen werden abgefeuert, Drohnen greifen zivile und militärische Ziele an, Cyberangriffe legen Kommunikationsnetzwerke und Stromversorgungen – und das alles, ohne dass ein Mensch einen Befehl gegeben hat: "Das wäre ein 'Flash War', das absolute Worst-Case-Szenario", sagt der Politikwissenschaftler Frank Sauer in der aktuellen Folge des KI-Podcasts.

Ein "Flash War" hätte verheerende Folgen

Bislang hat die Welt nur sogenannte "Flash Crashs" kennenlernen müssen. So nennt man es, wenn an der Börse innerhalb kürzester Zeit massive Kursstürze auftreten, hervorgerufen durch automatisierte Handelssysteme, die aufgrund von Algorithmen und ohne menschliches Eingreifen in Sekundenschnelle riesige Mengen von Aktien verkaufen.

Diese Flash Crashs haben bereits zu panikartigen Reaktionen und erheblichen wirtschaftlichen Schäden geführt. Die Folgen eines Flash Wars wiederum wären sehr viel verheerender. Ein Flash War könnte in sekundenschnelle Realität werden, ausgelöst durch Algorithmen, die zwar schneller reagieren können als jeder Mensch, aber genau deswegen auch keiner menschlichen Kontrolle mehr unterliegen.

Solche KI-Systeme könnten autonom militärische Entscheidungen treffen, "und zwar in einer Geschwindigkeit, die es auch den Menschen nicht erlaubt, diese Entwicklung einzufangen", fürchtet Sauer. Im allerschlimmsten Fall eskaliere so ein Flash War bis auf die nukleare Ebene, "auch wenn ich das nicht für sehr wahrscheinlich halte", sagt der Politikwissenschaftler, der auch Host des Podcasts "Sicherheitshalber" ist.

Was genau heißt "autonom"?

Auch deswegen bemüht sich die Weltgemeinschaft seit Jahren darum, autonome Waffensysteme zu regulieren – bislang allerdings ohne Erfolg. Vor allem Länder, die bereits über autonome Waffensysteme verfügen oder welche entwickeln, wollen auf die Technologie nicht verzichten. Und dann ist da noch die Frage, wie wenig menschliche Kontrolle überhaupt erforderlich ist, damit ein autonomes Waffensystem überhaupt als autonomes Waffensystem gilt.

China beispielsweise betrachtet ein Waffensystem erst dann als autonom, wenn es selbstständig strategische oder taktische Entscheidungen treffen kann. Für die Bundesregierung wiederum sind Waffen dann autonom, wenn sie "vollständig der Kontrolle des Menschen" entzogen sind.

Begehen Kriegsmaschinen keine Kriegsverbrechen?

Neben unterschiedlichen Interessen und Streit über die Frage, was überhaupt wie reguliert oder verboten werden soll, verweisen manche Staaten auch auf die möglichen Vorzüge solcher Systeme: Es seien beispielsweise weniger Kriegsverbrechen zu erwarten. Maschinen sind eben keine Menschen, sie halten sich an das Kriegsvölkerrecht – sofern man sie vorher richtig programmiert.

Was, wenn die KI einen Fehler macht?

Auf der anderen Seite sind da eben die Gefahren und diese betreffen nicht nur die Sorge vor einem Flash War. Senkt der Einsatz von Kriegsrobotern die Hemmschwelle, Krieg zu führen? Und wer hat eigentlich Schuld, wenn es zu tödlichen Fehlern kommt? Der Hersteller? Die Streitkräfte? Der Programmierer?

"So wie die meisten ChemikerInnen und BiologInnen kein Interesse am Bau chemischer oder biologischer Waffen haben, so haben auch wir ForscherInnen auf den Feldern der KI und der Robotik kein Interesse daran, High-Tech-Waffen zu entwickeln", schreiben deswegen namhafte Wissenschaftler, darunter viele Informatiker, 2021 in einem offenen Brief.

Künstliche Intelligenz und menschliche Dummheit

In der Realität auf dem Schlachtfeld spielen künstliche Intelligenz und autonome Waffensysteme trotzdem eine immer größere Rolle. In der Ukraine etwa kommt künstliche Intelligenz zum Einsatz, um feindliche Telefongespräche zu entschlüsseln oder Geodaten zu analysieren. "In war there is no second prize for the runner-up", hat der US-General Omar Nelson Bradley einmal gesagt: "Im Krieg gibt es keinen Trostpreis für den Zweiten." Die Ukraine muss sich der neuesten Technologie bedienen, um sich gegen einen Angriffskrieg zu verteidigen. Und so ist am Ende nicht die Künstliche Intelligenz das Problem, sondern vielmehr die menschliche Dummheit.

🎧 Welche Auswirkungen bringt die KI in Arbeitswelt, Bildung und Gesellschaft mit sich? Wie kann man künstliche Intelligenz selbst im Alltag nutzen? Und was passiert, wenn jeder Inhalt im Internet auch ein KI-Fake sein könnte? Im "KI Podcast" stellen sich Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jeden Mittwoch den großen und kleinen Fragen der KI-Revolution – und trennen die Fakten vom Hype. Sie finden den Podcast in der ARD-Audiothek und überall, wo es Podcasts gibt.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!