BR24 Logo
BR24 Logo
Kultur

"Wir könnten eine völlig neue Ebene des Wettrüstens betreten" | BR24

© picture-alliance/ Klaus Ohlenschläger

Abstrakter Technologie Hintergrund mit Prozessor, Programmcode und vielen Lichtern

Per Mail sharen
Teilen

    "Wir könnten eine völlig neue Ebene des Wettrüstens betreten"

    "Killerroboter" sind ein ethisches Problem – oder? Eigentlich könne man autonomen Kampfsystemen ethische Werte beibringen, sagt der Mainzer Philosophieprofessor Thomas Metzinger. Das Problem sei der Mensch, der sich inkohärent verhalte.

    Per Mail sharen
    Teilen

    Im vergangenen Jahr wurde der Philosophieprofessor Thomas Metzinger in die High-Level Expert Group on Artificial Intelligence der Europäischen Union berufen, um die europäischen Ethik-Richtlinen für Künstliche Intelligenz mit zu entwickeln. Mittlerweile ist der Text veröffentlicht.

    Matthias Morgenroth: Was steht in der Leitlinien der unabhängigen Expertengruppe zu künstlicher Intelligenz in Bezug auf autonome Kampfsysteme?

    Prof. Thomas Metzinger: Da steht wenig drin, das ist alles sehr weich gehalten. Insbesondere gibt es keine roten Linien mehr. Das heißt: Es gibt auf starkes Drängen der Industrie in dieser Fassung der Ethik-Richtlinien, nichts mehr, was ein unverhandelbarer Wert ist in Europa. Aber sie konnten nicht mehr hinter die ganz starke Aussage des Europäischen Parlaments zurückfallen, dass sie diese autonomen tödlichen Waffensysteme in Europa nicht haben und nicht fördern wollen.

    Ist das denn realistisch?

    Manche Analysten sagen, dass das Wettrüsten auf der Ebene von KI-Waffen 2010 zwischen China und den Vereinigten Staaten begonnen hat. Und das ist natürlich ein historisch großes Problem, weil wir könnten jetzt oberhalb von Atomwaffen eine völlig neue Ebene des Wettrüstens betreten. Aus europäischer Sicht ist die Frage, ob wir das irgendwie noch unterbinden und stoppen können.

    Wird auf dieser Ebene überhaupt grundsätzlich diskutiert: Darf man einer Maschine überlassen, über Leben und Tod zu entscheiden?

    Ich hab sehr viel gelernt in dieser Expertengruppe. Wenn man sagt, wir wollen aus Prinzip niemals, dass eine Maschine autonom die Entscheidung trifft, dass ein Mensch sterben soll, dann kommt zum Beispiel ein Jurist aus Holland und sagt: Moment mal, wir haben aktive Sterbehilfe im Krankenhaus, wir möchten natürlich auch, dass Künstliche Intelligenz (KI) uns bei medizinischen Entscheidungsprozessen unterstützt. Es stellt sich also immer die Frage, in welchen Anwendungsbereichen wollen wir nicht, dass eine KI über Leben und Tod entscheidet, für welche ist es möglich? Für mich selbst ist es ganz deutlich, dass der Schaden dadurch, dass man sich selbst verstrickt in diese Ebene des Wettrüstens, so groß ist, dass man das auf keinen Fall tun sollte.

    Wo ist für Sie die rote Linie, wo man Künstliche Intelligenz und Militär nicht mehr zusammengehen?

    Das Problem ist, wie so oft, nicht den Maschinen die richtigen ethischen Werte vorzugeben. Sondern eines der theoretischen Hauptprobleme ist das, was man man das "Value Alignment Problem" nennt: Wie halten sich die Systeme an unsere ethischen Vorgaben? Das Problem ist, dass wir selbst uns ja nicht an unsere eigenen ethischen Werte halten. Das heißt: Es gibt immer einen Widerstreit von verschiedenen Zielen, im einzelnen Menschen und in menschlichen Gesellschaften. Unsere Gesellschaften sind ja auch nicht ethisch kohärent oder stimmig, unsere Politik ist es in keiner Weise. Das heißt: Wir selbst sind schwer vorhersagbar und dadurch entsteht das eigentliche Risiko. Also etwas vereinfacht gesagt, wenn man sehr effektive, schnelle Künstliche Intelligenz an unsere Steinzeitgehirne koppelt, an die Gehirne von Menschen, die gierig sind, neidisch, egoistisch, entstehen daraus die eigentlichen politischen Risiken. Es wäre im Prinzip kein Problem, einem autonomen Roboter ganz bestimmte ethische Werte einzugeben. Eigentlich sind wir selbst das Problem.

    Das ganze Interview gibt es hier im Podcast zum Nachhören.