Mensch fällt in Abgrund
Bildrechte: BR

Künstliche Intelligenz - Die letzte Erfindung

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Künstliche Intelligenz: Können wir eine Super-KI kontrollieren?

Stephen Hawking war überzeugt: Künstliche Intelligenz kann eine Bedrohung für die Menschheit werden. Nun arbeiten immer mehr Forscher daran, die KI-Systeme der Zukunft sicher zu machen. Steht wirklich das Überleben der Menschheit auf dem Spiel?

Über dieses Thema berichtet: Radiofeature am .

Ist künstliche Intelligenz die Lösung für den Fachkräftemangel? Wird sie Jobs obsolet machen oder mehr neue schaffen? Und wie wird der Mittelstand auf die KI-Revolution reagieren? Diese Fragen beschäftigen immer mehr Menschen. Doch während sich KI-Modelle wie GPT-4 rasant verbessern, stellen sich einige Forscher eine viel größere Frage: Wie lange hat die Menschheit die KI noch unter Kontrolle?

🎧 Hörtipp: radioFeature Die letzte Erfindung - Löscht Künstliche Intelligenz die Menschheit aus?

Wann wird die erste Super-KI gebaut?

"Das wird noch alles viel, viel verrückter", sagt der Forscher Leopold Aschenbrenner. "Das ist alles nur der Anfang. Was wir bisher gesehen haben, ist noch ein Zuckerschlecken." Aschenbrenner wurde in Deutschland geboren, hat an der Columbia University in New York studiert und lebt mittlerweile in San Francisco, wo er Stiftungen zum Thema KI-Sicherheit berät. Wie viele seiner Kollegen beschäftigt er sich aktuell vor allem mit einem Thema: AGI, kurz für Artificial General Intelligence. "Da geht es um KI-Systeme, die auf menschlichem Niveau sind und und insbesondere bei allen intellektuellen Aufgaben auf menschlichem Niveau sind."

Die Meinungen gehen auseinander, wann die erste Super-KI dieser Art gebaut wird – vielleicht in fünf Jahren, vielleicht in fünfzig, vielleicht auch nie. Worüber sich viele Fachleute einig sind: AGI könnte sich, anders als menschliche Intelligenz, selbst vervielfältigen und weiterentwickeln.

"Stellen Sie sich vor, Sie haben 100 Millionen der besten Wissenschaftler der Welt, die an jedem Themenfeld arbeiten", meint Leopold Aschenbrenner. "Wenn wir ein AGI-System hätten, hätten wir das. Das würde zu einer ungeheuer schnellen technologischen Entwicklung führen. Dann hätte man innerhalb eines Jahres Systeme, die superintelligent sind, also die über den Menschen weit hinausragen."

Von der Science-Fiction in die Wirklichkeit?

Was nach Science-Fiction klingt, sorgt in der Forschung seit Jahren für Unruhe. "Die Entwicklung einer vollwertigen künstlichen Intelligenz könnte das Ende der Menschheit bedeuten", sagte Stephen Hawking schon 2014 in einem Interview mit der BBC. "Sobald Menschen künstliche Intelligenz entwickeln, würde sie sich von alleine immer schneller weiterentwickeln. Menschen, die durch ihre biologische Evolution eingeschränkt sind, könnten nicht mithalten."

Nun, da KI-Modelle wie das von OpenAI rasante Fortschritte machen, ist die Angst vor der Super-KI wieder Thema. "Ich glaube, es gibt eine zehn- bis 20-prozentige Chance für eine KI-Übernahme, in der die meisten oder alle Menschen sterben", meinte vor einigen Tagen der KI-Sicherheitsforscher Paul Christiano, der bis vor Kurzem selbst bei OpenAI angestellt war. "Wenn, aus irgendeinem Grund, Gott behüte, diese KI-Systeme uns umbringen wollen würden... dann würden sie uns auf jeden Fall umbringen."

Sorgen im Silicon Valley

Im Silicon Valley sind solche Ansichten keine Seltenheit. Insgesamt überwiegt in Start-ups und Tech-Unternehmen zwar der Optimismus. Doch in den vergangenen Jahren warnen immer mehr Stimmen vor dem schlimmsten aller Szenarien: dem Ende der Menschheit. "Diese AGI-Systeme, das wären im Prinzip die potentesten Waffen der ganzen Welt", meint Forscher Leopold Aschenbrenner. "Und was diese Waffe anrichten wird, ist noch unklar."

Warum trotzdem so viele an der Technologie arbeiten? "Die Leute, die an diesen AGI-Projekten arbeiten, sind oft auch sehr davon motiviert, von diesen Sicherheitsbedenken", so Aschenbrenner. "Die Idee ist: Um diese Schreckensszenarien abzuweisen, müssen die Leute, die AGI bauen, auch Leute sein, die sich intensiv darüber Gedanken machen. Und wenn wir das nicht machen, überlassen wir das Feld einfach denen, die ohne Vorsicht vorpreschen."

Was ist "AI Alignment"?

Aschenbrenners Ziel ist "Alignment" – das große Schlagwort der KI-Sicherheitsforschung. "Alignment" bedeutet so viel wie "Angleichung". Hier geht es darum, sicherzustellen, dass die Ziele einer superintelligenten KI an die Ziele der Menschheit angeglichen sind. Nur in diesem Szenario, so der Gedanke, geht das Ganze gut aus.

Aktuell geht es bei der Alignment-Forschung vor allem darum, die KI erst einmal zu verstehen: "Man hat ja anders als bei einem menschlichen Gehirn bei einer KI den kompletten Einblick", erklärt Aschenbrenner. "Man kann sozusagen jedes Neuron anzapfen. Und manchmal machen diese KI-Systeme Falschaussagen, obwohl sie wissen, dass das eine Falschaussage ist. Und da hat man Neuronen gefunden, die wie eine Art Lügendetektor sind."

In der Zukunft wird das jedoch schwieriger: "Die Alignment-Methoden, die wir heute haben, die funktionieren alle mit menschlicher Supervision. Wenn wir aber superintelligente KI-Systeme haben, dann reicht menschliche Supervision nicht mehr, weil wir die Systeme einfach nicht mehr verstehen. Und dann brechen auch diese ganzen Methoden, die wir im Moment benutzen."

Warnungen vor KI bloß eine Ablenkung?

Warnungen wie die der Alignment-Forscher werden nicht überall wohlwollend aufgenommen. Manche Kritiker sehen in Warnungen vor einer Killer-KI eine unnötige Ablenkung vor anderen Risiken, wie etwa der Klimakrise oder Nuklearwaffen.

Auch dass die Warnungen oft aus dem Silicon Valley selbst kommen, gibt zu denken. Denn je gefährlicher die KI klingt, desto mächtiger klingt sie auch. Eine Technologie, die so fortschrittlich ist, dass sie die Menschheit vernichten kann, hätte zumindest mittelfristig gute Chancen, auch bei Investoren gut anzukommen, meint etwa der amerikanische Journalist Max Read. Er warnt davor, die Risiken der KI-Technologie von der KI-Industrie selbst einschätzen zu lassen.

Geht alles gut?

Für Leopold Aschenbrenner steht aber fest: KI ist das einzige Thema, das zählt. "Wenn man einmal in diese KI-Welt eingetaucht ist und sich einmal von dem Transformationspotential von AGI überzeugt hat, dann ist es so, als wenn nichts anderes mehr wichtig ist", meint er. "Das geht vielen hier so. Was so täglich in den Nachrichten steht, ist überhaupt nicht Thema. Die Welt schert sich um irgendwelche kleinen Querelen. Aber hier weiß man, man arbeitet an einer Art neuer Atombombe."

Wird man mit dieser Aussicht irgendwann deprimiert? "Ich denke, im Median-Szenario wird alles super", sagt Aschenbrenner. "Aber es wird im Median-Szenario super, weil wir uns kümmern und weil sich Menschen an die Arbeit machen und das Alignment-Problem lösen."

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!