Wie nah ist die technologische Singularität? Vielen Experten graut vor dem Moment, an dem künstliche Intelligenz die menschliche übertrifft.
Bildrechte: picture alliance | Knut Niehus

Wie nah ist die technologische Singularität? Vielen Experten graut vor dem Moment, an dem künstliche Intelligenz die menschliche übertrifft.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

KI-Stopp jetzt: KI-Entwicklung muss pausieren!

Halbes Jahr Pause, jetzt: Sonst droht der Menschheit Gefahr. Elon Musk, Apple-Gründer Steve Wozniak sowie viele weitere Unternehmer und Experten fordern dies in einem offenen Brief. Sind ihre Sorgen rund um "gigantische KI-Experimente" berechtigt?

Über dieses Thema berichtet: PULS mit ... am .

Mit GPT-4 ist die Grenze erreicht, der Rubikon bald überschritten, finden sie: Über 1.000 Unterzeichnende fordern in einem offenen Brief die Entwicklung Künstlicher Intelligenz (KI) für sechs Monate zu pausieren. Der Menschheit drohe sonst ein zivilisatorischer Kontrollverlust.

KI-Laboratorien weltweit sind demnach aufgerufen, vorerst kein System weiterzuentwickeln, das leistungsfähiger als das von OpenAI kürzlich vorgestellte GPT-4 ist. Diese Pause müsse notfalls von Regierungen durchgesetzt werden, um zukünftige Risiken zu verstehen und entsprechende Sicherheitsprotokolle zu entwickeln.

Experten: Ab GPT-4 verlieren wir die Kontrolle über KI

"Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn sie sich positiv auswirken und ihre Risiken kontrollierbar sind", lautet einer der Kernsätze des vor wenigen Tagen veröffentlichten Brandbriefs. Initiiert wurde dieser vom gemeinnützigen Future of Life Institute, zu den über 1.000 namhaften und fachkundigen Unterzeichnern des Briefs zählen Elon Musk, der Apple-Mitbegründer Steve Wozniak und mehrere leitende Google-Mitarbeiter.

KI so gefährlich wie Eugenik und Gen-Klons?

Es brauche jetzt kompetente Aufsichtsbehörden für KI sowie eine angepasste und zukunftsorientierte Rechtsprechung. Um die "dramatischen wirtschaftlichen und politischen Umwälzungen" vor allem in Sachen Demokratie zu bewältigen, brauche es gut ausgestattete Institutionen. Im letzten Absatz des Brief heißt es, die Menschheit habe im Fall von Menschen-Klonen und Eugenik schon einmal gefährliche Technologien auf vergleichbare Weise reglementiert.

Nur wenn jetzt richtig geplant und gehandelt würde, blühe der Menschheit eine blühende Zukunft mit künstlicher Intelligenz: Wir hätten die Wahl zwischen dem Genuss eines "langen KI-Sommers" oder aber unvorbereitet in den Abgrund zu rasen.

Bayern hält nichts von KI-Entwicklungspause

Digitalministerin Judith Gerlach (CSU) hält so einen Stopp moderner Technologien für moderne Gesellschaften für "schwer umsetzbar". Sie baut auf EU-weite Regulierung von KI: Die dürfe "Innovationen nicht verhindern, aber muss Menschen schützen", Aufklärungsarbeit allein reiche beim derzeit rasanten technischen Fortschritt nicht mehr aus. Der Landesschutzbeauftragte Thomas Petri betont: "​​Die Arbeit an einem freiheitssichernden Regelungsrahmen sollte für die relevanten staatlichen Akteure Vorrang vor standortbezogenen Begehrlichkeiten haben."

KI-Forschung in Bayern ist besonders gefragt

Für Prof. Dr. Urs Gasser von der TU München ist die Forderung nach einem Moratorium eine "öffentlichkeitswirksame Ablenkung" der Tech-Branche: Ein Moratorium ließe sich global einfach nicht umsetzen und der Brief lenke davon ab, dass auch heutige KI-Anwendungen schon erhebliche Probleme in Sachen Diskriminierung und Falschinformationen haben. Dem Technikstandort Bayern attestiert er dabei immerhin ein gutes Risikobewusstsein.

Gerade das Land Bayern habe eine "einzigartige Konzentration von KI-Forscherinnen und Forschern gerade auch im Bereich der theoretischen Grundlagen von KI", sagt Prof. Gitta Kutyniok von der LMU München. Wichtiger als einen vollständigen Entwicklungsstopp fände die KI-Forscherin, gerade im KI-Ballungsraum Bayern wiederum möglichst breit über mögliche Gefahren künstlicher Intelligenz zu informieren, zudem mehr Grundlagenforschung und einen weltweit einheitlichen Zertifizierungsprozess für Künstliche Intelligenz.

Es mangelt an Ressourcen und Rechenleistung

Das Tempo, in dem die KI-Entwicklung derzeit voransaust, beunruhigt offenbar auch diejenigen, die daran aktiv mitarbeiten: Selbst der OpenAI-CEO Sam Altman hat inzwischen "ein bisschen Angst davor", verriet er in einem Fernsehinterview. So richtig verstehen die Macher ihr eigenes Produkt also nicht (mehr).

Das Gleiche gilt für die Wissenschaft. Andreas Hotho von der Uni Würzburg betont: Die Forschung ist "im Bereich der großen Sprachmodelle schon seit GPT-2 weit hinter den Ergebnissen großer Firmen zurück." Der Informatikprofessor klagt, ihm und seinen Fachkollegen fehle es schlicht an Ressourcen, Rechenleistung und Zugriff auf die Codes, die KI-Firmen oft wie einen Schatz behüten.

Auftakt der Serie BR24live KI-Talk mit BR-Chefredakteur Christian Nitsche und Roboter Pepper.
Bildrechte: SoftBank Robotics; Montage: BR
Artikel mit Video-InhaltenVideobeitrag

BR24live KI-Talk

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht's zur Anmeldung!