Cyborg mit grünem Gehirn vor einer Explosion
Bildrechte: picture alliance / Donald Iain Smith

Roboter mit Gehirn

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Experten: Künstliche Intelligenz so gefährlich wie Atomwaffen

Eine Reihe führender KI-Fachleute sieht in der Technologie eine potenzielle Gefahr für die Menschheit. Die Risiken sollten demnach unbedingt ernst genommen werden. Die renommierten Autoren vergleichen KI mit anderen existenziellen Bedrohungen.

Über dieses Thema berichtet: BR24 im Radio am .

Es ist im Prinzip nur ein Satz, den das sogenannte Centre for AI Safety (Zentrum für KI-Sicherheit) auf seiner Internetseite veröffentlicht hat. "Das Risiko einer Vernichtung durch KI sollte weltweit genauso ernst genommen werden wie andere gesellschaftliche Gefahren, die etwa von Pandemien oder einem Atomkrieg ausgehen." So knapp das Statement ausfällt, so lang ist die Liste der Unterzeichnenden. Über 100 KI-Experten haben diesen Aufruf bislang unterschrieben. Darunter der Chef des ChatGPT-Erfinders OpenAI, Sam Altman. Die Liste ist dabei offen und kann von weiteren KI-Experten, Professorinnen oder Managern online unterzeichnet werden.

Die Nonprofit-Organisation, auf deren Website der Text erschienen ist, nennt als mögliche Gefahren von Künstlicher Intelligenz ihren Einsatz in der Kriegsführung, etwa durch die Entwicklung neuer Chemiewaffen. Auch warnt das in San Francisco ansässige Center for AI Safety vor einer Zukunft, in der die Menschheit komplett von Maschinen abhängig werden könnte.

Ein Masterplan für KI-Entwicklung

Generell ist die Menschheit laut der Organisation zu unbedarft im Umgang mit der neuen Technologie. Dabei will man KI eigenen Angaben zufolge nicht verbieten, sondern ihre Nutzung so gestalten, dass Gefahren verhindert werden. Das Center for AI Safety schlägt dabei einen Vier-Stufen-Test vor, mit dessen Hilfe geeignete, von ungeeigneten oder gefährlichen KI-Projekten unterschieden werden. Letztere sollen gestoppt werden.

Nicht die erste KI-Endzeit-Warnung

Vor einigen Wochen hatte bereits eine andere Organisation einen unter anderem von Tech-Milliardär Elon Musk unterzeichneten offenen Brief veröffentlicht. Dabei war eine sechsmonatige Pause bei der Entwicklung von Künstlicher Intelligenz vorgeschlagen worden. Ziel der Auszeit sollte sein, Regulierungsansätze für die Technologie zu finden. Später wurde bekannt, dass Musk kurz davor eine eigene KI-Firma gegründet hatte.

Allerdings sind manchen Fachleuten solche "Kassandra-Rufe" viel zu übertrieben. Der britische Sender BBC etwa zitiert Arvind Narayanan, einen Computerexperten der Princeton University, der Warnungen vor dem KI-Weltuntergang als unrealistische Science-Fiction bezeichnete. Damit werde nur von aktuellen Problemen durch Künstliche Intelligenz abgelenkt. Dem pflichtet Elizabeth Renieris, eine Forscherin vom Oxford's Institute for Ethics in AI bei. Ihrer Ansicht nach wäre es wichtiger, sich auf Ungerechtigkeiten und Diskriminierungen in der Gesellschaft zu konzentrieren, die durch KI nun oft verstärkt werden.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!