Grafik eines Menschlichen Gehirns mit Datenströmen
Bildrechte: dpa-Bildfunk/Gerd Altmann, Pixabay

Grafik eines Menschlichen Gehirns mit Datenströmen

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Sind wir schon bereit für Künstliche Intelligenz?

Seit der Veröffentlichung von "ChatGPT" steigt das Bewusstsein für Künstliche Intelligenz, die dem Menschen schon heute Konkurrenz macht. Experten wie Ranga Yogeshwar fordern eine Entwicklungspause und eine Debatte über mögliche Gefahren.

Über dieses Thema berichtet: Theo.Logik am .

Es ist noch gar nicht so lange her, da wagte der Berkley-Professor Steven Piantadosi einen Versuch: Er bat das Sprachprogramm ChatGPT, einen Code zu schreiben, der darüber Auskunft geben sollte, ob ein Mensch gefoltert werden dürfe. Die Antwort der Künstlichen Intelligenz war erschreckend: Ja, antwortete das Programm, wenn die Person aus Nordkorea, Syrien oder dem Iran stamme.

Der Versuch wirft die Frage auf, wie gefährlich Programme wie ChatGPT werden könnten. Ausgerechnet im KI-Entwicklungsland USA, im Silicon Valley, ist die Besorgnis groß. Tausende Tech-Experten und KI-Entwickler, darunter Apple-Mitgründer Steve Wozniak und Elon Musk, haben einen offenen Brief unterschieben, in dem sie einen sechsmonatigen Forschungsstopp für neue KI-Modelle fordern.

Eine Flut aus Fake News?

"Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten fluten?", heißt es im offenen Brief, den auch der Wissenschaftsjournalist und KI-Experte Ranga Yogeshwar unterschrieben hat. Kommunikation und Medien als "vierte Gewalt" sind für ihn die "Basis der Demokratie". Doch die sei bereits durch Soziale Medien und sich rasch verbreitende "Fake News" Angriffen ausgesetzt. "Bei den Sozialen Netzwerken ist es uns nicht gelungen, diese schädliche Wirkung einzugrenzen", sagt Yogeshwar.

"Wir haben eine wachsende Polarisierung in der Gesellschaft, wie wir es in der Corona-Zeit erlebt haben, und durch Künstliche Intelligenz würde das Ganze noch einmal massiv verstärkt werden." Auch, weil durch Künstliche Intelligenz Fotos, Videos oder Aussagen von Politikern täuschend echt gefälscht werden könnten. Wahrheit und Unwahrheit wären dann schwer zu unterscheiden.

Ranga Yogeshwar sieht die Gefahr, dass die Kommunikationsfähigkeit einer Gesellschaft zerfallen könnte. "Das hat extreme Folgen, wenn man über die Grenzen schaut: Es gibt Kriege, zum Beispiel in Myanmar, oder Lynchjustiz in Indien." Auf der anderen Seite könnte Künstliche Intelligenz einer solchen Wirkung auch entgegensteuern. Das Fraunhofer Institut entwickelt gerade ein System, das gefälschte Bilder, sogenannte "Deep Fakes", automatisch erkennt.

Wie KI den Mensch verändert

Doch wie wird sich Künstliche Intelligenz auf den Menschen und unser Zusammenleben auswirken? Blake Lemoine, ein Software-Ingenieur, kam während seiner Beschäftigung mit dem Sprachmodell Lamda zu der Überzeugung, dass dieses ein Bewusstsein, Emotionen und eine Seele habe. Er forderte Personenrechte für eine Künstliche Intelligenz und flog bei Google raus.

Doch mit oder ohne Bewusstsein: Die Befürchtungen wachsen, dass uns KI nachhaltig verändern wird, schleichend, ohne dass wir das überhaupt bemerken. Tristan Harris, der früher als Designethiker bei Google arbeitete, prägte den Begriff "Human Downgrading", also: "menschliche Herabstufung". Und meint damit ein ganzes Paket an für den Menschen höchst bedenklichen Entwicklungen durch digitale Plattformen: Vereinsamung und soziale Orientierungslosigkeit zum Beispiel.

In Sachen Kommunikation hat KI schon heute einen nachweisbaren Einfluss: Im Kontakt mit Sprachassistenz-Systemen wie Siri oder Alexa hat der Mensch gelernt, sich kurz und schlicht auszudrücken – unter weitgehendem Verzicht auf Höflichkeitsfloskeln, Gestik und Mimik. Dass das negativ auf unseren zwischenmenschlichen Umgang abfärbt, haben etwa Wissenschaftler der University of Cambridge nachgewiesen – besonders groß war der Einfluss auf Kinder, die soziale und kognitive Fähigkeiten erst noch erlernen müssen.

Künstliche Intelligenz nur ein Hype?

Sven Nyholm, Professor für Ethik der Künstlichen Intelligenz an der Ludwig-Maximilians-Universität München geht die derzeitige Entwicklung zu schnell. Und doch wirbt er für eine gewisse Gelassenheit. "Es kann auch sein, dass es nur ein zufälliger, kurzer Hype ist", sagt Nyhom. "Vor sieben oder acht Jahren glaubten viele Leute, innerhalb von fünf Jahren würden wir überall vollautomatisierte Autos haben. Aber das haben wir noch nicht! Weil es ist zu kompliziert für die faktische Welt ist."

Man dürfe nichts überstürzen und müsse die möglichen Folgen Künstlicher Intelligenz als Gesellschaft klar verhandeln, sagt Wissenschaftsautor Ranga Yogeshwar. Ein Problem sei, dass selbst die Entwickler Künstlicher Intelligenzen nicht mehr wüssten, wie und nach welchen Kriterien ihre Schöpfung funktioniert.

Zum Beispiel wenn KI-Algorithmen darüber entscheiden würden, wer einen Job bekommt. "Eine KI entscheidet, ohne dass man genau nachvollziehen kann, warum", sagt Yogeswhar. "Das ist brandgefährlich." Große weltweite Unternehmen wie Microsoft und Google würden sich gerade in Sachen KI einen Wettkampf liefern. "Sie wissen, der erste, der das Rennen macht, gewinnt", sagt Ranga Yogeshwar. "Dieses ökonomische Rennen läuft im Moment auf Kosten all der offenen Fragen, die es da gibt. Das ist nicht verantwortbar."

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!