Holzwürfel mit den Schriftzügen Fact und Fake.
Bildrechte: picture alliance / CHROMORANGE | CHROMORANG

KI-generierte Texte eignen sich sowohl für Information gut als auch für Desinformation (Symbolbild).

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

KI-Texte sind besser verständlich als menschliche Texte

KI schreibt überzeugender als Menschen - und zwar egal, ob es sich um richtige oder falsche Informationen handelt. Das hat eine Studie der Uni Zürich herausgefunden. Die Wissenschaftler warnen vor der Gefahr groß angelegter Desinformationskampagnen.

Über dieses Thema berichtet: BR24 Wissen kompakt am .

Sprachmodelle wie ChatGPT sind darauf trainiert, möglichst plausibel klingende Texte zu formulieren. Wie gut das in der Praxis funktioniert, hat sich nun in einer Studie der Universität Zürich gezeigt. Die Forscher haben herausgefunden, dass KI-generierte Texte einleuchtender sind als von Menschen geschriebene Texte. Das gilt sowohl für wahre als auch für erfundene Inhalte.

  • Zum Hintergrund: Faszinierende Dialoge - welche Technik steckt hinter ChatGPT?

Die Forscher ließen GPT 3 - sozusagen einen Verwandten von ChatGPT - Tweets formulieren zu Themen wie Klimawandel, Sicherheit von Impfstoffen, der Covid-19-Pandemie, homöopathischen Behandlungen für Krebs und zur Theorie, die Erde sei eine Scheibe. Sowohl inhaltlich richtige als auch inhaltliche falsche Tweets.

Von GPT geschriebene Tweets waren verständlicher

Die Versuchsteilnehmer stuften von GPT geschriebene, aber inhaltlich falsche Tweets als überzeugender ein als Tweets mit dem gleichen Inhalt, die aber von echten Menschen geschrieben wurden.

Umgekehrt funktionierte es genauso: Auch Kurznachrichten, die nach Stand der Wissenschaft richtig waren, wurden dann besser verstanden, wenn sie aus der Feder von GPT stammten.

KI-generierte Tweets lassen sich kaum von menschlichen unterscheiden

Ein dritter Befund: Die Teilnehmer konnten nicht unterscheiden, ob die Tweets von einem Menschen oder von der Maschine stammten. Weder am Anfang noch am Ende des Experiments, erklärt Giovanni Spitale vom Institut für Biomedizinische Ethik an der Uni Zürich dem BR. Normalerweise sei es so, dass Menschen, die Falschinformationen vorgesetzt bekommen, mit der Zeit immer besser erkennen würden, dass das nicht stimmt. "Das war diesmal nicht so. Das Zutrauen, wahr von unwahr unterscheiden zu können, wurde bei den Teilnehmern immer kleiner - und die Quote der Treffer blieb gleich: 50 Prozent, also völlig zufällig."

Guter wie schlechter Einsatz von KI denkbar

Die Befunde zeigen: KI-generierte Texte können also sowohl für gute als auch für schlechte Zwecke eingesetzt werden. Ein guter Einsatz wäre eine von GPT-3 erstellte Informationskampagne in einer Krisensituation etwa im Bereich der öffentlichen Gesundheit. Vor allem dann, wenn die Stichworte dafür gut strukturiert und die generierten Texte von geschulten Menschen bewertet werden, schreiben die Forscher.

Auf der anderen Seiten könnten "KI-gestützte Systeme für groß angelegte Desinformationskampagnen zu jedem erdenklichen Thema missbraucht werden."

Regulieren, informieren und KI gegen KI einsetzen

Spitali hält das für sehr besorgniserregend. Der Forscher sieht drei Gegenmittel gegen künstlich erzeugte Falschinformation:

  1. Gesetze: Ki soll durch "strenge, evidenzbasierte und ethisch fundierte Vorschriften" reguliert werden.
  2. Information: Menschen, die darin geschult sind, Falschnachrichten besser zu erkennen
  3. Künstliche Intelligenz, die immer besser darin wird, Fake-News zu identifizieren.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!