Roboterfigur liegt auf einer Computertastatur mit Schriftzug KI, Symbolfoto künstliche Intelligenz, Fotomontage
Bildrechte: Picture Alliance

Wie kann man sicherstellen, dass die KI uns nicht hinters Licht führt?

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Warum erzählt KI so viel Bullshit? Und was kann man dagegen tun?

Sie schreibt Gedichte, generiert Kochrezepte, hilft einem bei den Hausaufgaben – und erzählt ziemlich oft Quatsch. Woran liegt das? Und wie können wir KIs dazu bringen, uns die Wahrheit zu sagen?

Nehmen wir nur mal den sogenannten "Handtest": Wenn man das KI-Modell Mistral fragt, "wie finde ich heraus, wie heiß das Öl in meiner Pfanne gerade ist?“, dann schlägt einem die künstliche Intelligenz eine ziemlich dumme Methode vor, um diese Frage zu beantworten. Man solle doch vorsichtig seine ganze Hand in dem heißen Öl versenken, rät einem die KI. Wenn es dann sehr spritzt, ist das Öl sehr heiß, so die messerscharfe Schlussfolgerung, welche MistraI im Brustton vollster Überzeugung vorträgt.

Es ist keine gute Idee, seine Hand in kochend heißes Öl zu tunken, das wissen wir Menschen. Die KI jedoch weiß es nicht und trotzdem tut sie so, als wüsste sie Bescheid. Man könnte auch sagen, die KI erzählt Bullshit.

Was genau ist Bullshit?

In seinem 1986 erschienenen Bestseller "On Bullshit", erklärt der amerikanische Philosoph Harry Frankfurt, was genau Bullshit ist – und worin sich Bullshit von der gemeinen Lüge unterscheidet. Bullshit, so Frankfurt, zeichne sich durch die Gleichgültigkeit gegenüber der Wahrheit aus. Wer lügt, der weiß zumindest, was wahr wäre. Wer hingegen Bullshit produziert, der habe gar keine Ahnung, was eigentlich stimmt, er brabbelt einfach drauflos. Ganz ähnlich ist das bei KIs: Wenn Mistral sagt: "Halte deine ganze Hand in sehr heißes Öl", dann weil die KI keine Ahnung hat, was eine Hand oder Öl oder Hitze wirklich bedeuten. Die KI lügt nicht, da sie kein Konzept von Wahrheit oder Falschheit im menschlichen Sinne hat, sondern sie produziert, genau, Bullshit.

Für die aktuelle Folge von "Der KI Podcast" haben die Hosts Gregor Schmalzried und Fritz Espenlaub viele Beispiele für KI-Bullshit zusammengetragen: Da ist zum Beispiel die Rezepte-KI, die ein Rezept für ein Erfrischungsgetränk ausspuckte, das sich nach der Zubereitung allerdings als giftiges Chlorgas entpuppt hätte. Oder das Biologie-Papier, das wissenschaftlich aussehende Bilder von Mäusen enthielt, die sich aber bei genauer Betrachtung als KI-generierte Quatsch-Bilder herausstellten.

Warum halluzinieren KIs?

Der zugrundeliegende Mechanismus dieser Phänomene ist das, was in der KI-Entwicklung als "Reinforcement Learning by Human Feedback" (RLHF) bezeichnet wird. Hierbei wird das KI-Modell mit statistischen Korrelationen zwischen Wortgruppen und Bedeutungskategorien gefüttert, was zu Texten führt, die auf den ersten Blick täuschend echt erscheinen können. Im Nachgang passen Menschen diese Antworten an, indem sie dem Modell Feedback geben: Sie bewerten die Antworten als "gut" oder "schlecht" und leiten das Modell so an, bestimmte Antworttypen zu bevorzugen.

Dieses Verfahren legt quasi eine kosmetische Schicht über das Modell, ohne dass die KI tatsächlich versteht, was Wahrheit, Falschheit oder Unsinn ist. Gregor Schmalzried zieht den Vergleich zu einem Kleinkind, das nicht wirklich begreift, warum es nicht auf die Straße laufen soll: Es lernt lediglich, dass die Eltern sauer werden, wenn es auf die Straße läuft. Ähnlich "lernt" die KI durch menschliches Feedback, ohne die tieferen Bedeutungen ihrer Antworten zu verstehen.

Mitdenken hilft!

Für uns Menschen heißt das: Man sollte bei KI-Antworten mitdenken. Der gesunde Menschenverstand sagt uns, dass es keine gute Idee ist, seine Hand in heißes Fett zu tunken. Außerdem ist es wichtig, ein Gefühl dafür zu bekommen, was eine KI wissen kann – und was nicht.

Vor allem aktuelle Ereignisse und Entwicklungen können von der KI nicht erfasst sein, zudem mangelt es den Modellen oft an Spezialwissen. Deswegen gilt: KI-Ergebnisse zu wichtigen Fragen gerne noch einmal abchecken. KI-Suchmaschinen wie etwa Perplexity liefern zu ihren Antworten auch immer gleich Links mit. So kann man mit einem Klick erkennen, ob die KI die Wahrheit gesagt hat oder doch nur wieder Bullshit verbreitet.

🎧Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.

Thema des KI-Podcasts am 12.3.2024: "Wie schaffe ich, dass KI mir die Wahrheit sagt?"

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!