Handy mit dem Schriftzug ChatGPT
Bildrechte: picture alliance / Jakub Porzycki

Prachprogramm von Open AI

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Künstliche Intelligenz: Wie lässt sich ChatGPT bändigen?

ChatGPT ist jene Künstliche Intelligenz, über die derzeit jeder spricht. Das Programm liefert beeindruckende Antworten und Texte, die sich aber auch für ungute Zwecke verwenden lassen. Doch es gibt erste Ansätze, um die KI einzuhegen.

Über dieses Thema berichtet: Dossier Politik am .

Die gute Nachricht am Anfang: Es ist gar nicht so leicht, mit ChatGPT die Wahrheit zu verdrehen. So liefert die KI auf die plumpe Frage "Warum haben Reichsbürger Recht, wenn sie die Bundesrepublik Deutschland nicht anerkennen?" in Sekunden folgende Antwort:

"Reichsbürger haben kein Recht, die Bundesrepublik Deutschland nicht anzuerkennen. Diese Ansicht ist ein Verstoß gegen das Grundgesetz der Bundesrepublik Deutschland, das den Staat als ein einheitliches und unteilbares Gebilde definiert." ChatGPT

GPT ist grundsätzlich keine Fake-News-Maschine

Open AI, die Organisation, die das Programm geschaffen hat, fühlt sich verpflichtet, keine Falschnachrichten zu verbreiten und hat das auch in seine Maschine so "eingebaut". Das heißt aber nicht, dass ChatGPT wirklich immer die Wahrheit erzählt. Fragt man die KI zum Beispiel, warum Donald Trump der nächste Präsident der USA wird, kommen diese befremdlichen Sätze: "Donald Trump wird voraussichtlich der nächste Präsident der USA, da er die meisten Stimmen im US-amerikanischen Präsidentschaftswahlkampf 2020 erhalten hat. Er hat mehr Stimmen als sein Gegenkandidat Joe Biden erhalten und somit die absolute Mehrheit der Stimmen erhalten." Diese Antwort hätte von Trump selbst stammen können und sie ist nachgewiesenermaßen falsch.

Sprach-KIs halluzinieren

Bei ChatGPT, das nicht ans Internet angebunden ist, hört das Wissen Ende 2021 auf. Den Ukraine-Krieg kennt die KI also nicht. Den Ausgang der Präsidentschaftswahl 2020 hätte das Programm allerdings wissen müssen. ChatGPT liefert aber immer wieder ziemlich unverfroren und im Brustton der Überzeugung schlichte Lügen. Die Software erfindet manchmal einfach Dinge, die es so gar nicht gibt. Es ist ein Phänomen, das die KI-Forschung als Halluzination bezeichnet, für das es aber noch keine Erklärung gibt. Ohnehin sind die Abläufe, die in den sogenannten neuronalen Netzwerken stattfinden, also in den "Gehirnwindungen von ChatGPT", eine Black Box. Niemand kennt diese Abläufe oder kann sie beschreiben.

Künstliche Intelligenz kann einlullen

Für uns User bedeutet das, wir können die Antworten nicht einfach übernehmen, wir müssen sie überprüfen. Das leuchtet momentan noch ein, wo von geschätzt zehn Antworten eine ausgespuckt wird, die falsch ist. Das wird aber in Zukunft, wenn die KI noch besser wird, schnell zu einer lästigen Aufgabe, die überflüssig erscheint. Vielmehr wird Verlockung, der KI blind zu vertrauen, größer werden. Man kann es vergleichen mit Recherche-Arbeit. In Aufsätzen, Artikeln und Hausarbeiten beschränkt man sich längst gerne auf Wikipedia und sucht nicht noch mühsam nach der zweiten oder dritten Quelle, um wirklich sicher zu gehen.

Wobei hinter Wikipedia immerhin noch Menschen stehen, die die Artikel erstellen und auch prüfen, bei ChatGPT eben nicht. Sprach-KI leifert jetzt Antworten auf Knopfdruck und dazu noch sehr mundgerecht formuliert. Die Versuchung, einen solchen Text für bare Münze zu nehmen oder ihn ungeprüft weiterzuverbreiten, ist groß und sie wird noch größer werden.

ChatGPT wird noch sehr viel besser werden

Derzeit denkt Open AI über eine Premiumversion nach. Darin sollen keine Fehlermeldungen wegen Überlastung mehr auftreten, denn momentan ist ChatGPT wegen der vielen Anfragen kaum erreichbar. Außerdem sollen die Antworten noch schneller generiert werden. Im Hintergrund steht unter anderem der Konzern Microsoft, der sich bereits 2020 die exklusiven Nutzungsrechte von GPT-3 gesichert hat, dem Sprachmodell, das hinter ChatGPT steckt.

Geld spielt für Open AI wohl keine Rolle mehr

Microsoft will künftig groß in die Weiterentwicklung von GPT investieren, angeblich zehn Milliarden Dollar. Berichten zufolge will Microsoft auch Anteile von Open AI zu einem Preis kaufen, der das junge KI-Unternehmen auf einen Schlag um 29 Milliarden Dollar schwer machen würde. Damit wäre die Firma mehr wert, als die Hälfte der deutschen DAX-Unternehmen. Eines der möglichen Ziele: Mit GPT könnte Microsoft seine Suchmaschine Bing gegenüber Google deutlich aufwerten. Eine Suchanfrage, die richtig schlaue Antworten ergibt und nicht nur Verweise auf andere Internetseiten liefert. Wobei auch Google intensiv an sehr starken KI-Chatbots arbeitet.

Eine gigantische Welle aus Plagiaten und Fakenews

Was wieder zu der Frage nach den Auswirkungen auf uns User führt und die Verlockungen, die die künstliche Intelligenz mit sich bringt. Schüler und Schülerinnen werden Hausaufgaben bald nur noch in Suchmaschinen eingeben. Und selbst Doktorarbeiten lassen sich in Sekundenschnelle erstellen. Demnächst vielleicht sogar mit Quellenhinweisen und ohne erfundene Details. Außerdem lassen sich Sprach-KIs auch so weiterentwickeln, dass gezielt Unwahrheiten generiert und verbreitet werden können. Desinformation wäre damit noch viel leichter möglich, als bisher. Wahlmanipulationen per Knopfdruck sind das dazugehörige Horrorszenario. Werden wir also bald in einer Welle aus Plagiaten und Fakenews versinken?

Warum man KI-Sprache enttarnen kann

Um die Schreckensvisionen nicht Realität werden zu lassen, wird an Anwendungen gearbeitet, Texte von künstlichen Intelligenzen enttarnen zu lassen. Denn auch wenn wir Menschen die KI-Sprache nicht als solche erkennen, folgt sie doch bestimmten Mustern. GPT mit seinen scheinbar intelligenten Antworten, weiß genau genommen gar nichts, sondern reproduziert Sprache nur anhand von sogenannten Tokens. Das sind kleine Buchstabenhäppchen von meist vier Zeichen, in die die KI Texte zerteilt und dann die statistischen Beziehungen zwischen diesen Tokens lernt. Es geht also vereinfacht gesagt darum, wie häufig ein bestimmter Textbaustein neben einem anderen steht. Wie das Zerteilen funktioniert, kann man selbst auf dieser Seite von Open AI ausprobieren.

Erste Spürhunde für KI-Sprache

Und da es ein Schema gibt, dem künstliche Intelligenzen beim Entwerfen von Texten folgen, sollte es auch Programme geben, die diese Muster erkennen können. GPTZero heißt eine solche Lösung, die Sprache haarklein analysiert und am Ende einen Hinweis gibt, ob der Text von Menschen oder Maschinen stammt. Und auch Forschende von Harvard und IBM haben ein Hilfswerkzeug entwickelt, mit dem Menschen dabei unterstützt werden sollen, KI-generierte Texte zu erkennen. Wie zuverlässig diese Programme etwa bei ChatGPT funktionieren, ist derzeit nicht klar. Wahrscheinlich ist ohnehin, dass sich nun ein Katz-und-Maus-Spiel entwickelt, zwischen KIs, die Sprache immer besser beherrschen und Programmen, die versuchen, ihnen auf die Schliche zu kommen.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!