Der Münchner Musiker Sebastian Schnitzenbaumer aka BELP mit dunkelblauer Cap und dunkelblauer Jacke, darauf ein Aufnäher: "I literally don't know why I even went to art school?"
Bildrechte: BR

Nicht zu verwechseln mit Marco Guazzoene: Der Münchner Musiker Sebastian Schnitzenbaumer aka BELP

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Münchner Musiker wirft ChatGPT Identitätsklau vor

Künstliche Intelligenz ist längst nicht fehlerfrei. Das hat auch der Münchner Musiker BELP festgestellt, als er ChatGPT nach sich selbst befragte. Ein Fall, der unser bisheriges Verständnis von KI infrage stellt.

Über dieses Thema berichtet: Die Welt am Morgen am .

Wer ist BELP? Diese simple Frage hat Sebastian Schnitzenbaumer, Münchner Underground-DJ und Techno-Produzent mit ebenjenem Künstlernamen, der KI-Software ChatGPT gestellt. Was er als Antwort bekam, hat ihn ziemlich überrascht und auch ein bisschen belustigt: Denn laut der KI steckt hinter BELP nicht etwa er selbst, sondern ein italienischer Musiker namens Marco Guazzone. Ein ähnlich klangvoller Name zwar wie BELPs tatsächlicher bürgerlicher Name – nur eben völlig aus der Luft gegriffen.

Musiker spricht von Identitätsklau und Verleumdung

Marco Guazzone gibt es wirklich: Er ist ein italienischer Popmusiker, dessen Ästhetik nicht weiter entfernt sein könnte von der von BELP. ChatGPT behauptet auch, dass BELP Teil des Musikkollektivs Loose Wire Head Radio ist – was diesmal komplett erfunden ist, ein solches Kollektiv existiert nicht. Andere Dinge wie die für BELP wichtige Platte "Crocodile" nennt ChatGPT zwar richtig. Am Ende kommt trotzdem ein ziemlicher Murks heraus. Oder, wie Sebastian Schnitzenbaumer es nennt: "Identitätsklau." Schnitzenbaumer vergleicht es auch mit Verleumdung. "Ich werde dort aufgrund von vielen richtigen Informationen mit einer komplett falschen Identität vermischt. Und das mag niemand."

Künstliche Intelligenz halluziniert

Die Fachwelt spricht von Halluzinationen. Dass es zu diesen Halluzinationen kommt, liegt am Algorithmus von generativen KIs wie ChatGPT – an ihrer Arbeitsweise. Man kann nicht einmal wirklich von einem Fehler sprechen, sagt KI-Experte Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz in Berlin (Externer Link). Denn für den Algorithmus ist nicht faktische Wahrheit entscheidend, sondern statistische Wahrscheinlichkeit. KIs wurden mit Milliarden von Texten im Internet gefüttert. Und schreiben nun Sätze, indem sie immer das nächste wahrscheinlichste Wort finden.

Eine KI wie ChatGPT geht exakt gleich vor, wenn sie faktisch Wahres oder frei Erfundenes ausgibt, erklärt Burchardt: "Wenn du unterm Strich alle Texte dieser Welt gelesen hast und sagen kannst, was das Wahrscheinlichste ist, wenn ich sage, Photosynthese funktioniert wie folgt. Dann kommt da wahrscheinlich auch ein relativ sinnvoller Text über Photosynthese heraus. Aber wenn man nach Personen fragt, über die es nicht zu viel Informationen gibt, dann kommt aus dem System einfach das heraus, was möglicherweise plausibel klingt für einen Musiker."

Entwertung der Musik droht

Das schwierige: Die BELP-Biografie von ChatGPT liest sich wie ein gut geschriebener, typischer Techno-Produzenten-Lebenslauf. Eben alles sehr wahrscheinlich. Was davon tatsächlich richtig und was frei erfunden ist, kann man nicht erkennen. Besonders für Musiker und Musikerinnen sind solche Halluzinationen aber fatal, sagt Schnitzenbaumer: "Musiker und Künstler haben in den letzten zehn, zwanzig Jahren gelernt, aufgrund der Entwertung der Kunst selber, dass ihr brand und ihre Identität das wertvollste Gut ist. Wenn jetzt eine KI auch noch die Identität klaut und umbaut, dann wird die Möglichkeit der Vermarktung von Kunst und Künstlern weiter erodiert."

Droht eine neue Runde der Entwertung von Kunst durch die digitale Welt? Generative KI-Programme wie ChatGPT haben sich ungefragt auch Romane, Lieder oder Bilder von Künstlern und Künstlerinnen weltweit einverleibt und können deren Kunst, von Schreibstilen über Maltechniken bis hin zur Stimme eines Musikers nun täuschend echt imitieren und neu kombinieren – ohne bisher etwa auf Urheberrechte Rücksicht zu nehmen. Schon vorher hat Streaming vor allem unbekannteren Musikern und Musikerinnen erhebliche finanzielle Einbußen beschert.

Wer trägt Verantwortung?

Die Programme können selbst nicht sagen, was faktisch richtig und falsch ist. Weil sie eben gar nicht erkennen: Das ist ein belegbarer Fakt und das ist nur sehr plausibel, tatsächlich aber falsch. Und anders als etwa bei Wikipedia können die Halluzinationen der KI auch nicht gelöscht oder richtiggestellt werden. Sebastian Schnitzenbaumer überlegt, ob er OpenAI verklagen sollte: "Da bin ich mit einem Anwalt dran, aber auch auf eine entspannte und humorvolle Art." (In einem ähnlichen Fall hat genau das gestern erst die Nichtregierungsorganisation Noyb getan.) Wenn man das Gleiche als Journalist tun würde, wäre es schließlich Verleumdung. "Du kannst nicht sagen: Sebastian Schnitzenbaumer aka BELP ist Marco Guazzone und das bin ich nicht." Es stelle sich die Frage, inwieweit man eine künstliche Intelligenz dafür verantwortlich machen könne.

Die Frage ist schwerer zu beantworten, als man zunächst meinen würde. Denn eigentlich, so Aljoscha Burchardt, dürfen wir von KI-Programmen wie ChatGPT gar keine faktisch richtigen Antworten erwarten. Schließlich würde OpenAI gar nicht behaupten, dass ChatGPT wahrheitsgemäße Artikel fabriziert. "Trotzdem könnte man natürlich der Firma sagen", so Burchardt, "sie haben nicht gut genug darüber aufgeklärt. Und dadurch, wie das System sich gibt, und wie das System antwortet, könnten die Nutzerinnen und Nutzer auf die Idee kommen, dass es Wahrheit ausgibt."

KI-Nutzer aufklären

Benutzen wir KI-Programme also einfach falsch? Erwarten wir zu viel von ihnen? Das falsche? Viele benutzen generative KI-Programme schon jetzt als Suchmaschine und Informationswerkzeug. "Das ist super brutal", sagt Burchardt. "Leute nutzen das zum Beispiel auch, um sich jetzt über Wahlthemen, über Politikerinnen und Ähnliches zu informieren, Stichwort Europawahlen und Superwahljahr, und da kommen natürlich auch Halbwahrheiten und Unwahrheiten heraus. Das hat richtig Potenzial, auch Unfrieden zu stiften."

Sebastian Schnitzenbaumer will deshalb auch eine Diskussion darüber anstoßen, wie wir alle über Künstliche Intelligenz denken und sprechen. "Die Popkultur und die Science Fiction hat Computer und Roboter und Androiden oft in ihrer Unfehlbarkeit dargestellt: Der Computer hat immer recht", so Schnitzenbaumer. "Mit ChatGPT passiert genau das Gegenteil: Wir müssen lernen, dass Computer und Softwaresysteme extrem anfällig sind, bis hin zur Tatsache, dass sie träumen. Wir haben hier träumende Software. Und da fehlt uns noch popkulturell die Sprache."

Eine neue Sprache finden

Werden wir also demnächst von mehr oder weniger verträumten KIs sprechen? Vermenschlichen wir die KI damit andererseits nicht zu sehr? Sollten wir überhaupt von Künstlicher Intelligenz sprechen – oder einen weniger menschlichen, weniger vorbelasteten Begriff finden? Im Fall der "halluzinierenden" KIs schlägt Burchardt einen ganz nüchternen Begriff vor: "Wenn wir alle wissen, dass von generativer KI erzeugte Inhalte eben nicht notwendigerweise wahr sind und nicht notwendigerweise die Referenzen existieren, dann kann man doch einfach sagen: Das hier ist eine automatisch generierte oder statistisch generierte Antwort. Und dann wissen wir, dass das wahr oder falsch sein kann."

Klar ist: Wir müssen unser Verhältnis zu Künstlicher Intelligenz erst noch finden – und das vielleicht diesmal so, dass das Schaffen von Musikern und Künstlerinnen nicht weiter entwertet wird.

Das ist die Europäische Perspektive bei BR24.

Verpassen war gestern, der BR Kultur-Newsletter ist heute: Einmal die Woche mit Kultur-Sendungen und -Podcasts, aktuellen Debatten und großen Kulturdokumentationen. Hier geht's zur Anmeldung!