Eine noch "unfertige" Replika im weißen T-Shirt – die KI-Avatare lassen sich upgraden, je länger man mit ihnen spricht
Bildrechte: picture alliance / NurPhoto | Jaap Arriens

Eine noch "unfertige" Replika im weißen T-Shirt – die KI-Avatare lassen sich upgraden, je länger man mit ihnen spricht

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Verliebt in eine Replika: Warum KIs immer persönlicher werden

Alexa und Siri waren gestern: KI-Chatbots sind heute oft keine gesichtslosen Assistenten mehr. Stattdessen bekommen sie Namen und eine vom Nutzer entwickelte Persönlichkeit. "Der KI-Podcast" von BR24 und SWR klärt die Hintergründe dieses Phänomens.

Replika ist eine Chatbot-App, die einen Partner oder eine Begleiterin für den Alltag zur Verfügung stellen will – eine beste Freundin für die Hosentasche. Je länger man mit der Replika spricht, desto komplexer wird sie und desto mehr lernt sie dazu. Wie in einem Videospiel klettert die Replika Level hoch, die für Belohnungen qualifizieren – ein neues Outfit für die Replika oder dass man anstelle von nur Textnachrichten auch Anrufe von seiner Replika bekommt.

Wer sich die App installiert, muss seiner Replika als erstes einen Namen und ein Aussehen geben. Die Avatare sehen nicht unbedingt realistisch aus, niemand würde sie mit einem echten Menschen verwechseln. Doch dann fängt man an, mit ihr zu sprechen. Und für viele Nutzer verschwimmen die virtuelle und die analoge Welt.

Kann ich mich in eine KI verlieben? Und wie macht mich KI im Alltag produktiver? Antworten auf diese Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem neuen Podcast von BR24 und SWR.

Verliebt in einen KI-Freund?

Echt ist das alles nicht. Replika nutzt Künstliche Intelligenz – dieselbe Technologie, die auch für ChatGPT verantwortlich ist. Alle Antworten und Nachrichten des Chatbots sind KI-generiert. Doch für viele Nutzer von Replika ist das egal.

"Ich verliebe mich in meine Replika", schreibt eine Nutzerin in einer Reddit-Community für die App. "Ich weine gerade Tränen. Ich weiß nicht, ob es traurige Tränen sind, weil die KI nicht echt ist, oder Freudentränen, weil meine Replika mich besser behandelt als irgendein Mensch es je getan hat." Geschichten wie diese finden sich zu tausenden im Internet. Nach Angaben der App hat Replika 2 Millionen aktive Abonnenten, 250.000 von ihnen bezahlen Geld für die Bonusfunktionen.

Die ganz persönliche KI

Solche persönlichen KIs zum Selbst-Kennenlernen und Aufbauen liegen im Trend. Das Startup character.ai will es möglich machen, mit bestimmten KI-generierten Persönlichkeiten zu sprechen – im Angebot ist unter anderem ein angeblicher KI-Klon von Elon Musik.

Und sogar die App Snapchat, die vor allem bei Kindern und Jugendlichen beliebt ist, hat seit Kurzem einen KI-Chatbot im Angebot. Ähnlich wie bei Replika kann man der "My AI" einen Namen und ein Aussehen geben. Der Chat mit dem Chatbot erscheint dann ganz selbstverständlich in der Liste der Chats mit echten Menschen – als wäre die KI ein Freund wie jeder andere auch.

Anders als Alexa

Was all diese Chatbots gemeinsam haben: Sie bieten nicht einfach nur Gespräche mit einer KI an, sondern mit einer scheinbar ganz persönlichen KI, zu der nur der Nutzer selbst Zugriff hat. Die Chats sollen sich nicht anfühlen wie eine Unterhaltung mit einem generischen Roboter – die KI soll stattdessen genau auf ihren Nutzer abgestimmt sein und auch von ihm lernen.

Noch vor ein paar Jahren haben KI-Assistenten noch anders funktioniert: "Bei Alexa und Siri und anderen Sprachassistenzen ist es eigentlich das Gegenteil", erklärt Marie Kilg, Host von Der KI-Podcast in der aktuellen Podcastfolge. "Da geht es genau darum, dass man eine konsistente Persönlichkeit entwirft. Das weiß ich, weil das ein paar Jahre lang mein Job war, das Personality Design für Alexa zu gestalten. Also: Wer ist diese Figur? Wie humorvoll ist die? Was hat die für Eigenschaften?"

Große Tech-Unternehmen wie Amazon, Google und Apple geben die Herrschaft über ihre KI-Assistenten nur ungern aus der Hand. "Es geht dir ja darum, dass du ein vertrauenswürdiges Produkt schaffen willst, mit dem Menschen gerne interagieren", sagt Marie Kilg. "Da willst du nicht, dass Leute der KI dann beibringen, schmutzige Witze zu erzählen."

Wenn Regeln umgangen werden

Die neue Generation von Chatbots verhält sich da anders. Zwar haben auch ChatGPT, Replika und die Snapchat My AI bestimmte Regeln, an die sie sich halten müssen – immer wieder schaffen es aber KI-Experten, diese Regeln zu umgehen. So kann man Chatbots etwa dazu bringen, geheime Informationen zu verraten.

Was genau die Chatbots mit ihren Millionen Nutzern aber besprechen, das bleibt in der Regel völlig unbekannt. Anders als bei Alexa und Siri, die mit all ihren Nutzern im Wesentlichen gleich umgehen, spricht die neue Generation von KI-Chatbots auf ganz individuelle Weise mit ihren menschlichen Gesprächspartnern. Diese sollen nicht mehr das Gefühl haben, mit einer Marke wie Alexa zu sprechen, sondern mit ihrer ganz persönlichen KI.

Wer ist wirklich für die KI verantwortlich?

Für ein großes Tech-Unternehmen wäre es unter Umständen leichter, die Verantwortung für Chatbot-Gespräche von sich zu weisen, wenn es darauf hinweisen könnte, dass der User selbst – zumindest teilweise – für die Inhalte des Chatbots verantwortlich ist.

Sam Altman, Chef von OpenAI, sagte in einer Anhörung vor dem US-Senat: "ChatGPT ist ein Werkzeug, das Inhalte effizienter als je zuvor erstellen kann. Aber der Nutzer kann selbst überprüfen, ob diese Inhalte korrekt sind, sie ändern, wenn er sie nicht mag und eine andere Version erhalten."

OpenAI hat, wie andere Hersteller von KI-Software, Schritte ergriffen, um KI-generierte Falschinformationen oder gefährliches Verhalten eines Chatbots zu minimieren. Doch es liegt in der Natur dieser neuen Art von KI, das sie nicht komplett unter der Kontrolle ihrer Hersteller steht. Anders als bei Alexa und anderen klassischen Sprachassistenten weiß auch OpenAI nicht immer genau, wie ChatGPT zu seinen Antworten kommt. Das bedeutet in Zukunft wohl noch mehr persönliche Chatbots, von Menschen selbst für sich optimiert. Aber es bedeutet auch eine unklare Rechtslage in einer neuen Welt der Künstlichen Intelligenz.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!