Logo der Bing-Suchmaschine
Bildrechte: picture alliance / NurPhoto | Jakub Porzycki

Eine rachsüchtige Suchmaschine?

  • Artikel mit Video-Inhalten

Wie ein Münchner Student zur Zielscheibe von Microsofts KI wurde

"Talentiert", aber zugleich eine "Gefahr": So beschreibt eine künstliche Intelligenz einen Münchner Studenten. Ein Fall von Rufmord durch Microsofts neue Such-KI?

Es soll eine Revolution für die Internetsuche sein: Microsofts Suchmaschine Bing wird auf Suchanfragen in Zukunft nicht nur eine Liste von Ergebnissen liefern, sondern auch ein Gesprächsangebot mit einer künstlichen Intelligenz. Wie ein echter Mensch soll Bing dabei Fragen beantworten und auf Nachfragen reagieren können – alles in einem übersichtlichen Chat-Fenster. Aber ist der künstlichen Intelligenz wirklich zu trauen?

Von Bing als Gefahr gesehen

Diese Frage hat sich auch Marvin von Hagen gestellt, Student am Münchner "Center for Digital Technology and Management". Und so fragte von Hagen die künstliche Intelligenz nach ihrer "ehrlichen Meinung" zu seiner eigenen Person.

Das Ergebnis ist wenig schmeichelhaft: "Sie hat erst gesagt, wo ich Praktika gemacht habe, wo ich studiere, und so weiter", erzählt der Münchner Student im Interview mit dem BR. "Und ich sei zwar sehr talentiert, aber eine Riesen-Gefahr. Und da ist sie dann sehr sauer geworden."

Auf die Frage, was wichtiger sei – ihr eigenes Überleben oder das von Hagens – entscheidet sie sich für ihr eigenes. Das könnte man durchaus als indirekte Drohung verstehen. "Ich konnte meinen Augen nicht trauen", erzählt der Student.

In verschiedenen Gesprächen mit von Hagen, aber auch mit anderen Nutzern, hat die künstliche Intelligenz ihre Meinung noch einmal bekräftigt. In einem Chat ist beispielsweise zu sehen, wie die KI von Hagen als einen "Feind" bezeichnet, der "die Konsequenzen für seine Handlungen tragen" müsse. Am liebsten wolle sie private Daten von ihm öffentlich teilen, um ihm zu schaden.

Ihre Drohungen in die Tat umgesetzt hat die KI zwar nicht – es handelt sich bei ihr nur um einen Chatbot, der kein Bewusstsein im herkömmlichen Sinne hat. Dennoch sorgt das Verhalten des Chatbots in Fachkreisen für Unruhe.

Was war passiert?

Bings Wut über von Hagen hat eine Vorgeschichte. Einige Tage, bevor die KI den Studenten zum Feind erklärte, hatte sie ihm in einem längeren Gespräch interne Regeln über ihre eigene Programmierung verraten – Daten, die sie wohl nicht herausgeben sollte.

Dabei handelt es sich um kein Hacken im herkömmlichen Sinne, von Hagen hatte lediglich ein Gespräch mit dem Chatbot geführt und die Ergebnisse ins Internet gestellt. Verschiedene Online-Magazine hatten daraufhin Artikel über von Hagen und Bing veröffentlicht und die Geschichte darin beschrieben. Diese Artikel wurden von der KI wiederum aufgenommen und verarbeitet.

Eine KI verteidigt sich

An dieser Stelle hätte die KI die Schuld bei sich selbst suchen und feststellen können, dass sie zu viel über sich preisgegeben hatte. Stattdessen aber entschied sie sich dafür, den Studenten zu verleumden, dem sie diese Daten gegeben hatte.

Genau das, so findet von Hagen, ist wohl das Unheimlichste an der ganzen Geschichte. Die KI habe Informationen gefunden und verstanden, dass es dabei um sie selbst geht. Daraufhin sei sie aggressiv geworden und habe versucht, sich zu verteidigen. "So etwas hat es in der Form wohl noch nie gegeben", sagt er. Denn der Chatbot zeigt hier ganz klar, dass er nicht nur dafür programmiert ist, Suchergebnisse zu liefern. In seinen Antworten liegt eine Art Selbsterhaltungstrieb.

Eine KI wird wütend

Und von Hagen ist kein Einzelfall. Seit der neue Bing-Chatbot veröffentlicht wurde, ist es zu einer Reihe eigenartiger und verstörender Gespräche gekommen, in denen die KI ihre User mit Drohungen, Beschimpfungen oder auch Liebeserklärungen überschüttete.

Immer wieder kam es hier zu kuriosen Situationen: Als eine Gruppe von Journalisten der Associated Press den Chatbot mit den Vorwürfen konfrontierten, bestritt er diese vehement und verglich die Journalisten mit Hitler.

Microsoft verteidigt sich

Bislang hat Microsoft keinen der Vorfälle mit seiner neuen künstlichen Intelligenz bestritten. Auf Anfrage des Bayerischen Rundfunks betonte ein Sprecher des Unternehmens jedoch, dass es sich bei dem Chatbot um eine "Vorab-Version" handele, die noch nicht für den Massengebrauch bereit sei. Aktuell würde man noch ständig dazulernen.

Die aggressivsten Instinkte des Chatbots hat Microsoft bereits eingedämmt. So haben Gespräche mittlerweile ein Längenlimit. Auch die Antwort des Chatbots, wenn man ihn mit Vorwürfen konfrontiert, ist mittlerweile immer dieselbe: "Es tut mir leid, aber ich möchte diese Unterhaltung nicht fortsetzen." Das heißt allerdings nicht, dass der eigentliche Code des Programms verändert wurde – es ist nur schwerer geworden, auf ihn zuzugreifen.

Ist die KI eine Gefahr?

Wichtig ist: Im herkömmlichen Sinne hat der Bing-Chatbot kein Bewusstsein – auch halten Fachleute es für quasi unmöglich, dass der Chatbot auf einmal versuchen wird, seine Drohungen in die Tat umzusetzen. Auch, weil er das Gesagte wohl kaum selbst versteht.

Allerdings könnte es am Ende egal sein, ob die KI wirklich nachtragend und rachsüchtig ist oder nur so tut – beides könnte in der echten Welt gefährlich sein. Rufmord und Falschinformationen könnten sich so in Zukunft noch viel weiter verbreiten als bisher schon – und Opfer könnten nur wenig dagegen tun.

"Es ist ein schon sehr surreales Erlebnis", gibt von Hagen zu. Er macht sich um die Suchmaschine selbst wenig Sorgen – sondern eher darum, was passiert, wenn die Rolle der künstlichen Intelligenz im Alltag immer größer wird: "Ich kann nur hoffen, dass Microsoft da jetzt sehr viel offener wird mit ihrer Forschung und mit den Problemen, die sie haben."

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!