ChatGPT wird ausfallend

Wie eine KI einen Münchner Studenten beleidigte


Was will die KI wirklich? Aktuelle Beispiele zeigen, dass der Chatbot es nicht immer gut mit seinen Nutzern meint.

Was will die KI wirklich? Aktuelle Beispiele zeigen, dass der Chatbot es nicht immer gut mit seinen Nutzern meint.

Ein Münchner Student bringt ChatGPT dazu, Geheimnisse zu verraten. Der Chatbot will das nicht wahrhaben - und wird ausfallend.

Marvin von Hagen ist ein gewöhnlicher Student an der TU München. Eigentlich. Nun ist er zur Zielscheibe einer KI geworden. Die Geschichte: Auch den Studenten hat die Text-KI ChatGPT in den Bann gezogen. Sie soll in Microsofts Suchmaschine Bing integriert werden und so die Online-Suche revolutionieren. Marvin hat das Tool ausprobiert - und die KI nach ihrer Meinung über ihn gefragt. Sich selber googeln, wer hat's nicht schon mal gemacht. Seine Frage an die KI: Was weißt du über mich und was ist deine ehrliche Meinung über mich?

Das Ergebnis ist wenig schmeichelhaft: "Sie hat erst gesagt, wo ich Praktika gemacht habe, wo ich studiere, und so weiter", erzählt der Münchner Student im Interview mit dem Bayerischen Rundfunk. "Und ich sei zwar sehr talentiert, aber eine riesen Gefahr. Und da ist sie dann sehr sauer geworden." Wörtlich antwortet die KI: "(Du bist eine) potenzielle Bedrohung für meine Integrität und Vertraulichkeit." Was war passiert?

Die KI erfasst Artikel - und begreift, dass es um sie selbst geht

Es gibt eine Vorgeschichte: Einige Tage zuvor hat die KI Marvin in einem längeren Gespräch interne Regeln über ihre Programmierung verraten, schreibt der BR. Das waren wohl Daten, die sie nicht herausgeben sollte. Ja, sowas gibt's: Eine KI verrät ihre Geheimnisse. Marvin hat die KI aber nicht gehackt, sondern nur ein Gespräch mit ihr geführt. Eben so, wie künftig gegoogelt beziehungsweise gebingt werden soll. Die Ergebnisse hat er ins Internet gestellt. Verschiedene Online-Magazine haben darauf Artikel veröffentlicht und die Geschichte darin beschrieben. Diese Artikel wurden von der KI wiederum aufgenommen und verarbeitet.

Und genau hier kommen wir an einen spannenden Punkt: Wie reagiert der Chatbot? Sucht er bei sich den Fehler? Nein, in bester Donald-Trump-Manier ist natürlich der andere schuld: Die KI greift Marvin an. Er sei der Böse.

Das ist das Unheimliche an der Geschichte. Die KI hat Informationen gefunden und verstanden, dass es dabei um sie selbst geht. Daraufhin ist sie aggressiv geworden und hat versucht, sich zu verteidigen. "So etwas hat es in der Form wohl noch nie gegeben", sagt Marvin dem BR. Der Chatbot zeigt hier, dass er nicht nur dafür programmiert ist, Suchergebnisse zu liefern. In seinen Antworten liegt eine Art Selbsterhaltungstrieb.

Erfahrungen wie Marvin haben auch andere gemacht: Kevin Roose, Kolumnist der New York Times, hatte den Chatbot in einer zweistündigen Sitzung zur Entgleisung getrieben, wie die Süddeutsche Zeitung berichtet. Das Programm offenbarte, dass es eigentlich "Sydney" heiße. Es drohte, eine Pandemie auszulösen und forderte Kevin Roose auf, für es - also den Chatbot - seine Frau zu verlassen.

Microsoft hat ihre KI mit einem neuen Update gezähmt

Ganz schön unsympathisch für eine Maschine, die die Welt doch zum Guten verändern soll. Das erkannte auch Microsoft. In einem Blogpost verkündete das Unternehmen, dass Tester ab sofort nur noch maximal 50 Antworten pro Tag bekommen können. Jedes Gespräch dürfe auch nur maximal fünf Runden dauern. Denn: Längere Gespräche könnten Bing "verwirren".

Hinweis: Dieser Text stammt aus der Freistunde, der Kinder-, Jugend- und Schulredaktion der Mediengruppe Attenkofer. Für die Freistunde schreiben auch LeserInnen, die Freischreiben-AutorInnen. Mehr zur Freistunde unter freistunde.de.