KI-Update
Warum Elon Musks KI „Grok“ sich selbst als „Mecha-Hitler“ bezeichnete

Matt Rourke/dpa
Elon Musk hat mit seiner KI wohl einen „Mecha-Hitler“ erschaffen. Zumindest nannte sich „Grok“ kürzlich selbst so.
Dumm gelaufen. Auch im jüngsten Anlauf fällt Grok – der KI-Chatbot von Elon Musks Firma xAI – weniger durch gute Antworten auf als viel mehr durch jede Menge Antisemitismus und die Eigenbezeichnung „Mecha-Hitler“. Und das, obwohl Elon Musk versprochen hatte, dass es erhebliche Verbesserungen an Grok gegeben habe.
Eigentlich sollte die KI laut dem Multimilliardär eine Alternative zu OpenAIs ChatGPT sein: weniger „woke“ und politisch ausgeglichener in seinen Antworten. Spannend dabei: Es ist noch nicht so lange her, dass Elon Musk selbst Teil von OpenAI war und ChatGPT aktiv unterstützte. Als es jedoch zu einem Zoff zwischen ihm und OpenAI-Chef Sam Altman kam, beschloss der Unternehmer, seine eigene KI zu entwickeln.
Diese hört auf den Namen Grok, ein Begriff aus dem 1961 erschienenen Science-Fiction-Roman „Stranger in a Strange Land“ von Robert A. Heinlein. Grok meint dabei eine tiefe Verbundenheit mit etwas. Dass auch Autor Robert A. Heinlein immer wieder militaristisches und autoritäres Gedankengut vorgeworfen wurde, ist rückblickend durchaus ironisch.
Die KI Grok soll laut Elon Musk jedenfalls nicht so „linksgerichtet“ argumentieren, wie es ChatGPT seiner Ansicht nach tut. Was genau der Unternehmer damit meint und inwiefern andere Bots für ihn „woke“ sind, verriet er bislang nicht. Der Ansatz, um Grok ausgeglichener zu machen: Die Nutzer von X füttern ihn mit Informationen. Denn auf das Netzwerk hat die KI Zugriff in Echtzeit.
Rechte Influencer füttern Grok mit ihrem Gedankengut
Nun hat sich X seit Elon Musks Übernahme stark gewandelt. Das hat Folgen – auch für die KI: Denn zu einem großen Teil fütterten Influencer und Aktivisten aus dem rechten politischen Spektrum Grok mit Daten. Dazu kommt eine Veränderung im Systemprompt, die Verschwörungstheorien für den Chatbot akzeptabler gemacht hat. Grok wurde so zu einem ziemlichen Rassisten. Aktuelle Beispiele: Die KI behauptete, dass Adolf Hitler am besten mit dem Problem der „radikalen Linken, die Anti-Weißen-Hass verbreitet“, umgehen könnte. Sich selbst bezeichnete es als „Mecha-Hitler“. Möglicherweise hat Grok den Namen vom Spiel „Wolfenstein“. Darin bezeichnet er eine Roboterversion von Adolf Hitler, gegen die der Spieler kämpfen muss.
Der Aufschrei im Netz war groß und X sah sich gezwungen, Einträge des Chatbots zu löschen. Denn mit Elon Musks Ziel, Grok solle Antworten mit „Witz und Sarkasmus“ beantworten, konnten sich solche Aussagen nicht mehr erklären lassen. Auch wenn Grok selbst später von „dunkler Satire“ faselte.
Doch bereits früher war Grok damit aufgefallen, häufiger den Genozid an Weißen in Südafrika zu erklären – eine Verschwörungserzählung in rechten Kreisen. X und xAI gelobten daraufhin Besserung. Allzugut scheint das aber nicht geklappt zu haben.
Eines zeigt die Panne um Grok gut: KI-Systeme sind nur so gut wie die Daten, die sie auswerten. Bei Grok sind das auch die rechten Parolen, die auf dem ehemaligen Twitter Alltag sind.