Massive Kritik an Musks Grok-KI: Hitler-Lob, Hass, Lügen – und Musk-Ansichten als wichtigste Quelle


Ganz besonders viel Wahrheit soll Elon Musks AI namens "Grok" bieten. Momentan als Web-Version erhältlich, wird der Dienst in Zukunft auch in Tesla-Fahrzeuge integriert. Allerdings machte der Chatbot schon häufiger durch sehr unangenehme Pannen von sich reden. So gab es mehrfach Lobreden auf "Seine Majestät" Adolf Hitler, Geschichtsfälschung, Verbreitung kruder Verschwörungstheorien und Antisemitismus bis hin zu schweren Beleidigungen oder Anleitungen zu sexuellem Missbrauch. Da es sich um keine Einzelfälle handelt und Musk explizit von einer "politisch unkorrekten Alternative zu ChatGPT" spricht, welche "das Wissen der Menschheit neu schreibt", werden inzwischen verstärkt Behörden auf den Dienst
aufmerksam. Fast schon grotesk mutet an, wie Grok Ansichten zu heiklen Themen gewinnt, ein Versuch zeigte die bevorzugte Quelle.
Wichtigste Quelle bei politischen Themen: Musks AnsichtenWie Grok sein Wissen bei kontroversen Themen verifiziert, konnte inzwischen in verschiedenen
Versuchen nachgestellt werden: Der Bot sieht nach, was Elon Musk dazu gesagt hat. Bei Fragen rund um Israel, Palästina, Immigration oder gesellschaftliche Themen sind Musk-Zitate die Hauptquelle – und dementsprechend fallen daher oft die Antworten aus. Es lässt sich allerdings nicht nachweisen, dass jene Ausrichtung tatsächlich so gewollt ist. Auffällig bleibt aber, dass bei unverfänglichen Themen eine breitere Quellenrecherche durchgeführt wird – sobald es um heikle politische Themen geht, plötzlich eine Verengung auf Musk-Aussagen erfolgt.
Keine Hinweise auf bewusste "Elonisierung"Wer sich die tatsächlichen Prompts im Hintergrund ansieht, also was die KI aus den Nutzereingaben macht, findet keine Hinweise auf die beobachtete Musk-Ausrichtung. Stattdessen ist die explizite Instruktion erhalten, alle Ansichten zu berücksichtigen und dementsprechend umfassend zu suchen. Der Entwickler und Datenexperte Simon Willison, welcher in einem Versuch die "Elonisierung" der Textausgaben untersuchte, hat derzeit nur eine Erklärung. Grok weiß, dass es von xAI entwickelt ist, also von einem Musk-Unternehmen stammt. Dies könnte den Reasoning-Prozess beeinflussen und Quellen mit "vertrauten Namen" bevorzugen.