OpenAI reagiert auf Kritik: ChatGPT und der Umgang mit Lebensentscheidungen, Abhängigkeit, Übernutzung


LLM-basierte Chats sind beliebt und werden von immer mehr Menschen als Universalwerkzeug verwendet: Sie generieren schnelle Illustrationen, sauber formulierte Texte und (zumindest sehr oft) funktionierenden Programmier-Code. Rat zu alltäglichen Dingen wird von der Künstlichen Intelligenz in der vertrauten Gestaltung eines Messengers eingeholt. Zu jeder Tageszeit generieren Server von Firmen wie OpenAI, Anthropic, Meta oder Google überzeugende und gut gelaunte Antworten. Es existiert kaum ein Themenbereich, auf den die KI-Assistenten keine Antwort wissen. Dass daraus bei häufiger Nutzung auch Probleme entstehen, ist inzwischen auch den Herstellern bewusst. OpenAI geht nun in die Offensive und kündigt Veränderungen an: Zukünftig wolle man den Fokus auf kurze und
wertvolle Interaktionen zwischen Mensch und KI setzen.
Anstatt den Erfolg in Form von Verwendungszeit oder Klicks zu messen, sei das Unternehmen vielmehr darauf aus, dass Nutzer die gewünschte Hilfe erhielten, und wie häufig sie zu ChatGPT zurückkehrten. In der Vergangenheit habe OpenAI Fehler gemacht, räumt der Beitrag ein; ein Update habe beispielsweise zu viel Wert darauf gelegt, etwas zu liefern, was nett klinge, als etwas, das tatsächlich hilfreich sei. Dies habe man rückgängig gemacht. Jetzt stünden weitere Änderungen an: Wer viel Zeit am Stück mit ChatGPT verbringt, bekommt einen Hinweis angezeigt, der eine Pause vorschlägt.
Zukünftig schlägt ChatGPT nach einiger Zeit Pausen vor. (Quelle:
OpenAI)
Geplant: Erkennen von psychischen AusnahmezuständenIn Einzelfällen, führt der Firmen-Blog aus, habe das 4o-Modell nicht erkannt, wenn Menschen Anzeichen von Wahnvorstellungen oder emotionaler Abhängigkeit zeigten. In Zukunft will OpenAI mit Ärzten und Psychiatern zusammenarbeiten, um entsprechende Muster automatisch in längeren KI-Interaktionen zu erkennen. Dazu wolle man zudem Forschungskooperationen initiieren sowie ein Beratungsgremium einberufen. Bei direkten Nutzerfragen zu Lebensentscheidungen, etwa zum Beenden einer Partnerschaft, wird ChatGPT zukünftig eindeutige Antworten verweigern und einen eigenständigen Entscheidungsprozess unterstützen.
Reaktion auf KritikIn den vergangenen Monaten wurden zunehmend Stimmen laut, die auf Risiken von häufiger Interaktion mit KI-Assistenten eingehen. Die Süddeutsche Zeitung berichtet von einer kleinen, aber zunehmenden Zahl
KI-induzierter Psychosen. Andere, etwa der Programmierer Matthias Döpmann, sehen ein
suchtähnliches Verhalten beim KI-gestützten Programmieren: Die Unberechenbarkeit der nächsten Antwort verführt dazu, immer noch einen Prompt auszuprobieren.