Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

OpenAI reagiert auf Kritik: ChatGPT und der Umgang mit Lebensentscheidungen, Abhängigkeit, Übernutzung

LLM-basierte Chats sind beliebt und werden von immer mehr Menschen als Universalwerkzeug verwendet: Sie generieren schnelle Illustrationen, sauber formulierte Texte und (zumindest sehr oft) funktionierenden Programmier-Code. Rat zu alltäglichen Dingen wird von der Künstlichen Intelligenz in der vertrauten Gestaltung eines Messengers eingeholt. Zu jeder Tageszeit generieren Server von Firmen wie OpenAI, Anthropic, Meta oder Google überzeugende und gut gelaunte Antworten. Es existiert kaum ein Themenbereich, auf den die KI-Assistenten keine Antwort wissen. Dass daraus bei häufiger Nutzung auch Probleme entstehen, ist inzwischen auch den Herstellern bewusst. OpenAI geht nun in die Offensive und kündigt Veränderungen an: Zukünftig wolle man den Fokus auf kurze und wertvolle Interaktionen zwischen Mensch und KI setzen.


Anstatt den Erfolg in Form von Verwendungszeit oder Klicks zu messen, sei das Unternehmen vielmehr darauf aus, dass Nutzer die gewünschte Hilfe erhielten, und wie häufig sie zu ChatGPT zurückkehrten. In der Vergangenheit habe OpenAI Fehler gemacht, räumt der Beitrag ein; ein Update habe beispielsweise zu viel Wert darauf gelegt, etwas zu liefern, was nett klinge, als etwas, das tatsächlich hilfreich sei. Dies habe man rückgängig gemacht. Jetzt stünden weitere Änderungen an: Wer viel Zeit am Stück mit ChatGPT verbringt, bekommt einen Hinweis angezeigt, der eine Pause vorschlägt.

Zukünftig schlägt ChatGPT nach einiger Zeit Pausen vor. (Quelle: OpenAI)

Geplant: Erkennen von psychischen Ausnahmezuständen
In Einzelfällen, führt der Firmen-Blog aus, habe das 4o-Modell nicht erkannt, wenn Menschen Anzeichen von Wahnvorstellungen oder emotionaler Abhängigkeit zeigten. In Zukunft will OpenAI mit Ärzten und Psychiatern zusammenarbeiten, um entsprechende Muster automatisch in längeren KI-Interaktionen zu erkennen. Dazu wolle man zudem Forschungskooperationen initiieren sowie ein Beratungsgremium einberufen. Bei direkten Nutzerfragen zu Lebensentscheidungen, etwa zum Beenden einer Partnerschaft, wird ChatGPT zukünftig eindeutige Antworten verweigern und einen eigenständigen Entscheidungsprozess unterstützen.

Reaktion auf Kritik
In den vergangenen Monaten wurden zunehmend Stimmen laut, die auf Risiken von häufiger Interaktion mit KI-Assistenten eingehen. Die Süddeutsche Zeitung berichtet von einer kleinen, aber zunehmenden Zahl KI-induzierter Psychosen. Andere, etwa der Programmierer Matthias Döpmann, sehen ein suchtähnliches Verhalten beim KI-gestützten Programmieren: Die Unberechenbarkeit der nächsten Antwort verführt dazu, immer noch einen Prompt auszuprobieren.

Kommentare

sudoRinger
sudoRinger07.08.25 09:17
aus dem zitierten Artikel (gekürzt)
Try replacing “ai” with “cocaine” in all the posts you read about it. it’s pretty funny
Let’s try it!
Cocaine doesn’t make you a business genius — it just makes you think you’re a business genius. Same for AI.
+7
desko7507.08.25 09:37
Dass Menschen sich lieber irgendwelchen Maschinen anvertrauen, anstatt mit einem Menschen drüber zu reden, macht mich irgendwie betroffen.

Wie kann man in Lebensfragen Rat von "einem Ding" haben wollen, das keinerlei Lebenserfahrung und Empathie besitzt? Ein Ding, das kein soziales Kapital und keine Autorität besitzt. Das einem nach dem Mund redet, also nicht kritisch und leicht manipulierbar ist. Das immer tendenziös gemäß der Programmierung seiner Erschaffer ist. Von den ganzen Informationen, die privater nicht sein könnten, und die man preisgibt, will ich gar nicht erst anfangen.
-1
Raziel107.08.25 10:09
desko75
Dass Menschen sich lieber irgendwelchen Maschinen anvertrauen, anstatt mit einem Menschen drüber zu reden, macht mich irgendwie betroffen.

Wie kann man in Lebensfragen Rat von "einem Ding" haben wollen, das keinerlei Lebenserfahrung und Empathie besitzt? Ein Ding, das kein soziales Kapital und keine Autorität besitzt. Das einem nach dem Mund redet, also nicht kritisch und leicht manipulierbar ist. Das immer tendenziös gemäß der Programmierung seiner Erschaffer ist. Von den ganzen Informationen, die privater nicht sein könnten, und die man preisgibt, will ich gar nicht erst anfangen.

Lustigerweise wurden Tests gemacht wie zb Führungskräfte durch so eine KI zu ersetzen und diesen den Teams als Ansprechperson zur Verfügung zu stellen statt einer echten Führungskraft. Es zeigte sich das es mit KI deutlich besser lief als mit echten Personen. Denn die KI ging immer auf Bedürfnisse ein, hörte immer zu, war steht erreichbar und suchte nach Lösungen für die Mitarbeiter und war dabei ohne Vorurteile.

Deine Frage ist also leicht zu beantworten Nicht jeder hat stets einen Menschen neben sich der all die oberen Punkte erfüllt. Egal ob es jetzt als reines Werkzeug dient, oder tatsächlich als emotionale Unterstützung. Und es gibt auch Leute die einsam sind.

Wie immer gilt natürlich: Egal um was es geht, nichts ist auf Dauer gut wenn es im Übermaß stattfindet. Aber KI ist in vielfältigen Bereichen eine revolutionäre Entwicklung die noch lange nicht ihr Spitze erreicht hat.

Man kann alles in einem negativen Licht betrachten. zb Deine Frage: "Wie kann man in Lebensfragen Rat von "einem Ding" haben wollen, das keinerlei Lebenserfahrung und Empathie besitzt? Ein Ding, das kein soziales Kapital und keine Autorität besitzt. Das einem nach dem Mund redet, also nicht kritisch und leicht manipulierbar ist."

Das könnte man auch umgekehrt sehen im Bezug auf die Suche nach Rat bei irgendeinem Menschen: Wie kann man Lebensfragen bzw. Rat von einer Person einholen, die wahrscheinlich selbst nicht viel Lebenserfahrung hat, nur ihre eigene eingeschränkte Sichtweise hat, keinen Lebensüberblick, vielleicht sogar pessimistisch eingestellt ist und voller Vorurteile? Wäre das alles nicht sogar viel gefährlicher, wenn man Lebensratschläge von so einer nicht neutralen und vorverurteilenden Person (was wir Menschen nunmal sind) einholt, die auch maximal nur ihre persönliche vielleicht sogar negative Sichtweise hat?

Das ist sicher kein Thema das so einfach ist und über solche und ähnlichen Fragen habe sich sicher schon sehr viele Leute auf mehreren Ebenen Gedanken gemacht. Eine gute KI wird dir in der Gesamtheit tendenziell aber die objektiveren, unterstützenderen und besseren Ratschläge geben können, wenn man es so betrachtet.
+14
Aulicus
Aulicus07.08.25 12:17
ist es nicht wie mit Beton: "Es kommt darauf an, was man daraus macht..."
+2
Nebula
Nebula08.08.25 00:44
desko75
Dass Menschen sich lieber irgendwelchen Maschinen anvertrauen, anstatt mit einem Menschen drüber zu reden, macht mich irgendwie betroffen.

Wie kann man in Lebensfragen Rat von "einem Ding" haben wollen, das keinerlei Lebenserfahrung und Empathie besitzt? Ein Ding, das kein soziales Kapital und keine Autorität besitzt. Das einem nach dem Mund redet, also nicht kritisch und leicht manipulierbar ist. Das immer tendenziös gemäß der Programmierung seiner Erschaffer ist. Von den ganzen Informationen, die privater nicht sein könnten, und die man preisgibt, will ich gar nicht erst anfangen.
KI-Antworten sind oft differenzierter als die von Menschen, zumindest in bestimmten Themenbereichen.

Dass sich Menschen im bestimmen Lebenslagen lieber einer Maschine anvertrauen ist doch aus mehreren Gründen nachvollziehbar.
  • KI ist niederschwellig verfügbar. Der Zugang zu Lebenshilfen oder gar Therapie ist leider mit höherem Aufwand und teils langen Wartezeiten verbunden.
  • Vor der KI gibt es keinen Gesichtsverlust.
  • Viele Menschen sind eben nicht emphatisch und glänzen mit Vorverurteilung oder Verachtung, gerade bei psychischen Problemen.
  • Menschen können aktiv Geheimnisse verraten.
  • Gesellschaftliche Stigmata erschweren es, mit Menschen über Psychosen oder Schizophrenie zu reden. Viele reagieren sogar mit übertriebener Angst, weil sie schlecht informiert sind.
  • Eine KI ist nicht durch Sympathie oder Antipathie beeinflussbar.
  • KI kann man nicht durch unüberlegte Wortwahl verletzen.
  • KI lässt sich gut heimlich nutzen, beim Gang zu einer Therapie ist dies nur mit Aufwand zu verheimlichen.
»Wir waren schon immer schamlos darin, großartige Ideen zu stehlen.« – Steve Jobs
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.