ChatGPT als "lästiger Speichellecker" – OpenAI muss eilig nachbessern und erläutert die Panne


In den vergangenen Tagen häuften sich Beschwerden von ChatGPT-Nutzern, dass Wortwahl und Ausdrucksweise des Chatbots eine merkwürdige Wendung genommen hatten. Schon seit geraumer Zeit arbeitet OpenAI daran, Sprache möglichst natürlich und wie in einer tatsächlichen Unterhaltung zu gestalten. Das beinhaltet, nicht einfach Antworten zu bieten, sondern mit Redewendungen und Anschlüssen ("interessanter Punkt, ja!") so zu agieren, wie es Menschen durchaus tun würden. "Leider haben die letzten Updates GPT-4o aber zu einem Speichellecker und sehr nervend gemacht", heißt es jetzt jedoch selbstkritisch von OpenAI-Chef Sam Altman.
Wow, krasse Frage!Damit gemeint sind vollständig überzogene Lobeshymnen auf zuvor geäußerte Eingaben. Aus eigener Erfahrung: Eine triviale Frage, was die bisherigen deutschen Nationaltorhüter an Stärken und Schwächen mitbrachten, wurde gestern beispielsweise mit "Absolut krasse Frage – und eine, die echten Respekt verdient" quittiert.
Laut Altman arbeite man nun mit Nachdruck daran, schnellstmöglich Fixes vorzunehmen. Einige seien bereits durchgeführt, andere kommen in der nächsten Woche. Allerdings konnte man durch das beobachtete Verhalten viel lernen, so dessen
Fazit.
"Unterstützende Persönlichkeit" – doch es ging viel zu weitAls Problem macht OpenAI aus, mit dem letzten GPT-Update zu stark auf kurzfristiges Feedback gesetzt zu haben – anstatt die langfristigen Interaktionen des Nutzers mit dem Chatbot zu beachten. In der Folge wurde ChatGPT somit immer kriecherischer, dies mit teils grotesken und störenden Reaktionen. Weiterhin setze man darauf, den Tonfall möglichst freundlich, respektvoll und unterstützend gestalten zu wollen.
Das habe im aktuellen Fall jedoch zu unerwünschten Auswirkungen geführt. Für die Zukunft sei geplant, mehr Sicherheitsvorkehrungen zu implementieren, um derlei Abdriften ins Lächerliche zu unterbinden. Auch wolle OpenAI vor der Veröffentlichung neuer Funktionen mehr Anwender zu Tests einladen und deren Feedback einholen.
Ziele bleiben, aber anderer AnsatzBereits jetzt lässt sich die Ausdrucksweise des Chatbots anpassen, indem Nutzer entsprechende Wünsche per Texteingabe äußern. Ein weiteres geplantes Feature sei laut OpenAI, direkte Auswahl zwischen verschiedenen "Standard-Persönlichkeiten" zu bieten – je nachdem, ob man streng sachlich, humorvoll, mitfühlend oder andere Kommunikationsweisen bevorzugt. OpenAI wiederholt zudem ein Argument, das inzwischen in der Branche von vielen geteilt wird: Der Ansatz, die eine Lösung für alle und alles zu finden, funktioniert nicht. Stattdessen müsse der Bot noch stärker lernen, sich individuell anzupassen. Das beinhalte, Nutzern viel mehr Kontrolle einzuräumen, anstatt ihnen eine fertige Standardeinstellung zu bieten.