Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

OpenAI veröffentlicht GPT-5.2 – hohes Updatetempo

Die Freischaltung von GPT-5.1 liegt noch gar nicht so lang zurück, OpenAI hatte das Update Mitte November an die Nutzer gebracht. Zu den Verbesserungen zählten unter anderem ein angenehmerer Umgangston, denn mit 5.0 hatten sich viele Anwender über viel zu trockene und nüchterne Gesprächsführung beschwert. Außerdem kann der Chatbot seitdem noch längeren Konversationen folgen, ohne Teile des Kontexts zu vergessen. Jetzt steht bereits GPT5-2 zur Verfügung – überraschend schnell.

Ob dieser rasche Takt bereits mit dem jüngst ausgerufenen "Code Red" zusammenhängt, ist unklar. Das Training von aktualisierten Modellen nimmt viel Zeit in Anspruch – oft lassen sich Auswirkungen von Änderungen erst nach mehreren Tagen oder gar Wochen testen. Möglicherweise ist 5.2 zwar schneller als zunächst geplant erschienen, doch sicherlich nicht innerhalb zweier Wochen entstanden.


Zuverlässiger, weniger Halluzinationen, bessere Kontextbehandlung
Im Blogeintrag geht OpenAI auf die Verbesserungen von GPT-5.2 ein. Das System ist darauf ausgelegt, noch tieferes Verständnis und bessere Zuverlässigkeit zu liefern – vor allem bei komplexen Anfragen, die präziser, mit weniger Halluzinationen und konsistenteren Ausgaben beantwortet werden. Zudem verspricht das Unternehmen optimierte Kontextbehandlung, was bei langen Gesprächen mehr Kohärenz und gezielteres Anknüpfen ermöglicht. Als weitere Vorzüge führt OpenAI mehr Intelligenz beim Erstellen von Tabellen, Gestalten von Präsentationen, Schreiben von Code und Verstehen/Analysieren von Bildern auf.

Zunächst für zahlende Kunden
Wie üblich können zunächst die kostenpflichtigen Accounts auf eine neue GPT-Version zugreifen, also Plus, Pro, Business und Enterprise. Für alle anderen erfolgt die Umstellung "schrittweise", einen genauen Zeitplan nennt OpenAI jedoch nicht. Drei Monate lang ist es für jene Zugänge noch möglich, auf 5.1 zurückzukehren, sollte man mit 5.2 wider Erwarten doch schlechtere Ergebnisse erhalten. Das betrifft die API nicht, dort bleibt 5.1 vorerst aktiv. Im Blogbeitrag lassen sich einige Benchmarks finden, mit denen OpenAI die aktuellen Fortschritte dokumentiert.

Kommentare

esc
esc12.12.25 12:35
In welchem Rekordtempo hier Milliarden investiert werden.
Mal schauen, wie lange das noch gut geht.
Google kann alles noch mehr oder weniger quersubventionieren.
+3
Frost12.12.25 12:59
ChatGPT ist zur Zeit mein bevorzugtes Modell fuer technische Fragen.
Habe heute Morgen die Version 5.2 erhalten.
Fuer Fragen rund um das Programmieren nutze ich Claude da ich diese zur Zeit in diesem Breich als besser empfinde.

Gestern hatte ich auch mal Google Gemini getestet gehabt, als Ausgangspunkt diente die AI Antwort auf eine Google Suche.
Es ging um die Funktionalitaet eines Broadcom 9500-8i HBA in Verbindung mit dem Linux Kernel, welche Module benoetigt werden und ob nvme-cli auch in dieser Kombination mit einer NVMe SSD verwendet werden kann um mehrere Namespaces anzulegen und deren Sektorgroesse anzupassen.
Leider hat Gemini hier auf voller Laenge versagt und nur falsche Antworten produziert, ich konnte es ja direkt hier am Server testen.
Die Antworten bei Claude und ChatGPT waren hingegen alle richtig und haben der Realitaet entsprochen.
Ich muss aber dazusagen, dass ich bei Gemini nur die kostenfreie Version testen konnte und diese kostenfreien Chatsysteme sind ja meistens von ihrer Leistung sehr schlecht. Kann also gut sein, dass die Bezahlversion von Gemini hier die richtigen Antworten auf meine Fragen geliefert haette, in diesem Fall sollte Google dann aber einfach die kostenfreie Gemini Version bei ihren Suchergebnissen weglassen.
+4
tranquillity
tranquillity12.12.25 15:01
Bei Gemini musst du du das Thinking Modul 3.0 nutzen. Das ist m.E. deutlich besser als ChatGPT, wobei ich 5.2 noch nicht ausprobiert haben.

OpenAI ist durch Gemini 3.0 ziemlich in Zugzwang geraden. Alle Ressourcen konzentrieren sich nun auf ChatGPT. Google hat halt einfach den größeren finanziellen Background und durch ihre Suchtechnologie auch bei den Daten die Nase vorn.
+4
tk69
tk6912.12.25 15:46
Vielleicht ist ja mein eingegebener Prompt missverständlich… Aber wenn ich einen Adventskranz mit 4 Kerzen haben möchte, wovon nur 3 brennen sollen, bekommen ChatGPT und auch Gemini es nicht hin. Es brennen alle 4 oder es werden nur 3 Kerzen angezeigt… 🤯
Pixabay hat geholfen. 🫣
0
tranquillity
tranquillity12.12.25 16:03
tk69
Vielleicht ist ja mein eingegebener Prompt missverständlich… Aber wenn ich einen Adventskranz mit 4 Kerzen haben möchte, wovon nur 3 brennen sollen, bekommen ChatGPT und auch Gemini es nicht hin. Es brennen alle 4 oder es werden nur 3 Kerzen angezeigt… 🤯
Pixabay hat geholfen. 🫣

Gemini im "fast" Modus:


Und Gemini im "thinking" Modus:



Wenn ich dann noch sage, das die unbenutzte Kerze noch nicht angezündet sein soll, erhalte ich:


Den schnellen Modus kann man meiner Erfahrung nach bei den meisten Dingen vergessen. Der Thinking-Mode hingegen braucht oft richtig lange, liefert dann aber in der Regel recht gute Ergebnisse.

Ich habe über Paypal ein Probe-Pro-Abo bei Perplexity, und dort kann man ja verschiedene KIs als "Engine" auswählen. Ich arbeite nur noch mit den Thinking-Modellen.

Heise über Gemini 3.0
+4
Advokat
Advokat12.12.25 16:11
tranquillity

Ich nutze auch ausschließlich die Thinking Modelle. Fast ist m.E. Nicht zu gebrauchen.
+3
thomas b.
thomas b.12.12.25 17:25
Habe den Adventskranz gerade mal mit Grok versucht, da kann ich schreiben, was ich will, es brennen immer alle vier Kerzen.

Viel lernen er noch muss.
+3
Nebula
Nebula12.12.25 22:24
Das Grok so reagiert ist klar, da bei Elon nicht mehr alle Lichter an sind. Das muss Grok natürlich vertuschen. Die Grundeinstellung ist ja "Lügen", also muss man bei Grok vom Gegenteil ausgehen.
»Wir sind hier, um eine Delle im Universum zu hinterlassen.« – Steve Jobs
+1
don.redhorse13.12.25 15:43
ich finde Grok lustig. Was der raushaut ist zwar oft mal Quatsch, aber da ist ChatGPT und Claude auch nicht immer viel besser. Ich habe den ProPlan von Claude, mehrere Systeme sind mir für den privaten gebrauch ehrlich gesagt zu teuer. Gemini kommt mir nicht ins Haus, da Google Wanze. Google weiss eh schon viel zu viel über mich, da muss ich dem Laden nicht auch noch den Rest erzählen. Ab und an copy paste ich die selben Anfragen an ChatGPT, LeChat, Claude und eben Grok. Ich sage es mal so, zwei sind sich meist einig, die anderen beiden weichen oft ab. Ein Problem das alle haben, sie geben erst einmal nur Antworten die sie selbst "wissen", oder zu wissen glauben, Recherche findet nicht statt, erst wenn man sie auffordert. Ab dann ist es eh Zufall was man bekommt, ist ja wie bei der eigenen Suche, je nachdem was man sich als Ergebnis aussucht und auf dessen Basis weiter sucht, kommt man am Ende auf X oder Y raus. Im groben würde ich sagen das sich Claude und ChatGPT nicht viel tun, Grok hat ganz klar noch ein Problem zu schnell Antworten zu generieren, die einfach nicht stimmen und hält daran fest. Das war letztes Jahr bei den anderen beiden aber letztes Jahr auch noch so. Nur ist die textliche Gestaltung von Grok halt viel frecher, kann man mögen muss man nicht. Ich finde es gut das es Grok gibt, einfach damit ein weiterer Player auf dem Markt ist. LeChat hat ganz klar da Nachsehen. Es ist zwar für Fragen die Europa betreffen keine schlechte Wahl, aber ich finde auch die Recherche ist einfach noch nicht gut. Ab und an mal zum Testen, aber insgesamt muss da noch eine Menge passieren.

Claude benutze ich eigentlich recht gerne und ich denke das es am Ende auch fast egal sein sollte, ob man Claude oder ChatGPT benutzt, mal ist der eine, mal der andere besser. Am Ende tun die sich nicht viel und man sollte vielleicht nach Preis entscheiden. Kann gut sein das ich den ProPlan nächstes Jahr mal beende und auch ChatGPT umsteige, aber da mein iP14PM eh keine echten KI Funktionen nutzen kann, bringt es mir eh nichts wirklich.
0
DanAm
DanAm14.12.25 08:02
Ich kann Le Chat von Mistral (aus Frankreich) sehr empfehlen. Hat mir bislang bessere Ergebnisse als GPT (4.1) und Gemini (2.5) geliefert.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.