Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Chinesisches System soll es richten: Apple setzt auf Alibaba-LLM für experimentellen KI-Assistenten

Auf Large Language Models (LLMs) gestützte Künstliche Intelligenz findet zunehmend Verbreitung in verschiedensten Anwendungsbereichen: Bild- und Videoerzeugung und Texterzeugung nach umgangssprachlichen Vorgaben (Prompts) sind die anschaulichsten. Etwas abstrakter erscheint die Unterstützung beim Programmieren; doch bereits weit fortgeschritten: Dank formeller Vorgaben von Programmiersprachen eignet sich das Erzeugen von Code besonders für eine KI-gestützte Entwicklung. Diese Innovation geht auch an Apple nicht vorbei, wie ein Forschungspapier nebst Open-Source-Modell zeigt. Dabei wählen die Forscher einen Weg, der abseits ausgetretener Pfade verläuft – und dadurch besondere Vorteile eröffnet.


Das 27-seitige Dokument ging aus einer Kooperation der University of Hongkong hervor. Die Forscher nennen das Resultat DiffuCoder. Die Grundlage stellte ein Open-Source-Modell namens Qwen2.5-7B des chinesischen Anbieters Alibaba. Dieses wurde für den Forschungszweck in mehreren Schritten umgearbeitet. Die zentrale Umstellung: Anstatt eines Autoregressions-Algorithmus verwendet das DiffuCoder-Modell einen Mechanismus namens Diffusion. Dies stellt einen anderen Ansatz beim Ermitteln der wahrscheinlichsten Lösung dar: Während Autoregression einen Text linear bearbeitet, also gewissermaßen in Leserichtung, setzt Diffusion auf ein gleichzeitiges Bearbeiten – definierte Bereiche werden als Ganzes neu formuliert.

Temperatur erhöhen
Die Forscher stellten dem resultierenden Modell mehrere Testaufgaben und beobachteten deren Aktivität bei unterschiedlichen „Temperaturen“. Bei der Verwendung von großen Sprachmodellen wird Temperatur als einstellbare Größe verwendet, die der KI eine größere Freiheit beim Finden von Antworten einräumt. In ihren Experimenten stellten sie fest, dass DiffuCoder an unterschiedlichen Stellen zugleich arbeitete, sobald sie die Temperatur erhöhten.

Weitere Optimierungsschritte
Um die Zuverlässigkeit und Verarbeitungsgeschwindigkeit zu steigern, veränderten die Entwickler das LLM mittels Reinforcement Learning sowie Group Relative Policy Optimization (GRPO). Dieses unterzogen sie standardisierten Tests, um die Antworten mit denen anderer Modelle zu vergleichen. Die Forscher sahen Resultate ihres DiffuCoder-LLMs qualitativ auf Augenhöhe mit anderen, für Programmiercode optimierte, quelloffenen großen Sprachmodellen; zu kommerziellen Angeboten wie GPT 4o besteht allerdings noch ein bedeutender Abstand.

Verwendung in Xcode?
Die parallel zur wissenschaftlichen Veröffentlichung publizierte DiffuCoder-Version ist wahrscheinlich noch weit von einem produktiven Einsatz als Coding-KI-Assistent in Entwicklungsumgebungen entfernt. An einem solchen Produkt hätte Apple ein eigenes Interesse: Für die Beta von Xcode 26 hat der Konzern einen KI-Assistenten namens „Coding Assistant“ integriert. Standardmäßig setzt dieser auf ChatGPT, er lässt sich jedoch dank integrierter Model-Provider-Architektur auf Claude Sonnet 4 ummünzen. Sobald Apple ein fähiges Coding-Sprachmodell entwickelt hat, könnte dies problemlos als neues Standard-LLM integriert werden.

Kommentare

Nebula
Nebula07.07.25 17:52
Tja, wäre Apple diesen Weg direkt gegangen, hätten sie sich das peinliche AI-Debakel erspart. Es wäre zwar immer noch peinlich gewesen, nichts eigenes auf die Beine gestellt zu haben, aber die freie Modellwahl direkt ins System zu integrieren, hätte auch viel Zuspruch erfahren.
»Wir waren schon immer schamlos darin, großartige Ideen zu stehlen.« – Steve Jobs
+5
Unwindprotect07.07.25 20:33
Was ist denn im Titel mit „soll es richten“ gemeint? Das medial kolportierte „AI-Desaster“? Irgendwie erzeugt das ein wenig Fremdscham bei mir.

Es handelt sich hier lediglich um ein Research-Paper, welches den Stable Diffussion Ansatz für Sprache anwendet. Das OpenSource-Modell ist eines unter vielen, aber nicht speziell dafür notwendig.

Apple veröffentlicht jede Menge KI-Research-Paper… das muss nie produktrelevant sein. Wissenschaftler wollen forschen und veröffentlichen. Grundlagenforschung ist sehr wichtig.

Ein Tipp: Das Thema KI ist signifikant umfangreicher als der Produktifizierungshype oder gar „AGI-Wettlauf“. Es passieren an vielen Orten interessante Dinge - auch bei Apple. Dieses Bashing von KI bei Apple macht es den dortigen Forschern jedoch schwerer. Ich finde es nicht sinnvoll jedes Researchpaper in diesen unsäglichen Medialen Hype und Bashing-Wettbewerb einzuordnen.
+3
Wauzeschnuff
Wauzeschnuff08.07.25 08:36
Nebula
aber die freie Modellwahl direkt ins System zu integrieren, hätte auch viel Zuspruch erfahren.

Dagegen spricht einiges:
1. 99,9999% der User wären damit schlicht überfordert, einfach weil die wenigsten überhaupt verstehen was ein LLM ist und welche Stärken oder Schwächen ein solches Modell hat. Selbst wenn es "nur" um den Chatbot ginge.
2. Abhängig vom Einsatzzweck sind unterschiedliche Modelle unterschiedlich gut geeignet angefangen bei der Modellgröße bis hin zum Einsatzgebiet (z.B. Bildmanipulation, Sprachverarbeitung, Audioanalyse, etc.).
3. Abhängig von der Größe des Modells kann es nicht mehr lokal laufen, was erhebliche Investitionen erfordert. Man stelle sich einfach vor, mehrere Dienste auf jedem Apple-Device nutzen plötzlich ein Default remote-LLM. Damit wären praktisch alle derzeitigen Anbieter völlig überfordert (und sei es nur wegen der verursachten Kosten).
4. Ein - für ein gegebenes Problem schlecht optimiertes - LLM würde eher Spott und Häme auslösen - entweder, weil es der Default wäre, oder weil der User es explizit deshalb gewählt hätte.

Merke: LLM ist mehr als Chatbot. Und man kann weder einfach jedes LLM auf jedes Problem werfen. Das Problem der Integration stellt sich deutlich komplexer dar, als dem User einfach nur einen Chatbot zur Verfügung zu stellen. Für einen simplen Chatbot braucht es Apple nicht, den bekommt man heute schon bei diversen Anbietern. Alles darüber hinaus ist deutlich schwerer, als Beispiel verweise ich auf den nur sehr begrenzt nutzbaren MS Copilot von MS 365.
+2
Nebula
Nebula08.07.25 08:48
Was von Apples Festures kann denn ein „gewöhnlicher“ ChatBot nicht? Writing Tools, Image Playground, TTS, Coding und eben Chats decken viele ab, entsprechend geprompted versteht sich. Natürlich sind spezialisierte KIs wie für die Gesichtserkennung oder Genmojis ein sinnvoller Ansatz, vor allem wenn‘s offline läuft. Aber dort, wo Apple schon jetzt ChatGPT zulässt, sieht nicht einmal Apple ein Problem. Ob man seine Daten alle rüberschaufeln will, sei mal dahingestellt.
»Wir waren schon immer schamlos darin, großartige Ideen zu stehlen.« – Steve Jobs
+3
Wauzeschnuff
Wauzeschnuff08.07.25 08:59
Nebula
Was von Apples Festures kann denn ein „gewöhnlicher“ ChatBot nicht?

Schon die Frage ist so wie gestellt unsinnig und zeigt, dass die meisten Nutzer eben den Unterschied zwischen einem Chatbot und einem LLM nicht verstehen. Wie also passt das zu "Apple soll freie Wahl des Modells lassen"?

Und wenn ein Chatbot eines Dir genehmen Anbieters Deine Anforderungen schon erfüllt, wozu brauchst Du dann Apple an dieser Stelle? Nochmal: KI / eine LLM ist viel mehr als einfach nur einen Chatbot zu integrieren. Dafür gibt es es inzwischen eine Menge Apps und Webseiten, dafür braucht es Apple nicht.
Nebula
Writing Tools, Image Playground, TTS, Coding und eben Chats decken viele ab, entsprechend geprompted versteht sich.
Aber mit stark divergierenden Ergebnissen in den unterschiedlichen Bereichen, sowohl abhängig von der Aufgabenstellung als auch dem Einsatzgebiet. Zudem stecken hinter den üblichen allgemeinen Chatbots eben auch sehr allgemeine LLMs, mit sehr "durchschnittlichen" Ergebnissen (im Verhältnis Aufwand < - > Ergebnis). Spezialisierte LLMs können nicht nur deutliche bessere Ergebnisse mit deutlichen weniger Aufwand erreichen sie können dies u.U. sogar lokal auf dem Gerät schaffen. Denn sie müssen eben nicht in allen möglichen Gebieten "ausreichend gute" Ergebnisse bieten.
+2
Unwindprotect08.07.25 09:54
Nebula
Aber dort, wo Apple schon jetzt ChatGPT zulässt, sieht nicht einmal Apple ein Problem. Ob man seine Daten alle rüberschaufeln will, sei mal dahingestellt.

Naja... die ChatGPT Integration ist hier nichts anderes als die Idee Siri "Im Web suchen" zu lassen in einer an eine Welt mit ChatBots angepassten Version. In manchen Fällen mag das funktionieren - aber nicht generell.
0
Unwindprotect08.07.25 10:04
Generell finde ich Diskussionen auf _welches_ LLM Apple denn nun "setzen" soll sehr an der Materie vorbei diskutiert. Es gibt mittlerweile unzählige Anbieter und deshalb zigmal soviele Modelle. Ständig kommen dabei neue Modelle heraus. Viele Modelle sind dabei auch "OpenSource" - d.h. man kann sie nehmen, verändern (z.B. spezialisieren) und selbst betreiben wo immer das möglich ist.

Wenn eine Sache extrem unwahrscheinlich ist, dann jene, dass es ein einziges bestes Modell für alles gibt, oder das ein einzelner Modell-Anbieter alle anderen dauerhaft übertrumpft.

Aus Sicht von Apple sind LLMs eigentlich lediglich eine Komponente die man integrieren und nutzen kann. Wie bei CPUs in der Vergangenheit, kann es dabei Sinn machen etwas zugekauftes bzw. woanders entworfenes zu integrieren. Wie bei Apple Silicon kann es auch Sinn machen selbst Modelle zu erstellen, welche dann perfekt auf die Usecases der Produkte optimiert sind.

All das ist jenen die damit arbeiten auch ziemlich klar - diese Diskussionen um welches Modell es in Zukunft gehen wird werden vor allem von absoluten Laien auf dieser "Marken und Marketingebene" geführt. Irgendwie herrscht da die Vorstellung vor, dass "Wettbewerb" automatisch wieder zu einem Monopol führen müsse und das es dort dann wohl ein einziges "bestes" Modell geben würde.
-3
PorterWagoner
PorterWagoner08.07.25 10:42
Auch wenn sich unwindproject hier als weltgrößter KI-Experte darstellen will, vergisst er die wichtigste Sache: Alle Theorie, warum es Apple so toll macht und man das nicht kritisieren darf, vergisst eines. Ich habe Gemini, ChatGPT und CoPilot benutzt. Wie sie es auch immer machen (was mir egal ist), der Output ist Dimensionen über Apple. Als Kunde verlange ich nur, dass sie bieten, was sie versprechen. Nichts anderes. Das tun sie aber nicht. Erstellt Bilder mit Chatgpt oder dalle, dann vergleicht es mit Image Playground. Peinlich für Apple. Nutzt Texterstellung in einem beliebigen der bekannten Tools, vergleicht es mit Writing Tools und Zusammenfassungen. Peinlich für Apple. Nutzt Gemini auf dem Android-Smartphone und fragt nach Wissen. Macht das mit Siri. Peinlich für Apple. Ich will die Applewelt nicht verlassen, ich bin noch immer Fan. Aber dieser Zustand ist schlecht, vor allem wenn man es mit Apples Versprechungen vergleicht. Und dann kommt ein "Experte" in den MTN-Comments und will uns erklären, dass es kein AI-Desaster bei Apple gibt? Also wirklich.
+9
Unwindprotect08.07.25 12:15
PorterWagoner
Auch wenn sich unwindproject hier als weltgrößter KI-Experte darstellen will,

So ein quatsch 😅
PorterWagoner
vergisst er die wichtigste Sache: Alle Theorie, warum es Apple so toll macht und man das nicht kritisieren darf, vergisst eines.

Wer bitte hat behauptet man dürfe Apple nicht kritisieren? Es gibt einen Unterschied zwischen "Bashing" und kritisieren. Apple bekommt medial bezüglich AI sehr viel Gegenwind. Einiges davon sicherlich verdient. Allerdings ist vieles davon eben auch sehr pauschal dumm. Viele der Research-Paper bei Apple sind verdammt gut und leisten wichtige Beiträge in der Forschung. Man muss hier Business und Forschung trennen können.
PorterWagoner
Ich habe Gemini, ChatGPT und CoPilot benutzt.

Lass mich raten... und jetzt bist du der... tadadamm "Practical Super Expert"?
PorterWagoner
Wie sie es auch immer machen (was mir egal ist), der Output ist Dimensionen über Apple.

Ich habe nichts anderes behauptet. Ich habe von Research-Papers gesprochen - wie im Artikel genannt. Wenn man aktuell vermarktete Produkte und misslungene Produktstrategien damit gleichsetzt ist das halt mental einfach gefaltet. Nicht mehr nicht weniger.
PorterWagoner
Als Kunde verlange ich nur, dass sie bieten, was sie versprechen. Nichts anderes. Das tun sie aber nicht. Erstellt Bilder mit Chatgpt oder dalle, dann vergleicht es mit Image Playground. Peinlich für Apple. Nutzt Texterstellung in einem beliebigen der bekannten Tools, vergleicht es mit Writing Tools und Zusammenfassungen. Peinlich für Apple. Nutzt Gemini auf dem Android-Smartphone und fragt nach Wissen. Macht das mit Siri. Peinlich für Apple.

Ob das nun peinlich ist oder nicht - das darf jeder für sich beurteilen. Fakt ist, dass die bisherigen Produktfeatures die auf KI basieren in vielen Aspekten aktuell hinter der Konkurrenz zurückstehen. Sind sie alle nicht nützlich? Kommt vielleicht auf den Einzelfall an, aber es sind für mich im Alltag nützliche Dinge dabei. Können andere vieles davon besser. Jepp! Verwende ich deren Produkte? Zumindest aktuell noch nicht. Das liegt aber auch daran, das KI eben nicht soooo wichtig in meinem Alltag ist, dass ich das Ökosystem an Geräten das meinen Alltag erleichtert ersetzen muss. Das mag sich irgendwann natürlich ändern UND es mag für andere Nutzer auch einfach andere Anforderungen geben!
PorterWagoner
Ich will die Applewelt nicht verlassen, ich bin noch immer Fan. Aber dieser Zustand ist schlecht, vor allem wenn man es mit Apples Versprechungen vergleicht. Und dann kommt ein "Experte" in den MTN-Comments und will uns erklären, dass es kein AI-Desaster bei Apple gibt? Also wirklich.

Du hast mein Post ganz offensichtlich gründlich missverstanden und mit geplatzter Düse einen Post zum ablassen von Dampf gebraucht. Gut.
Ich habe nicht geschrieben, das es bei Apple "kein AI-Desaster" gibt. Ich habe sogar explizit das in den Medien stark gepushte Thema um die AI Probleme bei Apple erwähnt. Für Apple ist das aktuell sicherlich ein gewaltiges Vermarktungsproblem. Ich sage das übrigens völlig ohne Apple die Schuld daran abzusprechen! Allerdings wird diese Problematik zusätzlich auch von Konkurrenz und Medien befeuert und - wie vieles im KI-Bereich aktuell - viel heißer gekocht als es am Ende ist.

Apple beschäftige und beschäftigt immer noch eine Vielzahl von KI-Experten und Forschern. Die Research-Paper von Apple aus diesem Bereich fand ich oft erstaunlich gut. Tatsächlich besser als das was von OpenAI kommt... denn die veröffentlichen kaum sinnvolles sondern eher als Paper verpackte Werbung. Intern haben sie mit Sicherheit ebenso wesentlich interessantere Ergebnisse.

Was ich seit einiger Zeit beobachte ist eben, dass Apples Research-Papers zu KI in die Medien gelangen und dann dort in einen Topf geschmissen werden mit der bisherigen gebremsten KI-Produktifizierung bei Apple. Damit tut man den Forschern und diesen Papers jedoch unrecht. Oft liest man Kommentare wie "wenn sowas von dem Unternehmen kommt das bei AI ganz hinten ist, dann kann es ja nicht stimmen".

Zusätzlich wirkt sich das nun auch wieder negativ auf das Unternehmen selbst aus, weil die überall stark gesuchten Forscher und Entwickler nicht unbedingt mit dem Misserfolg der Vermarktung von KI in Zusammenhang gebracht werden wollen... und sich deshalb lukrativ abwerben lassen.

All das sind lediglich meine Beobachtungen - man kann diese Eindrücke teilen oder anderer Meinung sein. Es wäre mir jedoch lieb, Mr. PorterWagoner, wenn Du mir nicht lauter Dinge unterstellst die ich nicht gesagt habe und wir stattdessen lieber eine fruchtbare und anregende Diskussion haben. Oder siehst Du das anders?
-3

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.