Chinesisches System soll es richten: Apple setzt auf Alibaba-LLM für experimentellen KI-Assistenten


Auf Large Language Models (LLMs) gestützte Künstliche Intelligenz findet zunehmend Verbreitung in verschiedensten Anwendungsbereichen: Bild- und Videoerzeugung und Texterzeugung nach umgangssprachlichen Vorgaben (Prompts) sind die anschaulichsten. Etwas abstrakter erscheint die Unterstützung beim Programmieren; doch bereits weit fortgeschritten: Dank formeller Vorgaben von Programmiersprachen eignet sich das Erzeugen von Code besonders für eine KI-gestützte Entwicklung. Diese Innovation geht auch an Apple nicht vorbei, wie ein Forschungspapier nebst Open-Source-Modell zeigt. Dabei wählen die Forscher einen Weg, der abseits ausgetretener Pfade verläuft – und dadurch besondere Vorteile eröffnet.
Das 27-seitige
Dokument ging aus einer Kooperation der University of Hongkong hervor. Die Forscher nennen das Resultat DiffuCoder. Die Grundlage stellte ein Open-Source-Modell namens Qwen2.5-7B des chinesischen Anbieters Alibaba. Dieses wurde für den Forschungszweck in mehreren Schritten umgearbeitet. Die zentrale Umstellung: Anstatt eines Autoregressions-Algorithmus verwendet das DiffuCoder-Modell einen Mechanismus namens Diffusion. Dies stellt einen anderen Ansatz beim Ermitteln der wahrscheinlichsten Lösung dar: Während Autoregression einen Text linear bearbeitet, also gewissermaßen in Leserichtung, setzt Diffusion auf ein gleichzeitiges Bearbeiten – definierte Bereiche werden als Ganzes neu formuliert.
Temperatur erhöhenDie Forscher stellten dem resultierenden Modell mehrere Testaufgaben und beobachteten deren Aktivität bei unterschiedlichen „Temperaturen“. Bei der Verwendung von großen Sprachmodellen wird Temperatur als einstellbare Größe verwendet, die der KI eine größere Freiheit beim Finden von Antworten einräumt. In ihren Experimenten stellten sie fest, dass DiffuCoder an unterschiedlichen Stellen zugleich arbeitete, sobald sie die Temperatur erhöhten.
Weitere OptimierungsschritteUm die Zuverlässigkeit und Verarbeitungsgeschwindigkeit zu steigern, veränderten die Entwickler das LLM mittels Reinforcement Learning sowie Group Relative Policy Optimization (GRPO). Dieses unterzogen sie standardisierten Tests, um die Antworten mit denen anderer Modelle zu vergleichen. Die Forscher sahen Resultate ihres DiffuCoder-LLMs qualitativ auf Augenhöhe mit anderen, für Programmiercode optimierte, quelloffenen großen Sprachmodellen; zu kommerziellen Angeboten wie GPT 4o besteht allerdings noch ein bedeutender Abstand.
Verwendung in Xcode?Die parallel zur wissenschaftlichen Veröffentlichung publizierte
DiffuCoder-Version ist wahrscheinlich noch weit von einem produktiven Einsatz als Coding-KI-Assistent in Entwicklungsumgebungen entfernt. An einem solchen Produkt hätte Apple ein eigenes Interesse: Für die Beta von Xcode 26 hat der Konzern einen KI-Assistenten namens „Coding Assistant“ integriert. Standardmäßig setzt dieser auf ChatGPT, er lässt sich jedoch dank integrierter Model-Provider-Architektur auf Claude Sonnet 4
ummünzen. Sobald Apple ein fähiges Coding-Sprachmodell entwickelt hat, könnte dies problemlos als neues Standard-LLM integriert werden.