Apple veröffentlicht Videos: KIs, die "überlegen und planen"


Wer die aktuellen Nachrichten aus Wissenschaft und Technik verfolgt, kann den Eindruck gewinnen, als drehe sich derzeit alles um KIs und Machine Learning sowie deren Integration in möglichst viele Bereiche des menschlichen Lebens. Bei den vielen Ankündigungen, Verlautbarungen und Versprechungen bleiben oftmals Fragen grundsätzlicher Natur offen. Wer sich einen Überblick verschaffen will, muss oftmals eine Menge Forschungsliteratur durcharbeiten, um mühevoll einzelne Aspekte zusammenzutragen. Alternativ besucht man eine Konferenz und hört Menschen zu, die diese Arbeit bereits hinter sich gebracht haben. Eine solche hat Apple im Juli 2025 veranstaltet – das übergreifende Thema war „Reasoning & Planning“. Nun veröffentlicht der Konzern die Mitschnitte von
acht Vorträgen auf dem hauseigenen Machine-Learning-Blog.
Sieben Monate sind bei der aktuellen Taktrate von wissenschaftlichen Veröffentlichungen im Bereich von Machine Learning und Large Language Models (LLMs) eine lange Zeit. Trotzdem lohnt es sich, die im vergangenen Sommer aufgezeichneten Videos anzusehen, da sie einen Überblick über Kernaspekte der Forschung und Entwicklung liefern. So widmet sich der Vortrag von Melanie Mitchell vom Santa Fe Institute der Frage „
Wie funktionieren LLMs und warum?“. Ihr Forschungsbereich liegt am Schnittpunkt zwischen Kognitionswissenschaften und KI. Sie zeigt auf, dass trotz all des Fortschritts oftmals unklar bleibt, wie LLMs zu (richtigen) Ergebnissen gelangen. So scheitern auf visuelle Aufgaben spezialisierte LLMs bei grafischen Logikaufgaben, welche für Text-LLMs (und Menschen) relativ leicht zu lösen sind.
Überraschende Beobachtung: Manche visuelle Aufgaben lassen sich leichter von Text-KIs lösen. (Quelle:
Apple Machine Learning Blog)
Optimales Training für AgentenPhilipp Krähenbühl lehrt an der University of Texas und arbeitet zusätzlich als Forscher bei Apple. In seinem Vortrag widmet er sich der Frage „Wie gestaltet man effiziente Trainingsmethoden für interaktive Agenten?“. Das Ziel ist ein universelles LLM, welches beim Bewältigen komplexer Fragen hilft. In seinem Vortrag
beleuchtet er aktuelle Erkenntnisse aus dem dafür notwendigen „Reinforcement Learning“.
Ein interaktiver Agent hat spezielle Anforderungen an das Design des zu Grunde liegenden LLMs. (Quelle:
Apple Machine Learning Blog)
Links zu 30 PublikationenZusätzlich zu den acht Vorträgen von Wissenschaftlern von verschiedensten US-Universitäten sowie Apple-Entwicklern, welche allesamt unter eine halbe Stunde lang sind, listet der Blog-Beitrag zudem 30 Publikationen auf, welche bei der Veranstaltung thematisiert wurden. Apple betreibt umfangreiche Grundlagenforschung im Machine-Learning-Bereich und setzt zunehmend auf praktische Anwendung. Die aktuelle Version von Xcode erlaubt
Agentic Coding mittels externer LLMs, etwa von Anthropic oder OpenAI.