Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apple veröffentlicht Videos: KIs, die "überlegen und planen"

Wer die aktuellen Nachrichten aus Wissenschaft und Technik verfolgt, kann den Eindruck gewinnen, als drehe sich derzeit alles um KIs und Machine Learning sowie deren Integration in möglichst viele Bereiche des menschlichen Lebens. Bei den vielen Ankündigungen, Verlautbarungen und Versprechungen bleiben oftmals Fragen grundsätzlicher Natur offen. Wer sich einen Überblick verschaffen will, muss oftmals eine Menge Forschungsliteratur durcharbeiten, um mühevoll einzelne Aspekte zusammenzutragen. Alternativ besucht man eine Konferenz und hört Menschen zu, die diese Arbeit bereits hinter sich gebracht haben. Eine solche hat Apple im Juli 2025 veranstaltet – das übergreifende Thema war „Reasoning & Planning“. Nun veröffentlicht der Konzern die Mitschnitte von acht Vorträgen auf dem hauseigenen Machine-Learning-Blog.


Sieben Monate sind bei der aktuellen Taktrate von wissenschaftlichen Veröffentlichungen im Bereich von Machine Learning und Large Language Models (LLMs) eine lange Zeit. Trotzdem lohnt es sich, die im vergangenen Sommer aufgezeichneten Videos anzusehen, da sie einen Überblick über Kernaspekte der Forschung und Entwicklung liefern. So widmet sich der Vortrag von Melanie Mitchell vom Santa Fe Institute der Frage „Wie funktionieren LLMs und warum?“. Ihr Forschungsbereich liegt am Schnittpunkt zwischen Kognitionswissenschaften und KI. Sie zeigt auf, dass trotz all des Fortschritts oftmals unklar bleibt, wie LLMs zu (richtigen) Ergebnissen gelangen. So scheitern auf visuelle Aufgaben spezialisierte LLMs bei grafischen Logikaufgaben, welche für Text-LLMs (und Menschen) relativ leicht zu lösen sind.

Überraschende Beobachtung: Manche visuelle Aufgaben lassen sich leichter von Text-KIs lösen. (Quelle: Apple Machine Learning Blog)

Optimales Training für Agenten
Philipp Krähenbühl lehrt an der University of Texas und arbeitet zusätzlich als Forscher bei Apple. In seinem Vortrag widmet er sich der Frage „Wie gestaltet man effiziente Trainingsmethoden für interaktive Agenten?“. Das Ziel ist ein universelles LLM, welches beim Bewältigen komplexer Fragen hilft. In seinem Vortrag beleuchtet er aktuelle Erkenntnisse aus dem dafür notwendigen „Reinforcement Learning“.

Ein interaktiver Agent hat spezielle Anforderungen an das Design des zu Grunde liegenden LLMs. (Quelle: Apple Machine Learning Blog)

Links zu 30 Publikationen
Zusätzlich zu den acht Vorträgen von Wissenschaftlern von verschiedensten US-Universitäten sowie Apple-Entwicklern, welche allesamt unter eine halbe Stunde lang sind, listet der Blog-Beitrag zudem 30 Publikationen auf, welche bei der Veranstaltung thematisiert wurden. Apple betreibt umfangreiche Grundlagenforschung im Machine-Learning-Bereich und setzt zunehmend auf praktische Anwendung. Die aktuelle Version von Xcode erlaubt Agentic Coding mittels externer LLMs, etwa von Anthropic oder OpenAI.

Kommentare

Zacks
Zacks25.02.26 18:51
So spät wie Apple in den AI Bereich ein eingetreten ist kann mans auch direkt komplett sein lassen.
Wird das gleiche Disaster wie das Jahre lang dysfunktionale Siri was dem Markt hinterherhinkt.

Werd wieder Downvotes bekommen aber das bestärkt mich nur darin das ich den wunden Punkt getroffen habe.
Cook ist gut für die Shareholder aber eine absolute Innovationsbremse.
Ware wa messiah nari!
-2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.