Beliebteste Funktion von Apple Intelligence: Offenbart Tim Cooks Hervorhebung zukünftige Produktpläne?


2024 sollte das Jahr werden, in dem Apple den Rückstand im Hinblick auf KI-Funktionen aufholt. Auf der Entwicklerkonferenz verkündete der Konzern die gewählte Strategie: Lokale Modelle übernehmen kleinere Aufgaben, für komplexe Berechnungen steht ein mächtigeres Modell auf der „Private Computing Cloud“ zur Verfügung. Entsprechende Funktionen wollte Apple plattformübergreifend universell bereitstellen. Das Ganze läuft unter dem Namen „Apple Intelligence“. Auf der Investorenkonferenz offenbarte Tim Cook, dass die Funktion
visuelle Intelligenz das meistgenutzte Apple-Intelligence-Feature sei.
Dies mag überraschen, stellt diese doch die höchsten Hardware-Voraussetzungen: Standardmäßig ist sie an das Vorhandensein des Kamerasteuerung-Buttons gebunden, welcher auf iPhone 16 und 17 (nebst iPhone Air) beschränkt ist. Auf iPhone 15 Pro (Max) und 16e kann man die Funktion auf die Aktionstaste oder den Sperrbildschirm bringen; ältere iPhones, ebenso iPads und Macs bleiben außen vor. Doch hat sie offensichtlichen praktischen Nutzen, da sie Text und Motive erkennt, ohne dass ein Bild zunächst in der Bildersammlung des iPhones landen muss. Das erspart in vielen Fällen zusätzliche Arbeitsschritte, etwa wenn die Informationen eines Plakats in einem Kalenderereignis erfasst werden sollen.
Eine Veranstaltungsankündigung wird dank visueller Intelligenz per Knopfdruck zum Termin. (Quelle:
Apple Support)
Integration in weitere GeräteDass visuelle Intelligenz die beliebteste der Apple-Intelligence-Funktionen ist, dürfte dem Konzern schon länger bekannt sein. Dass Tim Cook diese nun auf der Telefonkonferenz zur Vorstellung der Quartalszahlen besonders hervorhob, lässt hoffen, dass sie auch bald auf anderen Geräten Einzug hält: Nichts spricht dagegen, Kamerabilder auch von MacBooks oder iPads direkt an integrierte Foundation-Modelle durchzureichen. Ein zusätzlicher Button ist dafür keine Veranlassung – das beweist Apple selbst damit, dass die Pro-Modelle des iPhone 15 diese Funktion nutzen können.
„AppleGlasses“ mit visueller Intelligenz?Möglicherweise deutet Cook damit ganz verstohlen auf essenzielle Funktionen eines neuen Gerätetyps hin, welches Apple gerüchteweise
noch im Jahr 2026 ankündigen möchte: eine KI‑Brille, ähnlich der Meta-Brillen oder Snapchat-Spectacles. Visuelle Intelligenz könnte in einem solchen Gerät die Kernfunktion darstellen: Eine integrierte Kamera erfasst das aktuell Gesehene, das gekoppelte iPhone kümmert sich um die KI-Analyse, die gewonnenen Erkenntnisse werden über integrierte Lautsprecher oder AirPods an den Träger übermittelt.