Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Beliebteste Funktion von Apple Intelligence: Offenbart Tim Cooks Hervorhebung zukünftige Produktpläne?

2024 sollte das Jahr werden, in dem Apple den Rückstand im Hinblick auf KI-Funktionen aufholt. Auf der Entwicklerkonferenz verkündete der Konzern die gewählte Strategie: Lokale Modelle übernehmen kleinere Aufgaben, für komplexe Berechnungen steht ein mächtigeres Modell auf der „Private Computing Cloud“ zur Verfügung. Entsprechende Funktionen wollte Apple plattformübergreifend universell bereitstellen. Das Ganze läuft unter dem Namen „Apple Intelligence“. Auf der Investorenkonferenz offenbarte Tim Cook, dass die Funktion visuelle Intelligenz das meistgenutzte Apple-Intelligence-Feature sei.


Dies mag überraschen, stellt diese doch die höchsten Hardware-Voraussetzungen: Standardmäßig ist sie an das Vorhandensein des Kamerasteuerung-Buttons gebunden, welcher auf iPhone 16 und 17 (nebst iPhone Air) beschränkt ist. Auf iPhone 15 Pro (Max) und 16e kann man die Funktion auf die Aktionstaste oder den Sperrbildschirm bringen; ältere iPhones, ebenso iPads und Macs bleiben außen vor. Doch hat sie offensichtlichen praktischen Nutzen, da sie Text und Motive erkennt, ohne dass ein Bild zunächst in der Bildersammlung des iPhones landen muss. Das erspart in vielen Fällen zusätzliche Arbeitsschritte, etwa wenn die Informationen eines Plakats in einem Kalenderereignis erfasst werden sollen.

Eine Veranstaltungsankündigung wird dank visueller Intelligenz per Knopfdruck zum Termin. (Quelle: Apple Support)

Integration in weitere Geräte
Dass visuelle Intelligenz die beliebteste der Apple-Intelligence-Funktionen ist, dürfte dem Konzern schon länger bekannt sein. Dass Tim Cook diese nun auf der Telefonkonferenz zur Vorstellung der Quartalszahlen besonders hervorhob, lässt hoffen, dass sie auch bald auf anderen Geräten Einzug hält: Nichts spricht dagegen, Kamerabilder auch von MacBooks oder iPads direkt an integrierte Foundation-Modelle durchzureichen. Ein zusätzlicher Button ist dafür keine Veranlassung – das beweist Apple selbst damit, dass die Pro-Modelle des iPhone 15 diese Funktion nutzen können.

„AppleGlasses“ mit visueller Intelligenz?
Möglicherweise deutet Cook damit ganz verstohlen auf essenzielle Funktionen eines neuen Gerätetyps hin, welches Apple gerüchteweise noch im Jahr 2026 ankündigen möchte: eine KI‑Brille, ähnlich der Meta-Brillen oder Snapchat-Spectacles. Visuelle Intelligenz könnte in einem solchen Gerät die Kernfunktion darstellen: Eine integrierte Kamera erfasst das aktuell Gesehene, das gekoppelte iPhone kümmert sich um die KI-Analyse, die gewonnenen Erkenntnisse werden über integrierte Lautsprecher oder AirPods an den Träger übermittelt.

Kommentare

MLOS06.02.26 14:12
Visuelle Intelligenz nutzt doch im Hintergrund gar keine Apple-Modelle, sondern ChatGPT für Detailfragen oder die Google-Suche für ähnliche Bilder. Ereignisse oder Text erkennen (Livetext) ist doch schon viel länger vorhanden und hat erstmal gar nichts mit Visual Intelligence zu tun. ODer verwechsle ich da gerade etwas?
-1
Marcel Bresink06.02.26 14:26
Visuelle Intelligenz wird auch auf dem Mac in Safari verwendet, wenn man eine Webseite in eine andere Sprache übersetzen lässt und sich auf der Seite Bilder befinden, die Text enthalten. In dem Fall werden die Bilder mit übersetzt.
+2
MetallSnake
MetallSnake06.02.26 14:36
Ich hätte gedacht, dass läuft einfach über OCR.
Wer kann mir helfen? - 'Nicht richtig gelesen. Setzen, sechs.', wo ist mein Fehler? https://www.mactechnews.de/news/article/S-187416.html#newscomment1621890
-1
tranquillity
tranquillity06.02.26 14:43
Die sollen erst mal machen, dass die mit meinem Mac verknüpfte iPhone-Kamera nicht alles spiegelverkehrt darstellt! Das ist wirklich so ein Unsinn, man kann nichtmal QR-Codes damit ablesen. Da merkt man einfach, dass bei Apple kaum jemand mit selbst mit den Geräten arbeitet.
-5
Retrax06.02.26 15:04
MetallSnake
Ich hätte gedacht, dass läuft einfach über OCR.
Ist OCR mittlerweile so gut?
Bin nicht mehr auf dem Laufenden...
-1
mabi06.02.26 15:21
tranquillity
Die sollen erst mal machen, dass die mit meinem Mac verknüpfte iPhone-Kamera nicht alles spiegelverkehrt darstellt! Das ist wirklich so ein Unsinn, man kann nichtmal QR-Codes damit ablesen. Da merkt man einfach, dass bei Apple kaum jemand mit selbst mit den Geräten arbeitet.

Jede Webcam spiegelt das aufgenommene Bild, da Du sonst Deine liebe Mühe hättest, Dich für den Videocall entsprechend auszurichten oder Dir die Haare in die richtige Richtung glatt zu streichen. Wieso sollte das anders gehandhabt werden, wenn man ein iPhone als Webcam nutzt?
+2
Frank Drebin
Frank Drebin06.02.26 15:34
Oh Herr! Heute sind ja ganz besondere Kommentargeber unterwegs… Wie wäre es mit zuerst informieren, dann (keinen Quatsch mit Soße) posten. Danke @mabi dass du den am wenigsten passenden Kommentar übernommen hast! Und an alle anderen, natürlich ist Visual Intelligence eine KI Funktion von Apple. Sie analysiert alles was sie im Bild erkennt, Text (ja OCR ist mega, erkennt sogar die Handschrift (oder auch Sauklaue) in Bildern), Personen, Tiere, Gegenstände usw. Dann wird diese Info an Google oder ChatGPT bei Bedarf weitergeleitet. Das Grundgerüst für diese KI hat Apple schon seit Jahren in der Fotos.App eingebaut. Sonst würde man ja die Suche und auch die Gesichter, Objekte, Tiere und Pflanzen nicht finden können.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.