Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Praxis: Apple Intelligence ausprobieren mit Kurzbefehle-App

Auf der WWDC 2024 stand „Apple Intelligence“ im Mittelpunkt: Das Large Language Model (LLM) namens Foundation sollte lokal auf Apple Silicon laufen und in weitgehend allen Betriebssystemen bereitstehen, um Anwender bei alltäglichen Aufgaben zu unterstützen. Die Veröffentlichung lieft dann stark verzögert ab. In macOS 15 (Sequoia) und iOS 18 beschränkte sich die Einsatzmöglichkeit auf Textwerkzeuge, Image Playground sowie Genmoji. Mit macOS 26 (Tahoe) sowie iOS 26 gibt es nun mehr Freiheiten: Erstmals gewährt Apple freien Zugang in Chat-Format auf die eingebaute KI – allerdings nur über einen Umweg – Apples Automatisierungsbaukasten „Kurzbefehle“.


Dafür gibt es eine neue Aktion namens "Modell verwenden", sie erscheint in der Apps-Kategorie unter „Apple Intelligence“. Die Voraussetzung dafür: ein Apple-Intelligence-fähiges Gerät:

  • Mac mit Apple Silicon (M1 oder neuer)
  • iPad mit M1-Prozessor (mini: A17 Pro)
  • iPhone 15 Pro, 16, 17 oder Air
  • Apple Vision Pro

Bei älteren Geräten erscheinen die Apple-Intelligence-Aktionen nicht, obwohl diese auch Anfragen an Apples Online-KI „Private Cloud Compute“ sowie ChatGPT übermitteln können.

Nur drei Aktionen
Für die Kernfunktion reihen Sie lediglich drei Aktionen aneinander: "Nach Eingabe fragen" zeigt ein Textfeld, in dem Sie eine Frage eingeben können. "Modell wählen" reicht die Frage an das LLM weiter – innerhalb der Aktion entscheiden Sie, ob das lokale Modell, Apples Server oder ChatGPT zur Anwendung kommt. Vorausgewählt ist "Private Cloud Compute", was für das "große" LLM auf Apples Servern steht. Unter diese Aktion fügen Sie "Übersicht" an – diese Aktion sorgt dafür, dass die Antwort in einem schwebenden Fenster erscheint.

Aus drei Aktionen entsteht ein Apple-Intelligence-Orakel.

Ausgestalten und protokollieren
Für ein schnelles Testen genügt dies bereits; wer jedoch ein übersichtlicheres Resultat wünscht, kann Frage und Antwort in einer Text-Aktion arrangieren. Die Variablen "Datum" sowie "Gerätedetails" liefern zudem Informationen, welche den Vergleich zwischen unterschiedlichen Apple-Intelligence-Versionen erleichtern. Ein Tipp: Fügen Sie die Variable "Gerätedetails" mehrfach hinzu, um Sie danach anzutippen. Im Aufklappmenü wählen Sie dann einmal Gerätetyp, einmal Systemversion und einmal Build-Nummer. Eine zusätzliche Aktion "An Notiz anfügen" protokolliert die Interaktion dann direkt in eine (vorher angelegte) Seite in der Notizen-App.
Zwei zusätzliche Aktionen sorgen für strukturierte (und protokollierte) KI-Antworten.


Anhänge via Teilen-Menü
Sie sind bei Ihrer Anfrage nicht auf Text beschränkt, sondern können auch eine Datei anhängen, unter anderem Fotos. Am einfachsten gelingt dies über das "Teilen"-Menü. Dafür legen Sie einen neuen Kurzbefehl an, den Sie in der Informations-Palette "Im Share-Sheet anzeigen" aktivieren. Dann erscheint eine Spezialaktion am Anfang des Kurzbefehls. Grenzen Sie die akzeptierten Typen auf "Bilder" ein. Darunter wählen Sie aus, was der Kurzbefehl tun soll, wenn er keine Inhalte übergeben bekommt, also direkt aufgerufen wird. Wählen Sie "Anfordern" und dann "Fotos".

Bild für Apple Intelligence aufbereiten
Von großen Bildern ist eine KI schnell überfordert; mit der Aktion "Bildgröße ändern" reduzieren Sie die Eingabe auf etwa eine Breite von 720 Pixeln. Darunter platzieren Sie die Aktion "Modell wählen". In das Textfeld geben Sie an, was die KI mit dem Bild anstellen soll. Ans Ende fügen Sie die Variable "geändertes Bild" an. Ans Ende kommt erneut die Aktion "Übersicht". Sobald dies funktioniert, lässt sich die Ausgabe ähnlich wie das oben erwähnte Textbeispiel verfeinern und protokollieren.

Bilder und andere Dateien lassen sich direkt in die Apple-Intelligence-Anfrage integrieren.

Wie schlägt sich Apple Intelligence bisher?
Die ersten Tests mit dem lokalen Modell in deutscher Sprache fallen ernüchternd aus. Eine Frage nach der Häufigkeit des Buchstabens "R" im Wort "Erdbeere" quittiert Apple Intelligence mit dem Verweis auf die offizielle Website der EU oder ähnlich sinnbefreite Antworten. Bei dem Wunsch nach einer Bildbeschreibung verweigert die KI eine Zusammenarbeit mit Hinweis auf das Urheberrecht. Erst nachdem wir einen Hinweis in die Anfrage hinzufügen, dass wir das Bild selbst aufgenommen hatten, war die KI zu einer Antwort bereit. Diese war aber meist ebenso falsch. Hier lohnt sich aber ein Vergleich über die Zeit: Mit jeder neuen Generation des großen Sprachmodells werden die Antworten sich sicherlich verbessern.

Auf Englisch geht mehr
Deutlich sinnhafter fallen die Antworten des lokalen LLMs aus, wenn man die Anfrage auf Englisch formuliert. Dan Moren hat sich der Aufgabe angenommen, Apple Intelligence dazu zu überreden, Belegfotografien automatisch auszuwerten. Nachdem er einige Zeit am entsprechenden Prompt gefeilt hatte, kam er zu akzeptablen Ergebnissen. Allerdings blieb die KI inkonsistent bei der Verwendung von Punkt und Komma und kann nicht rechnen.

Kommentare

cyqurayte26.09.25 09:37
Bald wird Apple Intelligence in voller Pracht demonstrieren, was Apple von KI versteht. Irgendwann muss es ja offiziell verfügbar sein.
+1
STB
STB26.09.25 09:49
Das wird möglicherweise genau so ein flop wie ping damals.
Da scheint ja nach wie vor nicht viel zu funktionieren während andere LLMs schon im Einsatz sind.
-3
thomas b.
thomas b.26.09.25 10:36
Gerade mal Grok befragt:
Wie oft ist der Buchstabe r in Erdbeere enthalten?

Um zu zählen, wie oft der Buchstabe "r" im Wort "Erdbeere" vorkommt, zerlege ich das Wort in einzelne Zeichen:

E
r (das 1. "r")
d
b
e
e
r (das 2. "r")
e

Das Wort "Erdbeere" enthält also 2 "r".

Da hat Apple dann wohl noch einiges aufzuholen, wobei Grok ja auch noch deutlich hinter chatGPT sein soll.
0
Jabada26.09.25 12:02
Das ist ein etwas unfairer Vergleich.
Hier wurde Grok (welches in der Cloud ausgeführt wird) mit dem lokalen Modell von Apple Intelligence verglichen. Um es fair zu machen müsste man von Apple wenigstens das Private Cloud Compute Modell verwenden.
thomas b.
Gerade mal Grok befragt:
Wie oft ist der Buchstabe r in Erdbeere enthalten?

Um zu zählen, wie oft der Buchstabe "r" im Wort "Erdbeere" vorkommt, zerlege ich das Wort in einzelne Zeichen:

E
r (das 1. "r")
d
b
e
e
r (das 2. "r")
e

Das Wort "Erdbeere" enthält also 2 "r".

Da hat Apple dann wohl noch einiges aufzuholen, wobei Grok ja auch noch deutlich hinter chatGPT sein soll.
0
mado080326.09.25 13:18
Ich habe das mal erweitert:
1. Ton ausgeben "Was möchtest du wissen?"
2. Text diktieren
3. Cloud Modell verwenden (für den diktierten Text)
4. Antwort in Sprache umwandeln
5. Ton abspielen (die in 4 erzeugte Audiodatei)

Das geht ad hoc mal nicht schlecht. Jetzt speichere ich das unter einem eindeutigen Namen und teile es im Share Sheet. Mal sehen, ob ich meine HomePods dann befragen kann.
0
albrox26.09.25 15:12
Hier ein Kurzbefehl den ihr laden könnt und dann auch via Terminal ansprechen könnt:


Gebt im Terminal ein:
result=$(echo "hey, was ist 7x8?" | shortcuts run "AppleIntelligence" -i -)
echo "$result"
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.