Praxis: Apple Intelligence ausprobieren mit Kurzbefehle-App


Auf der WWDC 2024 stand „Apple Intelligence“ im Mittelpunkt: Das Large Language Model (LLM) namens Foundation sollte lokal auf Apple Silicon laufen und in weitgehend allen Betriebssystemen bereitstehen, um Anwender bei alltäglichen Aufgaben zu unterstützen. Die Veröffentlichung lieft dann stark verzögert ab. In macOS 15 (Sequoia) und iOS 18 beschränkte sich die Einsatzmöglichkeit auf Textwerkzeuge, Image Playground sowie Genmoji. Mit macOS 26 (Tahoe) sowie iOS 26 gibt es nun mehr Freiheiten: Erstmals gewährt Apple freien Zugang in Chat-Format auf die eingebaute KI – allerdings nur über einen Umweg – Apples Automatisierungsbaukasten „Kurzbefehle“.
Dafür gibt es eine neue Aktion namens "Modell verwenden", sie erscheint in der Apps-Kategorie unter „Apple Intelligence“. Die Voraussetzung dafür: ein Apple-Intelligence-fähiges Gerät:
- Mac mit Apple Silicon (M1 oder neuer)
- iPad mit M1-Prozessor (mini: A17 Pro)
- iPhone 15 Pro, 16, 17 oder Air
- Apple Vision Pro
Bei älteren Geräten erscheinen die Apple-Intelligence-Aktionen nicht, obwohl diese auch Anfragen an Apples Online-KI „Private Cloud Compute“ sowie ChatGPT übermitteln können.
Nur drei AktionenFür die Kernfunktion reihen Sie lediglich drei Aktionen aneinander: "Nach Eingabe fragen" zeigt ein Textfeld, in dem Sie eine Frage eingeben können. "Modell wählen" reicht die Frage an das LLM weiter – innerhalb der Aktion entscheiden Sie, ob das lokale Modell, Apples Server oder ChatGPT zur Anwendung kommt. Vorausgewählt ist "Private Cloud Compute", was für das "große" LLM auf Apples Servern steht. Unter diese Aktion fügen Sie "Übersicht" an – diese Aktion sorgt dafür, dass die Antwort in einem schwebenden Fenster erscheint.
Aus drei Aktionen entsteht ein Apple-Intelligence-Orakel.
Ausgestalten und protokollierenFür ein schnelles Testen genügt dies bereits; wer jedoch ein übersichtlicheres Resultat wünscht, kann Frage und Antwort in einer Text-Aktion arrangieren. Die Variablen "Datum" sowie "Gerätedetails" liefern zudem Informationen, welche den Vergleich zwischen unterschiedlichen Apple-Intelligence-Versionen erleichtern. Ein Tipp: Fügen Sie die Variable "Gerätedetails" mehrfach hinzu, um Sie danach anzutippen. Im Aufklappmenü wählen Sie dann einmal Gerätetyp, einmal Systemversion und einmal Build-Nummer. Eine zusätzliche Aktion "An Notiz anfügen" protokolliert die Interaktion dann direkt in eine (vorher angelegte) Seite in der Notizen-App.
Zwei zusätzliche Aktionen sorgen für strukturierte (und protokollierte) KI-Antworten.
Anhänge via Teilen-MenüSie sind bei Ihrer Anfrage nicht auf Text beschränkt, sondern können auch eine Datei anhängen, unter anderem Fotos. Am einfachsten gelingt dies über das "Teilen"-Menü. Dafür legen Sie einen neuen Kurzbefehl an, den Sie in der Informations-Palette "Im Share-Sheet anzeigen" aktivieren. Dann erscheint eine Spezialaktion am Anfang des Kurzbefehls. Grenzen Sie die akzeptierten Typen auf "Bilder" ein. Darunter wählen Sie aus, was der Kurzbefehl tun soll, wenn er keine Inhalte übergeben bekommt, also direkt aufgerufen wird. Wählen Sie "Anfordern" und dann "Fotos".
Bild für Apple Intelligence aufbereitenVon großen Bildern ist eine KI schnell überfordert; mit der Aktion "Bildgröße ändern" reduzieren Sie die Eingabe auf etwa eine Breite von 720 Pixeln. Darunter platzieren Sie die Aktion "Modell wählen". In das Textfeld geben Sie an, was die KI mit dem Bild anstellen soll. Ans Ende fügen Sie die Variable "geändertes Bild" an. Ans Ende kommt erneut die Aktion "Übersicht". Sobald dies funktioniert, lässt sich die Ausgabe ähnlich wie das oben erwähnte Textbeispiel verfeinern und protokollieren.
Bilder und andere Dateien lassen sich direkt in die Apple-Intelligence-Anfrage integrieren.
Wie schlägt sich Apple Intelligence bisher?Die ersten Tests mit dem lokalen Modell in deutscher Sprache fallen ernüchternd aus. Eine Frage nach der Häufigkeit des Buchstabens "R" im Wort "Erdbeere" quittiert Apple Intelligence mit dem Verweis auf die offizielle Website der EU oder ähnlich sinnbefreite Antworten. Bei dem Wunsch nach einer Bildbeschreibung verweigert die KI eine Zusammenarbeit mit Hinweis auf das Urheberrecht. Erst nachdem wir einen Hinweis in die Anfrage hinzufügen, dass wir das Bild selbst aufgenommen hatten, war die KI zu einer Antwort bereit. Diese war aber meist ebenso falsch. Hier lohnt sich aber ein Vergleich über die Zeit: Mit jeder neuen Generation des großen Sprachmodells werden die Antworten sich sicherlich verbessern.
Auf Englisch geht mehrDeutlich sinnhafter fallen die Antworten des lokalen LLMs aus, wenn man die Anfrage auf Englisch formuliert. Dan Moren hat sich der Aufgabe angenommen, Apple Intelligence dazu zu überreden,
Belegfotografien automatisch auszuwerten. Nachdem er einige Zeit am entsprechenden Prompt gefeilt hatte, kam er zu akzeptablen Ergebnissen. Allerdings blieb die KI inkonsistent bei der Verwendung von Punkt und Komma und kann nicht rechnen.