KI bedient beliebige Apps: iOS 26.1 legt Fundament für MCP-Integration


Komplexe Software zu bedienen stellt eine Herausforderung dar. Je mächtiger die App, desto unverständlicher erscheint die Bedienoberfläche dem erfahrungslosen Anwender. Zum Beispiel 3D-Gestaltung: Vor dem eigenen Auge erscheint das gewünschte Objekt bereits in voller dreidimensionaler Pracht, während man in der komplexen Modellier- oder CAD-Software noch versucht, die Grundform im Koordinatensystem zu platzieren. Hier können KI-Assistenten helfen, sofern sie in der Lage sind, Funktionen einer Software direkt anzusprechen. Dafür hat sich Model Context Protocol (MCP) als Standard etabliert. Apple will diesen nun auch in seine Betriebssysteme integrieren – das fand 9to5mac in einer
Analyse der ersten Betaversion von iOS 26.1 heraus.
Das Konzept sieht eine Koexistenz von KI-Chat und App vor. Anwender formulieren in natürlicher Sprache ihren Wunsch; ein Large Language Model (LLM) übersetzt diesen in die korrekten Arbeitsschritte, welche zur Umsetzung notwendig sind. Ein MCP-Server vermittelt zwischen LLM und der jeweiligen App und reicht die Befehle durch und liefert maschinenlesbare Resultate. Der Anwender sieht zu, wie der eigene Prompt umgesetzt wird, und kann durch darauffolgende Prompts das Resultat verfeinern, bis er zufrieden ist. Bisher gibt es solche Lösungen für einzelne Programme, etwa um die eigenen
Health-Daten zu analysieren oder das Open-Source-3D-Programm Blender mittels Prompts zu steuern. Apple will dies auf Systemebene in iOS integrieren und nutzt dafür eine Schnittstelle, welche App-Entwicklern bereits seit Jahren ans Herz gelegt wird.
App Intents – das neue AppleScript?Dabei handelt es sich um sogenannte App Intents. Sie dienen dazu, Kernfunktionen einer App für Apples Sprachassistenz Siri bereitzustellen. Gleichzeitig dienen App Intents auch dafür, um bestimmte Aufgaben im Automatisierungsbaukasten Kurzbefehle anzubieten. Seit 2023 rührt Apple auf der alljährlichen WWDC kräftig die Werbetrommel für App Intents – und legt Entwicklern nahe, sämtliche App-Funktionen über das App-Intent-Framework zu exponieren. Das weckt Erinnerungen an AppleScript – die Mac-Skriptsprache hatte weitreichenden Zugriff auf Datei-, System- und Programmfunktionen, wird aber von Apple seit Jahren vernachlässigt.
App Intents vermitteln zwischen einer App und Siri oder Kurzbefehlen – und bald auch einer KI. (Quelle:
Apple)
Claude, Gemini, ChatGPT – und Apple IntelligenceMCP ist ursprünglich eine Entwicklung des Unternehmens Anthropic, welches die bei Entwicklern beliebte KI Claude anbietet. Welche KIs auf den integrierten MCP-Server zugreifen können, ist derzeit nicht erkennbar – Apple hat bisher einen optionalen Zugang für ChatGPT in iOS integriert, kündigte in der Vergangenheit aber an, auch anderen LLM-Entwicklern eine gleichwertige Integration ermöglichen zu wollen. Mit Sicherheit annehmen lässt sich, dass Apple den lokalen Foundation-Modellen einen Zugang ermöglichen will: Apple Intelligence ist in Apples 26er-Systemen so weit gereift, dass es sich über Schreibwerkzeuge und Image Playground hinaus nutzen lässt. Aktuell gelingt dies allerdings nur über die Kurzbefehle-App.