Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Auf dem Weg zu Siri 2 – der vermutete Zeitplan

Apple musste sich viel Kritik gefallen lassen, nachdem einige der zur WWDC 2024 angekündigten Siri- und KI-Meldungen wohl bestenfalls Konzepte waren – wie es aus verschiedenen Quellen hieß. Recht schnell stellte sich heraus, dass Apple damals zu viel versprochen hatte und sich vor allem die Ansätze für Siri als untauglich erwiesen. Die seit Monaten mehrfach wiederholte Zeitprognose lautet, man wolle 2026 so weit sein – erst vor einigen Tagen wiederholte ein Apple-Sprecher besagte Nennung noch einmal.

iOS und macOS 26.4 stehen inzwischen als Betaversion zur Verfügung, ohne dass sich allerdings Hinweise auf die neue Siri-Generation oder sonstige Gemini-basierende KI-Funktionen finden ließen. Dies wiederum deckt sich mit Mark Gurmans Angaben, Apple habe einen vorsichtigeren Zeitplan gewählt und Siri 2 auf Systemversion 26.5 verschoben. Die Funktionen sollen nach und nach erscheinen, einiges auch erst mit der nächsten Hauptversion.


Apple ist wohl vorsichtig geworden
Man kann davon ausgehen, dass bei Apple die Devise "nur kein weiterer Schnellschuss" gilt. Lieber zeigt man gar nichts, als noch einmal die Erwartungen nicht zu erfüllen. Das betrifft sowohl Siri als auch Apple Intelligence, denn die ab Ende 2024 eingeführten Features weisen oft erhebliche Schwächen auf. Laut Mark Gurman wollte Apple tatsächlich System 26.4 als Ziel anvisieren, war dann jedoch mit der Zuverlässigkeit nicht zufrieden. Ohnehin war man an kein Datum gebunden, denn 2026 ist noch lang – selbst Herbst 2026 wäre demnach im prognostizierten Rahmen

Ein plausibler Ablauf:
Das Apple-Event am 4. März könnte eine Bühne bieten, um Siri 2 der Öffentlichkeit bzw. den anwesenden Teilnehmern zu präsentieren (eine Live-Übertragung gibt es höchstwahrscheinlich nicht). Sofern 26.5 den Anfang machen sollte, egal ob mit Vorführung im März oder nicht, würde Apple die Resultate ab Ende März/April testen lassen und dann im April/Mai auf den Markt bringen. Den nächsten großen Schritt sieht man aber sicherlich nicht vor Juni auf der diesjährigen WWDC. Hierzu gibt es ebenfalls mehrere Berichte: Gurman zufolge sind für 26.4 geplante Funktionen auf iOS 27 verschoben worden, dürften also in der ersten Entwicklerbeta des Systems auftauchen. Dazu kommen weitere Früchte der Zusammenarbeit zwischen Apple und Google.


Neuentwickelte Modelle aus dem Themenfeld rund um Apple Intelligence verfolgen angeblich einen anderen Ansatz als die bisherigen. Aus dem Mantra "alles lokal, und wenn es gar nicht anders geht, dann Private Cloud Compute" werde schrittweise direkte Ausführung auf Googles Infrastruktur (siehe Artikel). Glaubt man den Angaben, so verwandelt sich Siri in einen Chatbot – mit weitaus mehr Funktionen, als die 2024 angekündigte appübergreifende Nutzung und Kontextwissen. Mit der vollständigen Umsetzung der neuen Siri-Generation ist somit nicht vor September 2026 zu rechnen.

Kommentare

McCrutio18.02.26 08:56
Uff, alles auf Google Infrastruktur und nicht mehr lokal finde ich keine gute Entwicklung. Auch wenn der Komfort wachsen mag.
So wie sich das politisch gerade alles entwickelt möchte ich eigentlich mehr und mehr Abstand haben von Google, Meta und Co.
Na mal sehn.
+12
Tirabo18.02.26 09:08
Soweit ich das mitbekommen habe, wird es eben NICHT auf Googles Infrastruktur laufen. Das ist wohl auch nicht notwendig in diesem Fall. Genauere Hintergründe kenn ich mangels Expertise in diesem Fach nicht. Vielleicht kann ja jemand mit Expertise dazu was sagen?
+4
Metty
Metty18.02.26 09:08
direkte Ausführung auf Googles Infrastruktur
Sorry ... geht gar nicht. Dann kann man ja gleich Android nehmen. Auch wenn es deaktivierbar wäre, Apple Privacy-Versprechen wäre dahin. Dümmer könnte sich Apple nicht in den Fuss schiessen.
Dann besser keine KI im System und jede und jeder kann selbst entscheiden welche KI Apps sie/er auf dem Gerät haben will.
+3
ssb
ssb18.02.26 09:10
Es bleibt dabei, dass ich meine LLMs lokal laufen lassen werde. Mit ollama nicht top performant und wegen des lokalen RAMs auch nur kleinere Modelle, aber wo ich es brauche, genügt das fürs Erste.

(bezieht sich natürlich auf macOS)
+2
NeoMac666
NeoMac66618.02.26 11:24
Mir würde es ja schon mal reichen, wenn
man die Weiterleitung an ChatGPT durch Gemini ersetzen könnte und
Siri deren Ergebnisse (wenn Text) dann auch vorlesen und einfacher in andere Apps übernehmen könnte
+2
bjbo18.02.26 12:41
ssb
Es bleibt dabei, dass ich meine LLMs lokal laufen lassen werde. Mit ollama nicht top performant und wegen des lokalen RAMs auch nur kleinere Modelle, aber wo ich es brauche, genügt das fürs Erste.

(bezieht sich natürlich auf macOS)

Geht auch auf dem iPhone. Schau Dir mal Locally AI an. Ich habe da derzeit Ministral mit 3 Milliarden Parametern laufen. Für das was ich damit mache, reicht das vollkommen aus. Es gibt auch andere frei verfügbare Modelle zu Wahl. Kann man auch über Siri direkt aufrufen. Das ist eine kostenlose App, man benötigt nur die Geduld für den Download.
+4
Sitox
Sitox18.02.26 13:14
McCrutio
So wie sich das politisch gerade alles entwickelt möchte ich eigentlich mehr und mehr Abstand haben von Google, Meta und Co.
Na mal sehn.
Dann ist Apple in dem Kontext aber eindeutig Teil von „und Co“ und darf genannt werden.
+1
Michael Lang18.02.26 15:16
Metty
direkte Ausführung auf Googles Infrastruktur
Sorry ... geht gar nicht. Dann kann man ja gleich Android nehmen. Auch wenn es deaktivierbar wäre, Apple Privacy-Versprechen wäre dahin. Dümmer könnte sich Apple nicht in den Fuss schiessen.
Dann besser keine KI im System und jede und jeder kann selbst entscheiden welche KI Apps sie/er auf dem Gerät haben will.

Ich denke hier gibt es falsche Vorstellungen wie sowas läuft.
Apple wird die Anfragen nicht einfach an Google weiterleiten (dann wäre es in der Tat kein Unterschied zu Android basierten Systemen), sondern nur Googles Serverfarmen nutzen um dort Geminibasiert die KI Funktionen von Apple laufen zu lassen.

Natürlich braucht Apple dafür eine Infrastruktur. Da Apple (noch) keine eigenen großen Serverfarmen für KI betreibt, muss man auf externe Infrastruktur (sprich Server-/Rechenkapazitäten) zurückgreifen. Dafür hat man Google auserwählt.
Ich denke die Daten sind dort genau so sicher vor Zugriff Dritter, wie anderswo. Apple wird dort exklusiven Zugriff haben.

Aber natürlich behält es einen Beigeschmack. Apple ist da einfach zu weit hinterher und kann den eigenen großmundig angepriesenen Ansprüchen derzeit nicht genügen.
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
+5
Ollee
Ollee18.02.26 15:16
@bjbo Was machst du denn damit so aufm iPhone?
0
Metty
Metty18.02.26 16:02
Michael Lang
... sondern nur Googles Serverfarmen nutzen um dort Geminibasiert die KI Funktionen von Apple laufen zu lassen.

Ich denke die Daten sind dort genau so sicher vor Zugriff Dritter, wie anderswo. Apple wird dort exklusiven Zugriff haben.

Wenn etwas auf Googles Servern betrieben wird, dann haben Google Techniker Zugang zu Hardware, Netzwerk und vielleicht sogar Systemsoftware. Eine Aussage, dass Apple in diesem Kontext Datensicherheit garantieren kann halte ich für etwas gewagt.

Natürlich sind wir hier im Bereich der Spekulation, ob Apple etwas in Zukunft macht oder nicht. Man kann jedoch mal laut darüber nachdenken wo für einen persönlich die rote Linie ist, wem man was an Daten überlassen will. Software und KI Modlle von Google verwenden ist für mich in Ordnung, Server von Google verwenden jedoch nicht mehr. Ich frage mich allerdings, ob ich als Endkunde die Kontrolle bzw. die Gewissheit darüber haben kann.
0
bjbo18.02.26 16:19
Ollee
@bjbo Was machst du denn damit so aufm iPhone?

Einfache Fragen stellen, wenn ich kurz keine Lust oder Zeit habe genauer danach selbst zu suchen, kleine Übersetzungen, Texte aus Bildern ausgeben lassen (wenn das Modell Vision unterstützt, praktisch bei Screenshots zu Gerichten bspw.). Zusammenfassungen und Unterstützung beim Formulieren von Antworten. Alles Dinge, die die meisten damit auch machen. Aber halt lokal.
0
TorstenW18.02.26 16:59
Metty
Software und KI Modlle von Google verwenden ist für mich in Ordnung, Server von Google verwenden jedoch nicht mehr.

Ich hoffe du hast dann iCloud auch komplett deaktiviert..
Denn das läuft auch auf Amazon und Google Servern..

Bei mir wäre es genau andersrum: Ich hab gar kein Problem damit, wenn Apple Server von Drittanbietern nutzt. Letztlich ist das nur ne CPU und Festplatte, die irgendwo rumsteht. Solange Authentifizierung und Verschlüsselung über Apple läuft, haben die Server-Anbieter da quasi keinen Zugriff drauf.
Software und KI von Google nutzen empfinde ich dann schon wieder ganz anders. Denn da gebe ich ja Google konkret meine Informationen und Daten und den Zugriff darauf.

Insofern empfinde ich deine Aussagen zur Datensicherheit genau andersherum.
+2
Sitox
Sitox18.02.26 18:15
bjbo
Ollee
@bjbo Was machst du denn damit so aufm iPhone?

Einfache Fragen stellen, wenn ich kurz keine Lust oder Zeit habe genauer danach selbst zu suchen, kleine Übersetzungen, Texte aus Bildern ausgeben lassen (wenn das Modell Vision unterstützt, praktisch bei Screenshots zu Gerichten bspw.). Zusammenfassungen und Unterstützung beim Formulieren von Antworten. Alles Dinge, die die meisten damit auch machen. Aber halt lokal.
Das und Ähnliches erledigt 'Gemini Nano' von Beginn an ebenfalls lokal auf den Pixel Phones. Gesetzt den Fall, Apple würde komplett auf Gemini setzen (was ich nicht glaube), liefen diese Dinge ohnehin auf den iPhones.
0
OliverCGN25.03.26 12:54
ssb
Es bleibt dabei, dass ich meine LLMs lokal laufen lassen werde. Mit ollama nicht top performant und wegen des lokalen RAMs auch nur kleinere Modelle, aber wo ich es brauche, genügt das fürs Erste.

(bezieht sich natürlich auf macOS)
Welche LLMs setzt Du ein? Ich habe bisher nichts finden können, was auch nur annähernd brauchbare Ergebnisse liefert.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.