Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apple äußert sich zur angeblichen Siri-Verzögerung

Fast zwei Jahre nach der offiziellen Ankündigung dürfte es demnächst so weit sein: Apple will die neu entwickelte Siri-Generation auf den Markt bringen. Bislang galt 26.4 als jenes System, mit dem die Einführung erfolgen soll. Nachdem 26.3 seit dieser Woche zur Verfügung steht, ist der Startschuss der nächsten Betaphase wohl für die nächsten Tage vorgesehen – samt erstem Ausblick auf Siri 2. Glaubt man dem kürzlich erschienenen Bloomberg-Bericht, so kam es aber zu noch weiteren Verzögerungen. Demnach liege Apple hinter dem selbstgesteckten Zeitplan, könne erst mit 26.5 erste Features zeigen – und müsse einiges gar auf iOS 27 verschieben. Das ist insofern etwas verwunderlich, als die benötigte Technologie im Hintergrund von Google gestellt wird und Apple somit nur noch an der Integration arbeiten muss, anstatt alles selbst zu stemmen.


Apple betont CNBC gegenüber, dass man im Zeitplan ist
Von CNBC heißt es jetzt, eine Stellungnahme dazu von Apple erhalten zu haben. So gab es die Antwort, man befinde sich weiterhin auf Kurs, um die neue Siri-Generation "in diesem Jahr" zu zeigen. Zumindest eine noch deutlichere Verzögerung schließt man derzeit also aus – wenngleich iOS 27 immer noch in den Zeitrahmen fallen würde. Ein Dementi des Bloomberg-Berichts stellt die Reaktion somit nicht dar.

Allerdings muss man hier erwähnen, dass Apple 26.4 nie öffentlich als Zielsystem kommuniziert hatte. Besagte Angabe entstand aus vagen Andeutungen von Apple-Managern bzw. Leaks und mehreren Insideraussagen, wohingegen Apple stets von "next year" bzw. seit Januar von "this year" sprach. An der Börse wurden die jüngsten Berichte indes mit Sorge aufgenommen, denn der Aktienkurs ging um 5 Prozent zurück – Apples schlechtester Börsentag seit einem Jahr.

iOS 27 mit nächsten Neuerungen
Bloomberg zufolge stehen bei Siri gleich zwei maßgebliche Schritte an. Zunächst erfolge die Freigabe der Gemini-basierenden Siri-Version, anschließend wolle Apple das bisherige Interface durch eine Chatbot-artige Aufmachung ersetzen. Letztere werde direkt von Google-Servern gespeist, wohingegen Gemini-Siri auf Apples Private Cloud Compute zurückgreift. Sollte Siri 2 also wirklich erst mit iOS 26.5 erscheinen, wäre die Zeit bis zur nächsten weitreichenden Umstellung somit reichlich kurz.

Kommentare

Unwindprotect13.02.26 09:52
MTN
Das ist insofern etwas verwunderlich, als die benötigte Technologie im Hintergrund von Google gestellt wird und Apple somit nur noch an der Integration arbeiten muss, anstatt alles selbst zu stemmen.

Ich glaube das ist eine Fehleinschätzung. Apple erhält im Rahmen ihres Deals mit Google Foundationmodelle und evtl. wohl auch Cloud-Ressourcen um jene zu betreiben.

Mit einem Foundationmodell alleine hat man noch kein Feature. Das billigste Feature das man damit bauen könnte wäre sowas wie ein ChatBot, damit man einfach "Frage/Antworte-Spielchen" betreiben kann. Aus Sicht der Apple-Kunden soll allerdings das Feature-Set von Siri damit abgelöst werden und neue Features die technisch am ehesten mit dem weiten Themengebiet "Automatisierung" zusammenhängen. Die Berichterstattung lässt es nun manchmal so erscheinen, als ob Apple komplett das Handtuch geworfen hat und nun Google-Entwickler den Code für diese Apple-Features schreiben.

Worauf ich hinaus will. Nur weil z.B. Samsung ein Display ja schon gebaut hat, ist die Arbeit für das "iPhone 18 Pro" durchaus noch ein bisschen mehr. Selbst bei einem "Studio 2 Display" steckt noch jede Menge Engineering-Arbeit drin nachdem man die Panels vom Auftragsfertiger bekommen hat.

Ich stimme euch zu, dass diese Verzögerungsmeldung wohl damit zusammen hängt, dass widersprüchliche Informationen durch Leaker und offiziell verbreitet wurden. Allerdings sehe ich hier auch die Empfänger in der Verantwortung, dass man nicht jeden BS den irgendwer verbreitet für bare Münze nimmt. Ich hege fast die Vermutung, das "inoffizielle Informationen" manchmal mehr Gewicht beigemessen wird als den offiziellen.
+9
Mendel Kucharzeck
Mendel Kucharzeck13.02.26 09:56
Unwindprotect
Durch die Nutzung der Google-Modelle wird Apples Arbeit trotzdem ERHEBLICH einfacher als alles von Grund auf zu entwickeln.

Um dein Beispiel aufzugreifen: Hast du ein fertiges Display, ist die Integration in ein Produkt natürlich aufwand – aber deutlich weniger, als ein Display zu entwickeln UND die Integration durchzuführen.
+3
xcomma13.02.26 10:19
Apple hat keine andere Wahl, wenn sie KI anbieten wollen - und das aus mehreren Perspektiven.

Die vollmundige Erstankündigung damals hat sich ja offensichtlich nicht bewahrheitet und wurde auch schon früh - z.B. in einem heise Podcast - angezweifelt. Der Aufbau eines eigenen LLMs UND zusätzlich die lokale Ausführung - sind für sich genommen jeweils 2 supergrosse Baustellen. Es war von Anfang an unrealistisch. Tests von heise haben auch ergeben, dass selbst bei vermeintlich kleinsten Aufgaben sehr oft (um nicht zu sagen praktisch immer) zu Apple Servern connected wurde - die lokale Ausführung ist (noch) nicht spruchreif - bzw. die erzielten Resultate sind unterirdisch.

Ferner, damit das "Saubermann"-Image keinen (oder weniger) einen Knacks bekommt, tut Apple sicherlich auch "irgendwie gut daran" sich wo anzuhängen, denn LLM Trainings stehen ja bekannterweise immer wieder in der Kritik. Sei es durch Verletzung von Rechten bzw. fragwürdigen Quellen, sowie auch die durch Menschenhand erforderliche Filterung von (widerlichem) Material, was die Schattenseite von KI darstellt und in verschiedenen Artikeln als "Drecksarbeit" bezeichnet wird. Ein Beispiel schnell gegoogelt (paywalled):

Apple macht sich also - zumindest in der Frontlinie - nicht (bzw. weniger) die Hände schmutzig durch solche Kooperationen.
Natürlich hat Apple fähige Leute, und das eine und andere Paper wurde publiziert, aber in dem (leider perversen) Gehalts-Poker um KI-Talente hat Apple bisher auch das Nachsehen, da dieses natürlich zu Unruhe in der Belegschaft führen wird, wenn so krasse Ausreisser im Gehaltsgefüge erlaubt werden würden - andererseits haben sie es schwer - augenscheinlich - wettbewerbsfähige KI Kompetenzen aufzubauen bzw. zu halten - wenn man zumindest die Manpower denen gegenüberstellt, die in den anderen, markführenden Unternehmen vorhanden sind.
+1
maikdrop13.02.26 10:35
Unwindprotect

plus 1
-10
Frank Drebin
Frank Drebin13.02.26 10:36
Hey, ich bin ja kein Verschwörungstheoretiker … aber irgendwie ist man doch ein Schelm, wenn man sich dabei nichts denkt, oder?
Aktienkurse werden schließlich fast täglich durch Gerüchte und „inoffizielle“ Infos beeinflusst. Erst heißt es, Apple stelle im Februar Siri 2.0 mit Gemini vor und mit Version 26.4 komme das Ganze definitiv. Die Fantasie ist geweckt – die Aktie steigt kräftig. Zwei Wochen später tauchen neue, ebenfalls inoffizielle Meldungen auf: Siri 2.0 verzögert sich doch. Und schon fällt der Kurs wieder deutlich.
Da fragt man sich schon, ob manche dabei ordentlich Kasse machen.
+1
macbeutling
macbeutling13.02.26 10:41
Frank Drebin:

kann ich leider nicht bestätigen. Die Aktie hat auf die Zusammenarbeit mit Google kaum reagiert.
Und der Abschlag ab gestrigen Tage bezüglich einer "eventuellen" Verspätung war meiner Ansicht nach mehr als überzogen.

Diese Reaktion habe ich anno 2024 verstanden, als die Aktie stark stieg als die AppleIntelligence Ankündigung kam, da mit diesen Features starke Verkäufe antizipiert wurden.

Nun, im letzten Quartal hat Apple deutlich gezeigt, dass es AI nicht unbedingt benötigt, um starke Zahlen zu präsentieren.
Ob also das neue Siri 2026 oder erst 2027 kommt, beeinflusst die iPhone-Verkäufe nicht sonderlich.
Und 5% runter....krass.
Glück auf🍀
+8
Radiodelta
Radiodelta13.02.26 10:43
macbeutling
Frank Drebin:

Und 5% runter....krass.
Immer eine gute Gelegenheit um Aktien nachzukaufen....
+1
Unwindprotect13.02.26 10:43
Mendel Kucharzeck
Unwindprotect
Durch die Nutzung der Google-Modelle wird Apples Arbeit trotzdem ERHEBLICH einfacher als alles von Grund auf zu entwickeln.

Natürlich - es ist natürlich leichter ein Foundation Model zu kaufen als es selbst zu entwickeln. Das war aber auch nicht, was ihr in dem von mir zitierten Text behauptet habt.

Die Aussage war eher (bewusst kontrastiert zum verdeutlichen): "Warum braucht Apple eigentlich so lange für das von Grund auf neu entwickelte Siri auf LLM Basis und das andere 'Dutzend' weiterer auf LLMs basierenden Features. Sie haben es doch einfach von Google gekauft und müssen es nur noch einbauen und shippen!!!"

Das ist auch nicht böse gemeint - aber so kam der Spruch halt rüber. Ich bin mir ziemlich sicher, dass es nicht so gemeint war - deswegen der Hinweis.
+4
UWS13.02.26 11:57
Mich wundert diese Verzögerung überhaupt nicht. Im Bereich der LLMs ist derzeit so viel in Bewegung, dass eine vernünftig abgewogene Entscheidung über Leistungsfähigkeit und Leistungsumfang einer eigenen Lösung ziemlich kompliziert ist. Wenn man jetzt Gemini als Basis nimmt, sagt das ja noch nichts über andere grundlegende Fragen und Designentscheidungen.

- Was soll das System überhaupt können, wir reden ja nicht nur über normale Funktionalität, wie bei einer simplen KI-Abfrage?
- Welche Ressourcen stehen lokal zur Verfügung und wie sollen die genutzt werden?
- Was soll/darf nach außen gegeben werden?
- Was sollen Agenten zur Steuerung von Funktionen leisten können und wie ist das Sicherheitskonzept? Machst du zu wenig, können sie nicht genug, machst du zu viel, fängst du dir ganz andere Probleme ein.

Ich nehme mal an, die ganze Kette muss bei Gemini wieder komplett von vorne durchdacht werden und das dauert eben einfach.
There is no cloud…it’s just someone else’s computer.
+5
eriks13.02.26 12:18
Mendel Kucharzeck
Unwindprotect
Durch die Nutzung der Google-Modelle wird Apples Arbeit trotzdem ERHEBLICH einfacher als alles von Grund auf zu entwickeln.

Zumal ein erheblicher Teil der Integrationsarbeiten schon geleistet sein sollte in den vergangenen zwei Jahren. Ich vermute Modelle und Integration sind Projekte mit klaren Grenzen und damit unterschiedlichen Teams. Wenn die neuerliche Verspätung auch an der Integration liegen sollte, dann ist der gesamte Misserfolg evtl doch nicht allein den Modellen geschuldet.
0
maikdrop13.02.26 12:41
eriks

Die Models sind wahrscheinlich das geringste Problem. Die Integration ist das große Thema. Eine ChatBot App als Interface zum Model ist keine große Hürde. Eine Sprachsteuerung, die je nach Aufgabe automatisch mit verschiedenen Models arbeitet und entsprechende Befehle erstellt, um dann auch je nach Wunsch die Antworten auszuwerten und an den User zurückzugeben, ist schon high Level. Kann ja bis jetzt kein System. Außer du machst es wie Google und hast die Gemini App, die nur Zugriff auf einige Google Apps hat. Das ist einfacher und weniger Komplex als das was Apple plant.
+1
caba
caba13.02.26 13:29
Wieso braucht so eine große Firma wie  so lange, um da was brauchbares auf die Beine zu stellen, wenn der Entwickler von Clawdbot das ganz alleine in kurzer Zeit aus dem Boden stampft? Wenn ich das richtig verstanden habe, kann der Clawdbot in einen Messenger wie iMessage integriert werden und bucht dir dann Flüge, steuert dein Smarthome, räumt deine E-Mails auf, fasst dir Texte zusammen usw. Gescheites Sicherheitslevel dazu und fertig ist das neue Siri.
Meinungen sind keine Ideen, Meinungen sind nicht so wichtig wie Ideen, Meinungen sind nur Meinungen. (J. Ive)
0
maikdrop13.02.26 14:55
caba

Weil das ein sicherheitstechnischer Albtraum ist und den Erfahrungsberichten nach wenig stabil läuft.
+3
Michael Lang13.02.26 16:30
Ich bin gespannt was bei rauskommt. Von mir aus erst im Herbst, aber dann muss es auch gut funktionieren und Systemweit zur Verfügung stehen.
Siri muss verstehen und gescheite Antworten (Texte und Bilder) bzw. Lösungen bieten inkl. komplexer Automationsaufgaben. Zumindest ist es das was ich mir vorstelle…
- Das größte Maul und das kleinste Hirn,wohnen meist unter derselben Stirn. - Hermann Oscar Arno Alfred Holz, (1863 - 1929), deutscher Schriftsteller
+1
WahrFa13.02.26 16:45
Mmh da muss ich meinen letzten Kommentar wohl revidieren.
Wenn es so sein sollte wie maikdrop schreibt, dass Google Gemini nur die eigenen Apps steuern lässt und da dann vielleicht (meine Vermutung) auch nur manches, dann ist eine Siri, die bei jeder App alles steuern könnte, schon ein riesen Ding, fast wie der Computer bei Star Trek.
Das wäre schon überlegen, dann ist es auch ok, dass sie noch Zeit brauchen.
0
Unwindprotect13.02.26 18:07
eriks
Zumal ein erheblicher Teil der Integrationsarbeiten schon geleistet sein sollte in den vergangenen zwei Jahren.

Und genau hier liegt der Irrtum. LLMs sind eben keine Komponente mit klar definierter Schnittstelle die man dann anflanscht und dann läuft es.

Die Foundationmodelle müssen für die gewünschten Anwendungsfälle optimiert und korrigiert werden. Nimmt man ein anderes Modell dann beginnt diese Arbeit von vorne - und das ist nur _einer_ von vielen weiteren Aspekten. Bereits das Deployment alleine ist etwas das ganze Teams beschäftigt - insbesondere wenn das nun auch einen anderen Cloudanbieter nutzen soll.

Davon abgesehen ist das mit der „Verzögerung“ wie MTN korrekt berichtet eine auf Gerüchten basierte Vermutung. Es kann genauso gut sein, dass man von Anfang an von einer Schrittweise Einführung ausging… eigentlich wäre das bei diesen Themen sowieso sinnvoll.
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.