Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Setzt Apple für Siri 2.0 tatsächlich auf Google und Baidu – oder geht es um etwas ganz anderes?

Erst vor wenigen Tagen sorgte der Bericht für Aufsehen, Apple setze als neues Sprachmodell für Siri bzw. der Safari-Suche auf Angebote von Google. Demnach laufen momentan Verhandlungen, wie die milliardenschwere Kooperation zwischen Apple und Google noch um eine weitere Kerntechnologie zu ergänzen wäre. OpenAI, das Unternehmen hinter ChatGPT, sei ebenfalls eine denkbare Option, Google habe jedoch eindeutig die besseren Chancen.

Das Wall Street Journal und Dow Jones melden jetzt übereinstimmend, Apple hole sich noch einen weiteren Partner ins Boot. Demnach erwirbt Cupertino KI-Technologien vom chinesischen Betreiber Baidu, dort Marktführer bei Suchmaschinen. Es dürfte sich um die Routinen handeln, welche bei Baidus LLM namens ERNIE Bot zum Einsatz kommen, der Deal ist angeblich sogar bereits in trockenen Tüchern.


In China: chinesischer Anbieter naheliegend
Ob Apple den Schritt geht, weil man schlicht kein ähnliches leistungsfähiges LLM in Eigenregie auf die Beine gestellt bekommt, ist den Magazinen nicht bekannt. Auch regulatorische Gründe könnten für derlei Zusammenarbeit sorgen, immerhin müsste ein generatives Sprachmodell in China von den Behörden genehmigt werden. Handelt es sich ohnehin schon um ein chinesisches Produkt, wäre die Markteinführung wesentlich einfacher.

...oder geht es um etwas ganz anderes?
In sämtlichen Berichten herrschte bislang der Grundton vor, Apple wolle die Neuaufstellung von Siri sowie die erforderlichen Sprachfähigkeiten samt Wissensrecherche auf Partner auslagern. Allerdings könnte es sich auch um ein ganz anderes Ziel handeln. Während Apple durch massive Investitionen wohl in der Lage ist, entsprechende Modelle zu trainieren und ins System zu integrieren, gäbe es immer noch die technische Abwicklung im Hintergrund zu klären. Die Anforderungen an das Hosting der Modelle sind enorm und übersteigen bei Weitem, was für die serverseitigen Antworten eines aktuellen Siri bereitzustellen ist.

Es ist schwer vorzustellen, dass Apple die komplette Verantwortung für eine derart wichtige Systemerweiterung vollständig an Drittanbieter übergibt und sich damit auf lange Zeit abhängig macht. Sämtliche Datenschutzbedenken einmal außer Acht gelassen, stünde dies in ziemlichem Widerspruch, wie das Unternehmen normalerweise agiert. Sehr wahrscheinlich ist aber, massiv ausgebaute Serverkapazitäten von etablierteren Anbietern zu benötigen – und zwar solche Systeme, auf denen die Modelle einsetzbar sind. Genau dafür wären Google und Baidu naheliegende Partner, die zwar Hardware bereitstellen und grundlegende Technologien lizenzieren, jedoch nicht der eigentliche Hersteller oder gar Betreiber von "Siri 2.0" sind.

Kommentare

tk69
tk6926.03.24 10:26
Bei Siri 2.0 wird so offen sein, dass man sich die Intelligenz aussuchen kann.
0
massi
massi26.03.24 10:35
Welche Intelligenz?
+2
Dunkelbier26.03.24 10:47
massi
Welche Intelligenz?
Und genau das ist das Problem bei LLVM.
0
Fontelster26.03.24 12:51
Was für Antworten dann bei manchen Fragen kommen, wenn das LLM von der chinesischen Regierung genehmigt werden muss …

»Siri, wer ist Winnie Puuh?« - »Ich habe die Frage nicht verstanden.«
0
tk69
tk6926.03.24 15:31
massi
Welche Intelligenz?
Die künstliche? 🥴
+1
oxid
oxid26.03.24 20:51
tk69

Künstliche Inkompetenz 😝
0
Unwindprotect27.03.24 14:43
Dunkelbier
massi
Welche Intelligenz?
Und genau das ist das Problem bei LLVM.

LLVM steht für Low Level Virtual Machine. Was Du eigentlich meinst ist LLM = Large Language Model
+2
Unwindprotect27.03.24 14:52
Ich frage mich immer, wieso man davon ausgeht, dass es ein einziges System sein muss. Ich halte es für realistischer, dass es eine Vielzahl verschiedener spezialisierter Modelle für bestimmte Anwendungsfälle geben wird. Einige davon sicherlich lokal. Da geht es dann um Vorschläge für Antworten in z.B. iMessage... vielleicht auch Mails oder auch Captions für Bilder. Es könnte entsprechende KI-Funktionen in Pages und Keynote geben.

Dann wird man sicherlich Sprachmodelle einsetzen um die Antwortqualität und das grundlegende Anfrageverständnis bei Siri zu verbessern, ohne dabei jedoch den Ansatz aufzugeben, dass es um ein dediziertes fest implementiertes Set von UseCases geht. Evtl. können Anfragen dabei auch ein wenig Historienkontext oder mehrere Dinge auf einmal enthalten - also "komplexer" werden. Dennoch wird das System kein Konkurrent zu ChatGPT.

...und das macht auch absolut Sinn. Andere Hersteller liefern sich hier bereits ein unglaublich teures Kopf an Kopf rennen um das größere Modell, das in den einschlägigen Benchmarks noch besser abschneidet. Da mitzurennen würde vor allem Geld verbrennen. Also entwickelt Apple vermutlich da lieber intern daran und zieht aus den Ergebnissen spezialisiertere Anwendungsfälle, bei welchem das einfach besser funktioniert und ein "Benchmarking" gar nicht erst eine große Rolle spielt.

Wenn jemand wirklich unbedingt mit einem stochastischen Papagei chatten will, da gibt es ja jetzt genug "Produkte"... und ja die kann man natürlich auch auf Apple-Geräten nutzen.
+1
Dunkelbier28.03.24 12:38
Unwindprotect
LLVM steht für Low Level Virtual Machine. Was Du eigentlich meinst ist LLM = Large Language Model
Genau. Und die Rechtschreibkorrektur ist genauso wenig intelligent.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.