Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Gurman: Apple GPT wird intern schon eingesetzt – Befreiungsschlag nach Jahren an Siri-Problemen?

Vorsichtig ausgedrückt ist der Ruf von Siri angekratzt – und das nicht erst in jüngster Zeit, sondern schon seit vielen Jahren. Was einst verheißungsvoll startete, entwickelte sich eher zu einem Negativmerkmal von Apple-Produkten. Erstmals gezeigt hatte Apple die Technologie auf dem Oktober-Event 2011. Was Nutzern als "künstliche Intelligenz" vorkam, waren redaktionelle Inhalte – sehr oft humoristischer Natur, denn um Siri menschlich erscheinen zu lassen, kümmerte sich ein hundertköpfiges Team um launische oder witzige Antworten. Die zunächst eingesetzte, technische Infrastruktur war aber miserabel und skalierte schlecht. Es sollte Jahre dauern, bis Apple Siri auf neue Füße stellen konnte, wenngleich die Konkurrenz in dieser Zeit natürlich nicht schlief. Apple holte zwar gegenüber anderen Sprachassistenten auf, doch in Führung ging Siri nie.


Herbst 2022: Der "ChatGPT-Schock"
Wie weit Siri (aber auch andere Sprachassistenten) zurückgefallen waren, demonstrierte im vergangenen Herbst ChatGPT. Trotz aller Probleme demonstrierte die von OpenAI entwickelte Technologie, was Apple offensichtlich verschlafen hatte. Microsoft ergriff die Chance und arbeitet seitdem beherzt daran, die Technologien in so viele Produkte wie möglich zu integrieren. Einem neuen Bericht von Bloomberg zufolge gibt es für Apple aber einen Hoffnungsschimmer, denn intern wird ein "Apple GPT" erprobt. Das Team rund um AI- und ML-Chef John Giannandrea habe demnach einen Chatbot entwickelt, dessen Fähigkeiten es mit ChatGPT aufnehmen können. Der Codename für das Projekt laute Ajax, wenn alles nach Plan verläuft, könnte das System schon im kommenden Jahr für alle Nutzer erscheinen.

Unklar, ob eigenständiges Produkt oder nur Technologie
Zunächst wolle Apple die generative künstliche Intelligenz vor allem dafür einsetzen, Siri zu einem Neustart zu verhelfen, gleichzeitig möchte man "Ajax" aber auch in Apple Maps integrieren. Momentan erfülle Apple GPT aber einen anderen Zweck, denn vorerst gehe es darum, einen Ersatz für ChatGPT zu bieten – dessen Einsatz Apple-intern inzwischen aufgrund von Datenschutzbedenken verboten ist.

Laut Bloomberg arbeite man derzeit an nicht weniger als den Fundamenten der KI-Zukunft Apples. Auch wenn ein "Apple GPT" eher nicht als eigenständiges Produkt auf den Markt kommt, soll die momentane Forschung als Grundlage aller zukünftigen Entwicklungen dienen. Angeblich war sogar im Gespräch, eine umfangreiche Vereinbarung mit OpenAI zu schließen, allerdings entschied man sich in Cupertino dazu, selbstständig zu agieren. Eine "weitreichende Ankündigung" könnte 2024 erfolgen, so der Bericht.

Kommentare

t.stark20.07.23 08:49
Trotz aller Probleme demonstrierte die von OpenAI entwickelte Technologie, was Apple offensichtlich verschlafen hatte. Microsoft ergriff die Chance und arbeitet seitdem beherzt daran, die Technologien in so viele Produkte wie möglich zu integrieren.
Microsoft kann das jetzt nur deswegen alles so nett integrieren, weil sie vor Jahren in OpenAI investiert haben. Offenbar hat Microsoft das schon vor Jahren verstanden, nicht erst jetzt.
+6
massi
massi20.07.23 08:53
Na, da wollen wir mal hoffen, daß es Apple mit AppleGPT nicht genauso verkackt, wie mit Siri.
+4
Calibrator20.07.23 09:31
Zum Stellen eis Weckers oder Timers wird´s schon reichen .
+1
Retrax20.07.23 09:34
Die Deutschen neigen zu Schachtelsätzen (vor allem im akademischen Bereich).

Damit wird Siri-GPT auch in Zukunft Schwierigkeiten haben imho...
-2
Unwindprotect20.07.23 09:43
Ich finde die auf MacTechNews immer wieder gebrachte Gleichsetzung zwischen Siri (oder Alexa & Co.) und ChatGPT ziemlich unsinnig.

Davon zu reden, dass Siri "zurückgefallen" war gegenüber einem Produkt, mit dem man nicht eine einzige Birne an/aus schalten, Musik steuern oder Termine anlegen kann ist gelinde gesagt wirklich schräg. Das sind völlig unterschiedliche Produkte. Das wäre in etwa so wie zu sagen, dass der Dyson Lockenwickler gezeigt hat wie weit Tempotaschentücher zurückgefallen sind.

Man könnte so etwas wie GPT sicherlich einsetzen um die Natürlichkeit der Antworten und die Flexibilität bei der Spracheingabe zu verbessern. Allerdings könnte das auch die Kosten aktuell noch enorm erhöhen wenn man diese Systeme auf dem "Scale" einsetzt den Sprachassistenten haben. Zusätzlich kann man natürlich _neue_ Features bauen die mit Sprachassistenten einfach nie möglich waren:

1) Kreation: Erstellen und transformieren von Texten
2) Sprachsteuerung für Suchinterface: Mittels Retriever-Architektur
3) Faktensuche

Der dritte Punkt ist dabei der gefährlichste und dümmste... auch wenn es genau der ist, den die meisten DAUs am liebsten probieren. Faktenwissen aus einem LLM zu erhalten ist ob der inhärenten Neigung zum Konfabulieren keine wirklich sinnvolle Sache. Wenn man es dagegen nur als "Sprachinterface" auf herkömmlichen Suchergebnissen verwendet, dann lässt sich das umschiffen. Kernfeature ist schlicht und einfach das erstellen und transformieren von Text.
+7
topress20.07.23 09:50
Calibrator
Zum Stellen eis Weckers oder Timers wird´s schon reichen .

... einen Moment bitte

+5
alexthegreat20.07.23 09:59
topress
Calibrator
Zum Stellen eis Weckers oder Timers wird´s schon reichen .

... einen Moment bitte


... ich bin dran... Der Vorgang dauert ungewöhnlich lange... Entschuldigung, ich habe dich nicht verstanden.

Das ist leider die Realität und ziemlich "lächerlich". Dabei darf man aber nicht vergessen, dass bei Apple sehr viel lokal passiert und der Datenschutz besser ist als bei der Konkurrenz. Wenn das Thema Datenschutz aber dazu führt, dass selbst "einfache" Aufgaben nicht bzw. nur in 50% - 60% der Anfragen korrekt ausgeführt werden, dann sollte man es lieber ganz lassen.
Ein Mittelweg wäre, dem Nutzer zu überlassen wie viele Daten er "teilen" möchte um entweder eine "High-Performance"-Variante mit weniger Datenschutz oder eine "Low-Performance"-Variante mit mehr Datenschutz zu nutzen.
+13
Clean20.07.23 10:12
„Der Codename für das Projekt laute Ajax……“

„…..die Göttin Athene zaubert einen Haufen von Kuhmist auf den Weg des Ajax, der darüber strauchelt: Es siegt Odysseus. )

Versucht Apple witzig zu sein?
+1
kraut_20.07.23 10:18
Calibrator
Zum Stellen eis Weckers oder Timers wird´s schon reichen .
Und wenn's richtig gut wird, den Timer oder Wecker auch beenden.
0
don.redhorse20.07.23 10:26
Siri, Alexa etc. sind keine LLM, wie Unwindprotect schon sagte. Die LLM wird eine Untermenge von Siri werden, oder Siri die Schnittstelle, aber derzeit ist Siri an sich doof und kann nur bekannte Befehle abarbeiten, ebenso wie Alexa. Das Problem an Siri ist nicht Siri, sondern welche Erwartungen gesetzt wurden.
+5
Robby55520.07.23 11:10
Retrax
Die Deutschen neigen zu Schachtelsätzen (vor allem im akademischen Bereich).

Nicht mehr lange
+2
mark hollis
mark hollis20.07.23 11:25
Das macht Hoffnung und ich hoffe, dass es stimmt.
+1
Deneb
Deneb20.07.23 14:12
Ein wichtiger Ort, an dem Apple ein solches KI System einsetzen könnte und sicher auch wird, ist Xcode. Ich möchte ChatGPT beim Programmieren heute schon nicht mehr missen.
+1
oxid
oxid21.07.23 10:20
Es wäre hervorragend um Arbeitsabläufe in einer produktiven Umgebung zu automatisieren. Sprich wenn es mögliche wäre Shortcuts, automator und Dienste (rechte Maustaste mit kontextabhängigen Menüs) mittels ai zu erstellen.
Ich bin gerade dabei das mit Chat gpt zu lösen.
Die implementierung im System ohne Umwege wäre das ein produktivsprung und ich Fänds Hammer.
Ich bin wirklich sehr interessiert in Sachen ki. Endlich wie bei Star Trek mit dem Computer arbeiten! Darauf warte ich schon lange und finds faszinierend .

Aber ich möchte die Zukunft eben nicht wie bei Terminator und Skynet sondern mehr startrek.
Sonst sieht’s doof aus für uns Menschen …
+1
Dunkelbier21.07.23 15:01
Deneb
Ein wichtiger Ort, an dem Apple ein solches KI System einsetzen könnte und sicher auch wird, ist Xcode. Ich möchte ChatGPT beim Programmieren heute schon nicht mehr missen.
Welche Version von ChatGPT? Die, die gegen die Herausgabe der Telefonnummer verfügbar ist (3.5), kann irgendwie nix.

Da ich viel Powershell mache, hilft aber der neue Edge ganz gut. Man findet schneller die richtige Antwort und muss ich nicht durch hunderte von Turnschuh-Lösungen hangeln, wo die vorgeschlagenen "Lösungen" nix mehr mit dem Problem zu tun haben.

Ich suche dabei eher nach Möglichkeiten, als nach konkretem Code, bzw. ob es andere Möglichkeiten gibt, bestimmte Dinge zu machen. Weil man schlicht nicht jedes CmdLet auswendig kennt, oder bestimmtes einfach wieder vergessen hat.

Aber auch hier gilt große Vorsicht. Ich hatte es schon geschafft, dass mir das Ding 2 völlig gegensätzlich Behauptungen vorgesetzt hat, nachdem ich gesagt hatte, das Vorschlag 1 nicht so funktioniert.

Ich schreibe meine Skripte vollständig selbst. Das hilft die KI genau nichts. Was daran liegt, das sie nicht wirklich versteht.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.