Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

iOS 27 soll sich auf drei KI-Bereiche konzentrieren

Im Sommer 2024 rief Apple die KI-Offensive "Apple Intelligence" aus, welche sich besonders durch Umsetzung mancher Modelle lokal auf dem Nutzergerät wie auch aufgrund gesteigerten Datenschutzes auszeichnet. Schaut man sich jedoch das derzeitige Angebot bezüglich Künstlicher Intelligenz auf dem Markt an, gehört Apples aktuelle Offerte sicher nicht zu den Vorreitern. Auch das öffentlichkeitswirksame Scheitern der neuen Siri-Generation, welche Apple auf das kommende Jahr verschieben musste, macht die Situation nicht besser. Hier kursieren Berichte, dass Apple auf Google Gemini zurückgreifen muss, um überhaupt mit einem Jahr Verspätung ein konkurrenzfähiges Angebot auf den Markt bringen zu können, da interne Entwicklungen wohl hinter den Erwartungen zurückbleiben.


Auf der diesjährigen Worldwide Developers Conference war es auffällig still bezüglich des Themas Künstliche Intelligenz – und viele mutmaßen, dass Apple überstürzt mit der neuen "Liquid Glass"-Nutzeroberfläche einen Lückenbüßer finden musste. Doch auf der kommenden WWDC 2026 wolle sich Apple wieder KI widmen, so ein Bericht.

Drei große Themenfelder
Wie Bloomberg berichtet, plant Apple die Einführung der neuen Siri-Generation mit iOS 26.4, welches wahrscheinlich im Frühjahr 2026 auf den Markt kommt. Doch mit iOS 27 will Apple das Design und die Arten der Interaktion mit Siri maßgeblich überarbeiten. Bereits in der Vergangenheit kursierten Gerüchte, dass Apple plant, Siri umzubenennen, da der Name mittlerweile nicht mehr als Marke für einen hochwertigen Assistenten von Kunden wahrgenommen wird.

Ferner soll der Konzern auf der WWDC 2027 einen KI-gestützten Internet-Suchdienst anbieten, welcher Fragen von Nutzern mittels Daten aus dem Internet beantworten kann. Auch hier gab es bereits in der Vergangenheit Gerüchte, dass Apple aktuell einen derartigen Suchdienst aufbaut.

Das dritte KI-Thema dreht sich um Health: Apple soll mit Health+ einen neuen Dienst vorstellen, welcher mittels KI die Gesundheit des Anwenders überwacht und wohl auch Ratschläge erteilt. Apple wäre eine der ersten großen Firmen, welche Gesundheitsdaten im großen Stil mittels KI auswertet.

Kommentare

Macbook_User11.11.25 08:39
Der Suchdienst... Kopie von Google, denn die ersten Ergebnisse sind immer eine Antwort von Gemini.

Wie schließe ich eine Wärmepumpe an einen EcoFlow Wechselrichter an?

Statt Suchergebnisse erscheint als erstes

Der Anschluss einer Wärmepumpe an einen EcoFlow Wechselrichter erfolgt in der Regel über spezielle Schnittstellen und erfordert eine fachgerechte Installation durch qualifizierte Installateure. Dies ermöglicht eine intelligente Steuerung und Nutzung von Solarstrom.
Integrationsmöglichkeiten
Für die Integration einer Wärmepumpe in das EcoFlow System sind spezifische Produkte und Methoden vorgesehen, die eine Kommunikation zwischen den Geräten herstellen.
Potenzialfreier Kontakt (SG-Ready): Die gängigste Methode ist die Nutzung eines potenzialfreien Kontakts am Wechselrichter, oft als "SG-Ready" (Smart Grid)......

Wenigstens am Smartphone. Ich denke, wird sich auch deaktivieren lassen aber am Ende ist wohl das damit gemeint. Also eine Funktion von Gemini eingekauft.

Eine Umbenennung als Themenfeld ist jetzt sehr spannend... Wird wohl sehr schnell mit einem Haken versehen werden. Könnten die heute schon erledigen

Fragen wir mal ChatGPT:

Nova
Orion
Mira
Atlas
Zephyr
Vera
Sol

Health ist sicher interessant. Nur ob ich wirklich eine KI dafür benötige, die erfassten Daten zu analysieren und daraus ein Resultat zu erstellen? Wenigstens das was als KI im Netz umgangssprachlich wahrgenommen wird.
-4
Wauzeschnuff
Wauzeschnuff11.11.25 09:24
Hmm, sagen wir ich bin skeptisch. Wenn Apple es nicht schafft die (entsprechend spezialisierten?) LLM lokal laufen zu lassen, sehe ich tatsächlich keinen großen Mehrwert in den genannten Themenfeldern. Lokale Modelle wären ein Killerfeature.

Ansonsten wäre das ganze nichts was es nicht anderswo bereits gäbe (Sprachassistenten, Internetsuche, Gesundheitsberatung) - und das (zumindest aktuell) durchaus auch unter europäischen Datenschutzgesetzen (z.B. Mistral/Le Chat, Proton/Lumo, Withings+, etc.), also ohne amerikanische Cloud. Und selbst amerikanische, datenschutzorientierte Dienstleister bieten bereits ähnliches im jeweiligen Bereich (z.B. Kagi bei der Internetsuche).
-1
Mendel Kucharzeck
Mendel Kucharzeck11.11.25 09:49
Wauzeschnuff
Ein lokales LLM, welches auch auf Mobilgeräten laufen UND es mit Gemini/ChatGPT auch nur ansatzweise aufnehmen kann, kannst du schlichtweg vergessen. Zu viel Rechenleistung und zu viel Arbeitsspeicher wären erforderlich.
+9
Sitox
Sitox11.11.25 09:58
Nach einem Jahr KI in Googles Health App FitBit: Nett, aber nicht viel mehr als eine Bestätigung dessen, was man sowieso fühlt. Heute kann z.b der Hinweis: „Du hast dich in letzter Zeit wirklich angestrengt! Nimm dir Zeit, es ruhiger angehen zu lassen und dich zu erholen, um Übertraining zu vermeiden. Versuche, heute eine Cardio-Belastung zwischen 1 und 33 zu erreichen.“

Dass Dilemma wird sein, dass eine weitergehende „Gesundheitsberatung“ rechtlich ein Minenfeld darstellt.
+1
Schleuderbogge11.11.25 10:08
und viele mutmaßen, dass Apple überstürzt mit der neuen "Liquid Glass"-Nutzeroberfläche einen Lückenbüßer finden musste.

Wenn das so sein sollt ist das m.E. gründlich in die Hose gegangen. Hier wird eine verspielte Oberfläche gegen zukunftsorientierte Technik gesetzt…

Wenn demnächst mein 17er kommt fliegt das Klickibunti umgehend so weit wie möglich aus der Ansicht. Ich arbeite gerne mit einer klaren Struktur ohne für mich störende Elemente.

Und vielleicht sollte man sich bei Apple mal mehr Gedanken über Funktionalität uns Stabilität machen.

Allerdings bin ich so frei und akzeptiere auch die gegensätzliche Meinung
-4
Zerojojo11.11.25 10:15
Ich glaub das einzige, wo Apple wirklich gezielt was bieten kann sind Trainingspläne. Z.B., "Ich will meine Beine trainieren und zwar so, dass sie in Badeshorts massiv aussehen." "Hier ist ein Trainingsplan und ich werde dich regelmäßig daran erinnern. Du kannst die Trainings mit deiner Apple Watch aufzeichnen."

Alles andere können und dürfen sie nicht leisten. "Deine HRV Werte kombiniert mit deiner Gang-Analyse deuten darauf hin, dass du Syphilis hast. Lass das von deinem Arzt abchecken" Geht gar nicht, weil krankheitsbezogen, und würde massive Gesundheitskosten verursachen.
0
maikdrop11.11.25 10:41
Zerojojo
Ich glaub das einzige, wo Apple wirklich gezielt was bieten kann sind Trainingspläne. Z.B., "Ich will meine Beine trainieren und zwar so, dass sie in Badeshorts massiv aussehen." "Hier ist ein Trainingsplan und ich werde dich regelmäßig daran erinnern. Du kannst die Trainings mit deiner Apple Watch aufzeichnen."

Alles andere können und dürfen sie nicht leisten. "Deine HRV Werte kombiniert mit deiner Gang-Analyse deuten darauf hin, dass du Syphilis hast. Lass das von deinem Arzt abchecken" Geht gar nicht, weil krankheitsbezogen, und würde massive Gesundheitskosten verursachen.

Das ist Quatsch. Das Ding weißt dich auch bei Herz-Rhythmus-Störungen darauf hin einen Arzt aufzusuchen. Und diese Kausalität, die du herstellst, macht nicht mal nen Arzt. Es würde schon reichen nen Foto zu machen und die Beschwerden zu dokumentieren.

Aber was wäre, wenn du Schlaftipps bekommen würdest, Ernährungsvorschläge, wann du was essen solltest usw. Wenn man irgendwann den Glucosewert endlich bestimmen kann, wäre das für die Ernährung in Verbindung mit nem ML Model ein absoluter Game Changer.
+1
massi
massi11.11.25 10:56
Ein Gamechanger wäre, wenn Siri oder wie auch immer es in Zukunft heißen mag, nicht mehr so strunzdoof wäre, wie jetzt.
Wenn es bei einer Internetsuche, die Ergebnisse vorlesen könnte und nicht nur "Guckst Du, das habe ich im Internet für Dich gefunden." ausspucken würde.
Es wäre auch schön, wenn man natürliche Sprache nutzen könnte und nicht nur rudimentäre Sätze, die man vorher auswendig lernen muss, damit sie funktionieren.
Oder beispielsweise, wenn ich sage Siri schalte das Licht ein, daß ich gefragt werde, welches Licht und nicht eine Liste bekomme, wo ich das antippen muss.
Für Sehbehinderte wäre das z.B. eine große Erleichterung.

Der Beispiele gäbe es viele und solange das nicht mal vernünftig funktioniert, braucht Apple mir auch nix von "Apple Intelligence" zu erzählen.
+8
Wauzeschnuff
Wauzeschnuff11.11.25 12:47
Mendel Kucharzeck
Wauzeschnuff
Ein lokales LLM, welches auch auf Mobilgeräten laufen UND es mit Gemini/ChatGPT auch nur ansatzweise aufnehmen kann, kannst du schlichtweg vergessen. Zu viel Rechenleistung und zu viel Arbeitsspeicher wären erforderlich.
Deshalb schrieb ich von mehreren spezialisierten LLM. Es geht ja eben gerade darum nicht einen Allrounder wie Gemini lokal laufen zu lassen, sondern darum spezialisierte LLM für unterschiedliche Einsatzbereiche zu verwenden. Genaugenommen müssen es nicht mal LLM sein.

Und ich sehe keinen Mehrwert (den Apple ja immer bieten will), wenn Apple letztlich nur macht, was alle anderen schon machen (und bzgl. Google sogar mit der gleichen Technologie). Für Internetsuche oder medizinische Ratschläge brauche ich keine Apple-Dienste (und insbesondere nicht darauf warten), denn das gibt es (bezüglich Datenschutz vermutlich sogar in besser) bereits und ist auch für iOS schon verfügbar. Es würde mich tatsächlich eher enttäuschen, wenn das alles wäre, was Apple in der nächsten Generation präsentieren kann.
0
Wauzeschnuff
Wauzeschnuff11.11.25 12:57
maikdrop
Aber was wäre, wenn du Schlaftipps bekommen würdest, Ernährungsvorschläge, wann du was essen solltest usw.
Tut mir leid, aber das ist ja nun wirklich nichts wofür irgendjemand eine KI braucht. Schlaftipps? Zum Beispiel: Geh rechtzeitig und möglichst immer zur gleichen Zeit ins Bett? Sorg für eine möglichst störungsfreie Umgebung. Treibe regelmäßig Sport?
Ernährungstipps? Iss keine hochverarbeiteten Lebensmittel? Koch selbst? Trink keine Limonaden und Säfte?
Ganz ehrlich: Das klingt wie "wir werfen KI auf alles was uns in den Sinn kommt und hoffen das irgendjemand einen Sinn darin findet".
maikdrop
Wenn man irgendwann den Glucosewert endlich bestimmen kann, wäre das für die Ernährung in Verbindung mit nem ML Model ein absoluter Game Changer.
Für Diabetiker mag das hilfreich sein, aber ein "Game Changer" ist das sicher nicht. Nicht für Diabetiker und ganz sicher nicht für Otto-Normalbürger. Wichtig wäre vor allem die Bestimmung des Glucosewerts, mir fällt nichts ein, was die KI daraus machen könnte, was nicht ohnehin bekannt wäre.

KI-Dienste können äußerst sinnvoll sein. Aber sie sind sicher kein Grund das eigene Denken einzustellen.
+1
Zerojojo11.11.25 13:03
maikdrop
Zerojojo
Ich glaub das einzige, wo Apple wirklich gezielt was bieten kann sind Trainingspläne. Z.B., "Ich will meine Beine trainieren und zwar so, dass sie in Badeshorts massiv aussehen." "Hier ist ein Trainingsplan und ich werde dich regelmäßig daran erinnern. Du kannst die Trainings mit deiner Apple Watch aufzeichnen."

Alles andere können und dürfen sie nicht leisten. "Deine HRV Werte kombiniert mit deiner Gang-Analyse deuten darauf hin, dass du Syphilis hast. Lass das von deinem Arzt abchecken" Geht gar nicht, weil krankheitsbezogen, und würde massive Gesundheitskosten verursachen.

Das ist Quatsch. Das Ding weißt dich auch bei Herz-Rhythmus-Störungen darauf hin einen Arzt aufzusuchen. Und diese Kausalität, die du herstellst, macht nicht mal nen Arzt. Es würde schon reichen nen Foto zu machen und die Beschwerden zu dokumentieren.
Die Herz-Rhythmus Störung hat sich Apple mühsam medizinisch akkreditieren lassen. Was ich sagen wollte ist, dass KI nicht einfach so mal auf irgendwelche möglichen Zusammenhänge mit einer Krankheit hinweisen kann. Das ist streng reguliert.
0
AJVienna11.11.25 15:06
Mendel Kucharzeck
Wauzeschnuff
Ein lokales LLM, welches auch auf Mobilgeräten laufen UND es mit Gemini/ChatGPT auch nur ansatzweise aufnehmen kann, kannst du schlichtweg vergessen. Zu viel Rechenleistung und zu viel Arbeitsspeicher wären erforderlich.
Das stimmt zwar aber gerade da hat Apple Patente. Z.B. um große Modelle effizient vom Flash Speicher zu nutzen. Insofern war das schon eine Hoffnung…
0
Unwindprotect11.11.25 15:46
Wauzeschnuff
Hmm, sagen wir ich bin skeptisch. Wenn Apple es nicht schafft die (entsprechend spezialisierten?) LLM lokal laufen zu lassen, sehe ich tatsächlich keinen großen Mehrwert in den genannten Themenfeldern. Lokale Modelle wären ein Killerfeature.

Ansonsten wäre das ganze nichts was es nicht anderswo bereits gäbe (Sprachassistenten, Internetsuche, Gesundheitsberatung) - und das (zumindest aktuell) durchaus auch unter europäischen Datenschutzgesetzen (z.B. Mistral/Le Chat, Proton/Lumo, Withings+, etc.), also ohne amerikanische Cloud. Und selbst amerikanische, datenschutzorientierte Dienstleister bieten bereits ähnliches im jeweiligen Bereich (z.B. Kagi bei der Internetsuche).

Ich denke der Sinn ist ein ganz anderer. Es geht nicht speziell darum, das Apple mit beliebigen anderen Diensten die auch irgendwie KI mit LLMs anbieten zu konkurrieren.

Das wofür Apple ein LLM in Siri braucht hat weit mehr mit einer Benutzerschnittstelle (ja wirklich "UI") zu tun als mit hochtrabender künstlicher Intelligenz.

Dazu muss man sich stets vor Augen führen was diese "Sprachmodelle" eben eigentlich gut können: Sprache transformieren.

Wir Nutzer haben jede Menge Daten die über eine Vielzahl von Schnittstellen bereitstehen: Wir haben Kalenderdaten, E-Mails, Messenger-Nachrichten, Notifications, Gesundheitsdaten gesammelt durch diverse Tracker wie Apple Watch & Co. Außerdem natürlich den Aufbau unseres Heimautomatisierungssystems (z.B. welche Lampen, Temperaturregler usw. in welchen Räumen sind) UND dem aktuellen Zustand desselben. Für all diese Datenquellen kann man natürlich APIs schaffen um diese auszulesen und zu steuern/verwalten.

Mit einem Sprachmodell kann man allerdings aus z.B. dem Aufbau und Zustand des Heimautomatisierungssystems eine sprachlich verständliche Beschreibung machen. Wenn man diese dann im Kontextfenster des LLM als Basis nimmt, dann kann das LLM formalisierte Steuerungsanweisungen schicken, welche den vorherigen Zustand in einen neuen umwandeln... und dabei eine weitere Kontextinformationen nutzen.

Also z.B.: "Siri, bitte schalte alle Lampen aus und stelle die Temperatur in allen Räumen außer dem Wohnzimmer auf 17 Grad falls gerade niemand zuhause ist."

Oder um es nochmal anders darzustellen: Mittels LLMs kann natürliche Sprache zu einer API zwischen ganz unterschiedlichen Diensten werden... und als Nebeneffekt können wir Menschen diese dann auch einfach durch die uns bekannte Sprache nutzen/steuern.

Damit das wirklich gut funktioniert benötigt man jedoch zuverlässige LLMs und dazu benötigt man aktuell vermutlich immer noch Cloud-Ressourcen. Wenn Apple dies basierend auf einem Gemini-Foundation-Model realisiert und in ihrer "Private Compute Cloud" betreibt, dann wäre dem Datenschutz tatsächlich Sorge getragen.
+1
Nescio11.11.25 19:59
Wauzeschnuff
Deshalb schrieb ich von mehreren spezialisierten LLM. Es geht ja eben gerade darum nicht einen Und ich sehe keinen Mehrwert (den Apple ja immer bieten will), wenn Apple letztlich nur macht, was alle anderen schon machen (und bzgl. Google sogar mit der gleichen Technologie).
Ich sehe da schon einen erheblichen Mehrwert drin, wenn Apple z.B. ein gutes externes LLM mit hoher Privacy anbieten würde. Also so wie das ja bisher schon mit der ChatGPT-Integration in Siri pilotiert wird. Ein Gemini ohne Datenfluss an Google wäre ein echter Mehrwert und würde zu Apples besonderem Privacy-Anspruch passen.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.