Google präsentiert „Private AI Compute“ – starke Ähnlichkeit zu Apples Konzept aus 2024


Seit vielen Jahren ist Google äußerst aktiv, was die Entwicklung von Künstlicher Intelligenz angeht. Eines der ersten Experimente mit KI-gestützter Bildverbesserung, DeepDream, war das Projekt eines Google-Entwicklers. In der letzten Zeit baut Google die Reihe hauseigener Large Language Models (LLMs) unter dem Namen Gemini in immer mehr Produkte ein. Für KI-Anfragen auf dem Smartphone stellt Google nun eine
Kombination aus lokaler Berechnung und Privatsphäre-wahrender Cloud-Abfrage vor. Das Konzept weckt Erinnerungen: Es entspricht weitestgehend dem, was Apple auf der WWDC24 als „Private Cloud Compute“ vorgestellt hatte.
Google nennt die hauseigene Arbeitsteilung „Private AI Compute“. Im Blogbeitrag betont der Konzern sein jahrelanges Engagement in Bezug auf Datenschutz bei der Anwendung von KI. Drei Leitlinien des Unternehmens seien bei der Entwicklung berücksichtigt worden: das „Secure AI Framework“, die „AI Principles“ sowie die „Privacy Principles“. Einfach zu beantwortende Fragen übernehmen die NPUs in der lokalen Hardware. Dabei käme das LLM Gemini Nano zum Einsatz. Rechenintensive KI-Anfragen werden dann an mächtige KI-Server delegiert.
Googles eigene HardwareCloud-basierte KI-Berechnungen würden auf den selbst entwickelten Tensor Processing Units durchgeführt, in sogenannten Tensor Intelligence Enclaves. Hierbei kämen sowohl die hohen Datenschutzstandards als auch die Recheninfrastruktur zum Einsatz, auf welche sich Anwender bei Gmail und Websuchen verlassen würden. Der Konzern selbst habe dabei keinen Einblick, was die Gemini-Modelle berechneten. Private AI Compute soll zunächst bei „Magic Cue“ auf dem Pixel 10 zur Anwendung kommen; ebenso wird die Android-App „Recorder“ dank Server-Modell schnellere und bessere Zusammenfassungen des Aufgezeichneten liefern.
Parallelen zu Apples AnsatzAuf der Platform State of the Union der WWDC 2024 stellte Apple eine KI-Infrastruktur vor, welche starke Ähnlichkeiten zum Google-Ansatz aufweist: Zwei lokale Foundation-Modelle („Language“ und „Image“) kümmern sich um Anfragen, welche mit integrierter Rechenleistung zu lösen ist. Wenn die Antwort nicht zeitnah von Apple Silicon im iPhone, iPad oder Mac zu generieren ist, kommt das größere Server-Modell zum Einsatz. Dafür hat Apple ein eigenes Server-Betriebssystem entwickelt, welches Nutzeranfragen in einer abgeschotteten Umgebung empfängt, verarbeitet und anschließend löscht. Während Apple wahrscheinlich bei der Gestaltung datenschutzfreundlicher Serveranfragen Pionierarbeit geleistet hat, liegt Google wohl bei der Entwicklung von LLMs deutlich vorn – gerüchteweise setzt Apple in Zukunft auf
Gemini für die Sprachassistenz Siri.
Apples „Private Cloud Compute“ weist starke Ähnlichkeiten zu Googles „Private AI Compute“ auf.