Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Bericht: Apple vor Milliardeninvestition in Nvidia-Server

Sucht man nach den Hauptprofiteuren des KI-Booms, so ist der Blick nicht nur auf Anbieter entsprechender Technologien, sondern vor allem auch auf einen bestimmten Hardware-Hersteller zu richten. Dort führt momentan wenig an Nvidia vorbei – und angesichts der enormen Nachfrage ist das Unternehmen derzeit so erfolgreich wie nie zuvor. Eine große Rolle spielt dabei Nvidias proprietäre NVLink-Technologie, um (viele) GPUs und CPUs zusammenzuschalten. Gleichzeitig gibt es reißenden Absatz von spezialisierten Grafikkarten, die Aufgaben wie Training oder Ausführung von KI-Modellen übernehmen. Einem aktuellen Bericht zufolge hat Apple erkannt, ebenfalls auf Nvidias Produkte setzen zu müssen, denn eine große Investition steht angeblich an.


250 Server – für eine Milliarde Dollar
Den Angaben nach will Apple eine Milliarde Dollar ausgeben, um Systeme vom Typ Nvidia GB300 NVL72 zu erwerben. Das entspricht ungefähr 250 Servern zu einem Stückpreis von rund vier Millionen Dollar. Als weitere Technologiepartner stehen Dell und Super Micro Computer bereit, um die Server-Cluster zu errichten und in Betrieb zu nehmen. Verwendet werden sollen besagte Anlagen zur Unterstützung von Aufgaben im Bereich generativer KI. Wie es von Loop Capital heißt, sei Apple nun offiziell dem "Large Server Cluster"-Spiel beigetreten und investiere mehr als zuvor.

Parallel läuft die Entwicklung eigener Systeme
Interessant an der Meldung ist zudem die Tatsache, dass es von mehreren Seiten hieß, Apple wolle verstärkt eigene Server entwickeln und dafür auf M-Chips setzen. Dies ist jetzt bereits in begrenztem Maße der Fall, zum Einsatz kommt dafür der M2 Ultra. Angeblich sei aber eine spezielle Servervariante des M5 geplant, welche sich von den handelsüblichen Produkten unterscheide. Auf besonders Performance-intensive Anforderungen hin optimiert, benötigen diese mehr Kühlung, als es in einem Mac möglich wäre, so die Angaben. Frühere Vorhaben, einen "M4 Extreme" auf den Weg zu bringen, seien aufgrund der KI-Chips auf Eis gelegt worden.

Kommentare

macuser22
macuser2226.03.25 10:47
Die Hardware müssen sie dann „nur noch“ mit einer Apple würdigen KI füttern
Erkenne dich selbst –//– Nichts im Übermaß
+1
ssb
ssb26.03.25 10:50
Dann dürfte es so bald mit einem M4 Ultra mit 512 GB Unified Memory noch nix werden.
Mein M4 Air mit 24 GB ist mit kleinen LLMs (zB Mistral 7B) schon recht flott, sparsam und es muss nicht geswappt werden. Für "einfache" Anfragen, bei denen ich keine perfekte Sprache erwarte (zumindest auf Deutsch) ist das oft ausreichend. Wenn es mir mal nicht taugt, frage ich doch bei OpenAI nach - kommt aber selten vor.

Ich vermute aber eher, dass sie diese Hardware brauchen um eigene LLMs zu entwickeln bzw. bestehende zu erweitern. Das benötigt ein vielfaches an Leistung.

Schon allein ein kleines LLM wie llama3.2 mit RAG zu erweitern kann bei einer handvoll PDFs einige Stunden dauern (ich hatte das mal auf einem M1 Pro mit 32 GB probiert).
+4
AJVienna26.03.25 12:28
Ich denke nächstes Jahr ist ein M5 Extreme im Mac Pro zu erwarten. Mit bis zu 1 vielleicht sogar 2TB Speicher. Das wäre eine geeignete Maschine für KI Forschung und könnte dann auch mithalten bei dem was Nvidia so bringen will.

Alternativ ein MacPro der slots für mit M-Chips bestückten Karten inkl. Schnellem interconnect bietet. Sowas braucht es damit Apple auf eigener Hardware mitspielen kann.
+1
RaphaS
RaphaS26.03.25 23:13
AJVienna
Ich denke nächstes Jahr ist ein M5 Extreme im Mac Pro zu erwarten. Mit bis zu 1 vielleicht sogar 2TB Speicher. Das wäre eine geeignete Maschine für KI Forschung und könnte dann auch mithalten bei dem was Nvidia so bringen will.

Wäre zumindest wünschenswert und ich dann definitiv Kunde. Das was Apple derzeit für KI mit dem M3 Ultra zur Verfügung stellt ist im Vergleich mit Nvidia genauso schwach wie Siri vs. ChatGPT.

Mag ja sein dass der M3 Ultra ein paar Sekunden beim Videoexport spart, aber hinsichtlich KI steckt ihn größtenteils sogar der kleiner positionierte M4 Max in die Tasche. Und ein anspruchsvolles KI-Bild in über einer Stunde zu erstellen für das Nvidia nicht einmal 20 Sekunden benötigt – ist einfach nur ein Trauerspiel.

Über KI-Videoerstellung braucht man im Apple Kosmos derzeit nicht einmal nachdenken.
Völlig egal was Du über Dich und andere denkst – Du wirst immer Recht behalten.
+1
albert_horn26.03.25 23:20
Ganz ehrlich...?! NVidia sollte Apple den Finger zeigen... und das wird auch irgendwann passieren...
-2
Frost27.03.25 02:25
albert_horn
NVidia sollte Apple den Finger zeigen... und das wird auch irgendwann passieren...

Warum das? NVIDIA verkauft ihre Blackwell GPUs an jeden der genug Geld rueberreicht. Die Systeme bestellt Apple ja ohnehin nicht bei NVIDIA sondern bei Dell und SuperMicro, die beiden Hersteller kaufen die GPU Mainboards und die zugehoerigen NVLink Switche dann bei NVIDIA ein um sie in ihre eigenen Chassis zu verbauen.

250 B300 NVL72 Racks sind ja jetzt auch nicht wirklich viel, das sind gerade mal laecherliche 18.000 Blackwell-Ultra Prozessoren.
Wenn man ueberlegt das z.B. Tesla zur Zeit 200.000 Stueck von den Prozessoren (im Moment noch Blackwell) im Einsatz hat und gerade in Austin auf dem Gelaende ihrer Giga Factory zwei neue Hallen fuer noch mal mindestens 200.000 Stueck (dann Blackwell-Ultra) aus dem Boden stampft, da gehen die 18.000 die Apple da gerade kaufen moechte bie NVIDIA im Rauschen unter.
+2
gfhfkgfhfk27.03.25 18:45
AJVienna
Das wäre eine geeignete Maschine für KI Forschung und könnte dann auch mithalten bei dem was Nvidia so bringen will.
Der große Vorteil von nVidia ist, dass sie die GPUs über spezielle Switche vernetzt haben. Es war von nVidia ein sehr geschickter Schachzug vor einigen Jahren Mellanox zu kaufen, einen Hersteller von ausgesprochenen HPC-Switchen.

1,8TB/s ist die NVLink Verbindungsgeschwindigkeit pro GPU für die GPU-GPU Kommunikation. Das ist doppelt so schnell wie die Speicherbandbreite des neuen MacStudios M3Ultra (820GB/s). Die HBM Speicherbandbreite der GPUs liegt bei 8TB/s. Dank der Software auf einem GB200 NVL72 System funktioniert das System aus 36 CPUs und 72 GPUs wie eine riesige GPU. Deshalb kauft Apple die nVidia Produkte, da Apple nichts Vergleichbares vorzuweisen hat.
AJVienna
Alternativ ein MacPro der slots für mit M-Chips bestückten Karten inkl. Schnellem interconnect bietet. Sowas braucht es damit Apple auf eigener Hardware mitspielen kann.
Die NVLink Verbindungen in nVidias GraceBlackwell-System schafft 1,8TB/s, das ist genauso wie die AMD InfinityFabric proprietär und lässt sich von Apple nicht verwenden. Was sie kaufen können ist Standardnetzwerktechnik z.B. 800G Ethernet oder Infiniband (das ergebe ca. 80GB/s Netzwerkdurchsatz pro Port).

Da Infiniband geringere Latenzen hat, ist das für die Vernetzung von HPC/AI-Systemen vorzuziehen. Das Problem einziger Anbieter von IB-Technik ist – nVidia. Schon einmal auf die Preise von einem ConnectX NIC geschaut? Bei Ethernet gäbe es noch Broadcom als Alternative.
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.