Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>RAM in den M1-Macs -?-

RAM in den M1-Macs -?-

lphilipp
lphilipp11.11.2014:53
Eine Frage an die Fachleute hier: Kann es sein, daß die Größe des RAMs bei den neuen MACs nicht mehr die Rolle spielt, wie bei der Intel-Architektur?
„Man muß sich Sisyphos als einen glücklichen Menschen vorstellen! Albert Camus (Il faut imaginer Sisyphe heureux)“
0

Kommentare

dam_j
dam_j11.11.2014:56
Wie sollten diese "Fachleute" dies bis dato testen / feststellen können ??
„Das Leben ist Scheiße aber die Grafik ist geil !“
+3
lphilipp
lphilipp11.11.2015:00
Weil es sich vielleicht aus der Prozessor-Archtektur ergiebt!?
„Man muß sich Sisyphos als einen glücklichen Menschen vorstellen! Albert Camus (Il faut imaginer Sisyphe heureux)“
0
dam_j
dam_j11.11.2015:06
lphilipp
Weil es sich vielleicht aus der Prozessor-Archtektur ergiebt!?

DAS musst du mir erklären.
„Das Leben ist Scheiße aber die Grafik ist geil !“
-5
Mendel Kucharzeck
Mendel Kucharzeck11.11.2015:10
Was bisher fest steht ist:

- Durch Unified Memory reserviert die Grafikkarte nicht mehr einen festen Bereich im RAM – bei Intel sind das 1,5 GB. M1 verwaltet das flexibel und kann "Grafikkarteninhalte" und "CPU-Inhalte" mischen
- Durch die schnellere SSD (3,3 GB/s!) ist rauspagen von gerade nicht benötigten inhalten nicht dramatisch
+13
maculi
maculi11.11.2015:10
Wenn du dicke Bilder oder Filme bearbeitest, große Szenen in 3D erstellst... dann gilt da der gleiche blöde Spruch wie beim Hubraum: RAM ist nur durch mehr RAM zu ersetzen.
Das die Menge an benötigtem RAM nicht eins-zu-eins dieselbe ist könnte sein. Siehe auch : "Dieses Unified Memory unterscheidet sich deutlich von dem Shared Memory der integrierten GPUs der Intel-Chips, die sich einen Teil des RAM abzwacken. Durch Unified Memory soll es zum Beispiel bei Spielen zu Performance-Gewinnen kommen."
+1
lphilipp
lphilipp11.11.2015:20
dam_j
lphilipp
Weil es sich vielleicht aus der Prozessor-Archtektur ergiebt!?

DAS musst du mir erklären.
Wenn ich das könnte, würde ich hier nicht fragen tun! (Ich bin halt ein alter Sack, der seine "Videos" noch auf Zelluloid drehte. ...) Gruß rheinabwärts!
„Man muß sich Sisyphos als einen glücklichen Menschen vorstellen! Albert Camus (Il faut imaginer Sisyphe heureux)“
+6
gfhfkgfhfk11.11.2015:35
Mendel Kucharzeck
- Durch die schnellere SSD (3,3 GB/s!) ist rauspagen von gerade nicht benötigten nicht dramatisch
Der Speicherdurchsatz ist immer noch um Faktor zehn schneller als die SSD, und es gibt nur eines mit dem man Speicher ersetzen kann – noch mehr Speicher. Swaping ist anno 2020 ein absoluter Anachronismus.
+5
pünktchen
pünktchen11.11.2015:41
Wer tatsächlich mehr als 16GB braucht kann vermutlich auch einen schnelleren Prozessor als den M1 gebrauchen. Und muss wahrscheinlich eh warten bis die Software raus ist die er/sie braucht. Echt das letzte worüber ich mir den Kopf zerbrechen würde.

Die Aufpreise für grössere SSD hingegen mal wieder
+4
Mendel Kucharzeck
Mendel Kucharzeck11.11.2015:41
gfhfkgfhfk
Stimmt nicht. Swappen auf langsame magnetische Festplatten war damals VIEL schlimmer als es heute auf modernen SSDs ist.
+4
maculi
maculi11.11.2015:51
Auch wenn Swappen auf blitzschnellen SSDs was völlig anderes ist als auf rotierenden HDs, langsamer als direkt in den RAM reinzuschreiben ist es dennoch. Deshalb gilt nach wie vor die alte Aussage, wer am RAM spart spart an der falschen Stelle. Ob mit einem M1 (oder dessen zukünftigen Geschwistern) der Bedarf genau derselbe ist wie mit intel muss sich noch zeigen. Auf jeden Fall gilt es abzuklären, wie hoch der ist und dann passend zu bestellen, sonst wird der schöne neue Mac völlig unnötig ausgebremst. Wenn demnächst die ersten Tests vorliegen und darauf aufbauend kommt wer zu dem Schluss, das er mehr als 16 GB braucht, der muss dann eben auf seinen neuen Mac bis auf weiteres noch warten.
+3
awk11.11.2015:57
lphilipp
Eine Frage an die Fachleute hier: Kann es sein, daß die Größe des RAMs bei den neuen MACs nicht mehr die Rolle spielt, wie bei der Intel-Architektur?

Die Größe des RAM hat wenig mit der Prozessorarchitektur zu tun. Die nötige Menge RAM hängt in erster Linie vom Programm und der Art der Daten ab. Und vom Betriebssystem.
Ich verstehe die Aufregung um die maximal 16 GB nicht. Es geht um Einstiegsgeräte. Für die sind 16 GB völlig ausreichend.
So wie es aussieht ist das RAM beim M1 im SoC integriert. Dafür sind 16 GB üppig. Vorteil ist die schnelle Anbindung, der Takt ist optimal abgestimmt, die Latenz ist minimal. Apple hat sich auch den notwendigen Bus gespart. Der Nachteil, es ist keine Erweiterung möglich.
Ich bin gespannt wie Apple das bei den kommenden Systemen umsetzt. Ein SoC mit 32 oder gar 64 GB dürfte eine Herausforderung sein.
+8
pünktchen
pünktchen11.11.2016:08
So schwierig wird das nicht weil das eben kein reiner SoC mehr ist. Das RAM ist jetzt schon nicht auf demselben Die wie der M1 sondern nur im selben Multi-Chip-Modul . Ich denke Apple könnte durchaus als nächstes ein Modul mit einem M2 mit mehr Kernen, einer extra GPU G1 und mehr RAM Dies vorstellen.
+1
ssb
ssb11.11.2016:48
gfhfkgfhfk
Mendel Kucharzeck
- Durch die schnellere SSD (3,3 GB/s!) ist rauspagen von gerade nicht benötigten nicht dramatisch
Der Speicherdurchsatz ist immer noch um Faktor zehn schneller als die SSD, und es gibt nur eines mit dem man Speicher ersetzen kann – noch mehr Speicher. Swaping ist anno 2020 ein absoluter Anachronismus.
Daher wird bei macOS gar nicht mehr so häufig geswappt, sondern der Speicher im RAM komprimiert, wenn es eng wird. Gerade mit der Unified Memory Architektur dürfte das sehr schnell sein.
0
Charlie211.11.2017:04
Hat man einen Fehler im RAM, muss ein neuer SoC her.
Da der gelötet ist, muss es ein neues Mainboard sein.
0
pünktchen
pünktchen11.11.2017:08
Das RAM war bisher doch auch schon gelötet.
+2
spheric
spheric11.11.2017:11
Charlie2
Hat man einen Fehler im RAM, muss ein neuer SoC her.
Da der gelötet ist, muss es ein neues Mainboard sein.
Äh... ja und?
„Früher war auch schon früher alles besser!“
0
Megaseppl11.11.2017:20
gfhfkgfhfk
Der Speicherdurchsatz ist immer noch um Faktor zehn schneller als die SSD, und es gibt nur eines mit dem man Speicher ersetzen kann – noch mehr Speicher. Swaping ist anno 2020 ein absoluter Anachronismus.
Richtig. Die Datentransferrate heutiger SSDs entspricht in etwa dem von RAM-Modulen Ende des letzten Jahrtausends.
Hinzu kommen die Zugriffszeiten:
Moderne m.2 SSDs wie die Samsung 960 Pro haben lesend Zugriffszeiten von etwa 0,025ms, schreibend noch langsamer. Arbeitsspeicher misst man im ein bis zweistelligen Nanosekundenbereich. Dazwischen liegt der Faktor 1000000 (0,025ms = 25000ns).
Und hier geht es nicht (nur) um den Zugriff auf Dateien, auch tausende oder gar Millionen Variablen, Collections, Arrays etc. müssen ständig durchsucht, sortiert, iteriert werden.
+4
gfhfkgfhfk11.11.2017:47
awk
Ich verstehe die Aufregung um die maximal 16 GB nicht. Es geht um Einstiegsgeräte. Für die sind 16 GB völlig ausreichend.
Bei der Konkurrenz sind in diesen kompakten Desktop Rechner 64GB möglich. Und nur mal als untere Marke: den Raspberry Pi 4 Bastelrechner gibt es mittlerweile mit 8GB RAM für weniger als €80. Ok, da kann man schwerlich erwarten, dass Apple einen vielfachen teuren Mac Mini mit mehr RAM ausrüstet.
-4
dam_j
dam_j11.11.2017:49
gfhfkgfhfk
awk
Ich verstehe die Aufregung um die maximal 16 GB nicht. Es geht um Einstiegsgeräte. Für die sind 16 GB völlig ausreichend.
Bei der Konkurrenz sind in diesen kompakten Desktop Rechner 64GB möglich. Und nur mal als untere Marke: den Raspberry Pi 4 Bastelrechner gibt es mittlerweile mit 8GB RAM für weniger als €80. Ok, da kann man schwerlich erwarten, dass Apple einen vielfachen teuren Mac Mini mit mehr RAM ausrüstet.

Äpfel mit Himbeeren vergleichen...
„Das Leben ist Scheiße aber die Grafik ist geil !“
+6
gfhfkgfhfk11.11.2017:52
dam_j
Äpfel mit Himbeeren vergleichen...
Es rückt nur die magere RAM Ausstattung von Apple ins rechte Licht. Wenn schon ein Bastelcomputer soviel RAM hat wie das Basismodell von Apple, läuft etwas falsch. Der Punkt ist ja nicht, dass man wie früher gegen einen entsprechenden Aufpreis mehr bekommen könnte als 16GB. HBM2 Speicher ist es auch nicht, da könnte man die magere Ausstattung ja noch verstehen.
-3
pünktchen
pünktchen11.11.2018:02
Ich weiss nicht wie sie den RAM and den SOC angebunden haben aber das sieht mir durchaus so aus als ob sie eine HBM ähnliche Konstruktion gewählt haben könnten. Immerhin sitzt das RAM mit dem SOC in einem Gehäuse - wozu wenn nicht für eine schneller Anbindung?
+2
Wellenbrett11.11.2018:08
pünktchen
So schwierig wird das nicht weil das eben kein reiner SoC mehr ist. Das RAM ist jetzt schon nicht auf demselben Die wie der M1 sondern nur im selben Multi-Chip-Modul . Ich denke Apple könnte durchaus als nächstes ein Modul mit einem M2 mit mehr Kernen, einer extra GPU G1 und mehr RAM Dies vorstellen.
Also die Grafik des M1-Chips bei Anandtech scheint mir keine Multichip-Module zu zeigen:
-2
nobillgates11.11.2018:28
spheric
Charlie2
Hat man einen Fehler im RAM, muss ein neuer SoC her.
Da der gelötet ist, muss es ein neues Mainboard sein.
Äh... ja und?

Nun ja, ist vielleicht eine Frage der Resourcenver(sch)wendung: gestecktes Rammodul auswechseln contra ganze Platine schrotten.
+1
Wellenbrett11.11.2018:38
pünktchen
So schwierig wird das nicht weil das eben kein reiner SoC mehr ist. Das RAM ist jetzt schon nicht auf demselben Die wie der M1 sondern nur im selben Multi-Chip-Modul . Ich denke Apple könnte durchaus als nächstes ein Modul mit einem M2 mit mehr Kernen, einer extra GPU G1 und mehr RAM Dies vorstellen.
Ah, mein vorheriger Kommentar ist Nonsens: ich hatte die Multi-Chip-Modul-Technik mit den Chiplet-Design verwechselt.
+1
sierkb11.11.2018:39
Wellenbrett:

pünktchen dürfte es korrekt benannt haben: die beiden RAM-Bausteine sind ein fest integrierter Bestandteil des M1-SOCs, welches offenbar als Multi-Chip-Modul aufgebaut und gefertigt ist:


Quelle: Anandtech


Quelle: Apple ,


Quelle: Apple


Wikipedia (de): Multi-Chip-Modul :
Wikipedia, Multi-Chip-Modul
Ein klassisches Multi-Chip-Modul (MCM, manchmal auch MCP von englisch Multi Chip Package) besteht aus mehreren einzelnen Mikrochips (bzw. Dice), die in einem gemeinsamen Gehäuse planar (nebeneinander) untergebracht sind und nach außen wie ein Chip aussehen, so funktionieren und eingesetzt werden. Von außen sind solche Chips also nicht direkt erkennbar, sondern sehen aus wie viele andere auch. Heute wendet man die Bezeichnung MCM auch auf die Module an, die neben Halbleiter-Dies mikromechanische Elemente oder auch diskrete passive Bauelemente wie z. B. Kondensatoren oder Widerstände in SMD-Bauformen (s. dazu surface-mounted device) beinhalten. Solche MCM sowie MCM mit vertikal angeordneten Komponenten (s. u. Die-Stacking) entsprechen viel mehr den Merkmalen eines System-in-Package (s. dazu „System-in-Package“).

Die Einzelchips können speziell für die Integration in einem MCM entworfen werden. Dann hat man es meistens mit Einzelchips in völlig verschiedenen Technologien zu tun, die sich nicht einfach auf einen einzigen Die integrieren lassen.

[…]
+3
spheric
spheric11.11.2018:46
nobillgates
spheric
Charlie2
Hat man einen Fehler im RAM, muss ein neuer SoC her.
Da der gelötet ist, muss es ein neues Mainboard sein.
Äh... ja und?

Nun ja, ist vielleicht eine Frage der Resourcenver(sch)wendung: gestecktes Rammodul auswechseln contra ganze Platine schrotten.
Äh… ja und?

Was hat das mit dem Thema zu tun?

Abgesehen davon, dass das RAM in seit 2012 vorgestellten mobilen Rechnern von Apple sowieso verlötet ist...
„Früher war auch schon früher alles besser!“
+1
Warp11.11.2019:31
nobillgates
spheric
Charlie2
Hat man einen Fehler im RAM, muss ein neuer SoC her.
Da der gelötet ist, muss es ein neues Mainboard sein.
Äh... ja und?

Nun ja, ist vielleicht eine Frage der Resourcenver(sch)wendung: gestecktes Rammodul auswechseln contra ganze Platine schrotten.

Ich behaupte mal, dass dann immer noch weniger Resourcen verbraucht werden als wenn auf jedem Board Sockel bestückt werden wo vielleicht bei, von mir aus, 10% mal das Ram getauscht werden soll/muss. Wenn das überhaupt so viel ist. Für die Sockel werden schliesslich auch Ressoursen ge/verbraucht.
+3
pünktchen
pünktchen11.11.2020:02
sierkb

Quelle: Apple

Das sieht eher aus wie früher die externen L3-Caches.
-1
Caliguvara
Caliguvara11.11.2020:08
gfhfkgfhfk
awk
Ich verstehe die Aufregung um die maximal 16 GB nicht. Es geht um Einstiegsgeräte. Für die sind 16 GB völlig ausreichend.
Bei der Konkurrenz sind in diesen kompakten Desktop Rechner 64GB möglich. Und nur mal als untere Marke: den Raspberry Pi 4 Bastelrechner gibt es mittlerweile mit 8GB RAM für weniger als €80. Ok, da kann man schwerlich erwarten, dass Apple einen vielfachen teuren Mac Mini mit mehr RAM ausrüstet.
Mac Mini gegen Pi 4? Nicht alles was hinkt ist ein Vergleich 😬

Leute, jetzt wartet doch erstmal ab was die Dinger im Alltag und bei den ersten Testern leisten und hergeben, bevor man die RAM oder SoC zerredet 🙄
„Don't Panic.“
+1
sierkb11.11.2020:16
pünktchen
Das sieht eher aus wie früher die externen L3-Caches.

Ich weiß nicht, wie das bisher aussieht/aussah.

Diese Schema-Zeichnung


Quelle: Apple

analog zu diesem Bild des M1-SOCs, rechts auf dem M1-SOC die beiden integrierten RAM-Bausteine (wie üblich stets paarweise) – wie in der Schema-Zeichnung (die kleineren zu sehenden Bausteine dürften SMD-Kondensatoren sein):


Quelle: Apple ,
-1
Noname081511.11.2020:39
Was viele hier nicht mehr haben, ist etwas Geduld. Das wird sich im Leben noch als schlecht erweisen. Wenn hier schon bei einigen Sekunden gemosert wird ist das schwach.
0
pünktchen
pünktchen11.11.2021:09
Anandtech giesst Wasser auf meine wilden Spekulationen:
What this also means is that we’re almost certainly looking at a 128-bit DRAM bus on the new chip, much like that of previous generation A-X chips.
0
lphilipp
lphilipp11.11.2022:33
Meine Damen und Herren, ich danke für die lehrreiche Diskussion. Hier nicht genannter Ausgang meiner Frage war, daß, nachdem ich von meinem ältesten Sohn in nächtlichen Intensivkursen im Umgang mit Intel-PCs geschult war, ich immer auch einige Blicke in die Apple und Amiga-Ecke warf und dabei feststellte, daß die RAM-Bestückung bei den verschiedenen Plattfaormen für vergleichbare Aufgaben sehr unterschiedlich waren.

Ich "erzähle" von der Zeit, als auf PCs gerade Windows 3.0 seine furchterregenden Gehversuche machte und die Sekretärin noch auf einer elektischen Olympia Schreibmaschine die Korrespondenz erledigte.

Also nochmals: danke! - Glückauf, helau und alaaf!
„Man muß sich Sisyphos als einen glücklichen Menschen vorstellen! Albert Camus (Il faut imaginer Sisyphe heureux)“
0
piik
piik11.11.2023:03
Nochmals für Fans von Adam Ries:

Die A1-CPU hat laut Apples Angaben etwa 16 Milliarden Transistoren.
Ein Bit eines DRAMs braucht 1 Transistor (die Transistoren zur Adressdekodierung und zum Refresh einmal weggelassen).
Ein MBA mit 16 GB RAM hat 16 x 8 Milliarden Bits = 128 Milliarden Transitoren (mindestens).

Die passen niemals und überhaupt garnicht in den Chip von Apple.
16 GB RAM erfordern sehr viel mehr Chipfläche als der A1 zu bieten hätte.
Die Industrie liefern überhaupt noch keinen einzigen DRAM-Chip mit 16 GB Kapazität. RAM-Riegel bestehen aus mehreren Chips.

=> Pünktchen liegt absolut richtig und die ganzen News-Redakteure sind entweder vom Reality-Distortion-Field geblendet und/oder können schlicht nicht rechnen.

Ich gehe davon aus, dass mindestens 4 extra DRAM-Chips in den neuen Apple-Rechnern aufgelötet sind.
Beweis: Die derzeit größten DDR4-RAM-Module mit 128GB Kapazität haben aktúell 16 Chips auf der Platine (2 x 4 vorne und 2 x 4 hinten) und sind sehr teuer. 1 Chip hätte dort 8GB. Bezahlbar aber sind nur welche mit 4 GB pro Chip. Quelle:

Tatsächlich ist das, was auf dem Diagramm als Cache zu sehen ist wohl statischer 2nd-Level-Cache. Vermutlich irgendwas um die 256 KB pro Core. Das kostet richtig viel Platz, da ein statisches RAM-Bit mindestens 4 Transistoren erfordert.
Der DRAM-Bereich rechts ist sehr viel zu klein für 16 GB. Es könnte sich um einen 3rd-Level-Cache mit einigen zig MB handeln - reine Spekulation. Auch das wäre was Neues, so einen fetten Cache mit so großer Kapazität auf die CPU zu holen. So eine Maßnahme kommt sicherlich auch der Geschwindigkeit der Datenausführung zugute und dem Stromverbrauch, weil dann das externe DRAM immer wieder kurz abgeschaltet werden könnte, wenn sich der auszuführende Code gerade komplett im 3rd-Level-Cahe befindet.
+3
piik
piik11.11.2023:06
pünktchen
Anandtech giesst Wasser auf meine wilden Spekulationen:
What this also means is that we’re almost certainly looking at a 128-bit DRAM bus on the new chip, much like that of previous generation A-X chips.
Das macht Sinn, denn die 2 DRAM-Bereiche als 3rd-Level-RAM dann auch gleich besonders schnell mit 128 bit anzubinden, denn das hilft. Und DRAM-Chips werden zur Zeit eben für 64-bit-Zugriff gebaut. Da Appkle wohl nicht auch noch alle Feinheiten des DRAM-Designs selbst besser erfunden hat, werden sie diese Struktur kopiert haben, wenn öffentlich zugänglich, oder eben schlicht gekauft.
0
gfhfkgfhfk12.11.2008:35
Caliguvara
Mac Mini gegen Pi 4? Nicht alles was hinkt ist ein Vergleich 😬
Der Raspberry Pi ist eine komplett andere Gerätekategorie, und gerade das sollte einem zu denken geben, dass die RAM-Ausstattung der neuen Macs alles andere als üppig ist.
Caliguvara
Leute, jetzt wartet doch erstmal ab was die Dinger im Alltag und bei den ersten Testern leisten und hergeben, bevor man die RAM oder SoC zerredet 🙄
Die RAM-Größe ist etwas, was man aktuell schon sehr gut beurteilen kann. All die Tricks fehlendes RAM erträglich zu machen, sind nur Tricks und ersetzen nicht das einzig brauchbare Original – RAM. Hinzu kommt, dass man traditionell sagt, dass Programme auf RISC Architekturen mehr Speicher benötigen wie auf CISC Systemen.
0
pünktchen
pünktchen12.11.2008:50
piik
Der DRAM-Bereich rechts ist sehr viel zu klein für 16 GB. Es könnte sich um einen 3rd-Level-Cache mit einigen zig MB handeln - reine Spekulation.

Also ich habe das schon so verstanden dass die beiden DRAM-Chips rechts den ganzen Arbeitsspeicher umfassen. Aber dafür sind sie natürlich sehr klein. Vielleicht eben doch jeweils zB vier übereinander gestapelte 2 GB Chips?

Die 128-Bit des Datenbus sind nichts besonderes, zwei 64-Bit Datenbusse werden parallel betrieben. Dual Channel RAM, seit Jahren Standard. Deshalb RAM Module immer paarweise!
0
Wellenbrett12.11.2009:35
Anwender haben ganz unterschiedliche Anforderungen an flüchtigen Speicher. Vielen reichen vermutlich 16GB RAM, andere wünschen sich jedoch 32,64,128 oder 256 GB RAM (oder eine andere Konfiguration oder noch mehr). Wenn der flüchtige Speicher in den M1 integriert sein sollte, wäre das unflexibel, denn Apple müßte für jede gewünschte RAM-Konfiguration einen eigenen M-Chip entwickeln und produzieren. Das wäre nachteilig. Apple könnte solche "Extrawünsche" auch schlicht ignorieren und so wie bei den drei jetzt vorgestellten Rechnern mit M1-Chips auch bei den M-Chips für den iMac und den Mac Pro verfahren und nur ein bis zwei Konfigurationen anbieten, z.B. 32 GB im iMac und 64GB im Mac Pro.
0
Wellenbrett12.11.2010:00
Das Auslagern von Speicherinhalten aus dem RAM auf die SSD oder das Komprimieren von RAM-Inhalten ist sicherlich eine brauchbare Lösung, wenn der verfügbare Arbeitsspeicher nur wenig überschritten wird, beispielsweise wenn zu viele Programme geöffnet wurden und dann beim Programmwechsel Speicherinhalte umgelagert werden müssen. Wenn jedoch die Nutzerdaten eines einzelnen Programms den verfügbaren Arbeitsspeicher schon um eine Vielfaches übertreffen, wird das RAM zum Flaschenhals.
+2
Caliguvara
Caliguvara12.11.2011:03

Hier in den Kommentaren gefunden. Jetzt wartet doch erstmal ab 😃
„Don't Panic.“
0
gfhfkgfhfk12.11.2011:10
pünktchen
Also ich habe das schon so verstanden dass die beiden DRAM-Chips rechts den ganzen Arbeitsspeicher umfassen. Aber dafür sind sie natürlich sehr klein. Vielleicht eben doch jeweils zB vier übereinander gestapelte 2 GB Chips?
Die ICs enthalten mehrere gestapelte Dies. Der bereits angesprochene Raspberry Pi hat auch nur einen LPDDR Chip auf der Platine mit 1, 2, 4 oder 8GB. Beim M1 ist der Speicher schneller und durch den zweiten Chip doppelt so breit angesteuert. Es gibt bisher keinen Hinweis, dass es sich um speziellen Speicher handelt z.B. HBM2.
+3
pünktchen
pünktchen12.11.2011:37
Aber wozu wird der mit in das Gehäuse des SOC gepackt und nicht wie beim Raspberry oder früheren Macbooks auf die Platine?
0
gfhfkgfhfk12.11.2011:45
pünktchen
Aber wozu wird der mit in das Gehäuse des SOC gepackt und nicht wie beim Raspberry oder früheren Macbooks auf die Platine?
Dadurch lässt sich noch mehr Geld sparen und das Design verbilligen. Beim Raspberry Pi wird ein SoC von Broadcom BCM2711 genutzt, und der wurde von Broadcom für eine größere Zahl von Kunden entwerfen. Apple ist in der Lage einen eigenen SoC zu entwerfen und perfekt auf die eigenen Bedürfnisse anzupassen. Das dürfte auch der Hauptgrund für den Wechsel sein.
+1
pünktchen
pünktchen12.11.2012:12
Glaube ich nicht. Die paar Cent fallen doch nicht ins Gewicht gegenüber der grösseren Flexibilität bei Herstellung und Reparatur wenn das RAM getrennt untergebracht wird. Ich bin immer noch gespannt was sich genau hinter Apples "Fabric" verbirgt. Ich denke das RAM muss so nah am SOC sein.
-1
spheric
spheric12.11.2013:20
Je dichter die Komponenten beieinander sind, um so geringer der Spannungsverlust auf den Leiterbahnen. Umso niedriger können die verwendeten Spannungen sein — mit entsprechender Auswirkung auf Stromverbrauch, Hitzeabgabe etc.

Außerdem sinken anscheinen die Latenzen, je kürzer die Leiterbahnen auf einem PCB werden.

Dazu kommt, dass, je kleiner eine Platine wird, umso flexibler das Design um sie herum gestaltet werden kann. Ein bisschen wie der Wechsel auf LEDs bei Kfz-Beleuchtung — Komponenten, die keinen Platz brauchen, bieten völlig andere Gestaltungsmöglichkeiten.
„Früher war auch schon früher alles besser!“
-2
Wiesi
Wiesi12.11.2014:31
gfhfkgfhfk
Der Speicherdurchsatz ist immer noch um Faktor zehn schneller als die SSD, und es gibt nur eines mit dem man Speicher ersetzen kann – noch mehr Speicher. Swaping ist anno 2020 ein absoluter Anachronismus.

Der Vergleich hinkt: Auf den internen Speicher wird jede ns zugegriffen, auf einen geswapten Bereich nur jede ms oder noch seltener; vorausgesetzt, man hat die richtigen Seiten ausgelagert.

Ab einem gewissen Speicherumfang spielt die Größe nur noch eine geringe Rolle. Bei großen Datenströmen kommt der Zusammenbruch der Geschwindigkeit durch das Fluten des Cache viel früher als der Mangel an Speicher. Nur beim Suchen in großen Datenbanken (und natürlich im Serverbetrieb) kann der interne Speicher nicht groß genug sein.
„Everything should be as simple as possible, but not simpler“
+2
Wellenbrett12.11.2014:54
Wiesi
gfhfkgfhfk
Der Speicherdurchsatz ist immer noch um Faktor zehn schneller als die SSD, und es gibt nur eines mit dem man Speicher ersetzen kann – noch mehr Speicher. Swaping ist anno 2020 ein absoluter Anachronismus.
Der Vergleich hinkt: Auf den internen Speicher wird jede ns zugegriffen, auf einen geswapten Bereich nur jede ms oder noch seltener; vorausgesetzt, man hat die richtigen Seiten ausgelagert.
Möglicherweise verstehe ich Dich falsch, aber ich habe den Eindruck, Du widersprichst Dir gerade selbst...
Wiesi
...
Ab einem gewissen Speicherumfang spielt die Größe nur noch eine geringe Rolle. Bei großen Datenströmen kommt der Zusammenbruch der Geschwindigkeit durch das Fluten des Cache viel früher als der Mangel an Speicher. Nur beim Suchen in großen Datenbanken (und natürlich im Serverbetrieb) kann der interne Speicher nicht groß genug sein.
Da könnte ich Dir jetzt aus dem Desktop-Bereich auch ein paar Anwendungen die RAM jenseits von 128 GB brauchen können bzw. sonst garnicht arbeiten aufzählen...
0
sierkb12.11.2015:29
pünktchen
Aber wozu wird der mit in das Gehäuse des SOC gepackt und nicht wie beim Raspberry oder früheren Macbooks auf die Platine?

&
pünktchen
Die paar Cent fallen doch nicht ins Gewicht gegenüber der grösseren Flexibilität bei Herstellung und Reparatur wenn das RAM getrennt untergebracht wird. Ich bin immer noch gespannt was sich genau hinter Apples "Fabric" verbirgt. Ich denke das RAM muss so nah am SOC sein.

Evtl., um noch kürzere bzw. kürzestmögliche Wege und somit Signallaufzeiten zwischen CPU-Einheit und RAM zu bekommen? Kürzere Wege für die fließenden Elektronen bei höherer Packdichte und geringerer Strukturbreite = kürzere Signallaufzeiten = schnellere Antwortzeiten bei geringerem Stromverbrauch (jeder Weg, jeder Bus, jeder Übergang kostet Laufzeit, kostet Energie)?

Siehe dazu auch die sehr einleuchtenden Ausführungen/Hypothese von:

Romeo K. Notes (11.11.2020): Explaining Apple M1 Products Performance | Hypothesis
+2
Wiesi
Wiesi12.11.2015:48
Wellenbrett
Da könnte ich Dir jetzt aus dem Desktop-Bereich auch ein paar Anwendungen die RAM jenseits von 128 GB brauchen können bzw. sonst garnicht arbeiten aufzählen...

Habe ich noch nicht mitbekommen. Würde mich interessieren, wer auf dem Desktop so viel Speicher braucht.
„Everything should be as simple as possible, but not simpler“
-3
gfhfkgfhfk12.11.2016:10
Wiesi
Der Vergleich hinkt: Auf den internen Speicher wird jede ns zugegriffen, auf einen geswapten Bereich nur jede ms oder noch seltener; vorausgesetzt, man hat die richtigen Seiten ausgelagert.
Man lagert nicht aus, dass macht das OS. Swapping funktioniert nur dann, wenn man das RAM nicht wirklich am Stück braucht sondern z.B. eine Applikation nutzt und dann eine andere. Dann kann das OS die nicht genutzte Anwendung aus dem Hauptspeicher auslagern. Das funktioniert halbwegs brauchbar.
Wiesi
Ab einem gewissen Speicherumfang spielt die Größe nur noch eine geringe Rolle. Bei großen Datenströmen kommt der Zusammenbruch der Geschwindigkeit durch das Fluten des Cache viel früher als der Mangel an Speicher. Nur beim Suchen in großen Datenbanken (und natürlich im Serverbetrieb) kann der interne Speicher nicht groß genug sein.
Der Punkt mit dem Cache ist korrekt, der Rest aber nicht. Das Wesentliche ist, braucht man soviel Speicher weil man Daten am Stück darin ablegt, dann kann man das durch Swapping nicht ersetzen. Das persönliche Nutzungsverhalten ist also ganz entscheidend ob das funktioniert. Wer den Mac nur als Desktop nutzt, wird mit den Speichergrößen keine Probleme haben und ggf. etwas beim Umschalten zwischen den Applikationen warten müssen. Aber wer typische SciTech Sachen macht (dafür wurden eigentlich Workstations mal eingeführt) der bekommt da ganz schnell ein Problem. Da war und ist schon immer die bezahlbare verfügbare Speichergröße der limitierende Faktor gewesen. Die Einsteigerklasse bei AMD und Intel erlaubt mittlerweile 128GB RAM und das recht preisgünstig. Bei den großen Workstations/Server sind mittlerweile einige TB möglich.
+2

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.