Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

M1-Macs & SSDs: Diskussionen um extrem hohe Angaben zu Schreibvorgängen – Anzeige-Bug in macOS?

Apple verbaut bekanntlich in den hauseigenen Computern keine Massenspeicher, die vom Nutzer selbst ausgetauscht werden können. Die SSDs sind fest auf den Mainboards verlötet, im Falle eines Defekts müssen Mac mini oder MacBook also in die Werkstatt. Glücklicherweise kommt das nicht allzu häufig vor, denn die Nachfolger der klassischen Festplatten sind sowohl robust als auch langlebig.


Extrem viele Schreibvorgänge im Status
Angegeben wird die Lebensdauer einer SSD in Form von Schreibvorgängen, welche das Gerät mindestens absolviere sollte, bevor es möglicherweise den Dienst einstellt. Maßeinheit sind dabei die auf den Datenträger geschriebenen Bytes, die Fachbezeichnung lautet "Terabytes Written" (TBW). Anzeigen lassen können sich Mac-Nutzer diesen Wert und weitere Informationen beispielsweise mit einer quelloffenen Software namens Smartmontools, welche kostenlos auf SourceForge zu haben ist. Berichte von etlichen Besitzern eines M1-Mac zeigen jetzt, dass die Rechner für ihre SSDs beunruhigend viele Schreibvorgänge melden.


159 Terabytes nach nur zwei Monaten
Ein Twitter-User namens David Rysk etwa hat den Status seines MacBook Pro M1 mit 16 Gigabyte RAM und 2 Terabyte Speicher veröffentlicht. Dem SMART-Status zufolge weist die SSD nach zwei Monaten insgesamt 150 TBW auf. Legt man die Herstellerangaben zu handelsüblichen Speichern zu Grunde, welche eine Mindest-Lebensdauer von rund 600 TBW ausweisen, hätte das Gerät davon also bereits ein Viertel erreicht. Die SSD könnte demzufolge etwas mehr als ein halbes Jahr nach dem Kauf des MacBook Pro ausfallen. Im Forum von Linus Tech Tips finden sich weitere Einträge, welche ebenfalls sehr hohe Werte zeigen. Diese liegen nach kurzer Zeit schon deutlich über zehn Prozent des zu erwartenden TBW-Maximums.

Entwickler sammelt Meldungen auf Twitter
Der Entwickler Hector Martin, welcher Linux auf Apple-Silicon-Macs portieren möchte, sammelt auf seinem Twitter-Account derzeit ebenfalls solche Statusmeldungen. Da die von Smartmontools gelieferten Werte sehr unrealistisch erscheinen, geht er fest von einem Bug aus. Unklar ist ihm zufolge lediglich, ob der Grund dafür in den M1-Macs selbst oder in macOS zu finden ist. Für letzteres spricht, dass derart hohe Angaben gelegentlich auch bei Intel-Macs auftreten können. Nicht gänzlich auszuschließen ist zudem, dass Smartmontools die von M1-Macs gelieferten oder seitens macOS auf die eine oder andere Art und Weise interpretierten Angaben nicht korrekt auswerten kann. Es steht zu erwarten, dass Apple sich dieses Bugs in nicht allzu ferner Zukunft annehmen wird.

Kommentare

Marcel Bresink23.02.21 18:05
Da es keinen Industriestandard für S.M.A.R.T.-Attribute gibt und "Smartmontools" überhaupt nicht wissen kann, wie die simulierte SSD auf Apples M1 funktioniert, weil Apple dazu keine Informationen herausrückt, würde ich eher vermuten, dass Smartmontools (und ähnliche Programme) falsche Werte anzeigen.
+10
antipod
antipod23.02.21 18:14
Marcel Bresink
Da es keinen Industriestandard für S.M.A.R.T.-Attribute gibt und "Smartmontools" überhaupt nicht wissen kann, wie die simulierte SSD auf Apples M1 funktioniert, weil Apple dazu keine Informationen herausrückt, würde ich eher vermuten, dass Smartmontools (und ähnliche Programme) falsche Werte anzeigen.

Das bleibt wohl zu hoffen. Wäre aber schon toll, wenn man das direkt aus einem von Apples Hauseigenen Dienstprogrammen herauslesen könnte. Im App store habe ich nur Apps gefunden die was kosten und ich möchte kein Geld für eine Softwware ausgeben, von der ich nicht weiss, ob sie wirklich funktioniert. Tipps sind also Willkommen.
+2
X-Jo23.02.21 19:04
Man könnte ja mal einige Zeit in der „Aktivitätsanzeige“ die geschriebenen Daten beobachten.
Wenn in 2 Monaten 150 TB geschrieben werden, müsste das doch auffallen, oder?
+3
Andy85
Andy8523.02.21 19:57
schon ordentlich MacBook Air und kein "Hauptrechner" bei mir
+2
pünktchen
pünktchen23.02.21 20:10
Etwa das 20-30 fache der Werte meiner SSD pro Betriebsstunde.

Data Units Read:                    43,780,571 [22,4 TB]
Data Units Written:                 25,452,198 [13,0 TB]
Host Read Commands:                 1,154,525,933
Host Write Commands:                418,665,003
Controller Busy Time:               2,863
Power Cycles:                       13,952
Power On Hours:                     8,094
+1
TheGeneralist
TheGeneralist23.02.21 23:01
Marcel Bresink
(...) nicht wissen kann, wie die simulierte SSD auf Apples M1 funktioniert (...)
@Marcel Bresink: Würde mich mal interessieren was in diesem Kontext unter "simuliert" zu verstehen ist. Funktionieren die SSDs in der Apple Silicon Architektur anders als sonst üblich?

Obschon mir das Hintergrundwissen fehlt, diese Diskussion fundiert einschätzen zu können, werde ich den Eindruck nicht los dass hier Blinde über Farben diskutieren. Könnte mir vorstellen dass sich das Thema recht schnell wieder in Luft auflöst...
+1
Weia
Weia23.02.21 23:39
TheGeneralist
Würde mich mal interessieren was in diesem Kontext unter "simuliert" zu verstehen ist. Funktionieren die SSDs in der Apple Silicon Architektur anders als sonst üblich?
Das, was man gemeinhin als SSD bezeichnet, ist eine Kombination aus den eigentlichen Speicherchips und einem Controller, der sie verwaltet. Spricht man davon, dass ein Computerhersteller in seine Computer SSDs einbaut, so meint man damit normalerweise von einem SSD-Hersteller (Samsung, Micron, …) fertig konfigurierte Module aus Speicherchips und Controller, die auf das Motherboard gesteckt oder meinetwegen auch gelötet werden. Apple hingegen kauft von Samsung & Co. wirklich nur die Speicherchips, während sich die Controllereinheit in Apples eigenen Chips befindet. Insofern kannst du auf einem Apple-Mainboard nicht auf eine abgeschlossene Einheit deuten und sagen Das ist die SSD. Das ist aber nicht nur bei der Apple-Silicon-Architektur der Fall, sondern auch schon bei den jüngeren Intel-Macs; dort steckt der Controller in Apples T2-Chip.
🦖The dinosaurs invented Jesus to test our confidence in science
+8
mikeboss
mikeboss23.02.21 23:46
@TheGeneralist

simuliert in dem sinne, dass Apple keine kompletten SSDs von einem hersteller mehr einkauft. eine SSD setzt sich aus NAND chips und einem controller zusammen. Apple kauft "nur" noch blankes NAND ein und realisiert den controller selber. trotzdem versteht Apples SSD das NVMe protokoll und gibt auf anfrage auch die per S.M.A.R.T. erfragten werte aus. interessant hierbei: zumindest in den M1 maschinen ist die SSD nicht mehr per PCIe angebunden.

interessante fakten zum thema:

ich verfolge das thema seit etwa einem monat. wenn eine drei monate alte maschine 200+ TBW anzeigt ist das schon ein extremer wert. meine inzwischen etwa 5 jahre alte Apple/SAMSUNG 1.0 TB SSD hat jetzt knapp 24 TBW.

fragen:
wieviel koennen Apples SSDs ab bevor sie den geist aufgeben? das NAND (zumindest bei den 512GB modellen) ist 3D TLC von KIOXIA/TOSHIBA.

stimmen die werte welche von den diversen S.M.A.R.T. utilities ausgegeben werden? im Activity Monitor werden auch extreme werte gehandelt was vom kernel_task so auf die SSD geschrieben wird. das wuerde auf swapping hindeuten.
+6
Mecki
Mecki24.02.21 02:06
Wenn er 2 TB Speicher hat und 150 TB geschrieben wurden, dann wurde jede SSD Speicherzelle im Schnitt bisher 75x beschrieben, denn Schreibvorgänge werden so verteilt, dass sich die Zellen möglichst gleichmäßig abnutzen, da bei einer SSD Zugriffszeiten keine Rollen spielen (ob die Zellen direkt nebeneinander liegen oder über die Platte verteilt sind macht beim Lesen später keinen Unterschied, anders als bei magnetischen Festplatten). Eine SSD Zelle ist heutzutage aber für mindestens 5'000 Schreibvorgänge ausgelegt. Mit 75 sind das also gerade mal 1,5% der Lebenserwartung.

Die Sache bei SSDs ist aber die: Zellen sind dort üblicher Weise 4'096 Bytes groß, wobei das nicht so sein muss. Zellen können aber nur als ganzes gelöscht und dann als ganzes wieder beschrieben werden. Will ich also 1 Byte einer Zelle verändern, dann passiert folgendes: Die ganze Zelle wird in einen Pufferspeicher in der SSD gelesen, dort wird dann ein Byte verändert, dann wird eine derzeit unbelegte Zelle gesucht, diese wird gelöscht, der Inhalt des Pufferspeichers wird dorthin geschrieben und die bisherige Zelle wird als unbelegt markiert.

Wenn dabei etwas schief geht, dann ist es meistens das Löschen der Zelle, denn auch wenn man von Schreibvorgängen spricht, sind hier eigentlich Löschvorgänge gemeint, da eine Zelle vor dem Schreiben immer erst gelöscht werden muss, außer sie ist leer, weil sie noch nie beschrieben wurde. Genau dieses Löschen geht halt je nach Bauweise der Zelle nur zwischen 1'000 (TLC 21 nm)und 100'000 (SLC 50 nm) mal, die meisten SSDs liegen im Bereich von 5'000 (MLC 34 nm); gibt aber auch 3'000 (MLC 25 nm) und 10'000 (MLC 50 nm). Müsste man mal genau schauen was dort verbaut wurde.

Wobei das alles Mindestwerte sind. Selbst wenn die Zelle für 1'000 ausgelegt ist, kann sie 2'500 in der Praxis schaffen. Wann genau die Zelle kaputt geht kann niemand exakt vorhersagen, der Hersteller gibt nur eine Untergrenze an die seine Zellen schaffen müssen, wenn man mal von Fabrikationsfehlern absieht. Daher hat jede SSD mehr Zellen als sie eigentlich bräuchte, denn Fabrikationsfehler sind unvermeidlich. Fällt eine reguläre Zelle aus, wird ein Reservezelle aktiviert und nimmt ihren Platz ein. Diese Reservezellen sollen zum einen eben Fabrikationsfehler ausgleichen, zum anderen aber auch die Lebensdauer steigern. Wie viele es davon gibt wird selten dokumentiert, aber 1% und mehr sind nicht unüblich (und 1% bei 2 TB wären schon stolze 20 GB Reserve bzw. fast 5 Mio Reservezellen).

TBW gibt jedoch einen Wert in Bytes an, was sich so aber nicht direkt auf Schreibzyklen von Zellen herunter rechnen lässt. Denn würde ich wirklich nur immer ein Byte schreiben, dann komme ich unmöglich auf 600 TBW, weil das wären 600 * 10^12 Schreiboperationen verteilt auf 2 TB / 4096 = 488'281'250 Zellen und dann müsste man jede Zelle 1'228'800x beschreiben und das schafft kein Zelle der Welt. Der Wert kann aber auch nicht davon ausgehen, dass man immer genug Bytes schreibt um wirklich eine ganze Zelle zu füllen, also 4096, weil das wären dann nur 300 Schreibvorgänge pro Zelle und selbst die schlechtesten schaffen mindestens 1'000. Nur wenn ich von ca. 256 Bytes pro Schreibvorgang ausgehe komme ich bei 600 TB auf 4800 Schreibvorgänge pro Zelle.

Daher ist TBW kein guter Indikator für die Lebensdauer, denn wie viel Bytes ich wirklich auf eine SSD schreiben kann hängt massiv davon ab, wie groß die Schreiboperationen waren. Schreibe ich immer nur große Blöcke, kann ich 3-4x mehr Daten schreiben als der vorgegebenen TBW Wert. Schreibe ich immer nur 1 Byte, werde ich nicht mal in die Nähe des vorgegeben TBW Wert kommen. Dazu kommt noch, dass das Betriebssystem ggf. Schreibcaching aktiviert hat, so dass Daten in anderen Blockgrößen auf die SSD geschrieben werden als sie von der App geschrieben wurden und dass auch TBW ein Mindestwert ist, weil der Hersteller nicht wissen kann, wie lange die Zellen am Ende wirklich halten werden.

TBW ist wie MTBF bei normalen Festplatten. Bisher hat noch jede Festplatte bei mir den MTBF Wert deutlich überstiegen, ohne ausgefallen zu sein, abgesehen von einer und die hat ihn nicht im Ansatz erreicht. Auf diese Werte würde ich also nicht allzu viel geben. Sie sollen nur eine groben Eindruck vermitteln, wie lange das Teil in etwas haltbar sein sollte mit immer sehr viel Luft nach oben.
+17
raphaelbruegger
raphaelbruegger24.02.21 08:39
Liebe Kolleginnen und Kollegen. Ich bin knapp davor ein MacBook Air mit 16 GB RAM und 1 TB Speicher zu kaufen.

Meinen gesamten Daten-Workflow hab ich extern. Sprich, auf der internen SSD werkeln System und Programme und sonst nüsch.

«Schont» das die SSD oder sind die Schreibzyklen System bedingt?
0
UWS24.02.21 08:41
Kann man noch nicht so richtig einschätzen die Angelegenheit, tendenziell glaube ich eher an einen Fehler in den ausgelesenen Daten. Dass dieses Thema aber äußerst sensibel ist, liegt auf der Hand. Aufgrund der Konstruktion ist der Ausfall der "SSD" vermutlich ein wirtschaftlicher Totalschaden, den möchte man sicher ungern knapp außerhalb der Garantiefrist haben...
There is no cloud…it’s just someone else’s computer.
+3
Marcel Bresink24.02.21 08:52
TheGeneralist
@Marcel Bresink: Würde mich mal interessieren was in diesem Kontext unter "simuliert" zu verstehen ist. Funktionieren die SSDs in der Apple Silicon Architektur anders als sonst üblich?

Ja, es ist überhaupt keine SSD im eigentlichen Sinn vorhanden. Schon seit den Macs mit T2-Sicherheitsprozessor verwendet Apple keine echten SSDs mehr, sondern reinen Flash-Speicher, der über den T2 als Controller (inklusive Vollverschlüsselung per Hardware) angesprochen wird. Die Anbindung an den Computer geschieht aber durch einen echten NVMe-Bus, so dass das immer noch wie eine SSD wirkt, die in Einzelteile zerlegt ist.

Bei den neuen Macs mit M1 wird das aber noch weiter getrieben: Hier ist der Flash-Speicher über eine proprietäre Verbindung ("Apple Fabric") direkt an den Prozessor angebunden. NVMe-Eigenschaften, wie z.B. die S.M.A.R.T.-Unterstützung oder das Energiesparmanagement werden nur für das Betriebssystem simuliert und laufen in Wirklichkeit über Apple-eigene Techniken.

Außerdem scheint es eine Partitionierung des Flash-Speichers auf Hardware-Ebene zu geben, die in bestimmten Situationen (z.B. im Wartungsmodus) nicht eine, sondern gleich 3 SSDs simuliert: Die "normale" für den Benutzer sichtbare, eine interne mit 500 MB für Wartungszwecke, und eine 6 GB große "Backup Recovery Disk", die auch nach Löschung aller sichtbaren Recovery-Volumes aller installierten Betriebssysteme als Rückfallebene dient, z.B. um den DFU-Modus zu realisieren.
+13
mikeboss
mikeboss24.02.21 09:13
Marcel Bresink
Die Anbindung an den Computer geschieht aber durch einen echten NVMe-Bus, so dass das immer noch wie eine SSD wirkt, die in Einzelteile zerlegt ist.

klugscheissmode an:
NVMe-Protokoll, nicht -Bus.
klugscheissmode aus
+2
mamfred
mamfred24.02.21 09:13
Bei meinem 2020er MBA, Intel nicht M1, sieht es so aus:

Data Units Read:                    13,234,977 [6,77 TB]
Data Units Written:                 9,100,823 [4,65 TB]
Host Read Commands:                 339,810,788
Host Write Commands:                140,293,351
Controller Busy Time:               0
Power Cycles:                       111
Power On Hours:                     237

Ich tippe bzw. hoffe wie meine Vorredner also auf falsche Werte.
+1
Bodo_von_Greif24.02.21 10:08
@raphaelbruegger

Interne SSD schonen zu müssen ist völliger angstgetriebener Unsinn.

Die SMART Werte sind völlig offensichtlich falsch

EOD,

Bodo
[x] nail here for new monitor
0
raphaelbruegger
raphaelbruegger24.02.21 11:02
@Bodo_von_Greif

Das ist mir durchaus bewusst, dennoch möchte auf der internen SSD so viel Traffic wie möglich vermeiden, darum habe ich meinen gesamten Workflow auch extern (SSDs, RAIDs, etc…) und ich bin damit besten zufrieden.

Wenn Deine Antwort bedeutet, dass ich mir diesbezüglich keine Gedanken machen sollte, hast Du mir bereits geholfen und dafür danke ich Dir.
0
pünktchen
pünktchen24.02.21 11:10
Marcel Bresink
Bei den neuen Macs mit M1 wird das aber noch weiter getrieben: Hier ist der Flash-Speicher über eine proprietäre Verbindung ("Apple Fabric") direkt an den Prozessor angebunden. NVMe-Eigenschaften, wie z.B. die S.M.A.R.T.-Unterstützung oder das Energiesparmanagement werden nur für das Betriebssystem simuliert und laufen in Wirklichkeit über Apple-eigene Techniken.

Sind denn die Einheiten auf welche sich die Schreibbefehle beziehen gleich geblieben? Wenn Apple sonst schon proprietären Krams baut können sie die pages / blocks oder was auch immer ja auch gleich ändern. Wenn die Software jetzt davon ausgeht dass die Werte gleich bleiben dann ergibt die Statistik Unsinn.

Die Data Units sind im Schnitt so 510-524 kb gross, real ohne Rundung also wohl 512 kb. Während allerdings sowohl mein älteres Intel MBA als auch mamfreds neues Intel MBA jeweils etwa 26 Host Read Commands für eine Data Unit brauchen schafft der im Artikel genannte M1 das mit nur 4 Host Read Commands. Angeblich. Vielleicht beziehen sich die Host Read Commands aber nun auf viel kleinere Einheiten?
+1
Weia
Weia24.02.21 12:23
raphaelbruegger
Meinen gesamten Daten-Workflow hab ich extern. Sprich, auf der internen SSD werkeln System und Programme und sonst nüsch.

«Schont» das die SSD oder sind die Schreibzyklen System bedingt?
Das lässt sich ohne Kenntnis Deines Daten-Workflows kaum sagen.

Wer eher textorientiert arbeitet, erzeugt mit seinen Nutzerdaten einen verschwindend geringen Datenumsatz relativ zum System. Allein das, was macOS pro Tag in Logdateien speichert, übersteigt bei weitem alles, was Du an einem Tag selbst schreiben oder auch nur zum Lesen abspeichern könntest. Selbst, wenn ich praktisch nichts tue, findet ein Time-Machine-Backup pro Stunde meist 30 MB bis 100 MB an geänderten Daten – das wären etliche Bücher, wenn das von textorientierten Nutzerdaten käme. Deine eigenen Daten fallen dann also relativ zu den Systemdaten kaum ins Gewicht.

Wenn Du viel mit Multimediadaten, insbesondere Videos, hantierst, dann sieht das Verhältnis natürlich anders aus.

Generell ist aber die Vorstellung, man müsse die interne SSD irgendwie „schonen“, abwegig. Ich arbeite so intensiv an meinem Computer, wie das ein Mensch, der auch Schlaf braucht , kann, oft mit enormen Datenmengen (Audio, Video, riesige Datenbanken mit statistischem Material) und meine vor 1 Jahr eingebaute Boot-SSD hat bislang unter 1% der vorgesehenen Schreibmenge verbraucht. Sprich, ich kann, was die SSD betrifft, noch über 99 Jahre mit diesem Mac weiterarbeiten. Ich befürchte, andere anorganische oder organische Dinge werden da eher schlapp machen.

Solltest Du aber eher textorientiert arbeiten, spätestens dann ist Deine Befürchtung völlig grundlos.

Ich würde jede Wette eingehen, dass Dein Grafikchip vor Deiner SSD das Zeitliche segnet. Aber deshalb kommst Du doch auch nicht auf die Idee, Deinen Mac bei ausgeschaltetem Bildschirm remote zu benutzen.

Woher kommt neuerdings diese völlig aus der Luft gegriffene Ich muss aber meine SSD schonen-Mentalität?
🦖The dinosaurs invented Jesus to test our confidence in science
+3
mikeboss
mikeboss24.02.21 12:32
Weia
Woher kommt neuerdings diese aus der Luft gegriffene Ich muss aber meine SSD schonen-Mentalität?

die ruehrt wohl daher, dass die SSDs in neueren maschinen verloetet sind. die aussicht, dass ich den ganzen rechner entsorgen muss weil der fix verbaute primaere massenspeicher die graetsche macht, finde ich wenig erbaulich. solange ich die SSD austauschen kann ist es mir blunzen wie lange eine SSD durchhaelt, von denen (Apple/SAMSUNG) habe ich naemlich zur genuege im schrank liegen...
0
Dunkelbier24.02.21 12:48
mikeboss
die ruehrt wohl daher, dass die SSDs in neueren maschinen verloetet sind. die aussicht, dass ich den ganzen rechner entsorgen muss weil der fix verbaute primaere massenspeicher die graetsche macht, finde ich wenig erbaulich. solange ich die SSD austauschen kann ist es mir blunzen wie lange eine SSD durchhaelt, von denen (Apple/SAMSUNG) habe ich naemlich zur genuege im schrank liegen...
Also ich kaufe mir doch einen super performanten Rechner, um dann anschließend die ganze Performance über verhältnismäßig langsame Schnittstellen zu schaufeln. Ich bearbeite mein aktuelles Videoprojekt immer intern, eben damit ich die maximale Geschwindigkeit zur Verfügung habe. Erst im Abschluss wird das Projekt auf eine externe Platte verschoben. Und dort kann ich es natürlich auch weiterverarbeiten, falls nötig.

Und wie Weia ja oben schon schreibt, kann das sogar völlig nutzlos sein.
+3
Weia
Weia24.02.21 12:56
mikeboss
die aussicht, dass ich den ganzen rechner entsorgen muss weil der fix verbaute primaere massenspeicher die graetsche macht, finde ich wenig erbaulich.
Aber das ist doch nichts als eine fiktive Angst. Ich habe von überhaupt noch niemandem gehört, der seinen ansonsten funktionierenden Mac tatsächlich wegen entschlummerter SSD entsorgen musste, und ganz sicher nicht von einer gehäuft auftretenden diesbezüglichen Problematik.

Das erinnert mich an heftige Diskussionen über den fest verbauten iPad-Akku beim allerersten iPad. Nach dem Motto Bei einem winzigen Handy OK, aber bei einem Tablett kann man den Akku doch nun wirklich austauschbar machen! Ich war einer der ersten Käufer des iPad 1 und habe es 10 Jahre täglich intensiv genutzt. Nach 10 Jahren war das iPad wirklich kaum noch zu gebrauchen, zu langsam für fast alles, viele Dateiformate/Websites nicht mehr lesbar, Grafikchip dabei, die Grätsche zu machen (Farbstreifen auf dem Display) – nur der Akku, der war frisch wie am ersten Tag und hält immer noch 12 Stunden und mehr am Stück …

Ich halte das mit den SSDs für eine Phantomangst und bleibe dabei, dass der Ausfall des Grafikchips viel wahrscheinlicher ist. Und es läuft in der PC-Welt doch auch niemand herum und grämt sich Ogottogott, was mache ich nur, wenn die fest verlötete Northbridge ausfällt?!?
🦖The dinosaurs invented Jesus to test our confidence in science
+3
mikeboss
mikeboss24.02.21 12:58
@Dunkelbier

ich propagiere ja nicht, dass man auf externem massenspeicher arbeiten soll. jedoch waere es mir lieb, wenn die interne SSD nicht verloetet ware, denn so kann ich sie im bedarfsfall austauschen. es ist nun mal so, dass SSDs bauartbedingt eine begrenzte anzahl schreibzyklen abkoennen. handkehrum ist mir bis anhin keine "totgeschriebene" Apple SSD untergekommen, und ich sehe viele Macs.
0
TheGeneralist
TheGeneralist24.02.21 13:25
@Marcel Bresink: besten Dank für den spannenden kleinen Exkurs, freue mich ein klareres Bild zu den Besonderheiten der M1-Architektur gewonnen zu haben!
+1
ExMacRabbitPro24.02.21 14:06
Dunkelbier
Also ich kaufe mir doch einen super performanten Rechner, um dann anschließend die ganze Performance über verhältnismäßig langsame Schnittstellen zu schaufeln.

PCIe 4.0 ist NICHT langsam!
0
DTP
DTP24.02.21 14:06
Marcel Bresink
Außerdem scheint es eine Partitionierung des Flash-Speichers auf Hardware-Ebene zu geben, die in bestimmten Situationen (z.B. im Wartungsmodus) nicht eine, sondern gleich 3 SSDs simuliert: Die "normale" für den Benutzer sichtbare, eine interne mit 500 MB für Wartungszwecke, und eine 6 GB große "Backup Recovery Disk", die auch nach Löschung aller sichtbaren Recovery-Volumes aller installierten Betriebssysteme als Rückfallebene dient, z.B. um den DFU-Modus zu realisieren.
TheGeneralist
@Marcel Bresink: besten Dank für den spannenden kleinen Exkurs, freue mich ein klareres Bild zu den Besonderheiten der M1-Architektur gewonnen zu haben!

Hier ist ein guter Artikel dazu, speziell dem "versteckten" Recovery Mode:
https://eclecticlight.co/2021/02/20/m1-macs-have-another-hidden-boot-mode/

Auszug:
"Wenn du deinen M1 Mac in den 1 True Recovery (1TR) Wiederherstellungsmodus bringen musst, dies aber fehlschlägt, gibt es eine zweite Kopie der Software, die für 1TR "zur Ausfallsicherheit" benötigt wird. Um in diesen zu booten, solltest du, anstatt einfach nur den Power-Button zu halten, bis 1TR zu laden beginnt, "den Power-Button doppelt drücken und halten", so die Anleitung."

Ganz unten im verlinkten Artikel ist ein Link zu allen M1 Bootmodes zu finden.
+1
schaudi
schaudi24.02.21 17:42
Um mal ein wenig zu beruhigen: in meinem privaten MBP late 2011 werkelt immer noch die originale Apple SSD (die damals ein kleinen Vermögen gekostet hat). Viel Foto und Videobearbeitung und bisher läuft die 1A. Hingegen ist bisher schon 2 mal die Graka abgeschmiert (nur einmal innerhalb des Zeitraums, in dem sie kostenlos getauscht wurde). Da sich bei den SSDs innerhalb des letztens Jahrzents noch einmal verdammt viel getan hat, würde ich mir heute echt null komma null sorgen machen bei den aktuellen
Sie werden ja überhaupt nur deswegen fest verlötet, weil sie "effektiv" ewig halten (bei 99,9%) und damit der Vorteil der schnelleren Anbindung und der kompakteren Bauweise den absolut unwahrscheinlichen Fall des Totalversagens im unermesslichen übersteigt.
Hier persönlichen Slogan eingeben.
+4
Andy85
Andy8524.02.21 17:57
Wer hatte denn schon mal generell eine defekte SSD ? ich hab davon noch nie gehört ?! HDDs gehen reihenweise kaputt bezogen im Vergleich auf eine SSD?
0
pünktchen
pünktchen24.02.21 18:30
Ich hatte schon mal eine SSD die sich unter neueren Versionen von macOS nicht mehr formatieren liess. Unter 10.6 ging es dann. Ich würde das als eine halb defekte SSD werten. Allerdings war die auch weder von Apple noch festgelötet.
0
fleissbildchen24.02.21 19:27
@Mecki:
Vielen Dank, dass du immer wieder so ausführliche Erklärungen postest!

Ich genieße sie sehr
0
Mecki
Mecki24.02.21 19:31
Andy85
Wer hatte denn schon mal generell eine defekte SSD ?
SSDs fallen so gut wie nie komplett aus. Das wäre nur der Fall, denn die Elektronik versagt, also z.B. der Controller den Geist aufgibt oder irgendwo ein Kondensator platzt. Das kann natürlich auch mal passieren, kommt aber höchst selten vor und gilt natürlich genauso für Festplatten.

Wenn irgendwo eine Zelle den Geist aufgibt, also nicht mehr gelöscht oder danach beschrieben werden kann, dann wird die Zelle als "Bad" markiert und in Zukunft nicht mehr verwendet. Eine andere Zelle nimmt dann ihren Platz ein. Davon merkt direkt niemand etwas außerhalb der SSD, bis auf die Tatsache, dass dies von S.M.A.R.T. erfasst wird. Dort gibt es eine Zähler wie oft bereits eine Zelle durch eine andere ersetzt wurde ("Reallocated Sectors Count"), der wird dann um eins erhöht.

Trat hingegen ein unkorrigierbarer Fehler beim Lesen auf (selten bei SSDs), dann wird die Zelle als "Remap" markiert und der Zähler "Current Pending Sector Count" um eins erhöht. Wird die Zelle später erneut gelesen und diesmal geht alles gut (kommt vor), dann können die Daten doch noch gerettet werden, die Zelle wird als "Bad" markiert und die geretteten Daten wandern in eine andere Zelle, die den Platz der kaputten einnimmt. Sie nicht gleich als "Bad" zu markieren hat also den Vorteil, dass die Daten nicht zwangsläufig verloren sind, denn eine "Bad" Zelle kann man nicht erneut versuchen zu lesen.

Soll eine "Remap" Zelle hingegen beschrieben werden, dann ist es ja egal, dass man die Daten dort nicht mehr lesen kann, weil die würden jetzt sowieso überschrieben werden, daher wird die Zelle dann sofort als "Bad" markiert und eine andere Zelle nimmt ihren Platz ein. Sobald eine "Remap" Zelle "Bad" geworden ist, egal warum, wird "Current Pending Sector Count" wieder um eins verringert und "Reallocation Event Count" um eins erhöht (zusätzlich dazu, dass natürlich auch hier "Reallocated Sectors Count" um eins erhöht wird).

Was heißt jetzt "eine andere Zellen nimmt ihren Platz ein"? Hat eine SSD noch freie Reservezellen, dann nimmt eine Reservezellen den Platz der kaputten ein. Dadurch ist die Gesamtanzahl der Zellen also gleich geblieben. Hat sie keine mehr, weil alle schon belegt sind, dann nimmt einfach irgend eine andere derzeit unbelegte Zelle ihren Platz ein. Dadurch verringert sich aber die Anzahl der nutzbaren Zellen. Davon merkt das System aber nichts, solange man seine SSD nicht zu 100% mit Daten füllen möchte.

Hat sich die Zahl der Zellen einer SSD verringert und man versucht sie komplett voll zu schreiben, dann werden einen irgendwann vorher schon die Zellen ausgehen. Dann meldet die SSD dem System nur noch Schreibfehler. Woraufhin das System den Sektor im Dateisystem, den es gerade beschreiben wollte, als "Bad" markiert und auch nicht mehr verwendet. Dadurch schrumpft dann die Kapazität der Partition, d.h. es steht jetzt weniger Platz zu Verfügung als vor dem Fehler. Kann also sein, dass man auf eine 2 TB SSD nach vielen Jahren nur noch 1,8 TB schreiben kann, wenn schon sehr viele Zellen "Bad" sind.

Etwas verwirrend ist hier, dass das System denkt, es bestimmt selber wohin Daten geschrieben werden, denn früher mal was das mal wirklich so (bei Festplatten sehr lange Zeit und auch noch bei den ersten Flash-Speichern). Heute ist das nur noch bei bestimmten Flash Speichern in embedded Systemen der Fall, die aus Kostengründen keinen komplexen Controller besitzen und hier das System dessen Aufgaben übernehmen muss. Bei modernen Festplatten und SSDs ist das aber schon länger nicht mehr der Fall.

Das System sagt z.B. "Schreib das in Sektor 20", aber auf welche Zelle der SSD das gerade mapped bestimmt die SDD und vor allem bestimmt sie das bei jeden Schreibvorgang neu. Das Betriebssystem wird also Sektor 20 im Dateisystem bei einem Schreibfehler als "Bad" markieren, aber in Wahrheit ist es völlig egal welchen Sektor es so markiert. Es muss nur so viele Sektoren "Bad" markieren wie Zellen "Bad" sind, denn nur die Anzahl ist entscheidend, nicht die virtuelle Position. Formatiert man die Partition daher neu und lässt das System all Sektoren dabei prüfen, dann können auf einmal bisherige "Bad" Sektoren wieder in Ordnung sein und dafür andere Sektoren auf einmal "Bad" werden, lediglich die Anzahl der "Bad" Sektoren bleibt gleich (oder nimmt zu), denn eine SSD Zelle, die einmal als "Bad" markiert wurde bleibt für immer "Bad".

Wobei stimmt nicht ganz: Mit einem Low Level Format Tool, das manche Hersteller anbieten, kann man ggf. die Zelle erneut prüfen und den Bad Status auch entfernen lassen, ist aber nicht zu empfehlen, denn selbst wenn sie kurzfristig wieder zu gehen schient, wird sie garantiert demnächst wieder ausfallen und dabei können Daten verloren gehen. Auch kann man mit so einem Tool bei seiner SSD die Zahl der Reservezellen erhöhen, woraufhin die dem System gemeldete Kapazität natürlich sinkt. Man kann sie auch verringern. In Wahrheit sind das ganz normale Zellen, die wie alle anderen behandelt werden, sie werden nur unterschlagen, wenn das System nach der Sektoranzahl fragt, wodurch sich die Gesamtkapazität der SSD bestimmt. Ändert man diesen Wert, muss man aber die SSD neu partitionieren und formatieren, d.h. alle Daten sind futsch.
+9
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.