Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Hardware
>
HDD Burn-in Tests?
HDD Burn-in Tests?
xcomma
10.03.26
18:35
Hallo,
in der Vergangenheit habe ich eigentlich nichts besonderes unternommen, sondern HDDs einfach eingebaut und benutzt. Aber jüngst ist mir der Begriff des "
Burn-in Tests
" über den Weg gelaufen. Anscheinend wird das empfohlen vor allem für Platten, die im NAS Betrieb eingesetzt werden sollen. Aus dem Grunde lasse ich gerade auf neuen HDDs die
SMART Selbsttests
laufen, teils mit einer Einzeldauer von knapp 24 Stunden. Beispielbefehl:
smartctl -t long /dev/sda
Danach wollte ich noch den
badblocks
Check drüberlaufen lassen, der ebenfalls oft erwähnt und beides kombiniert genutzt werden. Beispielbefehl:
badblocks -wvs -b 4096 /dev/sda
Auf Reddit wurden für nur 8TB HDDs Laufzeiten von bis zu 4 Tagen berichtet.
Wie handhabt ihr so neue HDDs bevor ihr sie wirklich benutzt?
Kennt ihr diese Empfehlungen von Burn-in Tests? Habt ihr andere Tools oder Vorgehensweisen dafür evtl.?
Danke für eure Erfahrungsberichte, Erkenntnisgewinne, Tipps & Tricks.
Hilfreich?
0
Kommentare
CHL
10.03.26
19:26
Also ich mach bei den NAS-HDDs immer nur einen short-smart-test bzw. noch den conveyance-test (hat glaub ich nur mehr Seagate an Board) - damit sortierst Du gleich einmal Transportschäden aus. DIe "badblocks" Idee ist grundlegend ein Test, ob die ganze Oberfläche sauber funktioniert. Wenn nicht, würde sich dann das SMART melden wenn Sektoren beleidigt werden. Aber speziell im NAS: Eine defekte Platte ist kein Untergang, schon gar nicht mit ZFS und bei doppelter Redundanz. Also spar ich mir die Zeit und lass die Platte einfach werkeln, bis sie den Geist aufgibt. Nachdem ich sehr viele Platten bei Kunden habe zeigt sich auch ganz klares, unklares Bild: Hab z.B. 8TB HDDs die schon gut 10 Jahre 24/7 laufen, welche die nach einigen Jahren beginnen zu sterben und schon welche, die nach wenigen Tagen den Geist aufgegeben haben. Unabhängig ob es nun eine billige (gibts das aktuell überhaupt noch?) Consumer-Platte ist, die gar nicht für 24/7 gedacht ist, oder eine Enterprise-HDD. Die Dinger sehe ich alle als Glücksspiel. Also genug Redundanz und gut ist.
Hilfreich?
+5
CHL
10.03.26
19:28
Ergänzung zum Thema Redundanz: Ich mische gerne Hersteller und/oder Modelle. Es gab schon Fälle, wo z.B. Firmware-Fehler plötzlich alle Platten auf einmal ausfallen haben lassen - ganz blöde Sache....
Hilfreich?
+6
Tommy1980
10.03.26
19:47
CHL
Ergänzung zum Thema Redundanz: Ich mische gerne Hersteller und/oder Modelle. Es gab schon Fälle, wo z.B. Firmware-Fehler plötzlich alle Platten auf einmal ausfallen haben lassen - ganz blöde Sache....
Genau so sollte man das auch machen.
Hilfreich?
0
xcomma
11.03.26
11:00
Danke euch!
Short
und
Conveyance
Tests habe ich als erste laufen lassen, die auch nur nur wenige Minuten dauerten.
Den
Long
-Test hatte ich danach angestossen. Die knapp 24 Stunden lasse ich nun runterlaufen.
Auf die
badblocks
-Operation mit 4 oder gar mehr Tagen habe ich aber dann doch keine Lust. Darauf verzichte ich nun. Grob auch im Netz gelesen, dass das für aktuellere HDDs wohl nicht mehr so benötigt zu sein scheint, da sich die Firmware um fehlerhafte Sektoren kümmert. Früher (wobei ich nicht weiss was damit genau gemeint ist), hat man wohl einen Output von badblocks mitgeloggt und den wiederum beim Formatieren auf Kommandozeile als Input mitgegeben zur Markierung damit zukünftige Schreiboperationen dann besagte Sektoren ausschliessen.
TrueNAS mit ZFS ist irgendwann in der Zukunft (vor allem müssten RAM Preise fallen
) mal angesagt.
Derzeit wird es ein RAID1 mit btrfs allem Anschein nach.
Vom Misch-Ansatz (kann ja schon der gleiche Hersteller sein, bloss es sollten unterschiedliche Produktionschargen sein - richtig?) habe ich gehört und macht auch Sinn. Aber vor allem wenn man im privaten Umfeld HDDs bestellt, dürfte es aus logistischen Gründen beim Verkäufer vermutlich problematisch werden, wenn man danach fragt, ob der Händler in seinem Lager nachschauen und nur HDDs aus verschiedenen Chargen nehmen kann. Bei B2B Kunden und mit höheren Stückzahlen ist das eher eine Option schätze ich.
Vielleicht erwischt man unterschiedliche Chargen, wenn man HDD1 bei Händler A und HDD2 bei Händler B kauft, aber das wäre auch nicht 100%. Oder aber man bestellt über einen Zeitraum X beim gleichen Händler HDDs in der Hoffnung, dass durch die zeitlichen Abstände und zwischenzeitigen Abverkäufen sich neue, andere Produktchargen im Lager eingefunden haben werden - aber 100% ist das auch nicht. Zudem wenn man halt jetzt HDDs braucht ist Warten auch nicht praktikabel. Für Endkunden bleibt es schwierig gezielt eine Mischung hinzubekommen finde ich, ausser man fängt an auf Hersteller-Ebene zu mischen. Aktuell laufen die Tests auf Seagate IronWolf Pro 16TB-Platten.
Hilfreich?
-1
rmayergfx
11.03.26
11:49
Sofern ein Windows System vorhanden ist, wäre https://www.hdtune.com/download.html
Ein sehr gutes Tool um alle Werte auszulesen und auch einen Error Scan durchzuführen. Funktioniert schon seit Jahren sehr gut. Leider wurde diese Software nie auf macOS portriert.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
Hilfreich?
+1
Marcel Bresink
11.03.26
12:04
xcomma
dass das für aktuellere HDDs wohl nicht mehr so benötigt zu sein scheint, da sich die Firmware um fehlerhafte Sektoren kümmert. Früher (wobei ich nicht weiss was damit genau gemeint ist),
"Früher" bedeutet in dem Fall "vor Anfang der 1990er Jahre". Das ist also schon lange her. Seitdem man die Plattencontroller in die Platte einbaut und per standardisiertem Datenbus anbindet (zunächst IDE, später ATA genannt), kümmert sich der Controller auch komplett selbständig um die Handhabung von defekten Sektoren. Der angeschlossene Computer muss und kann hier nicht mehr eingreifen.
xcomma
Auf die
badblocks
-Operation mit 4 oder gar mehr Tagen habe ich aber dann doch keine Lust.
Üblicherweise haben bessere NAS-Betriebssysteme eine Option namens "RAID Scrubbing", bei der man das zeitgesteuert im Hintergrund parallel auf allen Platten laufen lassen kann, beispielsweise alle zwei Monate. Bei dem Verfahren werden vereinfacht gesagt alle Sektoren aller Platten ausgelesen und sofort mit dem gleichen Inhalt wieder beschrieben. Dadurch gibt man der Platte die Gelegenheit, einen Schreibfehler zu erkennen und dem betroffenen Block sofort einen Reservesektor zuzuweisen.
Das braucht man nur zu aktivieren, falls vorhanden. Es kann aber während des Tests zu enormen Performance-Problemen führen.
Hilfreich?
+8
xcomma
11.03.26
12:07
rmayergfx
Danke! Windows System ist zwar auch vorhanden, aber ohne technische Möglichkeit 3.5 SATA HDDs intern anschliessen zu können.
Hilfreich?
0
xcomma
11.03.26
13:02
Marcel Bresink
Danke für den Hinweis mit dem Scrubbing!
Bzgl. "früher" hab ich zwar so etwas geahnt, aber da ich die Info u.a. aus dem TrueNAS Forum
hab bzgl. badblocks und Tipps zu Burn-ins - selbst wenn der Artikel ca. 8 Jahre alt ist (aber im HDD Umfeld können ja gewisse Thematiken längerfristige Gültigkeit haben, und es ist immer noch jünger als die 90er), hab ich es so aufgefasst, dass das heutzutage noch so gemacht würde. Also für aktuelle HDDs ist das auf keinen Fall mehr nötig oder gar anzuraten, habe ich dich da richtig verstanden?
Hilfreich?
0
Marcel Bresink
11.03.26
13:58
Der genannte Beitrag im TrueNAS-Forum verwendet den Befehl "badblocks" überhaupt nicht dafür, wozu er ursprünglich gemacht war, sondern missbraucht ihn sozusagen, um eine Art Scrubbing ohne Drittanbieter-Software durchzuführen. Und das wiederum ist in dem Beitrag nur dazu gedacht, zu prüfen, ob der Controller bei einer gerade gelieferten Platte mindestens einen neuen defekten Sektor gefunden und durch einen Reservesektor ersetzt hat. Dann soll man die neue Platte zurückgehen lassen.
Das ist etwas übertrieben und aluhutmäßig. Platten haben immer defekte Sektoren, schon ab Werk. Es ist auf keinen Fall so, dass "man das so macht", schon gar nicht im Profibereich.
Hilfreich?
+8
rmayergfx
14.03.26
16:58
xcomma
rmayergfx
Danke! Windows System ist zwar auch vorhanden, aber ohne technische Möglichkeit 3.5 SATA HDDs intern anschliessen zu können.
Tests funktionieren auch mit einem externen USB 3 Gehäuse oder einer anderen Schnittstelle, Hauptsache schnell und nicht USB 2 sonst dauert es je nach Plattenkapazität ewig.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
Hilfreich?
0
Sumsolin
16.03.26
15:34
Tommy1980
CHL
Ergänzung zum Thema Redundanz: Ich mische gerne Hersteller und/oder Modelle. Es gab schon Fälle, wo z.B. Firmware-Fehler plötzlich alle Platten auf einmal ausfallen haben lassen - ganz blöde Sache....
Genau so sollte man das auch machen.
Aeh, so eher nicht.
Man sollte immer Backups machen. Ein NAS-RAID ersetzt kein Backup. Wer keine Backups hat, hat keine wichtigen Daten.
Man könnte die gleiche Platte aus unterschiedlichen Produktionschargen mischen, könnte Vorteile bei einem Rebuild haben, wenn mal eine Festplatte ausgefallen ist.
Unterschiedliche Hersteller im NAS zu mischen ist aber eine ziemlich doofe Idee. Gewöhnliche haben die Hersteller unterschiedliche Latenz-/Seek-Zeiten usw. Damit versaut man sich nur die Durchsatz-Perfomance und es wird schlimmer, je länger die Platten im Einsatz sein.
Und wenn das jemand macht, nur weil er es hier oder anderswo gelesen hat und gar keine Ahnung von den Modellen hat, mischt er womöglich noch eine CMR mit einer SMR-Platte. Ist also alles keine gute Idee.
Und jetzt mal aus der Praxis: Ich betreue beruflich > 100 NAS-Systeme beruflich, habe selbst 6 im Einsatz. Da werden alle 5 Jahre (vorsorglich) die Platten ausgetauscht und gut ist. In Rechenzentren wird das in der Regel jährlich gemacht. Die kann man dann z.B. anschließend bei Intenso als "neue" Platten (ohne Garantie) erwerben, das sind die allseits beliebten Intenso-kann-es-noch-günstiger-Angebote. ct hatte mal darüber berichtet.
Nach 5 Jahren gehen in der Regel die Fehlerquoten hoch, da macht man also nichts falsch die dann mal vorsorglich auszutauschen. Ich weiß nicht, wieviele Festplatten ich in den letzten 15 Jahren so verbaut habe, es müssen hunderte gewesen sein. Die werden in Betrieb genommen ohne irgendwelchen Hokuspokus.
Meiner Erinnerung nach kann ich mich in all den Jahren an 2 oder 3 Platten erinnern, die in der ersten Woche ausgefallen sind. Die werden dann ausgetauscht und gut ist. Ansonsten nichts besonderes: Kaufen und in Betrieb nehmen, kein streicheln, kein Besprechen, einfach loslegen. Alles andere ist Aluhut, wie Marcel schon schrieb.
Hilfreich?
+2
Wellenbrett
17.03.26
09:52
Sumsolin
Ein NAS-RAID ersetzt kein Backup. ...
Da dieser Kommentar bei dem Thema NAS regelmäßig auftaucht, möchte ich einige Gedanken dazu ergänzen: natürlich ist das unter bestimmten Annahmen betrachtet, korrekt, doch so pauschal, dass er bestimmte Aspekte unterschlägt:
1) Ein einzelnes Speichergerät (NAS oder DAS und unabhängig von der Anzahl der enthaltenen Platten) kann niemals eine sichere Backuplösung sein, allein deshalb weil z.B. bei Überspannung durch Blitzeinschlag, Feuer, Diebstahl usw. alle Daten weg sein können bzw. weg sind.
2) Ein NAS oder DAS kann sehr wohl
Bestandteil
einer guten Backupstrategie sein.
3) NAS ist nicht gleichbedeutend mit RAID. Man kann ein NAS selbstverständlich ohne RAID betreiben, so wie man auch im DAS ein RAID einrichten kann.
4) Es kommt auf die jeweilge Konfiguration und Verwendung eines NAS an, wie gut es zu einer vernünftigen Backupstrategie im Sinne von Punkt 1 beiträgt. Hier exemplarisch mal zwei extreme Varianten für den einfachsten Fall eines NAS mit nur 2 16 TB HDDs auf die ein Datenbestand von 8 TB "gesichert" wird:
a) beide Platten werden ohne RAID betrieben, das NAS wird nur eingeschaltet, um manuell eine inkrementelle Datensicherung eines Clients durchzuführen. Bei der nächsten inkrementellen Sicherung wird die andere HDD verwendet. Da das NAS Schnelleinschübe hat, wird abends eine HDD herausgezogen und an einen anderen Ort bewegt (z.B. vom Büro mit nach Hause genommen)
b) Im NAS ist für beide Platten ein RAID Level 0 eingerichtet. Das NAS läuft 7/24 durch, auch wenn es draußen blitzt und donnert.
In beiden Fällen kommt die gleiche Hardware zum Einsatz und dennoch unterscheidet sich deren Verwendung unter Datensicherungsaspekten gewaltig: Variante a ist zwar keinesfalls eine vollständige und sichere Backup-Lösung aber dass es hier zu einer Datenkatastrophe kommt ist wesentlich unwahrscheinlicher als im Fall b, wo die Katastrophe vorprogrammiert und nur eine Frage der Zeit ist. Dennoch kann selbst Variante b Teil einer vernünftigen umfassenden Backup-Strategie sein!
Hilfreich?
+2
xcomma
18.03.26
12:27
Hallo und Danke für eure Beteiligung!
Da die Diskussion nun droht leicht abzuschweifen:
es ging lediglich um die Fragestellung ob (und wie, falls) man Burn-in Tests bei neuen Platten (noch) durchführt.
Das war's.
Das Backup Thema - interessant und in sich relevant - wäre was für einen separaten Diskussionsfaden.
Aber hier out of scope und daher unwichtig.
Hilfreich?
+1
Remigius
19.03.26
12:15
OK, dann gebe ich auch mal meinen Senf... ähhh... meine Erfahrungen hinzu:
Ich nutze ein ThunderBay 8 DAS von OWC. Dieses DAS ist per Thunderbolt an meinem Mac mini Server angeschlossen. Auf diesem Mac mini habe ich dann, ebenfalls von OWC, die RAID-Lösung "SoftRAID" installiert. Dort habe ich dann gelernt, dass es bei neueren Festplatten offenbar nicht um ein "Burn In" geht, sondern darum die Zuverlässigkeit der neuen Festplatte auf die Probe zu stellen! Laut OWC gibt es zwei typische "Zeitpunkte", bei denen rotierende Festplatten ausfallen:
1. Wenn sie neu sind
2. Wenn sie ihr Lebensalter erreichen
Hinsichtlich ersterem spricht OWC hier von der "Zertifizierung" neuer Festplatten:
Ich musste tatsächlich vor kurzem 6 der 8 Festplatten mit einer Kapzität von jeweils 12TB erneuern, da die "alten" Platten zu dem großen Seagate-Betrug gehörten. Diese hatte ich ein halbes Jahr zuvor als neu gekauft und diese entpuppten sich dann als über 5 Jahre genutzte Platten, die lediglich neu gelabeled wurden.
Mit dem SoftRAID-Programm dauerte das zertifizieren einer einzelnen 12TB Platte eine gute Woche.
Falls es jemanden interessiert, hier noch ein Anleitungsvideo dazu, wobei der für dieses Thema relevante Teil ab Minute 5 und 45 Sekunden beginnt:
Hilfreich?
+2
Kommentieren
Sie müssen sich
einloggen
, um sich an einer Diskussion beteiligen zu können.
macOS und iOS 26.3.1(a) erschienen – als "Backg...
Apple Creator Studio ab sofort verfügbar
John Ternus: Porträt
Gurman wiederholt "Snow Tahoe"-Vorhersage für S...
Neuinstallation von macOS – Tipps, wie man eine...
Vor 5 Jahren: Apple stellt den iMac Pro ein
Apple fürs Volk
Erster Versuch: Das Studio Display XDR am Intel...