Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>HDD Burn-in Tests?

HDD Burn-in Tests?

xcomma10.03.2618:35
Hallo,

in der Vergangenheit habe ich eigentlich nichts besonderes unternommen, sondern HDDs einfach eingebaut und benutzt. Aber jüngst ist mir der Begriff des "Burn-in Tests" über den Weg gelaufen. Anscheinend wird das empfohlen vor allem für Platten, die im NAS Betrieb eingesetzt werden sollen. Aus dem Grunde lasse ich gerade auf neuen HDDs die SMART Selbsttests laufen, teils mit einer Einzeldauer von knapp 24 Stunden. Beispielbefehl:
smartctl -t long /dev/sda

Danach wollte ich noch den badblocks Check drüberlaufen lassen, der ebenfalls oft erwähnt und beides kombiniert genutzt werden. Beispielbefehl:
badblocks -wvs -b 4096 /dev/sda

Auf Reddit wurden für nur 8TB HDDs Laufzeiten von bis zu 4 Tagen berichtet.

Wie handhabt ihr so neue HDDs bevor ihr sie wirklich benutzt?
Kennt ihr diese Empfehlungen von Burn-in Tests? Habt ihr andere Tools oder Vorgehensweisen dafür evtl.?

Danke für eure Erfahrungsberichte, Erkenntnisgewinne, Tipps & Tricks.
0

Kommentare

CHL
CHL10.03.2619:26
Also ich mach bei den NAS-HDDs immer nur einen short-smart-test bzw. noch den conveyance-test (hat glaub ich nur mehr Seagate an Board) - damit sortierst Du gleich einmal Transportschäden aus. DIe "badblocks" Idee ist grundlegend ein Test, ob die ganze Oberfläche sauber funktioniert. Wenn nicht, würde sich dann das SMART melden wenn Sektoren beleidigt werden. Aber speziell im NAS: Eine defekte Platte ist kein Untergang, schon gar nicht mit ZFS und bei doppelter Redundanz. Also spar ich mir die Zeit und lass die Platte einfach werkeln, bis sie den Geist aufgibt. Nachdem ich sehr viele Platten bei Kunden habe zeigt sich auch ganz klares, unklares Bild: Hab z.B. 8TB HDDs die schon gut 10 Jahre 24/7 laufen, welche die nach einigen Jahren beginnen zu sterben und schon welche, die nach wenigen Tagen den Geist aufgegeben haben. Unabhängig ob es nun eine billige (gibts das aktuell überhaupt noch?) Consumer-Platte ist, die gar nicht für 24/7 gedacht ist, oder eine Enterprise-HDD. Die Dinger sehe ich alle als Glücksspiel. Also genug Redundanz und gut ist.
+5
CHL
CHL10.03.2619:28
Ergänzung zum Thema Redundanz: Ich mische gerne Hersteller und/oder Modelle. Es gab schon Fälle, wo z.B. Firmware-Fehler plötzlich alle Platten auf einmal ausfallen haben lassen - ganz blöde Sache....
+6
Tommy1980
Tommy198010.03.2619:47
CHL
Ergänzung zum Thema Redundanz: Ich mische gerne Hersteller und/oder Modelle. Es gab schon Fälle, wo z.B. Firmware-Fehler plötzlich alle Platten auf einmal ausfallen haben lassen - ganz blöde Sache....

Genau so sollte man das auch machen.
0
xcomma11.03.2611:00
Danke euch!

Short und Conveyance Tests habe ich als erste laufen lassen, die auch nur nur wenige Minuten dauerten.
Den Long-Test hatte ich danach angestossen. Die knapp 24 Stunden lasse ich nun runterlaufen.

Auf die badblocks-Operation mit 4 oder gar mehr Tagen habe ich aber dann doch keine Lust. Darauf verzichte ich nun. Grob auch im Netz gelesen, dass das für aktuellere HDDs wohl nicht mehr so benötigt zu sein scheint, da sich die Firmware um fehlerhafte Sektoren kümmert. Früher (wobei ich nicht weiss was damit genau gemeint ist), hat man wohl einen Output von badblocks mitgeloggt und den wiederum beim Formatieren auf Kommandozeile als Input mitgegeben zur Markierung damit zukünftige Schreiboperationen dann besagte Sektoren ausschliessen.

TrueNAS mit ZFS ist irgendwann in der Zukunft (vor allem müssten RAM Preise fallen ) mal angesagt.
Derzeit wird es ein RAID1 mit btrfs allem Anschein nach.

Vom Misch-Ansatz (kann ja schon der gleiche Hersteller sein, bloss es sollten unterschiedliche Produktionschargen sein - richtig?) habe ich gehört und macht auch Sinn. Aber vor allem wenn man im privaten Umfeld HDDs bestellt, dürfte es aus logistischen Gründen beim Verkäufer vermutlich problematisch werden, wenn man danach fragt, ob der Händler in seinem Lager nachschauen und nur HDDs aus verschiedenen Chargen nehmen kann. Bei B2B Kunden und mit höheren Stückzahlen ist das eher eine Option schätze ich.
Vielleicht erwischt man unterschiedliche Chargen, wenn man HDD1 bei Händler A und HDD2 bei Händler B kauft, aber das wäre auch nicht 100%. Oder aber man bestellt über einen Zeitraum X beim gleichen Händler HDDs in der Hoffnung, dass durch die zeitlichen Abstände und zwischenzeitigen Abverkäufen sich neue, andere Produktchargen im Lager eingefunden haben werden - aber 100% ist das auch nicht. Zudem wenn man halt jetzt HDDs braucht ist Warten auch nicht praktikabel. Für Endkunden bleibt es schwierig gezielt eine Mischung hinzubekommen finde ich, ausser man fängt an auf Hersteller-Ebene zu mischen. Aktuell laufen die Tests auf Seagate IronWolf Pro 16TB-Platten.
-1
rmayergfx
rmayergfx11.03.2611:49
Sofern ein Windows System vorhanden ist, wäre https://www.hdtune.com/download.html Ein sehr gutes Tool um alle Werte auszulesen und auch einen Error Scan durchzuführen. Funktioniert schon seit Jahren sehr gut. Leider wurde diese Software nie auf macOS portriert.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
+1
Marcel Bresink11.03.2612:04
xcomma
dass das für aktuellere HDDs wohl nicht mehr so benötigt zu sein scheint, da sich die Firmware um fehlerhafte Sektoren kümmert. Früher (wobei ich nicht weiss was damit genau gemeint ist),

"Früher" bedeutet in dem Fall "vor Anfang der 1990er Jahre". Das ist also schon lange her. Seitdem man die Plattencontroller in die Platte einbaut und per standardisiertem Datenbus anbindet (zunächst IDE, später ATA genannt), kümmert sich der Controller auch komplett selbständig um die Handhabung von defekten Sektoren. Der angeschlossene Computer muss und kann hier nicht mehr eingreifen.
xcomma
Auf die badblocks-Operation mit 4 oder gar mehr Tagen habe ich aber dann doch keine Lust.

Üblicherweise haben bessere NAS-Betriebssysteme eine Option namens "RAID Scrubbing", bei der man das zeitgesteuert im Hintergrund parallel auf allen Platten laufen lassen kann, beispielsweise alle zwei Monate. Bei dem Verfahren werden vereinfacht gesagt alle Sektoren aller Platten ausgelesen und sofort mit dem gleichen Inhalt wieder beschrieben. Dadurch gibt man der Platte die Gelegenheit, einen Schreibfehler zu erkennen und dem betroffenen Block sofort einen Reservesektor zuzuweisen.

Das braucht man nur zu aktivieren, falls vorhanden. Es kann aber während des Tests zu enormen Performance-Problemen führen.
+8
xcomma11.03.2612:07
rmayergfx
Danke! Windows System ist zwar auch vorhanden, aber ohne technische Möglichkeit 3.5 SATA HDDs intern anschliessen zu können.
0
xcomma11.03.2613:02
Marcel Bresink
Danke für den Hinweis mit dem Scrubbing!

Bzgl. "früher" hab ich zwar so etwas geahnt, aber da ich die Info u.a. aus dem TrueNAS Forum hab bzgl. badblocks und Tipps zu Burn-ins - selbst wenn der Artikel ca. 8 Jahre alt ist (aber im HDD Umfeld können ja gewisse Thematiken längerfristige Gültigkeit haben, und es ist immer noch jünger als die 90er), hab ich es so aufgefasst, dass das heutzutage noch so gemacht würde. Also für aktuelle HDDs ist das auf keinen Fall mehr nötig oder gar anzuraten, habe ich dich da richtig verstanden?
0
Marcel Bresink11.03.2613:58
Der genannte Beitrag im TrueNAS-Forum verwendet den Befehl "badblocks" überhaupt nicht dafür, wozu er ursprünglich gemacht war, sondern missbraucht ihn sozusagen, um eine Art Scrubbing ohne Drittanbieter-Software durchzuführen. Und das wiederum ist in dem Beitrag nur dazu gedacht, zu prüfen, ob der Controller bei einer gerade gelieferten Platte mindestens einen neuen defekten Sektor gefunden und durch einen Reservesektor ersetzt hat. Dann soll man die neue Platte zurückgehen lassen.

Das ist etwas übertrieben und aluhutmäßig. Platten haben immer defekte Sektoren, schon ab Werk. Es ist auf keinen Fall so, dass "man das so macht", schon gar nicht im Profibereich.
+8
rmayergfx
rmayergfx14.03.2616:58
xcomma
rmayergfx
Danke! Windows System ist zwar auch vorhanden, aber ohne technische Möglichkeit 3.5 SATA HDDs intern anschliessen zu können.
Tests funktionieren auch mit einem externen USB 3 Gehäuse oder einer anderen Schnittstelle, Hauptsache schnell und nicht USB 2 sonst dauert es je nach Plattenkapazität ewig.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
0
Sumsolin
Sumsolin16.03.2615:34
Tommy1980
CHL
Ergänzung zum Thema Redundanz: Ich mische gerne Hersteller und/oder Modelle. Es gab schon Fälle, wo z.B. Firmware-Fehler plötzlich alle Platten auf einmal ausfallen haben lassen - ganz blöde Sache....

Genau so sollte man das auch machen.

Aeh, so eher nicht.

Man sollte immer Backups machen. Ein NAS-RAID ersetzt kein Backup. Wer keine Backups hat, hat keine wichtigen Daten.

Man könnte die gleiche Platte aus unterschiedlichen Produktionschargen mischen, könnte Vorteile bei einem Rebuild haben, wenn mal eine Festplatte ausgefallen ist.

Unterschiedliche Hersteller im NAS zu mischen ist aber eine ziemlich doofe Idee. Gewöhnliche haben die Hersteller unterschiedliche Latenz-/Seek-Zeiten usw. Damit versaut man sich nur die Durchsatz-Perfomance und es wird schlimmer, je länger die Platten im Einsatz sein.
Und wenn das jemand macht, nur weil er es hier oder anderswo gelesen hat und gar keine Ahnung von den Modellen hat, mischt er womöglich noch eine CMR mit einer SMR-Platte. Ist also alles keine gute Idee.

Und jetzt mal aus der Praxis: Ich betreue beruflich > 100 NAS-Systeme beruflich, habe selbst 6 im Einsatz. Da werden alle 5 Jahre (vorsorglich) die Platten ausgetauscht und gut ist. In Rechenzentren wird das in der Regel jährlich gemacht. Die kann man dann z.B. anschließend bei Intenso als "neue" Platten (ohne Garantie) erwerben, das sind die allseits beliebten Intenso-kann-es-noch-günstiger-Angebote. ct hatte mal darüber berichtet.

Nach 5 Jahren gehen in der Regel die Fehlerquoten hoch, da macht man also nichts falsch die dann mal vorsorglich auszutauschen. Ich weiß nicht, wieviele Festplatten ich in den letzten 15 Jahren so verbaut habe, es müssen hunderte gewesen sein. Die werden in Betrieb genommen ohne irgendwelchen Hokuspokus.

Meiner Erinnerung nach kann ich mich in all den Jahren an 2 oder 3 Platten erinnern, die in der ersten Woche ausgefallen sind. Die werden dann ausgetauscht und gut ist. Ansonsten nichts besonderes: Kaufen und in Betrieb nehmen, kein streicheln, kein Besprechen, einfach loslegen. Alles andere ist Aluhut, wie Marcel schon schrieb.
+2
Wellenbrett17.03.2609:52
Sumsolin
Ein NAS-RAID ersetzt kein Backup. ...
Da dieser Kommentar bei dem Thema NAS regelmäßig auftaucht, möchte ich einige Gedanken dazu ergänzen: natürlich ist das unter bestimmten Annahmen betrachtet, korrekt, doch so pauschal, dass er bestimmte Aspekte unterschlägt:
1) Ein einzelnes Speichergerät (NAS oder DAS und unabhängig von der Anzahl der enthaltenen Platten) kann niemals eine sichere Backuplösung sein, allein deshalb weil z.B. bei Überspannung durch Blitzeinschlag, Feuer, Diebstahl usw. alle Daten weg sein können bzw. weg sind.
2) Ein NAS oder DAS kann sehr wohl Bestandteil einer guten Backupstrategie sein.
3) NAS ist nicht gleichbedeutend mit RAID. Man kann ein NAS selbstverständlich ohne RAID betreiben, so wie man auch im DAS ein RAID einrichten kann.
4) Es kommt auf die jeweilge Konfiguration und Verwendung eines NAS an, wie gut es zu einer vernünftigen Backupstrategie im Sinne von Punkt 1 beiträgt. Hier exemplarisch mal zwei extreme Varianten für den einfachsten Fall eines NAS mit nur 2 16 TB HDDs auf die ein Datenbestand von 8 TB "gesichert" wird:
a) beide Platten werden ohne RAID betrieben, das NAS wird nur eingeschaltet, um manuell eine inkrementelle Datensicherung eines Clients durchzuführen. Bei der nächsten inkrementellen Sicherung wird die andere HDD verwendet. Da das NAS Schnelleinschübe hat, wird abends eine HDD herausgezogen und an einen anderen Ort bewegt (z.B. vom Büro mit nach Hause genommen)
b) Im NAS ist für beide Platten ein RAID Level 0 eingerichtet. Das NAS läuft 7/24 durch, auch wenn es draußen blitzt und donnert.

In beiden Fällen kommt die gleiche Hardware zum Einsatz und dennoch unterscheidet sich deren Verwendung unter Datensicherungsaspekten gewaltig: Variante a ist zwar keinesfalls eine vollständige und sichere Backup-Lösung aber dass es hier zu einer Datenkatastrophe kommt ist wesentlich unwahrscheinlicher als im Fall b, wo die Katastrophe vorprogrammiert und nur eine Frage der Zeit ist. Dennoch kann selbst Variante b Teil einer vernünftigen umfassenden Backup-Strategie sein!
+2
xcomma18.03.2612:27
Hallo und Danke für eure Beteiligung!

Da die Diskussion nun droht leicht abzuschweifen:
es ging lediglich um die Fragestellung ob (und wie, falls) man Burn-in Tests bei neuen Platten (noch) durchführt.
Das war's.

Das Backup Thema - interessant und in sich relevant - wäre was für einen separaten Diskussionsfaden.
Aber hier out of scope und daher unwichtig.
+1
Remigius19.03.2612:15
OK, dann gebe ich auch mal meinen Senf... ähhh... meine Erfahrungen hinzu:

Ich nutze ein ThunderBay 8 DAS von OWC. Dieses DAS ist per Thunderbolt an meinem Mac mini Server angeschlossen. Auf diesem Mac mini habe ich dann, ebenfalls von OWC, die RAID-Lösung "SoftRAID" installiert. Dort habe ich dann gelernt, dass es bei neueren Festplatten offenbar nicht um ein "Burn In" geht, sondern darum die Zuverlässigkeit der neuen Festplatte auf die Probe zu stellen! Laut OWC gibt es zwei typische "Zeitpunkte", bei denen rotierende Festplatten ausfallen:
1. Wenn sie neu sind
2. Wenn sie ihr Lebensalter erreichen
Hinsichtlich ersterem spricht OWC hier von der "Zertifizierung" neuer Festplatten:
Ich musste tatsächlich vor kurzem 6 der 8 Festplatten mit einer Kapzität von jeweils 12TB erneuern, da die "alten" Platten zu dem großen Seagate-Betrug gehörten. Diese hatte ich ein halbes Jahr zuvor als neu gekauft und diese entpuppten sich dann als über 5 Jahre genutzte Platten, die lediglich neu gelabeled wurden.
Mit dem SoftRAID-Programm dauerte das zertifizieren einer einzelnen 12TB Platte eine gute Woche.
Falls es jemanden interessiert, hier noch ein Anleitungsvideo dazu, wobei der für dieses Thema relevante Teil ab Minute 5 und 45 Sekunden beginnt:
+2

Kommentieren

Sie müssen sich einloggen, um sich an einer Diskussion beteiligen zu können.