Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>24 Bay Storage mit Slot f. MacMini

24 Bay Storage mit Slot f. MacMini

Richard Fish
Richard Fish10.04.1408:45
Mac Mini goes Rechenzentrum:

http://www.netstor.com.tw/_03/03_02.php?MTE3

Lt. Beschreibung:
kann der Mac Mini mittels Thunderbolt verbunden werden und dann auf 3 PCIe Steckplätze zugreifen.
24 Bays x 6TB = 144TB (natürlich brutto)

(Das ist keine Werbung - bin grade drüber gestolpert und dachte möglicherweise interessiert das jemand .... )
„When All Else Fails, Discontinue the use of All Else“
0

Kommentare

Thomas Kaiser
Thomas Kaiser10.04.1411:50
Richard Fish
Mac Mini goes Rechenzentrum

Definitiv gute Idee und günstiger als Sonnets xMac mini Server , wenn man den mit viel Storage kombinieren will. Hoffentlich ist das bald hierzulande erhältlich, sei's von Netstor oder HighPoint, die das als OEM mit deren Controllern kombinieren:

Man kann für Netstor nur hoffen, dass ein zukünftiger Mini (der dann auch TB2 hat, in der aktuellen Konstellation ist das ja nicht soooo der Bringer, einen Mini mit nur 1 x TB1 da reinzustecken) die selben Maße hat.

Die Zielgruppe dürfte aber auch da weniger das Rechenzentrum sein als vielmehr Video-Pros mit massig Bedarf an schnellem Storage. Die Netstor-Dinger kommen mit vernünftigen Controllern und vernünftigen RAID-Leveln -- und das ist bei mehr als 5 oder 6 SATA-Platten immer RAID-6 -- auf ca. das Maximum dessen, was aktuell mit TB2 möglich ist, siehe

Auch sonst hat Netstor noch paar interessante Produkte in petto:

Aber apropos Rechenzentrum: Ein Kunde wollte jetzt für eine Video-Archivlösung, die August/September stehen muß, dieses 24-Bay-Dings, auf das Du verweist, mit Mini und 3 Areca-Controllern, 'ner dicken USV und 8 dieser Monster à jeweils 90 6TB-Platten evaluieren. D.h. ein Rack mit 744 SATA-Platten vollstopfen (knapp 4 PByte netto bei RAID-6) ausgerechnet an einem Mini und mit HFS+! Wir konnten jetzt eine vernünftige Lösung verargumentieren
0
gfhfkgfhfk10.04.1412:00
Thomas Kaiser
Wir konnten jetzt eine vernünftige Lösung verargumentieren
Und was ist es geworden?
0
Thomas Kaiser
Thomas Kaiser10.04.1412:20
gfhfkgfhfk
Thomas Kaiser
Wir konnten jetzt eine vernünftige Lösung verargumentieren
Und was ist es geworden?

Noch nichts Konkretes. Aber jedenfalls schon definitiv "KEIN Mac". Die Argumentationskette war zum Glück sofort nachvollziehbar:

  • Einziges Argument pro Mac: OS X (und dessen Dienste)
  • Brauchen wir OS X? Nein
  • Ist Bit-Rotting/Datenintegrität überhaupt ein Thema? Ja
  • Ist Bit-Rotting in diesen Dimensionen ein Thema? JA!!
  • Wenn das ein Thema ist, kommt dann ein "Server" ohne ECC-RAM, der nur ein vorsintflutliches Dateisystem unterstützt, in Frage? Nein

Fertig. Und deshalb wird man das Netstor-Teil auch hoffentlich nur jemals in RZ antreffen, sollte Apple einen Mini-"Server" mit ECC-RAM und der Möglichkeit einer redundanten Stromversorgung rausbringen. So ist das nur was für die Video-Leute, siehe 10GbE-"Final Share", das auf der NAB demonstriert wurde.

Der Kunde weiß, dass es auf ZFS, ReFS oder sonstwas Modernes rauslaufen muß und dass man das Ganze mit ordentlichem Blech und ausreichend Redundanz aufzieht. Und ich bin so gut wie raus, weil ich einfach Angst vor diesen Datenmengen habe.

Wir haben bei Kunden mehrere SC847J rumstehen an Areca-Controllern. Funktioniert super, wenn's funktioniert. Aber nachdem ich mal Wiederherstellungszeiten für diverse Szenarien durchgerechnet habe... es gibt Situationen, da sind die Ausfallszenarien Opfer von Milchmädchrenrechnungen geworden. Und schon alleine nur 90 TByte von Band zu kratzen dauert so lange, dass es existenzbedrohend sein kann bzw. definitiv ist. Nee, nee, ich hatte zu oft schon mit Datenverlusten zu tun als dass mir beim Begriff PByte nicht automatisch schlecht werden würde
0
gfhfkgfhfk10.04.1422:48
Thomas Kaiser
Funktioniert super, wenn's funktioniert. Aber nachdem ich mal Wiederherstellungszeiten für diverse Szenarien durchgerechnet habe... es gibt Situationen, da sind die Ausfallszenarien Opfer von Milchmädchrenrechnungen geworden. Und schon alleine nur 90 TByte von Band zu kratzen dauert so lange, dass es existenzbedrohend sein kann bzw. definitiv ist.
Das ist noch das geringste Problem. So große Datenmengen an einem RAID Controller, da wird mir schon schlecht davon was bei Ausfall von Platten passiert. Zudem gibt es unter Linux kein FS was für mehr als 100TB zertifiziert wurde. Unter Strich bleiben somit nur parallele FS übrig, und das ist alles andere als trivial. Nur Lustre ist OpenSource aber es hat so seine Macken, und die neue pNFS Implementation von Linux wäre mir momentan noch zu gewagt.
0
Thomas Kaiser
Thomas Kaiser11.04.1417:39
gfhfkgfhfk
So große Datenmengen an einem RAID Controller, da wird mir schon schlecht davon was bei Ausfall von Platten passiert. Zudem gibt es unter Linux kein FS was für mehr als 100TB zertifiziert wurde.

Yo. Mit ZFS kann man "1 PByte pro Rack" zwar sogar direkt und schlüsselfertig ordern aber ist halt was, bei dem einem eher schlecht wird. Wir sind inzwischen weiter, einer der Knackpunkte ist sowieso wie man in dem Wust was finden soll und wie sich das Datengrab monetarisieren läßt (sprich, das, was da an Filmen, die digitalisiert werden sollen, drauf landet, soll auch irgendwer durchstöbern und dann kaufen können).

Wird wohl auf eine klassische Archiv-Software rauslaufen (die dann auch offline kann -- LTO-6, IBMs TS1140 oder STK T10000D sind bei diesen Datenmengen deutlich günstiger als Enterprise-Platten, Ersteres wohl selbst noch im Vergleich mit Billig-SATA-Platten), die mit einer MAM-Lösung und Videomanager 6 verheiratet werden muß bzw. simpel werden kann (Dank Skripting-API). Schön für uns. Online-Datenhaltungs-Horror weg, Integrationsprojekt am Start.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.