Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>OpenZFS startet

OpenZFS startet

sierkb18.09.1312:45
Pro-Linux.de (18.09.2013): OpenZFS startet
Das Projekt OpenZFS hat seine Existenz bekannt gegeben. Das von Sun initiierte Dateisystem soll nun ein gemeinschaftlich entwickeltes offenes Projekt für Linux, FreeBSD, Illumos und OS X werden.

OpenZFS (17.09.2013): OpenZFS launch announcement

OpenZFS
0

Kommentare

aa18.09.1313:08
Hoffentlich wird das diesmal was (für OSX, bei den anderen scheint ZFS ja schon brauchbar zu sein).
0
Apple@Freiburg18.09.1313:13
Unter Solaris habe ich auch ZFS laufen und es macht was es soll, für den Endnutzer nicht zu spüren, bietet aber viele Features im Vergleich zu betagten HFS+
0
Darky
Darky18.09.1313:39
Danke für die Links.
Ohne mich jetzt einzulesen, was bringt OpenZFS für Vorteile gegenüber HFS+?
0
Apple@Freiburg18.09.1313:54
Interessant ist es eigentlich eher im Server Bereich. Für den Endverbraucher, also den normalen Nutzer oder den "Pro" Nutzer gibt es momentan keine Nennenswerten Vorteile. Deswegen halte ich eine Notwendigkeit diese System als Standard zu implementieren für überflüssig.
0
arekhon
arekhon18.09.1314:18
Die Management und Skalierungsvorteile braucht man als Privatanwender sicherlich kaum, aber Checksummen und Auto-Repair (sofern man RAID 1 oder RAID-Z einsetzt) wären auch für Privat-Anwender ein sinnvoller Fortschritt.
0
aa18.09.1314:19
Apple@Freiburg
Interessant ist es eigentlich eher im Server Bereich. Für den Endverbraucher, also den normalen Nutzer oder den "Pro" Nutzer gibt es momentan keine Nennenswerten Vorteile. Deswegen halte ich eine Notwendigkeit diese System als Standard zu implementieren für überflüssig.
Ich finde, gerade die Blockchecksummen sollten AUCH für den Enduser relevant sein. Und die Snapshots klingen interessant.
0
aa18.09.1314:20
Darky
Danke für die Links.
Ohne mich jetzt einzulesen, was bringt OpenZFS für Vorteile gegenüber HFS+?
Auf Wikipedia dürfte das Relevante stehen:
0
Kaji18.09.1314:44
ZEVO Silver edition hat schon wirklich gut funktioniert.
Der Support von Ten's compliment war damals ausgezeichnet und Don Brady kennt sich mit Mac Dateisystemen eben aus.

Hier gibt es jetzt eine Community-Edition:


Ich finde es immer noch schade, dass Apple die offiziellen Pläne für ZFS über den Haufen geworfen hat.
In manchen Bereichen merkt man HFS(+) das Alter schon an.

Schön, dass jetzt mit OpenZFS wieder ein bisschen Schwung in die Sache kommt.
0
sierkb18.09.1315:10
Apple@Freiburg
Für den Endverbraucher, also den normalen Nutzer oder den "Pro" Nutzer gibt es momentan keine Nennenswerten Vorteile. Deswegen halte ich eine Notwendigkeit diese System als Standard zu implementieren für überflüssig.

Aber sicher doch gibt es auch für den Endanwender Vorteile. Immense sogar. Zum Beispiel in Bezug auf TimeMachine, das würde unter ZFS nämlich erst so richtig zur Hochform auflaufen und dem normlen Anwender ganz erhebliche Geschwindigkeitsvorteile bringen. Warum? Weil das betagte HFS+ nicht atomar (sprich: bitweise) speichern kann, sondern nur dateiweise. Ändert sich eine Datei, so wird unter HFS+ dann die ganze Datei kopiert/geschrieben. Besonders bei großen Dateien (z.B. große Photoshop-Dateien oder auch Images einer zum Einsatz kommenden virtuellen Maschine, in der z.B. Windows oder Linux läuft) ist das dann bemerkbar, es muss dann unter HFS+ immer die komplette Datei auf dem TimeMachine-Backup gesichert werden, selbst wenn es nur minimalste Änderungen gab. Unter ZFS, das Dateiänderungen atomar, also bitweise vornehmen kann, werden vom Dateisystem eben nur die tatsächlich differierenden Bits einer Datei übertragen und geschrieben. Das beschleunigt einen Backup-Vorgang enorm und reduziert ihn auf das Wesentliche.

In der Praxis bedeutet dies zum Beispiel bei einer 30GB angelegten Windows-VM-Datei: selbst wenn die VM mit Windows nur gestartet worden ist und gleich wieder beendet worden ist, also kaum Dateiänderungen stattefunden haben, wird unter HFS+, weil's ein dateiorientiertes Dateisystem ist, die 30GB große VM-Datei komplett neu geschrieben auf dem TimeMachine-Speichermedium. Ein Vorgang, der, je nach Größe der Datei und je nach Leitungsanbindung des TimeMachine-Speichermediums, durchaus ein paar Minuten in Anspruch nehmen kann.
Unter ZFS, das atomar und bitweise arbeitet, werden bei demselben Vorgang lediglich die Bits der 30GB-großen VM-Datei auf das Backup-Medium gesichert, die sich tatsächlich geändert haben. Dadurch ist der Sicherungsvorgang ungleich schneller, dauert nur wenige Sekunden, wenn überhaupt. ZFS arbeitet da also wie ein modernes Versionsverwaltungs-System (VCS), wie z.B. Subversion, Git oder Mercurial welche sind.

Auch die unter Lion eingeführte Versionsverwaltung von Dateien, die auf Systemen, die noch keine SSD-Festplatte ihr eigen nennen, die Festplatte ganz schön auslasten und ausbremsen kann, könnte auf diese Weise ungemein in puncto Schnelligkeit und weniger Auslastung der Festplatte davon profitieren, indem Dateiänderungen atomar, also bitweise, vorgenommen würden, statt jedes Mal, wie is unter HFS+ bisher der Fall ist, die ganze Datei anzupacken und zu sichern, selbst wenn sich an dieser Datei nur wenige Bits geändet haben.

Ich glaube schon, dass der normale Anwender angesichts dieser zuweilen und erst recht in der Summe doch sehr spürbaren Geschwindigkeitsvorteile sehr erfreut und dankar wäre, davon profitieren zu können (zumal als angenehmem Nebeneffekt ein Weniger an Lese- und Schreibzugriffen auf die Festplatte mit Sicherheit auch eine längere Lebensdauer derselben bedeutet, was sowohl für die klassische Festplatte gilt als auch für die modernen SSD- bzw. Hybridfestplatten, und gerade solche Dinge wie die im Hintergrund automatisch ablaufende Versionsverwaltung, internes bzw. externes TimeMachine-Backup und auch Spotlight-Indizierungen bedeuten in der Praxis ganz schön viele Festplattenzugriffe und Datei- Hin- und Hergesichere, die da regelmäßig stattfinden). ZFS oder ein ZFS-ähnliches Dateisystem (z.B. das von Oracle vor allem für Linux entwickelte Btrfs-Dateisystem) als standardmäßiges Dateisystem unter OSX könnte alledem im normalen Alltag für den normalen Anwender neue Höhenflüge bescheren in Bezug auf eine bisher nicht gekannte "Smoothigkeit" und Unmittelbarkeit des Betriebssystems selber und seiner angebotenen Dienste.
0
Darky
Darky18.09.1315:21
sierkb
Apple@Freiburg
Für den Endverbraucher, also den normalen Nutzer oder den "Pro" Nutzer gibt es momentan keine Nennenswerten Vorteile. Deswegen halte ich eine Notwendigkeit diese System als Standard zu implementieren für überflüssig.

Aber sicher doch gibt es auch für den Endanwender Vorteile. Immense sogar. Zum Beispiel in Bezug auf TimeMachine, das würde unter ZFS nämlich erst so richtig zur Hochform auflaufen und dem normlen Anwender ganz erhebliche Geschwindigkeitsvorteile bringen. Warum? Weil das betagte HFS+ nicht atomar (sprich: bitweise) speichern kann, sondern nur dateiweise. Ändert sich eine Datei, so wird unter HFS+ dann die ganze Datei kopiert/geschrieben. Besonders bei großen Dateien (z.B. große Photoshop-Dateien oder auch Images einer zum Einsatz kommenden virtuellen Maschine, in der z.B. Windows oder Linux läuft) ist das dann bemerkbar, es muss dann unter HFS+ immer die komplette Datei auf dem TimeMachine-Backup gesichert werden, selbst wenn es nur minimalste Änderungen gab. Unter ZFS, das Dateiänderungen atomar, also bitweise vornehmen kann, werden vom Dateisystem eben nur die tatsächlich differierenden Bits einer Datei übertragen und geschrieben. Das beschleunigt einen Backup-Vorgang enorm und reduziert ihn auf das Wesentliche.

In der Praxis bedeutet dies zum Beispiel bei einer 30GB angelegten Windows-VM-Datei: selbst wenn die VM mit Windows nur gestartet worden ist und gleich wieder beendet worden ist, also kaum Dateiänderungen stattefunden haben, wird unter HFS+, weil's ein dateiorientiertes Dateisystem ist, die 30GB große VM-Datei komplett neu geschrieben auf dem TimeMachine-Speichermedium. Ein Vorgang, der, je nach Größe der Datei und je nach Leitungsanbindung des TimeMachine-Speichermediums, durchaus ein paar Minuten in Anspruch nehmen kann.
Unter ZFS, das atomar und bitweise arbeitet, werden bei demselben Vorgang lediglich die Bits der 30GB-großen VM-Datei auf das Backup-Medium gesichert, die sich tatsächlich geändert haben. Dadurch ist der Sicherungsvorgang ungleich schneller, dauert nur wenige Sekunden, wenn überhaupt. ZFS arbeitet da also wie ein modernes Versionsverwaltungs-System (VCS), wie z.B. Subversion, Git oder Mercurial welche sind.

Auch die unter Lion eingeführte Versionsverwaltung von Dateien, die auf Systemen, die noch keine SSD-Festplatte ihr eigen nennen, die Festplatte ganz schön auslasten und ausbremsen kann, könnte auf diese Weise ungemein in puncto Schnelligkeit und weniger Auslastung der Festplatte davon profitieren, indem Dateiänderungen atomar, also bitweise, vorgenommen würden, statt jedes Mal, wie is unter HFS+ bisher der Fall ist, die ganze Datei anzupacken und zu sichern, selbst wenn sich an dieser Datei nur wenige Bits geändet haben.

Ich glaube schon, dass der normale Anwender angesichts dieser zuweilen und erst recht in der Summe doch sehr spürbaren Geschwindigkeitsvorteile sehr erfreut und dankar wäre, davon profitieren zu können (zumal als angenehmem Nebeneffekt ein Weniger an Lese- und Schreibzugriffen auf die Festplatte mit Sicherheit auch eine längere Lebensdauer derselben bedeutet, was sowohl für die klassische Festplatte gilt als auch für die modernen SSD- bzw. Hybridfestplatten, und gerade solche Dinge wie die im Hintergrund automatisch ablaufende Versionsverwaltung, internes bzw. externes TimeMachine-Backup und auch Spotlight-Indizierungen bedeuten in der Praxis ganz schön viele Festplattenzugriffe und Datei- Hin- und Hergesichere, die da regelmäßig stattfinden). ZFS oder ein ZFS-ähnliches Dateisystem (z.B. das von Oracle vor allem für Linux entwickelte Btrfs-Dateisystem) als standardmäßiges Dateisystem unter OSX könnte alledem im normalen Alltag für den normalen Anwender neue Höhenflüge bescheren in Bezug auf eine bisher nicht gekannte "Smoothigkeit" und Unmittelbarkeit des Betriebssystems selber und seiner angebotenen Dienste.

Danke für die ausführliche Erklärung.
Wenn das wirklich so ist und auch grundlegend so umgesetzt wird, dann macht es mehr Sinn als bei HFS+.

Hat ZFS denn auch irgendwelche Nachteile (z.B. gegenüber HFS+)?
Ist es schon länger erprobt? Warum hat Apple ZFS (vorübergehend?) über den Haufen geworfen?
0
Timmeyy18.09.1316:30
sierkb
Aber sicher doch gibt es auch für den Endanwender Vorteile. Immense sogar. Zum Beispiel in Bezug auf TimeMachine, das würde unter ZFS nämlich erst so richtig zur Hochform auflaufen und dem normlen Anwender ganz erhebliche Geschwindigkeitsvorteile bringen. Warum? Weil das betagte HFS+ nicht atomar (sprich: bitweise) speichern kann, sondern nur dateiweise. Ändert sich eine Datei, so wird unter HFS+ dann die ganze Datei kopiert/geschrieben.

Das stimmt aber einiges nicht an deinen Ausführungen.
Sowohl HFS+ als auch ZFS schreiben blockweise.
"Atomares Schreiben" bei ZFS bedeutet, dass der Schreibvorgang einer Datei entweder ganz oder gar nicht stattfindet. Wenn du also den Stecker ziehst, hast du entweder den alten oder den neuen Zustand, aber keinen inkonsistenten Datenmüll.
In Bezug auf Backups ist die Snapshot-Funktion von ZFS durchaus sinnvoll. Dabei wird der Snapshot aber erstmal lokal gesichert (in Sekunden/-bruchteilen)... Änderungen überschreiben dann nicht die alten Blöcke, sondern werden auf neue, freie Blöcke geschrieben.
Beim Backup auf den Server darfst du dann nicht vergessen, dass es sich dabei um ein Backup auf FS-Ebene handelt. Eine einzelne Datei zu restoren, wie bei Timemachine ist dann für den Laien nicht mehr so trivial, geschweige denn, danach zu browsen.

Darky
Hat ZFS denn auch irgendwelche Nachteile (z.B. gegenüber HFS+)?
Ist es schon länger erprobt? Warum hat Apple ZFS (vorübergehend?) über den Haufen geworfen?
Möglicherweise ist es etwas weniger performant, vor allem auf nur einer Platte. Zumindest ist das im Vergleich zu FFS auf FreeBSD erfahrungsgemäß der Fall. Einige Features (wie z.B. Deduplication) sind auch relativ Performance-/Speicherhungrig.
Das FS existiert seit 2006 und hat seine Verbreitung vor allem in größeren Rechenzentren; Ich denke entsprechend erprobt wird es sein.
Warum Apple es über den Haufen geworfen hat - keine Ahnung. Vielleicht konnten sie es einerseits nicht simpel genug für Endanwender umsetzen, andererseits ist es bekannt, dass Apple die Server-Sparte eher stiefmütterlich behandelt.
0
Timmeyy18.09.1316:40
Kleiner Nachtrag:
durch den 128Bit-Adressraum geht auch einiges an Performance und Plattenplatz verloren.
0
Darky
Darky18.09.1317:09
Timmeyy
sierkb
Aber sicher doch gibt es auch für den Endanwender Vorteile. Immense sogar. Zum Beispiel in Bezug auf TimeMachine, das würde unter ZFS nämlich erst so richtig zur Hochform auflaufen und dem normlen Anwender ganz erhebliche Geschwindigkeitsvorteile bringen. Warum? Weil das betagte HFS+ nicht atomar (sprich: bitweise) speichern kann, sondern nur dateiweise. Ändert sich eine Datei, so wird unter HFS+ dann die ganze Datei kopiert/geschrieben.

Das stimmt aber einiges nicht an deinen Ausführungen.
Sowohl HFS+ als auch ZFS schreiben blockweise.
"Atomares Schreiben" bei ZFS bedeutet, dass der Schreibvorgang einer Datei entweder ganz oder gar nicht stattfindet. Wenn du also den Stecker ziehst, hast du entweder den alten oder den neuen Zustand, aber keinen inkonsistenten Datenmüll.
In Bezug auf Backups ist die Snapshot-Funktion von ZFS durchaus sinnvoll. Dabei wird der Snapshot aber erstmal lokal gesichert (in Sekunden/-bruchteilen)... Änderungen überschreiben dann nicht die alten Blöcke, sondern werden auf neue, freie Blöcke geschrieben.
Beim Backup auf den Server darfst du dann nicht vergessen, dass es sich dabei um ein Backup auf FS-Ebene handelt. Eine einzelne Datei zu restoren, wie bei Timemachine ist dann für den Laien nicht mehr so trivial, geschweige denn, danach zu browsen.

Darky
Hat ZFS denn auch irgendwelche Nachteile (z.B. gegenüber HFS+)?
Ist es schon länger erprobt? Warum hat Apple ZFS (vorübergehend?) über den Haufen geworfen?
Möglicherweise ist es etwas weniger performant, vor allem auf nur einer Platte. Zumindest ist das im Vergleich zu FFS auf FreeBSD erfahrungsgemäß der Fall. Einige Features (wie z.B. Deduplication) sind auch relativ Performance-/Speicherhungrig.
Das FS existiert seit 2006 und hat seine Verbreitung vor allem in größeren Rechenzentren; Ich denke entsprechend erprobt wird es sein.
Warum Apple es über den Haufen geworfen hat - keine Ahnung. Vielleicht konnten sie es einerseits nicht simpel genug für Endanwender umsetzen, andererseits ist es bekannt, dass Apple die Server-Sparte eher stiefmütterlich behandelt.
Vielen Dank für deine Erklärungen!
0
sierkb18.09.1318:02
Timmeyy:

FH Wedel: Funktionen von ZFS , Durchführung von Schreiboperationen
Darky
Warum hat Apple ZFS (vorübergehend?) über den Haufen geworfen?

Weil Sun Microsystems, der damalige Inhaber und Erfinder von ZFS, sich aus heiterem Himmel und nachdem sich Apple von Sun eine Lizenz bzw. Zusammenarbeit für MacOSX Leopard gesichert hatte (Apple kündigte werbewirksam ZFS-Support für Leopard an, hatte es sogar schon in den Developer Previews drin, es konnte händisch aktiviert werden) mit einer Patentklage seitens der Firma NetApp konfrontiert sah (Sun hielt dagegen mit ihrerseits einer umfangreichen Patentklage gegen NetApp) und zum damaligen Zeitpunkt keiner wusste, wie diese Klage-Schlacht ausgeht, ob Sun verlieren oder obsiegen wird. Apple wollte von Sun damals im Angesicht dieser zunächst drohenden und dann eingetroffenen NetApp-Klage und damit unsicheren rechtlchen Situation von Sun Garantien haben, dass Apple, falls Sun die Patentklage gegen NetApp verlöre, schadlos bleiben sollte, also dass Sun auch dann dafür geradestehen sollte, falls in der weiteren Folge auch Apple wegen des Einsatzes von ZFS verklagt würde bzw. Apple an NetApp Lizenzen abzudrücken hätte. Auf diese weitgehenden Forderungen Apples konnte und wollte Sun nicht eingehen, solche weitgehenden Garantien bzw. solches weitgehendes Kopf-Hinhalten für Apple im Fall einer Klage auch gegen Apple war Sun damals nicht bereit abzugeben. Die Folge war, dass Apple von diesem Vorhaben mit ZFS abließ, das begonnene Mac-Portierungsprojekt inklusive offenem Sourcecode, welches in Apples Open-Source-Bucht Mac Os forge angesiedelt war, sofort einfror und das Projekt dann gänzlich einstampfte und die geplante und bereits fast fertige ZFS-Einbindung in MacOSX komplett strich und rückabwickelte.

Als Oracle Sun nicht lange später übernahm bzw. kaufte, war dies eine der ersten Amtshandlungen seitens Oracle: diesen Patentstreit mit NetApp irgendwie beizulegen (man ließ beiderseits alle Klagen fallen und einigte sich außergerichtlich, die gegenseitigen Bedingungen sind unter Verschluß) und Ruhe ins Schiff zu bringen:

Golem (09.09.2010): ZFS: NetApp und Oracle legen ihren Streit bei

swat.org: NetApp's filesystem patents

Ob Apple unter der nun zwischen Oracle und NetApp bereinigten Situation erneutes Interesse an ZFS anmelden wird oder schon hat oder das Ganze für immer komplett verworfen hat, darüber herrscht Unklarheit. Fakt ist, dass Apple vor 1 oder 2 Jahren eine Stellenausschreibung laufen hatte und jemanden suchte, der sich mit Dateisystemen bzw. dem Entwickeln von Dateisystemen gut auskennt. Ob Apple an einem Nachfolger von HFS+ bastelt und ob dieser Nachfolger auf HFS+ aufbaut, oder ob's etwas völlig Neues wird? Who knows? Das Entwickeln, Testen, Maturieren, eines neuen Dateisystems von dieser Größenordnung und Wichtigkeit braucht Jahre, wenn nicht sogar ein gutes Jahrzehnt.
0
Timmeyy18.09.1321:12
sierkb
Timmeyy:

FH Wedel: Funktionen von ZFS , Durchführung von Schreiboperationen

Welcher meiner Aussagen widerspricht das jetzt?
Ich habe 06/07 für Sun Microsystems gearbeitet und eine Umgebung mit ZFS für einen bekannten Sportartikelhersteller umgesetzt. Da gab es ganze Bücher darüber zu lesen, da ist eine Seminararbeit nicht unbedingt was besonders neues für mich.

"Im Gegensatz dazu arbeitet ZFS ähnlich wie ein Datenbanksystem nach einem transaktionsbasierten Konzept mit dem Prinzip "ändere dies an folgenden Dateien oder mache nichts". Da alle kritischen Schreibvorgänge atomar sind, ist das Filesystem immer konsistent. Sollte es zu einem schwerwiegenden Fehler beim Schreiben kommen, bleibt der letzte gültige Stand aktuell. Sobald das Problem behoben wurde, wird erneut versucht die Operation durchzuführen."
Das ist genau das, was ich gesagt habe: Du schreibst terrabyte-weise Daten auf die Platte. Bei einem herkömmlichen FS wird einfach Block für Block geschrieben - bei einem Stromausfall nach der Hälfte, hast du nur eine halbe Datei.
Beim Transaktionsprinzip gilt die Datei erst als geschrieben, wenn ganz zum Schluss ein einzelner, möglichst nicht unterbrechbarer ("atomarer") Befehl folgt (Bei Datenbanken heißt des "commit");
Du glaubst doch nicht ernsthaft, dass in einem FS, das für große Volumes/Datenmengen ausgelegt ist, jedes Bit einzeln adressiert wird (Die Default-Blockgröße ist btw. mit 128k auch größer als bei den meisten FS)?
0
sierkb18.09.1322:00
Timmeyy:

Dann habe ich mich eben in Bezug auf das Bitweise geirrt (mea culpa), und es werden trotzdem nur jene einzelnen Blöcke (variabler Größe, Default-Wert wie Du sagst: 128kB, es ginge aber auch kleiner oder größer, je nach Bedarf/Sinnhaftigkeit und Anwendungsfall) geschrieben, die zwischen Neu und Alt differieren. Ist immer noch eine viel viel kleinere Größeneinheit gerade bei großen Dateien als komplett eine ganze Datei anzufassen und von dieser komplett alle Blöcke neu zu schreiben bzw. zu überschreiben, selbst wenn nur wenige Blöcke ausreichen würden, weil nur diese sich inhaltlich geändert haben:
Das Transaktionsbasierte ZFS Modell arbeitet nach der Copy On Write Methode. Hierbei handelt es sich um eine Optimierung, die das unnötige Kopieren von Dateien vermeiden soll. Wenn mehrere Prozesse einen Block lesen, ist es möglich das alle auf diesen per Pointer zugreifen. Erst wenn ein Prozess den Block ändern möchte, wird eine Kopie erstellt und geändert.

Änderungen an den Daten führen somit nicht zu einem Überschreiben der bestehenden Daten, sondern zu einer Neuerstellung des Blockes. Snapshots können so auf sehr einfache Weise in konstanter Zeit erstellt werden.

Aufgrund von Copy On Write Semantik, müssen die Schreibköpfe nicht mehr die alten zu überschreibenden Daten auf der Festplatte finden, sondern können die neuen Daten einfach auf einen freien Teil der Festplatte schreiben. Hierbei versucht ZFS die Daten sequentiell hintereinander in einen freien Bereich zu schreiben. Herkömmliche Dateisysteme müssen jeden einzelnen Block erst anfahren und dann jeweils überschreiben. Durch die beiden Optimierungen können Daten bei ZFS sehr schnell geschrieben werden.
[..]
Ein Vorteil der Copy On Write Methode ist die Möglichkeit der Erstellung von Snapshots in konstanter Zeit. Bei der Erstellung merkt sich das Filesystem von welchen Blöcken der Snapshot erstellt wurde. Das aktive Dateisystem und der Snapshot teilen sich die selben Blöcke. Erst wenn Daten verändert werden, werden diese neu erstellt.

Da bei der Erstellung von Snapshots und dem nachfolgenden Kopieren bei Änderung das Löschen der alten Blöcke entfällt, ist die Erstellung von Snapshots sogar schneller als eine normale Transaktion.
0
Marcel_75@work
Marcel_75@work18.09.1323:05
Wie fehlerhaft HFS+ schon bei einfachen Kopiervorgängen arbeitet, wurde mal in einem paper eindrucksvoll (bzw. besser gesagt erschreckend) unter Beweis gestellt. Link habe ich leider gerade nicht zur Hand ...

Die Prüfsummen der Dateien stimmten nicht mehr überein, Stichwort bit rot etc.
0
PaulMuadDib18.09.1323:53
Ich habe noch nie, wirklich noch nie Probleme beim Kopieren gehabt. Nicht eine einzige beschädigte Datei. Wo soll das also her kommen? Wenn das tatsächlich so erschreckend wäre, würde sich jedes System in kürzester Zeit zerlegen. So ganz kann das also nicht stimmen.
0
aa19.09.1300:04
PaulMuadDib: Schau hier

Im Übrigen ist auch der Punkt mit den Transaktionen nicht gerade unerheblich. Wie oft kommt es noch vor, daß HFS+ einen zerwürfelten Verzeichnisbaum hat? Auch das Copy On Write will man haben.
0
Marcel_75@work
Marcel_75@work19.09.1300:21
PaulMuadDib: Genau das ist ja das Problem - "an der Oberfläche" bemerkt man solche Fehler eben nicht, sondern im schlimmsten Fall erst Jahre später!

Informiere Dich einfach mal zum Thema bit rot und Prüfsummen in Dateisystemen.
0
git push19.09.1300:55
@sierkb ist das normal das du immer Dinge haben willst, wovon du eh nur einen Bruchteil verstehst ?

ZFS, XFS, MPFS,JFS.. sind designed für den Serverbetrieb. Wichtige Features sind nunmal für sehr große Dateien (Oracle DBs...) ,Dateisicherheit oder administrative Features ausgelegt.

Allein für "Main Features" wie pooling werden schon MINDESTENS 3 - 9 Platten empfohlen um gegen Datenbeschädigung gesichert zu sein.

Lesen von Text auf irgendwelchen Seiten ist übrigens etwas vollkommen anderes als das ganze selber im Lab getestet zu haben ! Deine geniale FS Performance wird jedenfalls argh runtergehen wenn das erste mal scrub los legt das Array zu prüfen.

Snapshots sind ein cooles Feature. Es ist halt das gleiche wie Shadow Copy unter Microsoft's ServerOS. Es nimmt aber extrem viel Platz weg falls du das ganze auf einem Desktop PC nutzen willst. Übrigens die Geschichte mit "Snapshots sind perfekt als Backup Lösung", solltest du zwingend aus dem Kopf schlagen. Es hat damit absolut nichts zu tun. Snapshots machen nichts anderes als speichern und abgleichen von Momentaufnahmen. Da man in der Regel gleich pools snapshotted wirst du schnell dtrace scripts schreiben wollen. Backups kommen generell auf extra Storage Systeme etc.

Je nachdem was Apple an default Features an den Start bringen würde, braucht der Enduser viel viel viel RAM. Allein für das deduplication feature sind 5 GB RAM pro 1 TB empfohlen ! Dazu dann noch ACLs, Quotas, Caching tweaks... wird der Bedarf weiter ansteigen.

Ich bin mir jetzt nicht sicher aber ich glaube fehlende Dinge wie das erweitern von Arrays im laufenden Betrieb kann ZFS noch immer nicht ? Ich hatte damals jedenfalls ein wenig unter FreeBSD gespielt und wollte Space wie mit mdadm einfach hinzufügen. Mit diesem vdev hatte ich das nicht hinbekommen. Die Manpage sagte man müsse ein neues Array nur für sowas erstellen ?!


Wieso schreiben hier auch soviele das HFS+ veraltet sei ? Es wird ständig aktualisiert und mit neuen Features versehen. Also wer glaubt das es damals schon Dinge wie ACLs, journaling gab, lebt hinter dem Mond.

Ein Dateisystem ist immer nur so gut wie die Hardware auf der es installiert ist. Will ich Speed und Stabilität, dann greif ich zu Enterprise Festplatten, ECC Speicher, Mainboard, Hardware Raid und was weiss ich nicht alles.


ZFS ist gut aber es ist ein "kleiner Hype" wie auch Iphones oder andere Spielwaren von Apple.
„live long and prosper“
0
sierkb19.09.1304:31
git push:

Ruhig, Brauner... Es ist noch kein Freitag.
Wenn ich mir Deine Beiträge mal so durchlese, die Du bisher hier bei MTN gebracht hast (so einigen davon stimme ich inhaltlich sehr zu, wenngleich auch nicht unbedingt immer in der Form bzw. im Tonfall) -- bin ich Dir grad' nicht Apple-kritisch genug gewesen ( ), oder warum raunst Du mich hier so von der Seite an und feuerst mal so auf Verdacht und zur Begrüßung Breitseite (ob's nun passt und der Situation angemessen ist oder nicht, zumal ich mit keinem Wort gesagt habe, ob und dass ich ZFS unbedingt haben will, aber eine ordentliche Verbesserung gegenüber dem bisherigen HFS+ wäre es mit ganz großer Wahrscheinlichkeit -- ich hätte auch gegen ein Btrfs oder XFS nix einzuwenden, wenn Apple es einsetzen würde), um Dich in größter Selbstüberzeugung à la "Hallo, hier komm' jetzt ich!" bemerkbar zu machen? Schlechten Tag gehabt? Oder brauchst Du sowas ab und zu zur Selbstbestätigung?
0
o.wunder
o.wunder19.09.1305:20
Darky
sierkb
Apple@Freiburg
... gefühlte 100 Seiten Text ...
Danke für die ausführliche Erklärung.
....
Bitte keine Seitenlangen Zitate! Was soll das? Text lässt sich auch löschen.
0
o.wunder
o.wunder19.09.1305:24
zu ZFS:

Wie git push schon ausführte, und ich auch von einigen ZFS Anwender habe mir berichten lassen, benötigt ZFS sehr viel RAM. Die 5GB RAM für 1 TB ZFS Speicher sind durchaus realistisch und damit, heute noch, für den Endanwender sehr teuer. Würde bedeuten das ein normaler Mac zwischen 8-16 GB RAM haben müsste, besser 16 GB.
0
Timmeyy19.09.1307:09
sierkb:
Die Annahmen, dass herkömmliche Dateisysteme ganze Dateien neu schreiben, halte ich auch für falsch. Kein RDBMS würde sonst performant laufen - außer HANA vielleicht.
Kleines Fallbeispiel: Soweit ich weiß stecken hinter ITMS und Amazon Active Dataguard Datenbanken von Oracle. Wir gehen dabei mal vom quasi-Standard aus, dass keine Big File Tablespaces verwendet werden, die Datafiles aber bis zu 32GB groß sind. Das würde bedeuten, dass jeder Einkauf bei Amazon oder iTunes einen 32GB Schreibvorgang zur Folge hätte - auf jedem einzelnen Server.
Die meisten RDMBs laufen auch bei vermeintlich schwachen FSen (UFS, ext3/4, NTFS) noch vernünftig, auch über Netzanbindungen (iSCSI, NFS).

Was du vielleicht meinst: Wenn ich Backups basierend auf Snapshots mache und diese inkrementell via zfs send auf ein anderes Volume bzw. einen anderen Server schicke, sind die Datenmengen verhältnismäßig klein. ein Restore ist für Laienhände dann aber nicht unbedingt hassle-free, vor allem, wenn man, wie bei Time Machine üblich, nur eine Datei wiederherstellen will. Regelmäßige Full-Backups sollte man auch in Betracht ziehen.

Dedup lässt sich für Privatzwecke auch deaktivieren, das spart immens Arbeitsspeicher und man kommt schon fast mit handelsüblichen Mengen aus.
Ist wohl auch eher interessant, wenn die selbe Powerpoint-Präse an 300 Leute verschickt wird, als Festzustellen, ob man das selbe Foto vielleicht an 2 Stellen auf der Platte gespeichert hat.
0
PaulMuadDib19.09.1308:01
aa
PaulMuadDib: Schau hier

Im Übrigen ist auch der Punkt mit den Transaktionen nicht gerade unerheblich. Wie oft kommt es noch vor, daß HFS+ einen zerwürfelten Verzeichnisbaum hat? Auch das Copy On Write will man haben.
Wie gesagt: Nie Streß. Nie. Fakt.

Was soll bei dem Link passieren? Nur ein komisches Bild kommt da.
0
PaulMuadDib19.09.1308:03
Marcel_75@work
PaulMuadDib: Genau das ist ja das Problem - "an der Oberfläche" bemerkt man solche Fehler eben nicht, sondern im schlimmsten Fall erst Jahre später!

Informiere Dich einfach mal zum Thema bit rot und Prüfsummen in Dateisystemen.
Klar. Wie oft kommt das tatsächlich vor?
Hier wird so getan, als sei das ein ernsthaftes Problem und es müsse unbedingt was passieren. Sagt Euch eigentlich das Problem "Silent Data Loss" etwas? Glaube, das passiert statistisch genau so oft.
0
gfhfkgfhfk19.09.1309:00
PaulMuadDib
Klar. Wie oft kommt das tatsächlich vor?
Häufig, für genau Zahlen muß man erstmal ein Datenformat verwenden mit dem man in der Lage ist, Bitfehler überhaupt aufspüren zu können. Die üblichen Applikationen verwenden unter OSX kein solches Format, so daß man gar nicht in der Lage ist festzustellen, daß man ein Problem hat. Ferner muß man ein System verwenden, daß komplett auf ECC setzt, weil man sonst Gefahr läuft Bitfehler im Arbeitsspeicher auf die Platte zu kopieren.
0
PaulMuadDib19.09.1309:15
gfhfkgfhfk
PaulMuadDib
Klar. Wie oft kommt das tatsächlich vor?
Häufig, für genau Zahlen muß man erstmal ein Datenformat verwenden mit dem man in der Lage ist, Bitfehler überhaupt aufspüren zu können. Die üblichen Applikationen verwenden unter OSX kein solches Format, so daß man gar nicht in der Lage ist festzustellen, daß man ein Problem hat. Ferner muß man ein System verwenden, daß komplett auf ECC setzt, weil man sonst Gefahr läuft Bitfehler im Arbeitsspeicher auf die Platte zu kopieren.
Also wenn es häufig vor kommt, muß man eine Auswirkung spüren. Oder macht es nix, wenn einzelne Bits einer ausführbaren Datei z.B. nicht mehr gleich sind? Wohl kaum …
0
arekhon
arekhon19.09.1309:54
o.wunder
zu ZFS:

Wie git push schon ausführte, und ich auch von einigen ZFS Anwender habe mir berichten lassen, benötigt ZFS sehr viel RAM. Die 5GB RAM für 1 TB ZFS Speicher sind durchaus realistisch und damit, heute noch, für den Endanwender sehr teuer. Würde bedeuten das ein normaler Mac zwischen 8-16 GB RAM haben müsste, besser 16 GB.

Naja, das stimmt ja nun als generelle Aussage mal gar nicht. Es hängt davon ab welche Features man nutzt und mit welchen Paramtern man ZSF konfiguriert. Deduplication z.B. welche viel RAM braucht, braucht der normale Home-User wohl kaum. Ansonsten braucht ZFS zusätzlich zum eigenen Code erst einmal nur ca. 64kB je gemountetem FS um zu funktionieren und z.B. mindestens 64 MB für Log-Devices. Der Rest wird halt per default bis auf 1GB komplett als Cache verwendet und kann limitiert werden wenn es nötig ist, oder wird vom System bei Bedarf freigegeben.
s.a.: und
Bei Einsatz auf einem Desktop-OS würde man wohl kaum per Default alles als Cache verwenden und den ARC von Haus aus limitieren und für diesen Fall "vernünftige" Basis-Einstellungen für ARC, L2ARC und ZIL verwenden die nicht an Storage-Servern ausgerichtet sind.
0
aa19.09.1310:14
PaulMuadDib
Wie gesagt: Nie Streß. Nie. Fakt.
Das ist doch der Gag: das GLAUBST du. Schau dir den Link ruhig mal an. Da wird genau dieser Fall demonstriert. Sogar so, daß du das selbst ausprobieren kannst.
Was soll bei dem Link passieren? Nur ein komisches Bild kommt da.
Steht doch ganz klar oben als Text. Hint: Cursor-Tasten benutzen.
0
ExMacRabbitPro19.09.1310:39
Das Missverständnis, das bei vielen hier vorherrscht ist die Ansicht, dass ZFS ein Filesystem ist, das mit dem Gedanken an Desktop Workstations "designed" wurde. Dem ist aber nicht so.

Daher ist es kein einfacher Task - bzw. eher unwarscheinlich - dieses FS einfach in ein aktuell verbreitetes Desktop OS zu integrieren. Dagegen sprechen die erhöhten Anforderungen an die Ausstattungen der Filesystem Hardware (= Anzahl der Laufwerke), der Resourcen-Bedarf im laufenden Betrieb und nicht zulestzt die Komplexität bei der Administation - die sich nicht mehr so einfach in einem schmucken "Festplattendienstprogramm" verstecken ließe. Denn wenn man wirklich die Features die ZFS auszeichnen nutzen will, muss man wissen was man will und tut - und das ist eher was für Admins als für Joe User.

Denn auch die von Apple begonnene Impementierung von ZFS in OS X war nicht für den Desktop User gedacht. Die Integration war nämlich nur für OS X Server vorgesehen und selbst dort konnte z.B. OS X selbst nicht von einem ZFS Volume booten sondern "lediglich" Volumes für Daten anlegen und ansprechen.

Mit der hier gerne naiv propagierten Prädestination von ZFS für den Desktop-Betrieb oder gar Sicherungsmechnismen ala Versions und Time Machine, hatte das alles nix zu tun und ist ZFS als OS X Filesystem auch Meilenweit entfernt.
0
git push19.09.1311:45
@sierkb

Ich bin leider immer sehr "direkt". Sagen meine Kollegen auch manchmal aber so bin ich nunmal.
Man glaubt es kaum aber ich habe einen Powermac G5 (mit OSX Leopard) und einen Intel Imac 2009 (super schickes Design mit FreeBSD) Zuhause.

@arekhon
Der Vorteil von ARC und Co. ist nunmal die Performance durch das nutzen des fast kompletten RAMs für die pools. Wenn ich jetzt alles limitieren muss weil der Desktop User nur 3-4 GB im Rechner hat, sind die Features für die Katz. Für L2 und Zil brauch ich zudem noch MLCs um ja auf gutem Performance Level zu bleiben. Kostet für den "Desktoper" also wieder extra und nicht vergessen, wir brauchen noch immer einen pool für die ganze Geschichte !

Willst du jetzt wirklich mit Phrasen kommen das der Enduser das unbedingt braucht und auch voll ausnutzt ?


Für Backups kann der OSX user ja weiterhin sein gutes robustes rsync umhüllt von der Time Machine Gui nutzen.
„live long and prosper“
0
arekhon
arekhon19.09.1314:13
git push
@arekhon
Willst du jetzt wirklich mit Phrasen kommen das der Enduser das unbedingt braucht und auch voll ausnutzt ?

Etwas von voll ausnutzen oder brauchen habe ich nie geschrieben. Was man als Enduser wirklich brauchen kann ist IMO gar nicht viel. Mir als Enduser würden schon die Checksummen und die Self-Repair-Möglichkeit der redundanten RAID-Level reichen. Das würde ich als wesentlichen Fortschritt ansehen.

Und der gemeine Home-User wird auch mit kleinen Varianten von ARC, L2ARC und ZIL auskommen, Caching in dem Umfang wie ZFS es könnte ist doch sowieso nur für Server-Dienste wirklich interessant und nötig.
Ähnliche Funktion zumindest im Effekt für den End-User, nur additiv bei der Kapazität hat man ja auch heute schon als Fusion-Drive. Ist halt anfälliger, weil ja das FD kein Cache ist, sondern Primärdaten im "Cache" enthält.
Snapshots und vor allem Dedup kann man getrost weglassen für nicht Server-/Storage-Server Systeme.

Das könnte man also abgespeckt mit einigem Zusatznutzen wohl machen und wer mehr nutzen will braucht dann halt auch die passenden Resourcen - aber er hätte die OPTION!
Problematischer sehe ich eher die 128bit Pointer und alles was damit an Overhead zusammenhängt. Das bekommt man auch nicht weg indem man ZFS für Clients "kleinkonfiguriert".
0
PaulMuadDib19.09.1320:14
aa
Das ist doch der Gag: das GLAUBST du. Schau dir den Link ruhig mal an. Da wird genau dieser Fall demonstriert. Sogar so, daß du das selbst ausprobieren kannst.
Soll das eine Verasche sein? Klar geht das kaputt, wenn ich das absichtlich kaputtschreibe. Welchen Fall soll das simulieren? Ich rede von 1000000000000 mal Kopieren, z.B. Und mit glauben hat das auch nix zu tun. Entweder das System, Anwendungen und Dokumente funktionieren einwandfrei, oder es gibt Fehler. Die ich bisher hoch nie entdecken konnte. Und manche meiner Daten sind mittlerweile wirklich alt.
0
PaulMuadDib19.09.1320:16
ExMacRabbitPro
Das Missverständnis, das bei vielen hier vorherrscht ist die Ansicht, dass ZFS ein Filesystem ist, das mit dem Gedanken an Desktop Workstations "designed" wurde. Dem ist aber nicht so.
Das kommt erschwerend hinzu. Und dem gemeinen User egal, wieviel Buzzwörter sich dahinter verstecken. Hauptsache, es geht.
0
aa19.09.1320:51
PaulMuabDib: Verarsche? Da wird gezeigt, daß selbst so ein gravierender Fehler im Datenbereich von HFS+ schlicht nicht erkannt wird. Wie willst DU denn sicher sein, daß bei ein pasr deiner Dateien nicht ein paar Bits gekippt sind? In vielen Dateien sind einige wenige Bit-Fehler nicht so kritisch (Audio, Video z.B.) und dürften meist kaum auffallen. Selbst in ausführbaren Dateien dürfte es genug Stellen geben, an denen ein Bitfehler nicht (sofort) auffällt. WENN dir slso mal igendwann doch mal ein defekt auffällt, dürfte die fehlerhafte Datei längst die letzte intakte Version aus dem Backup verdrängt haben.
0
PaulMuadDib19.09.1323:35
Zeige mir eine Statistik, die das belegt.

Und nochmal: welches Szenario soll diese schwachsinnige Demo zeigen? Wenn ich dem Computer sage, dass er Daten überschreiben soll, dann macht er das. Was soll er da auch merken? Haste mal das gleiche unter ZFS gemacht?
0
aa21.09.1315:26
PaulMuadDib
Zeige mir eine Statistik, die das belegt.
Ich hab jetzt keine Links auf Tasch, aber ich hatte schon vor 2-3 Jahren gelesen, daß überhaupt erst mit Dateisystemen wie ZFS (als mit welchen, die Blockchecksummen machen) wirklich belegt werden konnte, DASS Daten über die Zeit einfach kaputt gehen. Und das war wohl mehr als man ursprünglich vermutet hatte (aber weniger als daß es täglich zu Katastropfen kommen würde).

Mit Hilfe von ZFS auf Systemen mit ECC-RAM konnte man damals auch sehr gut feststellen, daß auch mal Bits beim Datentransport über Kabel kaputt gingen. Und auch Datenfehler, die von defekten Plattencontrollern (in einem Artikel ging es um Enterprise SAS-Systeme) verursacht wurden, konnten erkannt werden. Es gibt irgendwo ein Artikel, den ich nicht mehr finde, in dem gezeigt wurde, wieviel Daten beim Transport über USB kaputt gingen.

Auch wenn ZFS auf dem ersten Blick vielleicht "too much" ausschaut, so sollte man bedenken, daß es sich hier um eine der entscheidenen Komponenten eines Systems handelt. Eines, das wirklich solide sein muß. Es gibt kaum ein Bereich in der Software, in der so devensiv gearbeitet wird, wie bei den Dateisystemen. ZFS hatte gut 10 Jahre gebraucht, bis es als Produktionsreif gelabelt wurde. Bis dahen liefen ziemlich große Tests ab. Teilweise liefen bei großen Firmen eine komplette ZFS-Installation parallel zum damals aktuellen Produktiivsystem gespiegelt mit.

Ich würde vermutlich heute schon nichts von ZFS auf meinem System bemerken. Ich hab 16GB RAM einen Quad-i7. Da würde sich ein ZFS, sofern es für einen Desktop-Einsatz konfiguriert ist (also Deduplication aus, kleinere Caches usw.), kaum negativ bemerkbar machen. Auch der RAM-Verbrauch war nicht weiter auffällig. Ich meine, wer akzeptiert, daß sich ein Webbrowser >1GB genemigt, der sollte sich auch nicht über ein Dateisystem aufregen, daß sich 1GB Cache gönnt.

Ich hatte kurz mal mit Zevo gespielt und es auf meiner HDD laufen gehabt und es lief soweit ausgezeichnet. Selbst einen Scrub hatte ich kaum bemerkt, da es mit niedriger Priorität läuft. Ich hatte keine Probleme feststellen können, außer, daß iTunes sich komisch verhielt, wenn die Lib auf der ZFS-Platte lag. Es gab dann (wenn ich mich richtig erinnere) immer kleine Pausen zwischen den Titeln. Das Problem kreide ich aber iTunes an. Denn ansonsten lief das ausgezeichnet. Die Performance war auch sehr gut.

Allerdings kann ich dazu keine Benchmarks liefern, da ZFS extrem viel Gebrauch von Caches macht. Ich hatte also beim ZFS-Laufwerk ständig Resultate wie von einer RAM-Disk. Wenn ich eine große Datei von meiner HFS+SSD auf meine ZFS-HDD kopiert hatte, dann hat konnte man sehen wie die Datei mit max. SSD-Speed geladen wurde und parallel dazu mit HDD-Speed auf dem ZFS-Laufwerk geschrieben wurde – das Lesen war als sehr viel früher beendet. Das Kopieren-Fenster vom Finder war dann auch wieder zu. An einem Platten-Monitor konnte man dann sehr schön das Zuendeschreiben der Datei auf dem ZFS-Laufwerk sehen.

Am Ende hatte ich das ZFS-Experiment (zähneknirschend) wieder aufgegeben, weil iTunes leider gezickt hatte. Und die Tatsache, daß ZFS auf dem Mac noch nicht bootfähig ist und die wirklich wichtigen Daten (/Users) auf der System-SSD liegen (sollen) und man somit an der entscheidenen Stelle nicht in den Genuß von den ZFS-Features kommt.

Vielleicht probiere ich das nochmal mit einer partitionierten SSD (System + Users), wenn ich mal Zeit dafür finde (um zumindest das mit den User-Ordnern hinzubekommen). Vielleicht sollte ich mich auch endlich mal um eine iTunes-Ablösung bemühen.
0
aa22.09.1320:07
Hier hat einer was in Freakshow-Kommentaren geschrieben:

Mal ein Zitat hieraus:
In folgendem Artikel findet sich ein Beispiel des Cern. http://www.smallnetbuilder.com/nas/nas-features/32044-why-zfs-introduction Dort wurden 14,6 Petabyte geschrieben und nach Tests waren dann 38.000 Dateien “silently corrupted”. Runtergerechnet passierte es dort wohl bei 400 GB geschriebenen Daten. In einem älteren Artikel welchen ich leider nicht mehr finde, wurde errechnet, dass mit den Herstellerangaben für die Zuverlässigkeit von Festplatten die geschriebene Menge an Daten bis zum ersten Fehler ca. 12 TB sei. Beides sind Datenmengen die heutzutage nicht so schwer zu erreichen sind. Ein Filesystem ohne Checksumme zu benutzen wird immer gefährlicher.
0
someone22.09.1320:53
Dass HFS+ ein katastrophal schlechtes Filesystem ist sollte inzwischen eigentilich jedem klar sein.
Ist zwar zwei Jahre her, aber wohl immer noch relevant:
0
Peacekeeper2000
Peacekeeper200022.09.1321:27
aa
PaulMuadDib
Zeige mir eine Statistik, die das belegt.

Am Ende hatte ich das ZFS-Experiment (zähneknirschend) wieder aufgegeben, weil iTunes leider gezickt hatte. Und die Tatsache, daß ZFS auf dem Mac noch nicht bootfähig ist und die wirklich wichtigen Daten (/Users) auf der System-SSD liegen (sollen) und man somit an der entscheidenen Stelle nicht in den Genuß von den ZFS-Features kommt.
Vielleicht sollte ich mich auch endlich mal um eine iTunes-Ablösung bemühen.

Hmm, ich habe 12 TB in einem ZFS Z-RAID Pool über 4 Platten auf einem FreeBSD System mit 16GB ECC und mounte das über Netatalk (AFP). Da liegt auch die iTunes Lib. Mit Aussetzern bei zusätzlich gleichzeitigem AirPlay Distribution habe ich keine Prob. Schätze das neuere Implementierungen besser streamen. BTW: ich mounte gleichzeitig noch per SMB von diesem Pool an ein XBMC gerät. Also genügend Last wäre da ...
0
aa22.09.1322:40
Peacekeeper2000
Hmm, ich habe 12 TB in einem ZFS Z-RAID Pool über 4 Platten auf einem FreeBSD System mit 16GB ECC und mounte das über Netatalk (AFP). Da liegt auch die iTunes Lib. Mit Aussetzern bei zusätzlich gleichzeitigem AirPlay Distribution habe ich keine Prob. Schätze das neuere Implementierungen besser streamen. BTW: ich mounte gleichzeitig noch per SMB von diesem Pool an ein XBMC gerät. Also genügend Last wäre da ...
Keine Ahnung was das Problem war. Es könnte sein, daß es einfach nur an der Kombi aus iTunes, OSX und ZFS-Version lag. An mangelnder CPU oder RAM lag es jedenfalls nicht.

Für meinen HTPC plane ich ja auch FreeBSD wg. ZFS einzusetzen.
0
Gerhard Uhlhorn22.09.1323:10
PaulMuadDib
Ich habe noch nie, wirklich noch nie Probleme beim Kopieren gehabt. Nicht eine einzige beschädigte Datei. Wo soll das also her kommen?
Ich hatte mal ein FireWire-Kabel, welches äußerlich in Ordnung war, aber ständig fehlerhafte Daten auf der Platte produzierte. Ich hatte immer innerhalb von wenigen Stunden so inkonsistente Daten, dass das System nicht mehr damit arbeiten wollte. Ständig musste ich die Platte reparieren. (Das war so um 2004 herum.)

Erst als ich das FW-Kabel austauschte, war der Spuk vorbei.
0
Stefab
Stefab23.09.1301:14
sierkb: Mit Backups der ganzen Dateien ist man allerdings auf der sicheren Seite … geht das älteste Original verloren hat man mit den Bit-Änderungen nur mehr Datenmüll, mit neueren Dateiversion ist jede für sich allein brauchbar.
Also da hat alles seine Vor- und Nachteile und mir ist es eigentlich ganz recht, dass TM auf Dateiebene arbeitet. Für riesige Dateien mit kleinen Änderungen, wie Disk-Images von VMs ist das wohl sub-optimal, ansonsten bin ich ganz froh, dass es so ist, wie es ist.
0
PaulMuadDib23.09.1308:01
Gerhard Uhlhorn
Erst als ich das FW-Kabel austauschte, war der Spuk vorbei.
Ist aber nicht ganz das Gleiche. Vor allem, da Du ja recht schnell bemerkt hast, was da nicht stimmt.
someone
Dass HFS+ ein katastrophal schlechtes Filesystem ist sollte inzwischen eigentilich jedem klar sein.
Und, wen juckt das? Mich nicht. Apple soll bloß nicht hingehen und ein nicht für Client optimiertes Filesystem draufklatschen, weil das auf dem Papier so toll klingt.
0
aa23.09.1309:34
PaulMuadDib: Gibt es einen Grund für deine vehemente Antihalthung? Ist das so ein Not-inventet-by-Apple-Ding? Ich sehe JETZT schon mehr als genug Vorteile von ZFS für mich.

Die Rechner sind HEUTE schon (eigentlich schon seit 1-3 Jahren) überperformant für die meisten hier. Wie oft hab ich schon lesen können, daß den Leuten im Prinzip schon fast ein Tablet genugt? Oft. Da wird ja wohl das bisschen mehr an CPU und RAM, was ZFS einfordert wohl wirklich kein Problem sein, oder? Dafür bekommt man ja auch eine ordentliche Gegenleistung.

Ich will mich auch nicht an ZFS festbeissen. Meinetwegen kann es auch was anderes als ZFS sein, es muß wenigstens Blockchecksummen und Copy on Write beherrschen. Aber ZFS bietet sich halt am ehesten ab, weil es von den modernen Dateisystemen wohl das sein dürfte, was am besten erprobt und abgehangen ist. Eines, was schon längst in kritischen Installationen sein können unter Beweiß gestellt hat. Und es wäre für einen Einsatz konfigurierbar.

Bei 16GB RAM scheiß ich ehrlich gesagt auf das GB, was sich ZFS womöglich krallen wird. Hast du dich je darüber beschwert, wenn sich das OS einen großen Cache für Dateizugriffe oder andere Dinge anlegt? Aktuell dürfte 8GB der Standard sein, in winigen Jahren werden das eher 16GB werden. Selbst Smartphones und Tablets haben heute teilweise schon 2GB RAM.
0
PaulMuadDib23.09.1309:48
Weil speziell ZFS kein System für Clients ist. Und hier immer so getan wird, als wäre HFS nicht mehr tragbar. Nur ist mir das als Anwender völlig Wurscht. Meine Rechner laufen absolut stabil.

Ich denke schon, daß Apple da was am Testen ist. Nur hoffe ich, daß so etwas erst implementieren, wenn es wirklich funktioniert. Ohne, das der Anwender sich mit asynchronen Snapshots, Snapshot-Reseves, Provisioning und all so ein Mist rumschlagen muss. Und ich denke, daß so etwas von einigen hier unterschätzt wird. All das muß absolut transparent eingebunden sein, sonst schrottet man ein System vollkommen. Egal, wie stabil es eigentlich ist.
0
aa23.09.1310:21
PaulMuadDib
Weil speziell ZFS kein System für Clients ist. Und hier immer so getan wird, als wäre HFS nicht mehr tragbar. Nur ist mir das als Anwender völlig Wurscht. Meine Rechner laufen absolut stabil.

Ich denke schon, daß Apple da was am Testen ist. Nur hoffe ich, daß so etwas erst implementieren, wenn es wirklich funktioniert. Ohne, das der Anwender sich mit asynchronen Snapshots, Snapshot-Reseves, Provisioning und all so ein Mist rumschlagen muss. Und ich denke, daß so etwas von einigen hier unterschätzt wird. All das muß absolut transparent eingebunden sein, sonst schrottet man ein System vollkommen. Egal, wie stabil es eigentlich ist.
Wo ist das Problem? Man KANN alle Features von ZFS nutzen MUSS man aber nicht. Ich würde auch kein Dedup auf dem Laptop aktiviert haben wollen. Und nochmal: wenn ich es richtig verstanden habe, dann lässt ZFS sich auf einer recht großen Bandbreite konfigurieren. Vom Desktop bis zum Datacenter. Es ist richtig, daß ZFS ursprünglich eher für Datacenter entwickelt wurde. Aber was waren denn damals (um 2000 rum) denn die gängigen Kapazitäten in großen Anlagen und Zuhause auf dem Rechner? Heutzutage ist 3TB doch schon normal. Viele haben deutlich mehr. Das kommt doch schon in die Bereiche, die für beim Design von ZFS anvisiert wurden. Nur hatte man die mögliche Größe mit 128Bit-Adressen endgültig gemacht. Muss dich doch gar nicht interessieren, daß du heute schon im Prinzip Exabytes an Platten nutzen könntest.

Beim RAM hatten wir das doch auch schon. Mal war 640kB das Maß aller Dinge, später 3GB, 8, 16, ....

Selbst unsere Smartphones haben heutzutage Kapazitäten, die vor 20-30 Jahren schon für einen ordentlichen Server gereicht hätten.

Ich will sagen: Das nächste Dateisystem sollte "endgültig" sein. Und da scheint mir ZFS nicht "too much". Das dürfte alles eine Frage der Parametrisierung sein. Lass dich nicht von Features stören, die da sind, du aber nichts von wissen willst. Ignorier sie einfach. Und wer die Features nicht kennt, der muß sie nicht mal ignorieren. Oder kümmern dich die Features von HFS+? Halten die dich nachts vom schlafen ab?

Die Probleme von HFS+ kann man nicht ignorieren. Ja, HFS+ war eine ganze Weile ein gutes Dateisystem (das ist NTFS übrigens auch, was sogar ein ehemaliger Apple-Entwickler gesagt hatte). Aber wir werden in Zukunft eher mehr Daten als weniger haben. Und Dateisysteme wie ZFS tragen diesem Umstand rechnung und Laptops sind definitiv performant genug dafür. Also warum soll man das nicht nutzen?
0
Gerhard Uhlhorn26.09.1323:49
PaulMuadDib
Gerhard Uhlhorn
Erst als ich das FW-Kabel austauschte, war der Spuk vorbei.
Ist aber nicht ganz das Gleiche. Vor allem, da Du ja recht schnell bemerkt hast, was da nicht stimmt.
Das habe ich nicht „recht schnell“ bemerkt. Ich habe vorher die Platte ausgetauscht, weil ich einen Plattendefekt vermutet hatte. Das Problem hat mich einige Wochen beschäftigt, denn es war ein hochwertig aussehendes neues und unbeschädigtes FireWire-Kabel, und das hatte ich nun wirklich als letztes in Verdacht.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.