Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Warum APFS auf regulären Festplatten langsam ist

Apple stellte das Apple File System (kurz: APFS) im Sommer 2016 als Ersatz für das betagte HFS vor. Im Gegensatz zu HFS bringt APFS eine Menge von Vorteilen mit: Partitionen können sich dynamisch den Platz auf einer Festplatte teilen, Snapshots und Verschlüsselung wird von Haus aus unterstützt und die Anzahl der möglichen Dateien ist quasi unbegrenzt. Ferner wird auch Copy-On-Write unterstützt, mit dem sich Datei-Kopien anlegen lassen, welche keinen zusätzlichen Platz belegen – bis einzelne Teile der Datei verändert werden.


Apple stellte zuerst mit iOS 10.3 iPhones und iPads auf das neue Dateisystem um – und es gab glücklicherweise kaum Problemberichte. Mit tvOS 10.2 und watchOS 3.2 wurde das Apple TV wie auch die Watch mit APFS ausgestattet – doch Mac-Nutzer mussten sich noch bis macOS 10.13 High Sierra im September 2017 gedulden.

Mit macOS 10.13 High Sierra wurden nur Macs auf APFS umgestellt, welche zum Booten eine SSD einsetzten. Erst mit macOS 10.14 Mojave stellte Apple alle Macs auf APFS um – auch die mit Fusion Drives. Der Grund, warum Apple die Migration von Macs mit regulären Festplatten verschob, scheint wohl in der schlechten Performance begründet zu sein.

Fragmentierung der Dateiinformationen
Der Entwickler von Carbon Copy Cloner hat sich einmal angesehen, warum viele Kunden berichten, dass ihr Mac seit der Umstellung auf APFS langsamer geworden ist. Die Kundenbeschwerden stammen allesamt von Nutzern mit regulären Festplatten inklusive Fusion Drives. Anders als SSDs profitieren normale Festplatten sehr davon, wenn die Daten in zusammenhängenden Blöcken abgelegt sind – da dann der Lesekopf nicht so große Strecken zurücklegen muss.

Als Test wurden eine Million Dateien verteilt auf 111.000 Ordnern angelegt. Um einen regulären Betrieb zu simulieren, wurden manche dieser Dateien modifiziert, gelöscht oder hinzugefügt. Gemessen wurde die Zeit, welche das Dateisystem benötigt, einmal über den gesamten Dateibaum zu iterieren. Bei HFS blieb die Zeit, egal welche Modifikationen gemacht wurden, relativ konstant. Anders bei APFS: Auf regulären Festplatten nahm die Zeit mit der Anzahl der Modifikationen deutlich zu.


Der Grund dahinter ist, dass bei HFS die Dateistrukturen in einem fest definierten Bereich abgelegt werden – welcher ein zusammenhängender Block ist. Bei APFS jedoch sind diese frei auf dem Volume verteilt. Für SSDs ist dies kein Problem, da dort die Suchgeschwindigkeit nicht mit der Fragmentierung zusammenhängt – bei regulären Festplatten hingegen schon.


Defragmentierung wirkungslos?
Mit macOS Mojave führte Apple eine Option ein, mit welcher die Fragmentierung verhindert werden soll – doch den Tests nach ist die Option zumindest bei der Fragmentierung der Dateistruktur wirkungslos. Leider dokumentiert Apple nicht, welche Auswirkungen die Aktivierung haben sollte.

Apple verkauft immer noch Macs mit normaler Festplatte
Laptops mit regulären Festplatten findet man schon seit einigen Jahren nicht mehr in Apples Sortiment. Doch bei den iMacs wird die gesamte Palette in den Standard-Konfigurationen entweder mit normaler Festplatte oder mit Fusion Drives ausgeliefert – nur optional gibt es reine SSDs. Hier wird sich nach einiger Zeit das oben angesprochene Problem zeigen. Besonders beim Startvorgang werden viele Dateien gelesen – mit der Zeit muss der Nutzer hier immer mehr Geduld aufbringen.

Es bleibt zu hoffen, dass Apple sich mit zukünftigen Software-Updates dieser Problematik annimmt – oder zeitnah die gesamte Mac-Linie auf SSDs umstellt. Mit letzterem wäre bestehenden Kunden allerdings kaum geholfen, weswegen ein APFS-Update für normale Festplatten eine wünschenswerte Lösung darstellt.

Kommentare

Wurzenberger
Wurzenberger27.12.19 14:42
Die armen Menschen die heutzutage noch Festplatten als Systemvolumes einsetzen.
+7
cab27.12.19 14:48
Apple ist ja sonst gern bereit, alte Zöpfe abzuschneiden, aber warum die sich nicht schon längst von herkömmlichen Festplatten verabschiedet haben? SSDs kosten nicht mehr die Welt.
+16
AppleUser2013
AppleUser201327.12.19 14:53
Wie teuer ist eigentlich eine 8 TB SSD bei Apple...
+5
dam_j
dam_j27.12.19 14:55
AppleUser2013
Wie teuer ist eigentlich eine 8 TB SSD bei Apple...

"Eine" gibt es bei Apple nicht, aber das Paar aus zwei 4TB PCIe-SSD´s kosten min. 3120€.
Das Leben ist Scheiße aber die Grafik ist geil !
+3
mikeboss
mikeboss27.12.19 15:05
dam_j
AppleUser2013
Wie teuer ist eigentlich eine 8 TB SSD bei Apple...

"Eine" gibt es bei Apple nicht, aber das Paar aus zwei 4TB PCIe-SSD´s kosten min. 3120€.

klugscheissmodus ON

wenn man's schon genau nehmen will: es sind nicht zwei SSDs sondern zwei NAND module. die steckkarten im Mac Pro und iMac Pro haben keinen controller drauf und sind somit per definition keine vollwertigen SSDs. erst der T2 "macht" dann aus den NAND modulen eine NVMe SSD.

klugscheissmodus OFF
+10
Lorenz7627.12.19 15:08
Also, so langsam empfinde ich die APFS-Festplatten nicht.
-2
MacTaipan27.12.19 15:24
Ich habe gerade kürzlich 4TB von HFS nach HFS kopiert und 6TB von APFS nach APFS. Ersteres hat etwa 12h gedauert, weiteres 36h. Die Datenstrukturen war etwa vergleichbar. Läuft also etwa auf die doppelte Zeit hinaus.
Allerdings waren beide APFS Volumes verschlüsselt und der Rechner ein betagter Mac Pro von 2009, ich bin nicht sicher, wieviel das noch ausmacht.
+2
jeti
jeti27.12.19 15:33
Aktueller iMac 27"
2TB FusionDrive vs. 2TB SSD = € 840 Aufpreis
Da kann ich jeden verstehen der zum FusionDrive greift.
+5
My2Cent27.12.19 15:48
Dass die Fragmentierung Festplatten langsam macht ist eine Binsenweisheit.
Aus diesem Grund gibt es Deframenierungs-Programme.
Das erste derartige Programm an das ich mich erinnere stammt aus dem Jahr 1993. Es war bei MS DOS 6 dabei und hieß defrag.exe (Alias Norton SpeedDisk).
0
sierkb27.12.19 15:49
MTN
Der Grund, warum Apple die Migration von Macs mit regulären Festplatten verschob, scheint wohl in der schlechten Performance begründet zu sein.
heise, Kommentar, 24.09.2019
"Für SSD optimiert" bedeutet in der Regel

dass die Entwickler sich schlicht nicht darum gekümmert haben, dass "Seek"-Operationen teuer sein könnten.

Bei Flash ist das annähernd egal - der Unterschied zwischen sequenziellem I/O und purem Random I/O ist zwar auch dort nicht Null, aber klein genug dass man sich nicht mehr besonders den Kopf darüber zuerbrechen muss "Seek"-Operationen zu vermeiden.

Auf Festplatten, Disketten und optischen Discs ist es hingegen von ganz essentieller Bedeutung, die Datenstrukturen auf der Platte so anzuordnen dass Seeks so selten wie möglich vonnöten sind.

Alte Dateisysteme wie HFS+, ext2/3/4 oder NTFS wurden noch von Grund auf so entwickelt dass sie auf die Bedürfnisse von Festplatten abgestimmt waren - daher funktionieren sie sowohl auf Festplatten als auch SSD mit guter Performance.

Auf SSD "optimierte" Dateisysteme hingegen haben auf Festplatten üblicherweise eine so schlechte Performance, dass man mehr oder weniger dazu *gezwungen* wird Flash zu verwenden wenn man nicht einschlafen möchte.

Tatsächlich bedeutet "Flash optimiert" daher in der Regel nichts anderes als "überhaupt nicht optimiert". Klingt aber wesentlich toller.
Q:
+5
steve.it27.12.19 15:53
sierkb
MTN
Der Grund, warum Apple die Migration von Macs mit regulären Festplatten verschob, scheint wohl in der schlechten Performance begründet zu sein.
heise, Kommentar, 24.09.2019
"Für SSD optimiert" bedeutet in der Regel

dass die Entwickler sich schlicht nicht darum gekümmert haben, dass "Seek"-Operationen teuer sein könnten.

Bei Flash ist das annähernd egal - der Unterschied zwischen sequenziellem I/O und purem Random I/O ist zwar auch dort nicht Null, aber klein genug dass man sich nicht mehr besonders den Kopf darüber zuerbrechen muss "Seek"-Operationen zu vermeiden.

Auf Festplatten, Disketten und optischen Discs ist es hingegen von ganz essentieller Bedeutung, die Datenstrukturen auf der Platte so anzuordnen dass Seeks so selten wie möglich vonnöten sind.

Alte Dateisysteme wie HFS+, ext2/3/4 oder NTFS wurden noch von Grund auf so entwickelt dass sie auf die Bedürfnisse von Festplatten abgestimmt waren - daher funktionieren sie sowohl auf Festplatten als auch SSD mit guter Performance.

Auf SSD "optimierte" Dateisysteme hingegen haben auf Festplatten üblicherweise eine so schlechte Performance, dass man mehr oder weniger dazu *gezwungen* wird Flash zu verwenden wenn man nicht einschlafen möchte.

Tatsächlich bedeutet "Flash optimiert" daher in der Regel nichts anderes als "überhaupt nicht optimiert". Klingt aber wesentlich toller.
Q:
Genau so etwas habe ich in der Art auch schon mal gelesen.
"Toll" Apple!

... aber nach wie vor Macs mit HDDs verkaufen.
... die Besitzer von alten Macs scheinen auch nicht relevant zu sein.
... und Festplatten (z.B. in externer Form) als Datengrab, Backup etc. ist offenbar auch nicht wichtig...
-1
system7
system727.12.19 16:25
Gilt die Behauptung immer noch, dass Festplatten langlebiger sind?
0
Bodo_von_Greif27.12.19 16:47
@system7

Früher haben die (sauteueren) SCSI Festplatten gerne mal 10 Jahre gehalten.

Inzwischen halten die Festplatten aus der Billig-Windows Welt 4-6 Jahre.
Gerne auch mal wesentlich weniger.

Gruss,

Bodo
[x] nail here for new monitor
-3
*web*wusel*27.12.19 17:20
cab
Apple ist ja sonst gern bereit, alte Zöpfe abzuschneiden, aber warum die sich nicht schon längst von herkömmlichen Festplatten verabschiedet haben? SSDs kosten nicht mehr die Welt.

weil SSDs bei Apple einfach irre teuer sind im Vergleich zu einer 3TB Fusion Drive.
+3
jeti
jeti27.12.19 17:28
Möchte man seine HD oder FusionDrive im iMac
gegen eine vernünftige SSD tauschen
dann kann man sich auch direkt einen neuen Mac gönnen.

Ich finde die Preise für SSDs gefühlt noch immer astronomisch im Vergleich
zu herkömmlichen HDs. Blauäugig gefragt wie kommt ein derartig eklatanter
Preisunterschied zustande das kann doch nicht nur das Verhältnis
zwischen Angebot und Nachfrage sein?

Ungeachtet all dessen sollte Apple natürlich bei der Einführung einer neuen Technik
auch darauf bedacht sein das diese vernünftig funktioniert,
im aktuellen Fall mit "normalen" HDs.
+2
ocrho27.12.19 19:13
AppleUser2013
Wie teuer ist eigentlich eine 8 TB SSD bei Apple...
Laut der Zeitschrift c't zum 16"-MacBookPro gibt es bei den Wettbewerbern nur SSD mit maximal 2 TB. Deine Frage müsste also korrigiert werden wie teuer sind 2 TB bei den Wettbewerbern, weil größere werden nicht als interne SSD angeboten.

Beim MacBookPro16" ist Apple endlich der Realität angekommen mit Startkonfigurationen von 0,5 oder 1,0 TB. Das der iMac noch mit Fusion-Drive angeboten wird kann ich mir nur noch mit Lagerbeständen erklären...
+1
don.redhorse27.12.19 20:29
Ferner wird auch Copy-On-Write unterstützt, mit dem sich Datei-Kopien anlegen lassen, welche keinen zusätzlichen Platz belegen – bis einzelne Teile der Datei verändert werden.

Das ist ein Snapshot, kein CoW. CoW heißt, dass beim umkopieren erst kopiert, dann geprüft, dann die alte Datei gelöscht. Das ganze kennt man schon sehr lange von ZFS.
Die restlichen Funktionen kennt man z.B. Von Linux, LVM. Apple hat, mal wieder, sich das Beste zusammen gesucht.
Muss man denn APFS auf nicht Systemplatten verwenden? Ich nutze APFS nur auf SSDs, Festplatten laufen mit HFS+.
+3
andreasm27.12.19 20:42
jeti
Möchte man seine HD oder FusionDrive im iMac
gegen eine vernünftige SSD tauschen
dann kann man sich auch direkt einen neuen Mac gönnen.

Ich finde die Preise für SSDs gefühlt noch immer astronomisch im Vergleich
zu herkömmlichen HDs. Blauäugig gefragt wie kommt ein derartig eklatanter
Preisunterschied zustande das kann doch nicht nur das Verhältnis
zwischen Angebot und Nachfrage sein?

Ungeachtet all dessen sollte Apple natürlich bei der Einführung einer neuen Technik
auch darauf bedacht sein das diese vernünftig funktioniert,
im aktuellen Fall mit "normalen" HDs.

Ich kenne mich mit SSDs zugegeben nicht sonderlich aus. Aber das verlinkte Modell scheint mir völlig überteuert oder gibt es da irgendeine Besonderheit?
In meinem 2011er iMac läuft jetzt seit 3 Jahren eine Samsung 850 Evo 1TB, hat mich damals 200€ gekostet. Das Nachfolgemodell 860 Evo liegt derzeit bei 130€, die Pro Version davon bei gut 250€. Und für einen Normalnutzer wie mich dürfte diese Geräteklasse völlig ausreichend sein

Die Tatsache das es den iMac auch in 2019 in der Grundkonfiguration nicht mit einer (anständig Dimensionierten = mind. 512GB, eher 1TB) SSD gibt ist auch der Grund weshalb ich mir keinen neuen iMac kaufe.
+5
Wurzenberger
Wurzenberger27.12.19 21:06
andreasm
jeti
Möchte man seine HD oder FusionDrive im iMac
gegen eine vernünftige SSD tauschen
dann kann man sich auch direkt einen neuen Mac gönnen.

Ich finde die Preise für SSDs gefühlt noch immer astronomisch im Vergleich
zu herkömmlichen HDs. Blauäugig gefragt wie kommt ein derartig eklatanter
Preisunterschied zustande das kann doch nicht nur das Verhältnis
zwischen Angebot und Nachfrage sein?

Ungeachtet all dessen sollte Apple natürlich bei der Einführung einer neuen Technik
auch darauf bedacht sein das diese vernünftig funktioniert,
im aktuellen Fall mit "normalen" HDs.

Ich kenne mich mit SSDs zugegeben nicht sonderlich aus. Aber das verlinkte Modell scheint mir völlig überteuert oder gibt es da irgendeine Besonderheit?
Angelbird ist einfach nur pure Abzocke.
+1
gfhfkgfhfk27.12.19 22:29
dam_j
"Eine" gibt es bei Apple nicht, aber das Paar aus zwei 4TB PCIe-SSD´s kosten min. 3120€.
Das ist im Bereich einer Micro 9300 Pro 15TB U.2 SSD. Die kostet ungefähr 3,3k€, und wird im Standard U.2 HotPlug Bauform geliefert. Es wäre schön, wenn es im MacPro U.2 Slots gäbe. Mit Adapter kann man da auch M.2 bis 80mm Baulänge verbauen. (Es gibt kaum 110mm M.2 auf dem Markt, und das sind üblicherweise Modelle, die es ohnehin auch als U.2 gibt.)
jeti
Möchte man seine HD oder FusionDrive im iMac
gegen eine vernünftige SSD tauschen
dann kann man sich auch direkt einen neuen Mac gönnen.
Wenn man Ersatz für ein Fusiondrive haben möchte tut es auch eine Samsung 860 Evo. 1TB >110€, 2TB >270€, 4TB >540€. Wenn es schneller sein soll gibt es noch die 860 Pro, die ist bei größerer Schreiblast deutlich schneller: 1TB >230€, 2TB >410€ aber für die meisten einfach Overkill. Für über 1k€ gibt es dann 7.68TB SSDs von diversen Anbietern (Micron, Samsung, …) aus dem Serverprogramm, auf die Dinger kann man 24×365 mit Last einprügeln und die Schreibrate bleibt konstant.
+3
bmonno27.12.19 22:45
Bei HFS+ braucht man kein Defragmentierungsprogramm, die Defragmentierung wird vom System unter bestimmten Bedingungen selbst durchgeführt.
My2Cent
Dass die Fragmentierung Festplatten langsam macht ist eine Binsenweisheit.
Aus diesem Grund gibt es Deframenierungs-Programme.
Das erste derartige Programm an das ich mich erinnere stammt aus dem Jahr 1993. Es war bei MS DOS 6 dabei und hieß defrag.exe (Alias Norton SpeedDisk).
+1
bmonno27.12.19 23:15
Artikel
Es bleibt zu hoffen, dass Apple sich mit zukünftigen Software-Updates dieser Problematik annimmt – oder zeitnah die gesamte Mac-Linie auf SSDs umstellt. Mit letzterem wäre bestehenden Kunden allerdings kaum geholfen, weswegen ein APFS-Update für normale Festplatten eine wünschenswerte Lösung darstellt.
Ich bin gespannt, ob man SSDs und HDDs wirklich unter einen Hut bekommt.
Bei HDDs ist Defragmentierung für die Perfomance absolut wichtig, bei SSDs ist sie kontraproduktiv, da sie die Schonung der SSD unterläuft und sinnfrei ist.
Bei HDDs ist ein recht großer Bereich am Anfang der Partition (=schnellster Bereich) für das Verzeichnis erforderlich und reserviert, bei SSDs wird so etwas nicht gebraucht (wo ist der Anfang einer Partition bei einer SSD?). Bei meinem 16GB-USB-Stick war nach dem Formatieren mit HFS+ 38 MB und nach dem Formatieren mit APFS 1,1 MB belegt.
0
eweri27.12.19 23:23
My2Cent
Dass die Fragmentierung Festplatten langsam macht ist eine Binsenweisheit.
Aus diesem Grund gibt es Deframenierungs-Programme.
Das erste derartige Programm an das ich mich erinnere stammt aus dem Jahr 1993. Es war bei MS DOS 6 dabei und hieß defrag.exe (Alias Norton SpeedDisk).

Sorry aber das ist leider völlig falsch! Die Fragmentierung, die du meinst ist nicht mit der Fragmentierung gleich, die durch APFS verursacht wird. HFS+ reserviert im vorderen Bereich einer Festplatte Blöcke für die Verwaltungs-Informationen - diese fragmentieren eher selten (kann aber auch passieren). APFS verteilt seine Verwaltungsinformationen über die gesamte Festplatte (so ist es entworfen). Wie schon andere schrieben, ist das bei SSDs egal, aber bei Festplatten habe ich im schlechtesten Fall den Block auf dem meine Daten liegen gerade verpaßt, jetzt muss man also eine volle Umdrehung der Festplatte warten bis man den Block lesen kann. Das sind je nach Platte schon mal 5-10ms - klingt erst einmal nicht viel, aber wenn das häufig passiert, addiert sich das. Wenn also Verwaltungsinformationen über das komplette Volumen eher zufällig verteilt sind, dann benötigt die Festplatte "zig"-Umdrehungen und "zig"-Positionierungen der Leseköpfe bis alle Informationen zusammen getragen sind. Eine SSD hat diese Verzögerungen nicht (sie sind um Faktor 100-1000 kleiner).
Die Fragmentierung, die du meinst, entsteht, wenn man Dateien speichern will, aber ein zusammenhängender Bereich mit freien Blöcken nicht mehr zur Verfügung steht. Dann wird die Datei in mehrere Teile zerlegt und an unterschiedlichen Stellen auf der Festplatte abgelegt. Je voller die Festplatte, des so häufiger wird kein zusammenhängender freier Bereich mehr gefunden. Die Fragmentierung wird immer schlimmer. Das Betriebssystem muss sich darum kümmern, dass die Fragmentierung nicht ins uferlose wächst.
Bei APFS gibt es aber noch ein weiteres Feature, dass Festplatten auch nicht mögen: Copy On Write - Eine Datei kopieren kostet kaum Zeit, da die gar nicht kopiert wird - Es wird nur in den Verwaltungsinformationen als Kopie angelegt. Erst wenn das Original oder die Kopie verändert wird, wird tatsächlich eine Kopie angelegt. Das geht wohl sogar auf Blockebene - und das ist aus Sicht der Fragmentierung der absolute Horror.
Kleines Beispiel: eine Datei, das Original, das 100 Blöcke belegt wird auf einem APFS-Volumen kopiert - auf der SSD passiert erst einmal fast nichts, es wird nur ein weiterer Verzeichniseintrag angelegt. Das war es. Nun wird das Original verändert und wieder gespeichert. Sagen wir mal es wird der Block 10-30 manipuliert. Nun passiert beim Speichern folgendes: das Original wird "geschrieben" und erst jetzt wird eine "Kopie" angelegt - Copy On Write - das heißt, auf dem Volumen gibt es jetzt die Infos über das Original und die Blöcke 10-30 in der Kopie. Jetzt verändere mal die Kopie oder füge zum Original etwas zu die Verwaltungsinformationen explodieren! Und bei APFS liegen die "quer Beet" auf dem Volume.
Apple nutzt CopyOnWrite unter anderem für Time Machine (über Snapshots auf APFS-Volumes).
Sorry ist etwas länger geworden.

Bye, eweri
+4
eweri27.12.19 23:32
don.redhorse
Ferner wird auch Copy-On-Write unterstützt, mit dem sich Datei-Kopien anlegen lassen, welche keinen zusätzlichen Platz belegen – bis einzelne Teile der Datei verändert werden.

Das ist ein Snapshot, kein CoW. CoW heißt, dass beim umkopieren erst kopiert, dann geprüft, dann die alte Datei gelöscht. Das ganze kennt man schon sehr lange von ZFS.
Die restlichen Funktionen kennt man z.B. Von Linux, LVM. Apple hat, mal wieder, sich das Beste zusammen gesucht.
Muss man denn APFS auf nicht Systemplatten verwenden? Ich nutze APFS nur auf SSDs, Festplatten laufen mit HFS+.

Ich schon wieder beim Klugsch....: don.redhouse hat recht und Du hast das leider verwechselt. CopyOnWirte ist zwingend erforderlich, wenn man in vertretbarer Zeit Snapshots machen will. Erst wenn das Original oder die Kopie verändert wird findet der tatsächliche Kopiervorgang statt. Deswegen benötigt das Anlegen von Snapshots "fast" keine Zeit - es werden ja nur Verzeichnisinformationen angelegt, aber Daten werden nicht kopiert. Erst wenn jetzt eine Datei verändert wird, wird tatsächlich eine Kopie angelegt.
So viel ich weiß, unterstützen alle modernen Dateisysteme CoW und können somit Snapshots unterstützen. Ich denke mal Apple, hat viel bei ZFS und BTRFS abgeschaut .

Bye, eweri
+2
sierkb28.12.19 00:29
bmonno
Bei HFS+ braucht man kein Defragmentierungsprogramm

Das stimmt nur zum Teil bzw. nicht uneingeschränkt. Es kann durchaus sehr wohl Sinn haben, ggf. ein Solches ergänzend einzusetzen.
bmono
die Defragmentierung wird vom System unter bestimmten Bedingungen selbst durchgeführt.

Unter bestimmten Bedingungen. Eben. Dann. Und nur dann, wenn diese bestimmten Bedingungen (und zwar mehrere bzw. alle davon gleichzeitig) erfüllt sind, ansonsten defragmentiert es eben nicht automatisch und fragmentiert bzw. lässt bestimmte Dateien (nämliche jene, die diese bestimmte Bedingungen nicht erfüllen, z.B. Dateien > 20MB) fragmentiert.
Amit Singh, kernelthread.com
What is Mac OS X?
Mac OS X Filesystems


[…]
Optimizations

HFS+ also has a few specific optimizations. When a file is opened on an HFS+ volume, the following conditions are tested:

  • The file is less than 20 MB in size
  • The file is not already busy
  • The file is not read only
  • The file is fragmented (the eighth extent descriptor in its extend record has a non-zero block count)
  • The system uptime is at least 3 minutes


If all the above are satisfied, the file is relocated (de-fragmented) - on-the-fly.
[…]
Q: kernelthread.com, Amit Singh: What is Mac OS X? (via Internet Archive)
+1
tranquillity
tranquillity28.12.19 10:43
Ich kann den Artikel bestätigen. Ich habe es bei meinem FusionDrive selbst erlebt. Das war nämlich auf einmal voll (obwohl der Finder noch 190 GB als frei angezeigt hat, auch so ein APFS-Thema). Nichts konnte ich mehr machen, noch nicht einmal den Papierkorb löschen (da fühlte ich mich an kafaeske Windows-Fehlermeldungen erinnert: Sie können keine Datei löschen weil das Volume voll ist...). Nachdem ich das mit Umwegen über die Rettungspartition wieder hinbekommen hatte, war das Fusiondrive so schnarchlangsam geworden dass ein Arbeiten nicht mehr möglich war. Selbst starten vom Backup über eine externe USB-Festplatte war schneller.
Zuerst dachte ich die HD sei defekt, aber das war nicht der Fall. Es lag wirklich an dem völlig unzureichenden APFS. Für SSDs mag es ok sein, für Festplatten ist es auf längere Zeit gesehen ein Killer.
Schlussendlich habe ich das FD aufgelöst und die HD gegen eine 2TB Samsung SSD ersetzt.
+1
gfhfkgfhfk28.12.19 11:13
bmonno
Bei HDDs ist Defragmentierung für die Perfomance absolut wichtig, bei SSDs ist sie kontraproduktiv, da sie die Schonung der SSD unterläuft und sinnfrei ist.
Das hängt vom Filesystem ab. HFS+ hat damit Probleme, XFS, JFS, ext4, … üblicherweise nicht, weil es bei denen im laufenden Betrieb ohnehin gemacht wird (es werden die Schreibvorgänge aufs FS optimiert). Ein Multiuser OS fährt man nicht mal eben herunter, um das FS zu defragmentieren.
+1
jeti
jeti28.12.19 11:35
Ich bin immer davon ausgegangen das gerade die TRIM-Funktion der Angelbird
DAS Feature für den Mac sei und das nachträgliche TRIM-Frickeln
bei „normalen“ SSDs zu Problemen führen kann.
Abgesehen davon das ich mit Samsung ein persönliches Problem habe.

Alle Geräte von Samsung, egal ob Mobiltelefon (Slider), Fernseher und BluRay-Player
welche ich hatte waren Qualitativ dermaßen schlecht das diese kurz nach,
oder sogar vor Ende der Garantiezeit ihren Dienst quittierten.
Und der Support von Samsung tat rein NICHTS und war nicht in der Lag eine
entsprechende Lösung anzubieten, lediglich ein „da haben Sie Pech gehabt“ erhielt ich.
Aber dieses ist ein anderes Thema und soll nicht hier behandelt werden.
+1
don.redhorse28.12.19 12:25
jeti

Samsung schafft es aber seit Jahren gut in der Presse zu stehen und sage mal etwas gegen Samsung... ich bin mit dem Laden auch seit einigen Jahren so etwas von durch. Das letzte waren die Basic SSDs bei denen alte Daten Sau lahm wurden. Seit dem vermeide ich alles von Samsung was geht. Das ganze zog sich aber über DVD und BD Brenner, Monitore, Drucker und Scanner Drucker Mufis. Festplatten (einige). SSDs nehme ich meist Crucial, SanDisk/WD. Sticks und SD Karten nur SanDisk. Monis NEC/ ViewSonic Drucker meist Brother, habe aber auch noch einen alten HP im Einsatz (der hat mehr Betriebsstunden als ein neuerer Samsung, der ist genau nach Ablauf der Garantie gestorben, aber schon nach einem Jahr war der Treiber die letzte Zicke).

Mir tut jedes Bauteil von Samsung in meinem iPhone weh, schon fast nen Grund die nicht mehr zu kaufen. Leider kann man sich gegen Samsung in der Zulieferkette nicht wehren, aber Geräte mit Samsung Logo kommen mir nicht ins Haus.
-1
bmonno28.12.19 13:04
Das hätte ich gerne näher erläutert. Vielleicht verstehe ich ja auch was falsch.
Eine Defragmentierung läuft nach meinem Verständnis so ab: die z.B. in den Blöcken 1-4, 11-14 und 21-24 fragmentiert gespeicherte Datei wird gelesen und in die Blöcke 31-42 neu geschrieben. Eine Defragmentierung führt also immer zu einem Schreibvorgang, der bei SSDs lebenszeitverkürzend wirkt und zeitlich kaum etwas einbringt. Ausserdem weiss ja wegen Wear Levelling nur der Controller der SSD, auf welchen realen Zellen die Daten gespeichert sind. Ich hoffe mal, die von dir gelobten FS nehmen darauf Rücksicht.
Bei HDDs halte ich das in HFS+ eingebaute Verfahren für ausreichend. Ich habe wohl schon 10 Jahre HFS+-Volumes nicht mehr defragmentiert. Allerdings sind bei mir auch die Füllgrade nie über 80%.
gfhfkgfhfk
bmonno
Bei HDDs ist Defragmentierung für die Perfomance absolut wichtig, bei SSDs ist sie kontraproduktiv, da sie die Schonung der SSD unterläuft und sinnfrei ist.
Das hängt vom Filesystem ab. HFS+ hat damit Probleme, XFS, JFS, ext4, … üblicherweise nicht, weil es bei denen im laufenden Betrieb ohnehin gemacht wird (es werden die Schreibvorgänge aufs FS optimiert). Ein Multiuser OS fährt man nicht mal eben herunter, um das FS zu defragmentieren.
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.