Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Defragmentieren für mac OSX 10.5.2

Defragmentieren für mac OSX 10.5.2

rh31018830.03.0821:38
Hallo!

Zwar wollte ich euch folgendes fragen:
Wenn man häufig größere Dateien aus dem Internet lädt, dann entstehen größere Fragmente auf der Festplatte.
Sollte man nun auf Mac OSX 10.5.2 dann versuchen zu Defragmentieren?

Danke im voraus für eure Hilfe!
0

Kommentare

chill
chill30.03.0821:40
kurze antwort: nein! defragmentierung ist nicht nötig. niemals nötig sogar
„"¿ssıəɥɔs ɹəp llos sɐʍ" :ʇƃɐs əsıəʍ ɹəp 'ßıəʍ sɐʍ ɹə sɐp ßıəʍ əƃnlʞ ɹəp“
0
seven30.03.0821:56
Dem Kommentar meines Vorgängers muss ich energisch widersprechen!

Es kommt immer auf die Situation an. Die Boot-Platte muss eigentlich nicht defragmentiert werden, das übernimmt OS X in gewissen Grenzen für uns.

Externe Medien sehen da unter Umständen ganz anders aus.

Beispiel:

Meine iTunes Bibliothek liegt auf einer externen Platte (1 TB) und wird sehr intensiv genutzt (Neue Titel aufnehmen, alte löschen, usw.) und alle paar Monate muss ich hier defragmentieren, da sonst jegliche Änderungen der ID-Tags "grotten-langsam" werden.

Hier bietet sich als derzeit einziges Tool iDefrag an. Kostet zwar ein paar Euro, funktioniert dafür tadellos.

(http://www.coriolis-systems.com/iDefrag-2.php)

0
oliver
oliver31.03.0800:05
seven

was wohl eher für die "grottenlangsame" geschwindigkeit sorgt, ist die aufgeblähte itunes-bibliothek.

defragmentierung ist zu 99,99% unnötig.
„multiple exclamation marks are a sure sign of a diseased mind. -- terry pratchett“
0
Eldorado54631.03.0802:08
Also wenn ich mir das so vorstell was wohl schneller ist: eine Platte voll mit Dateien jeweils an einem Stück oder alles millionenfach zerstückelt... ich persönlich tendiere zu letzterem.
Macht das also OS X wirklich so ganz von selbst (auch auf anderen Medien!) oder holt man mit einer Defragmentation nicht doch was raus bezüglich Lesegeschwindigkeit...?

Schon jemand Tests diesbezüglich gemacht oder irgendwo darüber gelesen?
0
Garak
Garak31.03.0807:34
MacOS X defragmentiert nur in engen Grenzen. Nach meinem Kenntnisstand prüft es bei (defragmentierten) Dateien mit max. 20 MB, ob diese zusammenhängend gespeichert werden kann. Wenn ja, wird sie auf einem anderen Plattenplatz zusammengeführt.

Was MacOS X nicht verhindert, ist die allgemeine Defragmentierung des freien Speicherbereiches auf den Speichermedien.

Hat eine Platte einen hohen Auslastungsgrad kann es je nach Nutzungsverhalten zu 10- oder 100-tausenden kleinen freien Speicherbereichen kommen. Da MacOS X selbst sehr viel Speicher während seines Betriebs auslagert, kann es meiner Meinung nach zu spürbaren Performanceeinbußen während des allgemeinen Betriebs von MacOS X kommen. Die ausgelagerten Daten sind dann über die Platte verteilt und müssen mühsam mit vielen mechanischen Bewegungen wieder zusammengeklaubt werden. Das Defragmentierungsproblem betrifft also nicht nur die Ausführung von Anwendungsprogrammen, deren Dateien verstreut sind.

Ich defragmentiere i.d.R. jedes Jahr einmal, indem ich die betreffende Platte auf eine externe Platte klone (Carbon Copy Cloner bzw. vergleichbare Programme), sie dann lösche und sie dann durch eine "Rückkopie" von der externen Platte wiederherstelle.
0
aikonch31.03.0807:53
Man kann das für sich selbst recht einfach testen....wenn ich nach vielen Monaten mein System boote geht dies xx Sekunden was ich genau gemessen hatte während 2 Boots. Dann Clone auf eine externe Platte mit SD und dann wieder zurück uns siehe da, 7 Sekunden beim Booten gestartet (ich starte sehr viele Programme mit) und dabei war alles absolut identisch. (Ebenfalls nicht vergessen das bei einem solchen SD-clone auch TMP und gewisse Logfiles weggelassen und somit nachher neu und wohl schneller geschrieben werden)
Bei der allgemeinen Arbeit merkt man aber nichts und somit würde ich ehrlich gesagt auch eher nicht defragmentieren, denn das diese Tools mitunter gefährlich sind sollte logisch sein und somit würde ich wenn dann eher hie und da ein Clone vorziehen....
0
oliver
oliver31.03.0809:09
um ein paar sekunden beim startvorgang zu sparen stundenlang dateien hin- und herkopieren und womöglich beschädigungen an dateien zu riskieren? wow - das ist doch mal ein angemessenes aufwand-nutzen-verhältnis
„multiple exclamation marks are a sure sign of a diseased mind. -- terry pratchett“
0
Gaspode31.03.0809:37
Durch größere Dateien entsteht keine Fragmentierung. Weder unter OS X noch unter Windows NT/XP/Vista. Das ist Voodoo aus vergangenen Jahrhunderten. Lass das mit dem Defrag.

Garak Was Du schreibst ist leider von vorne bis hinten falsch. Besorg Dir mal Tools um die Dateien auf der Platte anzusehen, das gibt es für die Kommandozeile wie auch grafisch. Da fragemntiert nicht's, Deine Theorien basieren nicht auf der eingesetzten Technologie sondern auf Amiga-Halbwissen.
0
Maxefaxe31.03.0809:46
oliver
um ein paar sekunden beim startvorgang zu sparen stundenlang dateien hin- und herkopieren und womöglich beschädigungen an dateien zu riskieren? wow - das ist doch mal ein angemessenes aufwand-nutzen-verhältnis

So siehts aus. Wer keine Probleme hat, macht sich halt welche. Manche können nach 10 Jahren Windows einfach nicht loslassen.
0
Gaspode31.03.0809:46
oliver Das ist wie unterm Auto liegen und die Untergrundversiegelung optimieren für höhere Geschwindigkeit auf der Autobahn *g* Computer sind langsam nix mehr für harte Männer, das meiste geht automatisch besser als brachial von Hand. cronjobs aus der Mode, defrag lächerlich, Rechte reparieren sinnlos, PRAM zappen als abergläubisch verschrieen. Wo soll der Mann da noch seinen Sinn im Leben finden? Ich hab aber die Lösung: In der aktuellen c't ist ein 16-Seitiger Artikel für den Umstieg von Vista auf Vista x64, und ein 6-seitiger Artikel mit schönen BIOS Screenshots (Mit der Digicam gemacht, Screenshot geht ja nicht im BIOS). Da kommt noch Freude auf und man hat was zum basteln, fühle mich in meine Jugend mit ALF Controller, Low level format und himem.sys zurück versetzt.
0
aikonch31.03.0809:51
Wie ich ja schon schrieb macht es nicht viel Sinn, ich musste dies allerdings machen da sich eine BootCamp Partition nicht anlegen liess obschon genügend Platz vorhanden war und genau mit diesem Vorgehen klappt es danach auch wieder und da hatte ich eben auch noch kurzerhand die Zeit gemessen, aber wie gesagt ist das nicht weiter wichtig und beim täglichen Arbeiten bemerkt man diesen Unterschied nicht....
0
Martinus
Martinus31.03.0809:53
Habe seit 2001 nicht mehr Defragmentiert. Zuletzt bei Windows ME (danach Totalschaden).
Dennoch läuft alles bestens.

... mein persönliches Fazit: total unnötig! (und ich bin bestimmt nicht jemand der nicht gerne am System rumpfriemelt )
0
oliver
oliver31.03.0810:31
die einzige situation, in der dieses dateiverschiebebahnhofspiel gerechtfertigt ist, wurde von @@aikonch genannt, und zwar wenn der freie speicherplatz zwar ausreichend groß, aber zu sehr auf der platte verstreut ist, so dass man keine repartitionierung vornehmen kann.

ansonsten empfehle ich gegen bastel- und gefrickelentzugserscheinungen eine modelleisenbahn, einen verwilderten garten oder die aufarbeitung eines oldtimers
„multiple exclamation marks are a sure sign of a diseased mind. -- terry pratchett“
0
aikonch31.03.0810:33
oliver ODER man installiert WinXP/Vista da gibt es immer so einiges zu tun....
0
_mäuschen
_mäuschen31.03.0811:47
für die Kommandozeile wie auch grafisch. Da fragemntiert nicht's,

Von wegen ...


0
_mäuschen
_mäuschen31.03.0811:48

Und dies meine Systemplatte


0
Martinus
Martinus31.03.0812:12
... ja aber so lange der Rechner damit klarkommt... ich meine, ich muss das Zeug auf der Platte ja nicht wiederfinden; von mir aus kann der das so ablegen wie er Bock hat. Nur laufen soll er halt. Und das macht mein Mac OS X im Gegensatz zu Win.
0
Onlymac31.03.0812:30
Kurz mal zum Verständnis!
Wenn eine Datei fragmentiert ist kommt es beim laden zu unnötigen Zeitverlusten, da der Schreib-, Lesekopf immer neu positioniert werden muss. Ausserdem ändert sich die Geschwindigkeit beim Schreiben und Lesen in Abhängigkeit vom Abstand der Spur zum Zentrum der Platte. Sicher handelt es sich nur um Sekundenbruchteile, aber bei großen Dateien und einer Unmenge von Fragmenten macht sich die Fragmentierung bemerkbar. Gerade bei Startpartitionen sollten Systemdateien im Zentrum der Platte (schnellere Ladezeiten) befinden und möglichst unfragmentiert sein. Das OSX die Fragmentierung beseitigt ist ein Wunschtraum und hat nichts mit der Realität zu tun. Man sollte es aber mit der Defragmentierung auch nicht übertreiben. Wichtiger ist es Platten nicht bis zum letzten Bit voll zu schreiben, weil dann das System egal ob OSX, Unix oder Windows unerträglich langsam wird. Man sollte ab und zu einmal nicht benötigte Datenlöschen um Datenmüll auf der Platte vorzubeugen.
Die Aussage man braucht nie zu Defragmentiern zeigt nur, dass derjenige keine Ahnung hat - Sorry aber es ist wie es ist.
0
Eldorado54631.03.0812:45
Onlymac

Ich hab das früher auch immer genau so und nicht anders verstanden. Nur haben mich diese endlos vielen Posts in der Vergangenheit, die das Gegenteil behaupten einfach misstrauisch gemacht, sodass ich nicht mehr defragmentiere...

Vielleicht sollte ich
0
aikonch31.03.0813:27
Onlymac, das dem so ist stimmt ja auch und da stimmen fast alle zu....nur das Defrag Sinn macht, dem ist eben echt nicht so....sprich das bisschen das man einspart merkt kein User. Selbst meine im Idealfall kurzzeitig bemerkten 7 Sekunden bei über 90 Sekunden gesammt spielt doch echt keine Rolle....Der Aufwand und vorallem die Gefahr welche es beim Defrag gibt überwiegt so ziemlich alles, auch die 2-x Stunden währenddessen ich dann den Rechner nicht nutzen kann macht keinen Sinn....
Ausserdem das mit dem weiter innen usw. Wie kann es dann sein das bei einem Klone mein Rechner zuerst schneller ist, hat SuperDuper erkannt welche Systemdateien sind und schreibt diese gleich zuerst und ganz innen bei der Platte.... Ich denke eher nicht...
0
Gaspode31.03.0813:31
_mäuschen Wow, 624 fragmentierte Dateien. Mein System hat sage und schreibe über 1 Mio. Dateien. Das ist die absurde Zahl die man heutzutage unter OS X locker zusammen bekommt. Und wie viel schneller wird Dein System, wenn es eine dieser 624 Dateien unfragmentiert lesen könnte?

Onlymac Soso, OS X defragmentiert also nicht. Wo hast Du denn diese Information her. Hast Du denn schon einen Bug in RADAR bei Apple eingestellt? Haben sie das Feature mit 10.5 heimlich ausgebaut? Deine Erkentniss mit dem legen in schnelle Spuren ist auch nicht gerade neu und auch das macht OS X seit ich weiss nicht wie vielen Jahren. Schau mal die Datei mit den Files in der Hot zone Deins Rootverzeichnisses an. Was macht die da wohl?

Lesestoff: http://www.kernelthread.com/mac/osx/arch_fs.html
0
Gaspode31.03.0813:34
aikonch Richtig erkann. Und: SuperDuper, CCC & Co. schreiben Dateien NICHT automatisch in die hot zone. Können sie auch nicht. Die Copyprogramme wissen gar nicht welche Datei am häfuigsten verwendet wird. Das weiss nur das Betriebssystem und zwar nachdem es eine laufende Betriebssystem-Anwendung eine Weile beobachtet hat. OS X führt darüber Statistik. Ich wüsste nicht wie ein Clonprogramm da ran käme. Es ist sogar noch schlimmer: Durch das weg- und wieder zurück kopieren landen nicht mehr die Dateien in der hot zone die da hin sollten, sondern irgendwelche. D.h. OS X muss mit dem Verschieben in die hot zone wieder NEU BEGINNEN. Der Vorgang ist diesbezüglich also absolut kontraproduktiv. Also die Tipps der Amiga-User in Bezug auf OS X, XP, Vista & Co. besser nicht befolgen
0
Der Mike
Der Mike31.03.0817:45
Auf was ich vor wenigen Tagen so allgemein schon einmal hinwies:


Selbst ein Mac OS zuletzt mal unter System 7.5.x "defragmentiert" habend (muss so 1996 herum gewesen sein). Dann aber sehr schnell gelassen (Norton Utilities ), weil Datenverlust. Aber man hatte ja schon damals ein Backup, was man sowieso grundsätzlich vor dem Einsatz von solchen Tools anlegt.

Ansonsten habe ich den Rechner - ein Power Macintosh 7600 - auch heute noch, nun halt unter Mac OS 9.2.2. Und der läuft auch ohne solches Gebastel nicht langsamer als mit. OK, könnte vielleicht gemessen werden, aber ich merk's in der Praxis nicht (weil HDs sowieso groß genug und immer mit genügend freiem Platz).

(HFS+ verhindert Fragmentierung an sich schon relativ wirkungsvoll.)

Gaspode
An sich stimme ich Dir voll zu, insbesondere beim Verhalten eines Unix à la Mac OS X samt Datei-Handling. Leute, Mac OS X ist weder MS-DOS noch Windows 9x/ME!

Aber lass doch bitte mal den Unsinn von den "Tipps der Amiga-User"! Ich bin nämlich einer.

Amiga 4000. Dateisystem SFS, ein recht modernes Dateisystem samt Journaling, was zudem erstens Fragmentierung durch sein Design à la HFS+ (und moderner) so gut es geht vermeidet und zweitens à la Mac OS X von selbst bei Benutzung im Hintergrund defragmentiert (sinnvoll!, was etwa Dateien bis zu einer Größe von 20 MByte sind, also nicht generell à la FAT32-Tools!).

Diesen Defragmentierungswahn kenne ich nämlich ausschließlich von Windows-Usern, selbst noch unter NTFS und Vista (braucht man's denn wirklich auch noch?). Was aber wohl mit deren frickeliger FAT-Vergangenheit zusammenhängt, dem fast bescheidensten Dateisystem ever.

(Ist ja als kleinster gemeinsamer Nenner für den Datenaustausch - USB-Sticks - oder auch den Massenspeichern von Digitalkameras vollkommen OK.)
0
Gaspode01.04.0809:10
War auch Amiga-User Allerdings war das bei mir noch ohne Journaling. Das kam erst später nach, oder? Ich bin abgesprungen irgendwann nach dem Amiga 1200. Hatte davor den 1000er, den 500er und einen 4000er.
0
Martin Springer01.04.0809:41
Nur warum gibt es überhaupt schon seit vielen Jahren iDefrag? Ich könnte mir vorstellen das eine defragmentierte Festplatte weniger Hitze erzeugt wie eine die kunderbund zerwürfelt ist. Nebenbei frag ich mich warum es auch nur iDefrag gibt und nix anderes. Wollen die von iDefrag nur Geld verdienen, oder haben die als einzige nur das Recht da drauf... Jedenfalls muss ich selbst auch bestätigen das ich mit einer Defragmentierten Festplatte in manchen dingen schneller bin wie ohne einer solchen Behandlung.
0
Gaspode01.04.0809:51
Martin Warum gab es solche Software wie RAM Doubler? Oder Aufkleber für das Fenster die Wahlweise vor Handystrahlung schützen oder den Empfang verbessern?

Weil die Wirksamkeit von Placebo bewiesen ist
0
lifenonstop01.04.0810:06
Test iDefrag bei MACWELT:

http://www.macwelt.de/news/software/329214/

Maclife.com:

http://www.maclife.com/article/idefrag_1_6_1
0
Martin Springer01.04.0810:37
Erfahrungsberichte les ich aber nicht wirklich heraus. Nicht bei Macwelt. Und Maclife... Fremdsprache
0
Gaspode01.04.0810:44
Die Zeitschriften haben generell nicht viel Ahnung. Der Test ist aber im speziellen schon 3.5 Jahre alt. Vor 3.5 Jahren war OS X evtl. noch ohne automatischen Defrag. Kam glaub ich mit 10.3 oder 10.4 dazu? Wer weiss es genau?

Der zweite Bericht ist sowieso witzlos. Kein Datum, keine Systemversion, nix. Nur das 10.3.7 die Voraussetzung ist. Auf das automatische Defrag geht er gar nicht ein. Da meine ich mal hat mein Link auf kernelthread den ich gesetzt habe 30x mehr Inhalt zu bieten.
0
lifenonstop01.04.0811:02
@ Gaspode

Schiesse dir doch kein Eigentor, bist etwas durch den Wind oder?... hier steht doch das was Du selber hier schreibst du Schnulli....

Ich zitiere:

"Ob eine Defragmentierung auf einem Unix-artigen Dateisystem wie unter Mac-OS X Sinn macht, ist unter Fachleuten äußerst umstritten. Denn HFS-Plus unter Panther sorgt im Prinzip selbst dafür, dass die Dateifragmentierung nicht ausufert und mit der Zeit zu Geschwindigkeitsverlusten führt."

Es ist doch schnuppe ob Panther, Tiger oder Leo...oder net?
0
Martin Springer01.04.0812:12
Wenn ich mit iDefrag meine Bootfestplatte (200GB) anschaue, finde ich jetzt nicht sooooo sehr das die durch das Dateisystem defragmentiert wurde... Siehe Bild. Auch wenn das defragmentieren keinen ersichtlichen Geschwindigkeitsgewinn bringen soll, bin ich mir doch relativ sicher das wenn mehrere Zugriffe gleichzeitig statt finden, die Geschwindigkeit erheblich zu wünschen übrig lassen würde, im Vergleich zum aufgeräumten System. Auch wenn HFS versucht zu vermeiden, so heisst es nicht das es nicht doch daten zerstückelt.

Ich wette wenn man den vergleich von fragmentiert und defragmentiert aus testet, dann immer nur fein mit einer einzigen App oder Plattenzugriff. Die Festplatte ist schnell genug um trotzdem hinterher zu kommen, aber bei mehreren Zugriffen? Dann grüssen wir wieder den Sat1 Ball...
0
Marcel_75@work
Marcel_75@work01.04.0812:25
Sehr zuverlässig (und mittlerweile auch unglaublich schnell) ist Alsoft DiskWarrior, außerdem repariert DiskWarrior Fehler, die das Festplatten-Dienstprogramm (bzw. fsck) nicht lösen kann.
0
Martin Springer01.04.0812:27
ups... Bild vergessen
0
_mäuschen
_mäuschen01.04.0812:29




0
chill
chill01.04.0813:20
macht ihr nur schön eure defragmentierungen ... ich lass es sein und habe ein entspanntes leben.
„"¿ssıəɥɔs ɹəp llos sɐʍ" :ʇƃɐs əsıəʍ ɹəp 'ßıəʍ sɐʍ ɹə sɐp ßıəʍ əƃnlʞ ɹəp“
0
Stefab
Stefab01.04.0813:26
Also etwas über 600 fragmentierte Dateien ist ein Witz! Als ich das alte Backup nur der "Library" gelöscht habe, waren da schon so um die 15.000 Dateien (oder mehr, k.A. mehr, aber soviel mindestens) drin, also hat ein ganzes System sicher mehrere 100.000 Dateien. Was sind da schon 650 Dateien im Verhältnis? Richtig: Ein Witz!
0
_mäuschen
_mäuschen01.04.0813:44

Diese etwas über 600 fragmentierte Dateien haben sich seit dem 17.05.05 (10.4.1)
angehäuft

Ich kann damit sehr gut leben


Wer sagt denn da was von Defragmentieren

0
Starfish01.04.0813:46
Marcel_75@work
Sehr zuverlässig (und mittlerweile auch unglaublich schnell) ist Alsoft DiskWarrior, außerdem repariert DiskWarrior Fehler, die das Festplatten-Dienstprogramm (bzw. fsck) nicht lösen kann.

kann ich nur bestätigen DW ist das einzige Tool das ich an meine HD´s ranlasse, drive genius soll auch ganz gut sein

wichtig ist aber das man immer die aktuellste Version der Programme hat
„Der Macintosh ist katholisch: das Wesen der Offenbarung wird in einfachen Formeln und prachtvollen Ikonen abgehandelt. Jeder hat das Recht auf Erlösung.“
0
aikonch01.04.0813:55
Wichtig ist nur wenn man den Glauben hat das es was bringt und dies dann auch in die Tat umsetzen will sollte man immer bedenken das sowas zu tun ohne Backup ziemlich dumm ist.....
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.