Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>Extreme Speed-Probleme [mit MBP i5]

Extreme Speed-Probleme [mit MBP i5]

thomas.hoefler
thomas.hoefler13.06.1112:24
Ich habe auf meinem MBP mit i5 und 4GB Ram extreme Probleme mit der Geschwindigkeit. Der Systemstart ist mehr oder weniger flott vollzogen, aber was danach kommt frustet mich jedes mal und es macht auch keinen Spaß mit dem System zu arbeiten.

Bei jedem Klick muss ich ewig warten bis was passiert. Allein um den Prozessor und die RAM Info zu bekommen (Über diesen Mac) benötigte er rund 20 Sekunden. In iPhoto ist das ganze noch schlimmer. Nahezu jeder Klick bringt den Beachball hervor... Es läuft in der Aktivitätsanzeige aber auch nichts was auf das Problem hindeuten würde. Könnte mir jemand vl. einen Tipp geben was da mit meinem System los ist ?

Liebe Grüße
0

Kommentare

LordLasch13.06.1112:33
klingt nach ner defekten oder vollen Festplatte. Mal die Rechte im Festplattendienstprogramm repariert, PRAM Reset gemacht, neuen Benutzer angelegt um zu schauen obs bei dem auch so lahmt?
0
thomas.hoefler
thomas.hoefler13.06.1112:50
auf der festplatte sind noch 11 gb frei. checke gerade die zugriffsrechte und danach das volume, danach nehm ich mir das pram vor . bei einem neuen/anderen benutzer ist leider alles gleich ...
0
roelzer13.06.1113:06
dann ist es die festplatte die zu klein ist du brauchst min 10% freien speicher damit es flüssig läuft
0
thomas.hoefler
thomas.hoefler13.06.1113:14
anscheinend waren die rechte im argen hab sie jetzt mal repariert. mit der disk ist alles in ordnung und pram wurde auch resettet. sonst noch tipps ?

danke schonmal
0
mk27ja95
mk27ja9513.06.1114:21
War bei meinem macmini auch so, nicht mal der Genius von Store konnte helfen obwohl sie sahen das er extrem langsam war. Nu geh ich und hab ihn verkauft. Mal sehen ob ich noch nen mac kaufe.
0
Krypton13.06.1114:46
Du kannst die Hardware der Festplatte noch mit SmartUtility (läuft ein paar Tage als vollwertige Demo) testen

Ansonsten würde ich roelzer zustimmen. Ich habe schon mehrere Rechner erlebt (besonders mit SSD aber auch mit normaler HDD), die bei nahezu voller Platte extrem langsam wurden. Ich würde mal ein paar GB auf eine externe auslagern oder auf DVDs brennen und der Platte etwas mehr Luft verschaffen. Wenn’s danach schneller ist, musst du entweder Daten auslagern und löschen oder eine größere Platte kaufen.

Sagt die Aktivitätsanzeige (Programme > Dienstprogramme > Aktivitätsanzeige) vielleicht noch was? Hohe Auslastung, ein Programm das hängt?
Sind in der Konsole Fehlermeldungen zu finden (Programme > Dienstprogramme > Konsole)?
0
v3nom
v3nom13.06.1115:40
11GB sind viel zu wenig. Schaufel mal etwas mehr Platz frei!
0
julesdiangelo
julesdiangelo13.06.1117:33
Falls du eine Bootcamp Partition hast, ziehe die mal in die Spotlight Privatsphäre.
„bin paranoid, wer noch?“
0
mk27ja95
mk27ja9514.06.1121:42
Ich hatte 250 gb frei und trotzdem nix besser.
0
nasa14.06.1122:25
dann kanns gut und gerne auch mal sein, dass die plattenelektronik einen schuss weg hat - selbst wenn das festplatten dienstprogramm was anderes sagt.
war bei mir im service oft genug der fall.

davon ab - 11gb freier festplattenplatz ist ein untrügliches zeichen dafür, dass man sich dringend nach einer grösseren festplatte umschauen sollte. kost ja heut (fast) nix mehr das zeug.
0
tomtom0070015.06.1108:11
Ich lasse immer 50 % frei, damit hat man auf Dauer genug Power
0
thomas.hoefler
thomas.hoefler15.06.1108:19
die windows partition hab ich zu den ausnahmen von spotlight hinzugefügt. find ich schon schwach von osx das es so ein großes problem darstellt wenn man nur mehr wenig speicherplatz zur verfügung hat !
0
Hannes Gnad
Hannes Gnad15.06.1108:48
Das weniger mit dem OS zu tun denn mit dem Dateisystem und dem Verhalten von mechanischen Festplatten. Dieser Text bezieht sich auf Windows als OS und NTFS als Dateisystem (und einen Server als Maschine), aber für Mac OS X und HFS+ (und einen einzelne Maschine) gilt das alles gleich bis ähnlich, bis auf den Absatz "Client-local memory resources".
Many things can impact a server's file-serving performance. Fullness of the file-system is but one of many things that can contribute.

- Raw disk throughput. If the numbers of I/Os being thrown at your disks exceeds their ability to keep up, it'll get slow.
- Disk I/O patterns. Some disks behave better with massively random I/O than others. SATA, for instance, doesn't perform as well with massively-random I/O as SAS or SCSI drives.
- Disk controller resource exhaustion. Whatever you're using for RAID (presuming you are, and this isn't just a single disk) has its own resources. If you're using a parity RAID, it's controller CPU that limits how fast you can commit data to disk. Also, most hardware controllers have their own onboard cache. This is used for many things, but includes reordering writes for improved efficiency. If I/O gets too random, your RAID card may not be able to optimize as well.
- File-cache memory resources. File-servers perform best when they can fully cache 100% of the open files in memory. This allows them to accept writes from clients and reorder commits to disk in such a way as to make them more efficient. If you can't fit your entire open file set in memory, it'll have to go direct to disk for those I/Os and you'll lose this performance enhancement.
- Client-local memory resources. Through the use of OpLocks, clients can cache open files locally on themselves. Once more than one client opens the same file, the server tells the client to flush its cache, and this goes away. However, for some workloads it can be a real savings. If the client doesn't have enough file-cache space to cache open files, performance can degrade noticeably when opening files exclusively.
- File-system fragmentation. A massively fragmented file-system by its very nature induces a massively random I/O pattern on the disk subsystem. If that sub-system can't tolerate that sort of I/O pattern, things get real slow.
- User-generated I/O patterns. If your users are working on millions of office documents (generally under 2MB in size) your access patterns are going to be very random. If your users are working on large files such as video files, geospatial data, or AutoCAD files, your users will be generating a lot of sequential operations.

Some of these interrelate and many times it'll be multiple issues driving a performance problem. In general, NTFS filesystem fragmentation does have an impact. The impact is worst when doing large sequential reads from such a file-system, such as happens during a backup. The impact to general file-serving performance is not as significant for typical office-server loads since those are largely random I/O anyway; and in some cases you can even see some performance improvements with a fragmented system over a fully defragged one.

For a file-server storing a lot of AutoCAD files, NTFS fragmentation will be perceptible to the end users. That user-generated I/O pattern is significantly sequential, and is therefore vulnerable to degradation by fragmentation. How much it'll be really impacted is dependent upon how much RAM the server has for caching, and how fast the underlaying storage is regarding random I/O patterns. It could very well be that the underlaying storage is fast enough that end-users won't notice a volume with 60% fragmentation. Or it could cause I/O saturation with only 15% frag.

For a file-server storing a lot of plain old office files, NTFS fragmentation will not be as perceptible to end users. That user I/O pattern is significantly random as it is, and is minimally impacted by fragmentation. Where the problems will emerge is in the backup process, as the time to backup each GB will increase as fragmentation increases.

Which brings me to my final point. The one I/O operation that is most affected by fragmentation is sequential I/O. Most servers undergo large scale sequential I/O patterns as part of the backup process. If you're having trouble fitting your backup into your backup window, defragging can help make things go faster. Your underlaying storage systems will determine how much of an impact fragmentation can have, and your fragmentation numbers will determine how much of an impact it actually has. Know your storage.
0
nasa15.06.1108:51
Ein System braucht nunmal Platz. 11GB ist nun wirklich nicht mehr die Welt oder ?. Jammern auf hohem Niveau nenne ich das.
Kauf Dir einfach eine grössere Platte und gut ist.
0

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.