Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Musik
>
Import von CDs - Qualitätsänderungen beim Import über die Jahre?
Import von CDs - Qualitätsänderungen beim Import über die Jahre?
SaltyJoe
19.04.26
14:46
Hallo Leute,
ich habe vor vielen Jahren meine CDs in iTunes importiert, Apple Lossless. Zum Schluss nach vielen vielen Alben, sonstigen Titeln und Updates hat es mir irgendwann mal die ganze Bibliothek zerschossen. Bspw. hatten alle Playlists ganz andere Cover und ich konnte grds. keine Cover automatisch hinzufügen. Egal. Nun kam vor einiger Zeit mein neuer Laptop (MBAir M4, Tahoe) und ich hatte überlegt, erneut alle CDs einzuspielen.
Meine Frage: Hat sich über die Jahre die Qualität des Imports verändert? Also ist der Import in iTunes ggf. heute irgendwie besser als vor 5/8/10 Jahren? Wenn nein, dann könnte ich ggf. die alten Files nutzen, wenn ja, importiere ich vermutlich neu.
LG, Salty
Hilfreich?
+4
Kommentare
|<
1
2
MacStudio
29.04.26
12:31
spheric
Wenn “Sound Check” (automatisches Angleichen der Lautstärke) ausgeschaltet ist und am EQ/Gain der einzelnen Stücke nicht herumgespielt worden ist, sollte sich absolut nichts geändert haben.
doch, das habe ich natürlich ausgeschaltet. Mein subjektiver Eindruck ist trotzdem, dass die Software die Töne anders verarbeitet. Beispiel iPhone: ein Stück klingt unterschiedlich, selber Lossless-File, wenn ich ihn mit "Music" oder "Doppler" abspiele. Aber das hängt wirklich vom Ursprung ab und vor allem von der Musik als solches bzw. deren Mix.
Hilfreich?
0
Weia
29.04.26
21:42
spheric
Allerdings geht es in dem Kommentar von @macerkan — was ihm möglicherweise gar nicht bewusst ist — um Phänomene der Aufzeichnung (Quantisierungsrauschen) und Musikwiedergabe (Jitter).
Ja, aber in diesem Thread geht es eben
nicht
darum. Es spielt keine Rolle, was
macerkan
bewusst ist oder nicht, der Punkt ist einfach, dass im hiesigen Kontext seine Aussage ganz schlicht
falsch
ist.
Dass diese Phänomene im fraglichen Szenario keine Rolle spielen, ändert nichts daran, dass Jitter durchaus real ist und man durchaus gezwungen ist, dafür Lösungen anzuschaffen.
Natürlich ist Jitter ein reales Problem, aber eben nicht hier.
Wie Dir bekannt sein dürfte
, habe ich weniger als andere hier etwas gegen assoziative off-topic-Seitenstränge, aber dann muss der getrennte, neue Kontext klar sein. Das war er bei Deiner Antwort aber nicht; Du schriebst:
spheric, Auslassungen von mir, Weia
DunklesZischt
macerkan
Das was hier so geschrieben wird, kann ich so nicht stehen lassen. Eine Digitalkopie ist nie hundertprozentig 1 zu 1. […] Nicht umsonst gibt es im HiFi- und vor allem HighEnd-Bereich hochwertige Kabel und auch z. B. Schaltungen und Maßnahmen, um das Jitter-Problem[…] in den Griff zu bekommen. […]
Das ist schon im analogen Bereich praktisch hanebüchener Unsinn. Und bei digitalen Signalen zu 100%. […] Wenn bei jeder Übertragung eines digitalen Signals ein paar Bits auf der Strecke bleiben würden, dann ließe sich keine einzige Datei auf oder von einem Datenträger transferieren.
Ääähhhh — zumindest das mit dem Jitter stimmt.
Das ist
zumindest
fahrlässig verkürzt (denn es stimmt eben
nicht
im Kontext des Kopierens); es fehlt jegliche Kontextualisierung à la
Ja, beim Kopieren digitaler Daten spielt Jitter in der Tat keine Rolle, aber an anderer Stelle kann er tatsächlich ein Problem sein
. Der Leser, der nicht so tief in der Materie drinsteckt, muss ohne eine solche Klarstellung unwillkürlich denken
Aha, irgendwas ist an dem Problem mit Jitter beim Kopieren von Daten doch dran.
Jitter betrifft nicht die Bits, sondern deren
Timing
— und das ist bei Musik, im Gegensatz zu einfachen Datan, von absolut kritischer Bedeutung.
Und in diesem darauf folgenden Satz wird es terminologisch dann völlig schräg, denn dort es klingt so, als gäbe es einen Gegensatz zwischen „einfachen“ digitalen Daten und solchen („komplexen“?), die Musik codieren. Und das ist schlicht falsch; digitale Daten sind
stets
Nullen und Einsen und
nichts
darüber hinaus. Musik-Daten unterscheiden sich da in
nichts
von anderen.
Worauf Du dich beziehst, ist die
Schnittstelle
von der digitalen zur analogen Domäne, in die Musikdaten gewandelt werden müssen, um ihren Zweck zu erfüllen.
Die
digitale
Domäne ist rein virtuell und besteht aus diskreten binären Datenblöcken, sonst nichts. Die
analoge
Domäne (die ihren Namen erst retrospektiv in Abgrenzung zur digitalen bekommen hat) besteht aus Parametern der physischen Welt, die in aller Regel stetig verlaufen und beliebig viele numerische Werte annehmen können. Um Daten zwischen beiden Domains transferieren zu können, bedarf es auf der analogen Seite entsprechender
analoge
Referenzgrößen für die Übersetzung von digitalen Werten in analoge und vice versa.
Im konkreten Fall von Musik geht es um zwei analoge Größen, die digital codiert sind:
elektrische Spannung
(die im Lautsprecher dann in Membranauslenkung gewandelt wird) und
Zeit
, die zusammen den Spannungs
verlauf
ergeben. Als analoge Referenzgrößen brauchst Du also eine Referenzspannungsquelle samt Widerstandsnetzwerk, um Zahlenwerten (durch die Widerstände entsprechend abgeschwächte) Spannungswerte zuzuordnen und einen Referenztaktgeber für die Zeitreferenz (die “Clock”). Beides sind
analoge
Referenzen aus der
physischen
Welt; nur dadurch können virtuelle Digitaldaten in physische Analogdaten übertragen werden.
An diesen beiden
analogen
Referenzen hängt die Qualität der Wandlung; eine minderwertige Referenzspannungsquelle erzeugt nichtlineare Verzerrungen, ein minderwertiger Referenztaktgeber Jitter. Beides geschieht ausschließlich im Augenblick der Wandlung und beeinflusst die digital-interne Integrität der Daten bei Kopiervorgängen etc. in keiner Weise.
Ach Weia, manchmal würde es Dir wirklich gut tun, einfach die Klappe zu halten.
Ist es wirklich sooo schwierig, sachlich zu bleiben?
Natürlich
ist Jitter ein
digitales
Phänomen.
Das ist nicht natürlich, sondern falsch, wie Du einen Satz später doch selbst schreibst:
spheric, Hervorhebung von mir, Weia
Jitter ist auf das
analoge Verhalten
eines digital übertragenen Signals zurückzuführen
Aber wenn Du wirklich behaupten willst, die Stabilität der Taktfrequenz eines Digitalchips sei ein analoges Phänomen
Ja, was denn sonst?
Frequenz
ist ein physischer Parameter, der stetig verändert werden und beliebig viele Werte annehmen kann – das Paradebeispiel eines
analogen
Phänomens.
In der digitalen Domäne gibt es sowas wie Zeit überhaupt nicht, nur zeitlose diskrete Binärzahlen, die unter anderen natürlich auch Zeitwerte der analogen Domäne repräsentieren können, selbst aber dennoch zeitlos bleiben. Ein Datenverarbeitungsvorgang in der digitalen Domäne ist vollkommen zeitunabhängig; ein Algorithmus führt zu dem exakt selben Ergebnis, ob du ihn nun mit 1 kHz oder 1 GHz Prozessorfrequenz ausführst – er rechnet nur unterschiedlich lange bis zum Ergebnis.
ist das Gespräch an dieser Stelle beendet.
Fein.
spheric, ergänzender Zitatkontext von mir, Weia
Weia
spheric
Abgesehen davon ENTSTEHT Jitter — wie beschrieben — durchaus innerhalb der digitalen Domäne.
Wichtig wird er erst dann, wenn auch auf analog konvertiert wird.
Nö, wenn bei einem Echtzeitstream z.B. Daten einer Datenbank (die aber aus gutem Grund niemand per Echtzeit-Stream übertragen würde) verhunzt werden, ist die Datenbank auch korrupt, obwohl nirgendwo in irgendein Analoges gewandelt wird.
Was möchte uns der Künstler damit sagen?
Dass Jitter eben
nicht
schon in der digitalen Domäne entsteht und im Augenblick der Wandlung lediglich „wichtig wird“, sondern erst in genau diesem Moment entsteht.
Dass in einem Szenario, das niemand so machen würde, ein Problem auftauchen würde, bei dem man sich Gedanken machen müsste, wie das Signal-Clocking funktioniert?
Dass dieses Szenario, wo es jeder absurd fände, über Jitter zu reden, sich prinzipiell in nichts vom Kopieren von Daten von einer CD unterscheidet, sodass Überlegungen zum Thema Jitter da genauso unangebracht sind.
Ist das ein Gedankenexperiment, um mir recht zu geben?
Nö, um Dir zu widersprechen.
„„Meinung“ ist das Foren-Unwort des Jahrzehnts.“
Hilfreich?
+3
DunklesZischt
01.05.26
09:57
spheric
Lies mal bitte nach, was Jitter überhaupt ist, bevor Du weiterschreibst.
Jitter entsteht NICHT im Kabel.
Hilfreich?
0
spheric
01.05.26
11:14
DunklesZischt
spheric
Lies mal bitte nach, was Jitter überhaupt ist, bevor Du weiterschreibst.
Jitter entsteht NICHT im Kabel.
Zu kurze Kabel können zu Jitter beitragen.
„Früher war auch schon früher alles besser!“
Hilfreich?
-2
|<
1
2
Kommentieren
Sie müssen sich
einloggen
, um sich an einer Diskussion beteiligen zu können.
iOS 27: KI-Features geleakt
MacBook Pro "Touch" verzögert sich wohl
macOS und iOS 26.3.1(a) erschienen – als "Backg...
Ternus zur Produkte-Roadmap und KI-Bestrebungen...
Reizlose Kamerawelt?
MacBook Neo und Windows-VM: Parallels hat Tests...
Weiterer Bericht: Apple läuft dem Notebook-Mark...
Neues MacBook: Apple bereitet sich auf Kundenan...