Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Musik>Import von CDs - Qualitätsänderungen beim Import über die Jahre?

Import von CDs - Qualitätsänderungen beim Import über die Jahre?

SaltyJoe19.04.2614:46
Hallo Leute,

ich habe vor vielen Jahren meine CDs in iTunes importiert, Apple Lossless. Zum Schluss nach vielen vielen Alben, sonstigen Titeln und Updates hat es mir irgendwann mal die ganze Bibliothek zerschossen. Bspw. hatten alle Playlists ganz andere Cover und ich konnte grds. keine Cover automatisch hinzufügen. Egal. Nun kam vor einiger Zeit mein neuer Laptop (MBAir M4, Tahoe) und ich hatte überlegt, erneut alle CDs einzuspielen.
Meine Frage: Hat sich über die Jahre die Qualität des Imports verändert? Also ist der Import in iTunes ggf. heute irgendwie besser als vor 5/8/10 Jahren? Wenn nein, dann könnte ich ggf. die alten Files nutzen, wenn ja, importiere ich vermutlich neu.

LG, Salty
+4

Kommentare

MacStudio29.04.2612:31
spheric
Wenn “Sound Check” (automatisches Angleichen der Lautstärke) ausgeschaltet ist und am EQ/Gain der einzelnen Stücke nicht herumgespielt worden ist, sollte sich absolut nichts geändert haben.

doch, das habe ich natürlich ausgeschaltet. Mein subjektiver Eindruck ist trotzdem, dass die Software die Töne anders verarbeitet. Beispiel iPhone: ein Stück klingt unterschiedlich, selber Lossless-File, wenn ich ihn mit "Music" oder "Doppler" abspiele. Aber das hängt wirklich vom Ursprung ab und vor allem von der Musik als solches bzw. deren Mix.
0
Weia
Weia29.04.2621:42
spheric
Allerdings geht es in dem Kommentar von @macerkan — was ihm möglicherweise gar nicht bewusst ist — um Phänomene der Aufzeichnung (Quantisierungsrauschen) und Musikwiedergabe (Jitter).
Ja, aber in diesem Thread geht es eben nicht darum. Es spielt keine Rolle, was macerkan bewusst ist oder nicht, der Punkt ist einfach, dass im hiesigen Kontext seine Aussage ganz schlicht falsch ist.
Dass diese Phänomene im fraglichen Szenario keine Rolle spielen, ändert nichts daran, dass Jitter durchaus real ist und man durchaus gezwungen ist, dafür Lösungen anzuschaffen.
Natürlich ist Jitter ein reales Problem, aber eben nicht hier.

Wie Dir bekannt sein dürfte , habe ich weniger als andere hier etwas gegen assoziative off-topic-Seitenstränge, aber dann muss der getrennte, neue Kontext klar sein. Das war er bei Deiner Antwort aber nicht; Du schriebst:
spheric, Auslassungen von mir, Weia
DunklesZischt
macerkan
Das was hier so geschrieben wird, kann ich so nicht stehen lassen. Eine Digitalkopie ist nie hundertprozentig 1 zu 1. […] Nicht umsonst gibt es im HiFi- und vor allem HighEnd-Bereich hochwertige Kabel und auch z. B. Schaltungen und Maßnahmen, um das Jitter-Problem[…] in den Griff zu bekommen. […]
Das ist schon im analogen Bereich praktisch hanebüchener Unsinn. Und bei digitalen Signalen zu 100%. […] Wenn bei jeder Übertragung eines digitalen Signals ein paar Bits auf der Strecke bleiben würden, dann ließe sich keine einzige Datei auf oder von einem Datenträger transferieren.
Ääähhhh — zumindest das mit dem Jitter stimmt.
Das ist zumindest fahrlässig verkürzt (denn es stimmt eben nicht im Kontext des Kopierens); es fehlt jegliche Kontextualisierung à la Ja, beim Kopieren digitaler Daten spielt Jitter in der Tat keine Rolle, aber an anderer Stelle kann er tatsächlich ein Problem sein. Der Leser, der nicht so tief in der Materie drinsteckt, muss ohne eine solche Klarstellung unwillkürlich denken Aha, irgendwas ist an dem Problem mit Jitter beim Kopieren von Daten doch dran.
Jitter betrifft nicht die Bits, sondern deren Timing — und das ist bei Musik, im Gegensatz zu einfachen Datan, von absolut kritischer Bedeutung.
Und in diesem darauf folgenden Satz wird es terminologisch dann völlig schräg, denn dort es klingt so, als gäbe es einen Gegensatz zwischen „einfachen“ digitalen Daten und solchen („komplexen“?), die Musik codieren. Und das ist schlicht falsch; digitale Daten sind stets Nullen und Einsen und nichts darüber hinaus. Musik-Daten unterscheiden sich da in nichts von anderen.

Worauf Du dich beziehst, ist die Schnittstelle von der digitalen zur analogen Domäne, in die Musikdaten gewandelt werden müssen, um ihren Zweck zu erfüllen.

Die digitale Domäne ist rein virtuell und besteht aus diskreten binären Datenblöcken, sonst nichts. Die analoge Domäne (die ihren Namen erst retrospektiv in Abgrenzung zur digitalen bekommen hat) besteht aus Parametern der physischen Welt, die in aller Regel stetig verlaufen und beliebig viele numerische Werte annehmen können. Um Daten zwischen beiden Domains transferieren zu können, bedarf es auf der analogen Seite entsprechender analoge Referenzgrößen für die Übersetzung von digitalen Werten in analoge und vice versa.

Im konkreten Fall von Musik geht es um zwei analoge Größen, die digital codiert sind: elektrische Spannung (die im Lautsprecher dann in Membranauslenkung gewandelt wird) und Zeit, die zusammen den Spannungsverlauf ergeben. Als analoge Referenzgrößen brauchst Du also eine Referenzspannungsquelle samt Widerstandsnetzwerk, um Zahlenwerten (durch die Widerstände entsprechend abgeschwächte) Spannungswerte zuzuordnen und einen Referenztaktgeber für die Zeitreferenz (die “Clock”). Beides sind analoge Referenzen aus der physischen Welt; nur dadurch können virtuelle Digitaldaten in physische Analogdaten übertragen werden.

An diesen beiden analogen Referenzen hängt die Qualität der Wandlung; eine minderwertige Referenzspannungsquelle erzeugt nichtlineare Verzerrungen, ein minderwertiger Referenztaktgeber Jitter. Beides geschieht ausschließlich im Augenblick der Wandlung und beeinflusst die digital-interne Integrität der Daten bei Kopiervorgängen etc. in keiner Weise.
Ach Weia, manchmal würde es Dir wirklich gut tun, einfach die Klappe zu halten.
Ist es wirklich sooo schwierig, sachlich zu bleiben?
Natürlich ist Jitter ein digitales Phänomen.
Das ist nicht natürlich, sondern falsch, wie Du einen Satz später doch selbst schreibst:
spheric, Hervorhebung von mir, Weia
Jitter ist auf das analoge Verhalten eines digital übertragenen Signals zurückzuführen
Aber wenn Du wirklich behaupten willst, die Stabilität der Taktfrequenz eines Digitalchips sei ein analoges Phänomen
Ja, was denn sonst? Frequenz ist ein physischer Parameter, der stetig verändert werden und beliebig viele Werte annehmen kann – das Paradebeispiel eines analogen Phänomens.

In der digitalen Domäne gibt es sowas wie Zeit überhaupt nicht, nur zeitlose diskrete Binärzahlen, die unter anderen natürlich auch Zeitwerte der analogen Domäne repräsentieren können, selbst aber dennoch zeitlos bleiben. Ein Datenverarbeitungsvorgang in der digitalen Domäne ist vollkommen zeitunabhängig; ein Algorithmus führt zu dem exakt selben Ergebnis, ob du ihn nun mit 1 kHz oder 1 GHz Prozessorfrequenz ausführst – er rechnet nur unterschiedlich lange bis zum Ergebnis.
ist das Gespräch an dieser Stelle beendet.
Fein.
spheric, ergänzender Zitatkontext von mir, Weia
Weia
spheric
Abgesehen davon ENTSTEHT Jitter — wie beschrieben — durchaus innerhalb der digitalen Domäne.

Wichtig wird er erst dann, wenn auch auf analog konvertiert wird.
Nö, wenn bei einem Echtzeitstream z.B. Daten einer Datenbank (die aber aus gutem Grund niemand per Echtzeit-Stream übertragen würde) verhunzt werden, ist die Datenbank auch korrupt, obwohl nirgendwo in irgendein Analoges gewandelt wird.
Was möchte uns der Künstler damit sagen?
Dass Jitter eben nicht schon in der digitalen Domäne entsteht und im Augenblick der Wandlung lediglich „wichtig wird“, sondern erst in genau diesem Moment entsteht.
Dass in einem Szenario, das niemand so machen würde, ein Problem auftauchen würde, bei dem man sich Gedanken machen müsste, wie das Signal-Clocking funktioniert?
Dass dieses Szenario, wo es jeder absurd fände, über Jitter zu reden, sich prinzipiell in nichts vom Kopieren von Daten von einer CD unterscheidet, sodass Überlegungen zum Thema Jitter da genauso unangebracht sind.
Ist das ein Gedankenexperiment, um mir recht zu geben?
Nö, um Dir zu widersprechen.
„„Meinung“ ist das Foren-Unwort des Jahrzehnts.“
+3
DunklesZischt01.05.2609:57
spheric
Lies mal bitte nach, was Jitter überhaupt ist, bevor Du weiterschreibst.
Jitter entsteht NICHT im Kabel.
0
spheric
spheric01.05.2611:14
DunklesZischt
spheric
Lies mal bitte nach, was Jitter überhaupt ist, bevor Du weiterschreibst.
Jitter entsteht NICHT im Kabel.

Zu kurze Kabel können zu Jitter beitragen.
„Früher war auch schon früher alles besser!“
-2

Kommentieren

Sie müssen sich einloggen, um sich an einer Diskussion beteiligen zu können.