Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

MusicScope: Kenne Deine Musik – bis aufs Bit genau

Das Mikroskop für Musikliebhaber

Kompakt
Marke XiVero GmbH
Bezeichnung MusicScope
Art Audio Analyzer App
Empf. Preis (€) 29
Verfügbarkeit sofort
Mess- und Analysetechnik ist eine tolle und wichtige Sache bei der Entwicklung hochwertiger Hard- und Software, aber gerade in der HiFi-Welt, wo es sehr viel um subjektives Klangempfinden geht, kann damit längst nicht alles erklärt werden. Es zählt vielmehr nur, „was hinten rauskommt“. Aber manchmal ist das Wissen darum, was wirklich in der (digitalen) Musik steckt, auch für HiFi-Puristen sehr aufschlussreich.



Auf der High End Messe vergangenen Mai in München habe ich eine Datenanalyse-Software namens MusicScope des Düsseldorfer Unternehmens XiVero GmbH entdeckt, die Profis wie interessierten Amateuren gleichermaßen einen tieferen Einblick in die Geheimnisse der digitalen Audioverarbeitung bieten soll. Zwar kann auch MusicScope nicht immer eindeutige Erklärungen dafür liefern, warum bestimmte Aufnahmen besonders gut oder eben weniger gut klingen, aber in vielen Fällen fördert sie Software erhellende Dinge über die Audiodaten zutage, die vieles erklären. – Sofern man die Daten richtig zu lesen weiß.


Das gesetzte Ziel von MusicScope ist laut Anbieter „dem HiFi-Enthusiasten Werkzeuge an die Hand geben, die es ihm ermöglichen die Qualität von Audio-Aufnahmen zu bestimmen und gegebenenfalls zu optimieren.“ Die Macher nennen das Programm für Mac und PC daher MusicScope oder auch „Audio-Mikroskop“.

Die Rewind ist zwar eigentlich ein rein Hardware-orientiertes Technikmagazin, aber in diesem Fall möchte ich mal eine Ausnahme machen und allen musikbegeisterten Lesern MusicScope vorstellen.

Kommentare

DP_7018.06.16 09:07
"Kenne Deine Musik - bis aufs Bit genau" muss es heißen! Der Apostroph ist falsch, wenn ich mal klugscheissen darf.
0
LoMacs
LoMacs18.06.16 09:14
DP_70 Jetzt bist du mir um fünf Minuten zuvorgekommen. 🤓
0
ghostlord18.06.16 09:19
Musicscope nutze ich schon sehr lange!
Ich kann das Tool ebenfalls nur weiterempfehlen.
Ich vergleiche oft die Titel untereinander, mich interessiert vor allem der Dynamikumfang und die Kompression der Titel sowie ob sie übersteuert sind.
Es ist echt krass z.b. den Werdegang von Musik aus den 80er hin zum jetzt zu beobachten. Es ging echt nur noch abwärts mit der Qualität.
Eindeutig entlarven kann man so auch die Remaster von Titeln.
Original Cds aus den 80er noch mit voller Dynamik und in den 90er als Remaster dann nur noch halber Dynamikumfang.
0
sffan18.06.16 09:22
Ich werd' mal einen Blick riskieren. Mir geht gerade das Thema "loudness war" wieder mal ganz gehörig durch den Magen. Mal sehen, ob die hilft die am wenigsten schlechte Ausgabe eines Albums zu identifizieren. Leider muss man die Ausgabe(n) dafür vorliegen haben, oder man versucht über Datenbanken im Internet wenigstens vorab Indizien zu sammeln.
Leider ist die so arme, durch die Raubmordkopierer ach so gebeutelte, Musikindustrie auf einem ganz miesen Pfad und tötet ihr Produkt. Was sie uns ja gerne teuer verkaufen will. Und wenns geht, gerne auch mehrfach.
0
sonorman
sonorman18.06.16 10:12
DP_70
"Kenne Deine Musik - bis aufs Bit genau" muss es heißen! Der Apostroph ist falsch, wenn ich mal klugscheissen darf.
Hast Recht. Ist korrigiert.
0
Bitsurfer18.06.16 10:14
Etwas ganz entscheidendes kann es nicht. AAC Files lesen.
0
Borbarad18.06.16 11:53
Schönes Thema.

Aber die wichtigere Frage: werden die neuen Focal Kopfhörer Utopia und Elear gestested?


B
0
sonorman
sonorman18.06.16 12:05
Borbarad
Schönes Thema.

Aber die wichtigere Frage: werden die neuen Focal Kopfhörer Utopia und Elear gestested?


B
Ja, die werden getestet! Ist schon vorgemerkt. Beim Utopia kann es aber noch etwas dauern. Den Elear bekomme ich hoffentlich etwas früher.

PS: Vorstellung der Kopfhörer folgt morgen.
0
kesslerpiano
kesslerpiano18.06.16 12:12
Bitsurfer
Etwas ganz entscheidendes kann es nicht. AAC Files lesen.
Das ist doch eigentlich ein No-Go für Mac-User ...?
0
spheric
spheric18.06.16 12:42
"Periodische Störungen"? Das sind Grundtöne und Obertonspektren der verwendeten Instrumente, sowie Rhythmus. Das mag mancher als störend empfinden.
Das beste Analysewerkzeug bringt nix, wenn man nicht weiß, was man sieht.

Im Übrigen gibt es kostenlose Tools, die das gleiche machen.
Früher war auch schon früher alles besser!
0
Borbarad18.06.16 13:07
sonorman
Borbarad
Schönes Thema.

Aber die wichtigere Frage: werden die neuen Focal Kopfhörer Utopia und Elear gestested?


B
Ja, die werden getestet! Ist schon vorgemerkt. Beim Utopia kann es aber noch etwas dauern. Den Elear bekomme ich hoffentlich etwas früher.

PS: Vorstellung der Kopfhörer folgt morgen.

Fein! Die Diskussionen sind schon entbrannt. Hat der Sennheiser 800s nun ausgedient, wie schlagen die sich zu den Audeze, was ist mit HiFiman und Stax.......

B
0
Tirabo18.06.16 15:08
Na ja, ich halte nicht viel von solchen "Zahlen", die keine Hilfestellung sind, sondern völlig Zusammenhangslos dastehen.

1. Das Frequenzspektrum von klassischen Instrumenten oder eines klassischen Orchesters ist bei weitem nicht so groß wie man glaubt:

Der höchste Ton zB eines Klavieres C''''' hat eine Grundfrequenz von 4186,01. Selbst der 4. Oberton dieses Tones hat eine Frequenz von 20930 HZ. Dabei ist zu beachten, dass diese Obertöne so schwach sind, dass sie sofort an Energie verlieren und zwar in den ersten Milisekunden.
Eine Violine hat ein noch kleineres Frequenzspektrum. Es gibt auch eine mittlerweile gut aufgestellte Erfahrung, dass zB. eine Stardivari noch nicht einmal von einer guten modernen Violine zu unterscheiden ist, sowohl im Klang als auch in der Spielbarkeit. Auch hier hat die visuelle und psychologische Erwartung einen sehr großen Einfluss auf das, was man hören will.
Ab 5 KHZ haben Raumeinflüsse größere Auswirkungen auf den Frequenzverlauf, das bedeutet, dass Räume mit hoher Dämmung bereits Direktschall in hohen Frequenzen absorbieren, zweitens stellt sich unser Gehör mit seinen adaptiven Fähigkeiten sehr schnell auf einen veränderten Klang ein. Die Beurteilung von Klangunterschieden geschieht also immer auf relativen Angaben (klingt anders als dieses oder jenes), Absolute Angaben sind daher unseriös, da sie die Adaption des Ohres ausblenden.

2. Mikrofone, mit denen klassische Musik aufgenommen wird, wie zB im ORTf-Verfahren mit Stützmikros, haben selbst oft einen Frequenzbeich bis nur 20 KHZ. Alle Schoeps-Mikros oder von Neumann oder Micotech-Gefell.

3. bei der Aufnahme klassischer Musik spielen solche Frequenzen eine absolut untergeordnete Rolle. Wichtig ist die Akustik des Raumes und die richtige Mikrofonierung der Aufnahme.
90 % des Klanges (Lautsprecherstereophonie) einer klassischen Aufnahme wird über die Mikrofonierung gesteuert

Dieser ganze Scheiß mit High-Res ist also nichts anderes als eine riesige Sekbstverarschung. Damit High-Res funktionieren müsste, müsste man Instrumente bauen, die in solch hohen Frequenzbereichen annähernd viel Energie bekommen, dass sie eben nicht untergehen, womit sie dann sofort scheiße klingen würden.
Man müsste Mikrofone mit solch hohem Frequenzbereich bauen, womit mehr Rauschen erzeugt wird, was ja unerwünscht ist. Auf den oberen Beispielen sieht man ja bereits die deutliche Rauschzunahme bei DSD.

Es gäbe noch vieles zu berücksichtigen, was hier aufzuschreiben aber unmöglich ist, aber auch nicht notwendig ist, da unsere Aufnahmetechnik gerade im klassischen Bereich bestens erforscht und angewendet wird.
Auch Tonmeister-Wissen entwickelt sich stetig wissenschaftlich weiter.

Das einzige, was ich eindeutig zu kritisieren haben und mit dem ich auch vielen anderen hier zustimmen möchte, ist dieser verdammte Lautheitswahn und die verdammte Totkomprimierung von Signalen durch Kompressoren, Limitern und Optimod.

Desweiteren könnte man speziell für Kopfhörerstereofonie noch vermehrt Kunstkopfaufnahmen machen, da "normale" Lautsprechersterofonie zu Kopfhörern ja leider inkompatibel ist (Lateralisation).

Mit allen anderen Anwendungen lassen sich absolut hervorragende Ergebnisse erzielen auch auf CD.

Nicht die hohen Frequenzen sind das Problem, auch nicht die Dynamik (Ein Orchester hat je nach Epoche und Interpretation meist lediglich 60 - 80 dB Dynamkiumpfang, was auch der musikalischen Hervorhebung einzelner Orchesterinstrumente im musikalischen Kontext geschuldet ist.)
0
savall18.06.16 17:35
spheric
"Periodische Störungen"? Das sind Grundtöne und Obertonspektren der verwendeten Instrumente, sowie Rhythmus. Das mag mancher als störend empfinden.
Das beste Analysewerkzeug bringt nix, wenn man nicht weiß, was man sieht.

Im Übrigen gibt es kostenlose Tools, die das gleiche machen.

Welche Tools sind das?
0
Buginithi
Buginithi18.06.16 18:05
Bei HighRes Audio geht es nicht um die max. hörbare Frequenz.

Zum einen ist HighRes näher am Original.
Zum anderen hilft es bei der D/A Wandlung. Dort wird mit analogen Ausgangsfilter gearbeitet werden. Die haben aber den Nachteil auch das Signal unterhalb der Filterfrequenz zu beinflussen.
zB. Phasendrehung. Deswegen haben Verstärker oft einen Frequenzbereich bis 100kHz.
Daher macht man Over- bzw. Upsampling um den Ausgangsfilter möglichst nach hinten zu verschieben sodas diese das Musiksignal nicht mehr beinflussen.
Upsampling produziert aber auch wieder Fehler wie Pre- oder Postringing.
Bei Highres entfällt das Upsampling und die Ausgangsfilter sind weit genug vom Nutzsignal weg.

So mal laienhaft erklärt.
0
Tirabo18.06.16 19:43
Buginithi
Bei HighRes Audio geht es nicht um die max. hörbare Frequenz.

Zum einen ist HighRes näher am Original.
Zum anderen hilft es bei der D/A Wandlung. Dort wird mit analogen Ausgangsfilter gearbeitet werden. Die haben aber den Nachteil auch das Signal unterhalb der Filterfrequenz zu beinflussen.
zB. Phasendrehung. Deswegen haben Verstärker oft einen Frequenzbereich bis 100kHz.
Daher macht man Over- bzw. Upsampling um den Ausgangsfilter möglichst nach hinten zu verschieben sodas diese das Musiksignal nicht mehr beinflussen.
Upsampling produziert aber auch wieder Fehler wie Pre- oder Postringing.
Bei Highres entfällt das Upsampling und die Ausgangsfilter sind weit genug vom Nutzsignal weg.

So mal laienhaft erklärt.

Wieso ist soll Hig-Res näher am Original sein, wenn dieses zB. sein Maximum bereits bei 10 KHZ hat, wie es zB. Bei der Violine der Fall ist?

Die Erklärungen dazu drehen sich im Kreise. Damit wird wieder die Diskussion darüber eröffnet, ob Menschen noch Frequenzen über 22 KHZ überhaupt hören können und wenn ja, mit welcher Lautstärke? Vergiss dabei nicht ISO R 226 oder Robinson-Dadson! Unter Tonmeistern ist die Frage längst geklärt. Ich überlasse Dir gerne die unnötige Diskussion darüber.

Die Frage ist nachwievor, inwieweit Daten oberhalb der halben Abtasfrequenz welche Rolle spielen, da sie ja eh weggefiltert werden müssen. Es ist also eher eine Frage der Qualität des (digitalen) Filters. Eine typische Delta-Sigma- D/A Wandlung mit Up- bzw. Oversampling hat also im Prinzip nichts mit High Res nichts zu tun, da sich die Datenrate ja auch nicht erhöht. Generell benötigt man gemäß des Nyquist Abtasttheorem ein steiles Tiefpassfilter mit hoher Güte und Flankensteilheit, um die oberen Spiegelfrequenzen zu filtern. Dank des Oversamplings oder Upsamplings wird die Verschiebung in den digitalen Bereich angelegt, um etwas kostengünstigere und einfachere digitale analoge Hi-Cut-Schaltungen zu erreichen. Wandlung ohne Upsamplings bzw. ohne Oversampling ist sehr aufwändig bezüglich der analogen Filterwahl aber auch nicht ganz unmöglich.

Ob nun jetzt High-Res oder 24 Bit mit 44. KHz analog gewandelt werden, macht sich grundsätzlich nicht auf den Klang bemerkbar, weil dafür allein die Qualität des Filters für die Spiegelfrequenzen verantwortlich ist!
Davon lebt ja gerade das Prinzip Delta-Sigma mit Oversampling.
Ein sehr guter Wandler zeichnet sich also gerade wegen seiner aufwändigen Filterung aus.

Wie gesagt, die Frage der Wandlung hat nichts mit High-Res Audio zu tun, da die D/A Wandlung eben nicht das schwächste Glied der Kette ist, sondern die Schallwandlung und die A/D Wandlung am Anfang der Kette.
0
Sideshow Bob
Sideshow Bob18.06.16 20:59
Und ich dachte High-Res-Audio macht u.a. genau das: die analoge Sinuskurve hochauflösend zu quantisieren.
0
Buginithi
Buginithi18.06.16 21:05
Mit Highres läßt sich auch ein 1000hz oder 10khz Signal genauer abbilden.
Das mein ich mit näher am Original.

Und was das Upsampling angeht. Das produziert nunmal Fehler. Den perfekten Digitalfilter dafür gibt es nicht.
Bei meine D/A Wandler mit umschalbaren Digitalfilter, höre ich einen Unterschied.
Wenn man dann bei Highres das Upsampling weglassen kann hat das durchaus Einfluss auf die D/A Wandlung.
0
Tirabo19.06.16 02:03
Sideshow Bob
Und ich dachte High-Res-Audio macht u.a. genau das: die analoge Sinuskurve hochauflösend zu quantisieren.

Du missverstehst da was:

Digital bedeutet lediglich eine Beschreibung einer analogen Kurve anhand von binären Zahlen.
Es gibt eben keine "absolute" digitale Kurve, wie viele immer denken. Die Kurven die du siehst, sind bebilderte Analogien analoger Wellenformen, also nur repräsentierende Bilder, es ist aber nicht die Kurve selbst, denn die ist mit binären Zahlen beschrieben.
Daher kann es auch nie in digitalen Kabeln Klangunterschiede geben, da dort lediglich die Beschreibungen übertragen werden, nicht die Kurve selbst!

Die digital beschriebene und repräsentierte "analoge" Kurve aber bleibt immer so wie sie ist, weil deren Form, Amplitude und Frequenz vor der Wandlung auf der analogen Seite eben noch gemessen wird und danach erst digital beschrieben wird. Einzig die Frage, wie hoch die digitale Wortbreite ist, ist auch so wichtig, da jedes beschriebene Bit die Dynamik des digitalisierten (beschriebenen) Signals um 6 dB erhöhen kann, was zu einer Verringerung des Rauschspannungsabstand führt. Auch eine digitale Beschreibung eines analogen Signales bringt Rauschen hervor, nämlich das Ditherrauschen.
0
Tirabo19.06.16 02:20
Buginithi
Mit Highres läßt sich auch ein 1000hz oder 10khz Signal genauer abbilden.
Das mein ich mit näher am Original.

Du verstehst auch nicht, wie Digitalisierung durch Quantisierung stattfindet, siehe oben:
ein analoges Signal mit der Frequenz von 10000 Hz mit der Amplitude von -4 dBu ist und bleibt auch digital beschrieben eben ein Signal mit 10000 HZ mit -4 dBu.
Was soll da noch hinzugefügt werden, was da eigentlich gar nicht mehr hingehört? Wofür also High-Res, wenn die Beschreibung immer doch eh immer die gleiche bleibt?
0
spheric
spheric19.06.16 04:03
Tirabo
Buginithi
Mit Highres läßt sich auch ein 1000hz oder 10khz Signal genauer abbilden.
Das mein ich mit näher am Original.

Du verstehst auch nicht, wie Digitalisierung durch Quantisierung stattfindet, siehe oben:
ein analoges Signal mit der Frequenz von 10000 Hz mit der Amplitude von -4 dBu ist und bleibt auch digital beschrieben eben ein Signal mit 10000 HZ mit -4 dBu.
Was soll da noch hinzugefügt werden, was da eigentlich gar nicht mehr hingehört? Wofür also High-Res, wenn die Beschreibung immer doch eh immer die gleiche bleibt?
Ganz genau.

Hier liegt eines der weitest verbreiteten Missverständnisse unter audiophilen Laien:
Es GIBT keine "genauere Beschreibung" von Signalen, die unterhalb der Nyquist-Frequenz liegen (Abtastrate/2, also bei 44,1 kHz alles unter 22,05). Für sämtliche Signale, egal wie komplex, gibt es nur eine einzige mögliche analoge Wellenform, die zu der digitalen Aufzeichnung passt, und die wird exakt reproduziert, egal, wie hoch man die Abtastrate schraubt. Also: wenn du ein Signal hast mit einer Bandbreite bis 12 kHz, dann wird die Wellenform absolut identisch digital beschrieben, egal, ob du mit 24 kHz, 44,1, 96 oder 192 oder wasweißich sampelst.

Hier wird es anschaulich und großartig erklärt (allerdings auf englisch):
https://m.youtube.com/watch?v=cIQ9IXSUzuM&feature=youtu.be

Da wird übrigens auch super erklärt, inwieweit die Bittiefe einen Einfluss hat (nämlich nur aufs Grundrauschen), und wie verschiedene Ditheringalgorithmen angewendet werden können, um das Rauschen ins Unhörbare zu verlagern.

Abschließend bleibt zu vermerken, dass ein Großteil des Laien-"Wissens" aus einer Zeit stammt, als es tatsächlich in Ansätzen stimmte (wenn auch nicht aus den Gründen, die gerne angeführt werden). Seit den 80ern ist aber viel - sehr viel - passiert. Digital Audio funktioniert einfach nach komplett anderen, nicht-"intuitiven" regeln als analog.
Früher war auch schon früher alles besser!
0
spheric
spheric19.06.16 04:08
savall
spheric
"Periodische Störungen"? Das sind Grundtöne und Obertonspektren der verwendeten Instrumente, sowie Rhythmus. Das mag mancher als störend empfinden.
Das beste Analysewerkzeug bringt nix, wenn man nicht weiß, was man sieht.

Im Übrigen gibt es kostenlose Tools, die das gleiche machen.

Welche Tools sind das?
http://www.arizona-software.ch/audioxplorer/download.html

http://www.sonicvisualiser.org

z.B.
Früher war auch schon früher alles besser!
0
Buginithi
Buginithi19.06.16 09:15
In gewisser Wiese ist doch A/D Wandeln auch eine Art Datenkompression. Es werden ja immer nur bestimmte Zeitmomente erfasst. Die Werte dazwischen werden Weggelassen..
Diese Zwischenwerte müssen später wieder dazugerechnet werden um daraus ein kontinuierliches Signal zu machen. Diese werden aber nie ganz dem Original entsprechen.

Wenn ich nun mehr Daten, also als Highres, zu verfügung hab kann ich ich das Signal doch genauer wieder herstellen.
Und wenn ich dafür dann auch solche Technik wie Dithering oder Upsampling nicht brauche um so besser.

Wir reden dabei nicht von einem Sinussignal wie in dem Video. Was relativ einfach wieder rekonstruiert werden kann
Ein Musiksignal ist deutlich komplexer. Eine schnelle Abfolge von Impulsen. Die zeitlich zu erfassen ist deutlich schwieriger als so ein simples Sinussignal.
Das Video beschreibt die Theorie. Aber nicht die Probleme bei der wiederherstellen des Audiosignal bei der D/A Wandlung in der Praxis.

Ob man das ganze letztlich auch hört ist ein anderes Thema. Die meisten hören ja nichtmal den Unterschied einer MP3 vs. CD.
Aber zu sagen Highres braucht es nicht ist für mich Schwarz/Weiss Denken.
0
vincentmac19.06.16 09:42
@ Tirabo

kannst du mal einen Kommentar zu diesem Video abgeben.

Für mich zeigt es mal wieder deutlich, wie beschränkt man nur ein Signal aufnehmen und wiedergeben kann. Oder wurde hier etwas falsch gemacht, so das die Lautsprecher so schlecht klingen?
0
spheric
spheric19.06.16 10:15
Buginithi
In gewisser Wiese ist doch A/D Wandeln auch eine Art Datenkompression. Es werden ja immer nur bestimmte Zeitmomente erfasst. Die Werte dazwischen werden Weggelassen..
Diese Zwischenwerte müssen später wieder dazugerechnet werden um daraus ein kontinuierliches Signal zu machen. Diese werden aber nie ganz dem Original entsprechen.

Wenn ich nun mehr Daten, also als Highres, zu verfügung hab kann ich ich das Signal doch genauer wieder herstellen.
Und wenn ich dafür dann auch solche Technik wie Dithering oder Upsampling nicht brauche um so besser.

Wir reden dabei nicht von einem Sinussignal wie in dem Video. Was relativ einfach wieder rekonstruiert werden kann
Ein Musiksignal ist deutlich komplexer. Eine schnelle Abfolge von Impulsen. Die zeitlich zu erfassen ist deutlich schwieriger als so ein simples Sinussignal.
Das Video beschreibt die Theorie. Aber nicht die Probleme bei der wiederherstellen des Audiosignal bei der D/A Wandlung in der Praxis.
Nein, nein, und nein. Du hast das Video nicht verstanden:
Ein Musiksignal ist genauso eine einzige Wellenform. Eine Linie. Alles, was "komplexer" ist - also feinere Ecken und Kanten hat, als gesampelt werden kann, sind Anteile, die höher liegen, als die Nyquist-Frequenz.
Das darf dir klarwerden, also nochmal: alles was "feiner" ist, als von der Abtastrate zu 100% erfasst werden kann, liegt oberhalb der Nyquist-Frequenz von Samplerate durch 2.
Unterhalb dieser Frequenz kann ALLES, EXAKT dargestellt werden - alles. Also bei 44,1 kHz bis 22,05 kHz.
Bis Nyquist kann und wird alles, was eingangs in den Wandler geht, ausgangs exakt und genau dem Original entsprechen, denn es gibt nur EINE EINZIGE mögliche Wellenform (Schwingung) unterhalb der Nyquist-Frequenz, die alle abgetasteten Punkte überhaupt bedienen kann.

Das ist nicht nur Theorie, sondern Praxis - das beweist er genau NICHT anhand einer Sinuswelle, sondern mit der RECHTECKwelle, die theoretisch unendlich komplex ist, also rechnerisch unendlich hohe Frequenzanteile hat (die Multiplen der Grundfrequenz nämlich, die immer feiner werden und die Ecken so schön ausfüllen).
Ja, beim sampeln gehen diese Feinheiten verloren und das Signal wird "reduziert". Aber diese hohen Frequenzanteile, die die Ecken ausfüllen und schön rechteckig machen, interessieren uns nicht, weil sie oberhalb von Nyquist liegen.

Die möglichen Unterschiede, die heute vielleicht immer noch in der digitalen Aufzeichnung hörbar sind (sind aber in den letzten zehn Jahren bestenfalls marginal), sind auf die Güte der Wandler selbst bzw. der analogen Stufen zurückzuführen, NICHT aber auf die Abtastrate.
Früher war auch schon früher alles besser!
0
Buginithi
Buginithi19.06.16 10:32
Ich bin glaub ich zu blöd mich klar genug auszudrücken worauf ich hinaus will.
Also lassen wir das. wir kommen da nicht auf einen Nenner.
0
Tirabo19.06.16 10:32
Hallo Spheric hat recht,

Eine Sinuskurve von 10 KHz mit - 4B bleibt eine Sinuskurve mit 10 KHZ mit -4 dB.

Auch die Schwingung, die ich oben da gerade mit Worten und Buchstaben (sehr vereinfachend) beschrieben habe, ist auch eine "digitale Beschreibung ich habe auch durch die "digitalen" Buchstaben und Zahlen meiner Beschreibung die Kurve mit der gleichen Schwingung und Amplitude nicht verändert.

Es gibt KEiNE absolute Darstellung einer Kurve INNERHALB der digitalen Ebene, Egal wo du nun beispielsweise zur Sichtbarmachung einer runden Kurve ein Oszilloskop anschließt, wirst du runde Kurven rausbekommen, weil eine zurückwandlung erforderlich ist. Da muss auch nie etwas am Ende hinzugerechnet was nicht auch vorher zur Beschreibung schon da war, solange man das digitale Signal nicht verändert.

Eine Sinuskurve, die selbst ganz primitiv grob am A/D Wandler abgetastet wird, bleibt aber die gleiche Sinuskurve am Ausgang, da eine Schwingung von 10 KHZ bei -4 dBu immer noch eine Schwingung bleibt, auch am Ende. Es muss also gar nichts hinzugerechnet werden. Ich brauchte oben auch nichts hinzurechnen, damit jeder weiß, dass ich von einer 10 KHZ-Kurve spreche. Die Einzige Vorausstezung ist, dass der Wandler bei dieser Kurve mit 20 KHZ abtasten kann, also mit der doppelten Frequenz (Abtasttheorem bzw. Nyquistfrequenz - erkläre ich weiter unten)

Die Kurve wird ja lediglich beschrieben. Auch bei komplexen Signalen läuft es nicht anders. Die Fehler entstehen also auf ganz anderen Bereichen, aber nicht auf der Erfassung und Beschreibung einer Kurve.

Die Nyquistfrequenz ist nichts anderes als der komplette Wellendurchgang, also nicht nur die Halbwellen, die beschrieben wird. Daher muss immer mindestens mit doppelter Frequenz gewandelt werden, damit die digitale Beschreibung komplett bleibt.
0
spheric
spheric19.06.16 10:42
vincentmac
@ Tirabo

kannst du mal einen Kommentar zu diesem Video abgeben.

Für mich zeigt es mal wieder deutlich, wie beschränkt man nur ein Signal aufnehmen und wiedergeben kann. Oder wurde hier etwas falsch gemacht, so das die Lautsprecher so schlecht klingen?
Das ist ein etwas absurder Vergleich.

Schauen wir uns mal an, was da passiert, bzw. was genau verglichen wird:

Auf der einen Seite haben wir eine Aufzeichnung einer Truppe, die in der Akustik einer Konzerthalle eine Aufführung macht: die Instrumente strahlen in alle Richtungen ab, geben dementsprechend komplexe Reflexionen über die Wände der Halle in alle Richtungen ab, und werden dann von Experten im Raum mit Mikrofonen abgenommen.
Was wir also hören, ist ein Raum, in dem eine Truppe spielt.

Auf der anderen Seite haben wir einen Satz Lautsprecher, die in eine Richtung strahlen, über die eine Aufnahme abgespielt wird, die dann von Experten im Raum mit Mikrofonen abgenommen wird.
Auf dieser Aufnahme war aber schon Raum drauf, mit allen Reflexionen etc.

Das heißt, als zweites hören wir einen Raum, in dem eine Aufnahme eines Raumes abgespielt wird.

Selbst, wenn man davon ausginge, dass das Signal bei der
Aufnahme nicht dynamisch limitiert wurde (was üblich ist) sowie durch die Mikrofone und analogen Vorstufen gefärbt wurde, ist die Abtastrate hier das LETZTE, was relevant wäre.

Abgesehen davon ist es lustig, über total rattig komprimierte (sowohl dynamisch als auch von der Datenrate her) YouTube-Videos Rückschlüsse auf Audioqualität ziehen zu wollen.

Und ja: eine Aufnahme kann NIE genau so klingen, als befände man sich mit den Musikern im Raum. Die einschränkenden Faktoren sind aber andere.
Wir hören nicht mit im Raum aufgehängten Mikrofonen, sondern mit Muscheln beidseitig des Kopfes. Das versucht die Kunstkopfmikrophonie zu umgehen, aber die wiederum funktioniert nur mit Kopfhörern, und auch sie unterliegt den Verfärbungen der analogen Aufzeichnungsschritte (Mikrofone, Vorstufen) und vor allem der Wiedergabe. Kopfhörer können z.B. unmöglich die körperliche Wahrnehmung von Schall reproduzieren - gerade bei Kirchenorgeln ein nicht unwesentlicher Aspekt, da die bis in den Infratonbereich runtergehen, denn wir weniger Hören denn Spüren. Aber auch sonst fehlen halt die Bässe, die uns in Brust und Magen hauen und Teil unserer Musikwahrnehmung sind.
Früher war auch schon früher alles besser!
0
spheric
spheric19.06.16 10:59
Buginithi
Ich bin glaub ich zu blöd mich klar genug auszudrücken worauf ich hinaus will.
Also lassen wir das. wir kommen da nicht auf einen Nenner.

Ich meine, zu verstehen, worauf Du hinaus willst, weil ich genau das früher selber dachte - bevor ich in die Tontechnik gegangen bin.

Das Problem ist, glaube ich, dass Du nicht ganz verstanden hast, wie Schall und Wellenform wirklich zusammenhängen.
Schall ist wirklich einfach eine einzelne Wellenform, egal, wie komplex er klingen mag: es bewegt sich an deinem Ohr nur eine einzige "Kurve".

Und diese Kurve lässt sich exakt mathematisch beschreiben.

Und es ist nunmal einfach so, dass zur exakten Beschreibung eines völlig beliebigen Signals bis zu einer beliebigen Frequenz exakt die doppelte Abtastrate notwendig ist - nicht mehr, und nicht weniger.

Das ist der gemeinsame Nenner. Da gibt es keinerlei Diskussion.
Wenn das nicht absolut klar ist, dann geht es in der Diskussion auch nicht mehr um Abtastraten.
Früher war auch schon früher alles besser!
0
vincentmac19.06.16 11:42
@ spheric

Abgesehen von elektronisch erzeugten Klängen oder absichtlich manipulierten Studioaufnahmen, wäre eine Liveband in meinem Wohnzimmer(entsprechende Räumlichkeiten vorausgesetzt)meine Referenz, wo nach eine Aufnahme abgespielt über Lautsprecher/Kopfhörer zu streben hat. Eine minimale Klangverbesserung durch leicht hoehere Samplingraten ist nett, aber weit davon entfernt es mit einer Liveperformance aufzunehmen.
0
sonorman
sonorman19.06.16 12:16
spheric
Und es ist nunmal einfach so, dass zur exakten Beschreibung eines völlig beliebigen Signals bis zu einer beliebigen Frequenz exakt die doppelte Abtastrate notwendig ist - nicht mehr, und nicht weniger.
Meiner Kenntnis nach – wobei ich kein Experte bin – ist das eine inzwischen widerlegte Annahme.

Es stimmt, zwar, dass nach heutigem Kenntnisstand Samplingfrequenzen über 96 kHz tatsächlich keine nachweisbaren Vorteile mehr bringen können, aber ebenso steht fest, dass 44,1 kHz nicht ausreichend sind.

So hat beispielsweise Bob Stuart (einer der angesehensten Kenner der Materie) schon vor längerer Zeit dargelegt, warum seiner Meinung nach zumindest 58 kHz die Untergrenze sein sollten. (Paper @@ )

Und später gewonnene Erkenntnisse, u.a. aus der Psychoakustik, legen nahe, dass eher 96 kHz die Untergrenze sein sollten, wobei das Grundlagenwissen selbst der besten Experten aufgrund der Komplexität einer gesamten Wiedergabekette inkl. der Kenntnisse über das menschliche Gehör nach wie vor lückenhaft und nicht vollständig beschrieben ist.
Dazu auch ein etwas aktuellerer Artikel von Bob Stuart. @@
The best so far [8], calls for components with 40-kHz analog bandwidth and sampling rates of 96 kHz or higher. Although a step in the right direction, this is barely adequate for a chain let alone one link.

Fakt ist wohl, dass der reine Prozess der D/A-Wandlung auf heutigem Niveau keine so großen Klangunterschiede bringen kann, wie viele andere Stellen in der Wiedergabekette. Allein der Wechsel der Lautsprecher oder Kopfhörer kann klanglich alles auf den Kopf stellen. Aber darum geht es gar nicht. Schließlich soll JEDES Glied der (Wiedergabe-) Kette sein bestmögliches abliefern und es sind eben manchmal die eher feinen Unterschiede, die das Ergebnis entweder überzeugend, oder harsch und wenig erträglich machen. (Das lässt sich übrigens indirekt bei vielen daran messen, wie häufig die Skip-Taste betätigt wird. )
Daher finde ich es gut und richtig, dass die Technik weiterentwickelt und weiter an den Grundlagen geforscht wird, obwohl es nach den bislang gewonnenen Erkenntnissen und der bis dato verfügbaren Technik scheinbar gar nicht nötig wäre.

Jeder erfahrene Hörer, der unterschiedlichste DACs miteinander vergleicht, wird feststellen, dass es – bei gleicher Signalquelle und Datenformat – signifikante Klangunterschiede mit diesem Komponenten geben kann. Ob das nun von der D/A-Wandlung der Filterung, durch Jitter, die analogen Stufen oder einer Kombination aus allem herrührt, ist für den Musikhörer letztlich zweitrangig. Hauptsache das Ergebnis ist überzeugend.

Daher bin ich der Meinung: Die perfekte Wiedergabekette, egal ob im digitalen oder im analogen Bereich, gibt es nicht und wird es in absehbarer Zeit auch nicht geben. Aber das Streben danach ist ein wesentlicher Bestandteil des Hobbys HiFi und der Leidenschaft für hochwertige Musikwiedergabesysteme. Und das ist es auch, was die Entwicklung befeuert und immer wieder neue Erkenntnisse zutage fördert. – Gut, dass wir nicht beim Stand anno 1982 (oder noch früher) geblieben sind.

Einen schönen Tag Euch allen!
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.