Getting Pro. Andreas Mistele
Чтение книги онлайн.
Читать онлайн книгу Getting Pro - Andreas Mistele страница 7
Aus diesen Gründen stehe ich dieser 32 Bit-Speicherung etwas skeptisch gegenüber. Es schadet sicher nicht, für mich ergibt sich aber kein greifbarer Zusatznutzen. Du kannst dies ja für dich ganz entspannt ausprobieren und selbst entscheiden, ob dir die potentiell bessere Klangqualität den Mehraufwand wert ist.
Häufig wird im Zusammenhang mit den Wortbreiten von einem größeren Headroom bei 24-Bit-Systemen gesprochen. Dies ist Unfug, da digitale Systeme überhaupt keinen Headroom besitzen. Diesen gibt es nur bei analogen Geräten, die eben auch in ihrer spezifischen Übersteuerung Signale musikalisch nutzbar verarbeiten können.
Ausnahme in der Digitaltechnik: Manche Plug-Ins simulieren den Headroom ihrer analogen Vorbilder.
Detaillierte Informationen zur Arbeit mit Pegeln in analogen und digitalen Systemen findest du im Kapitel zum Einpegeln.
Was die Abtastfrequenz angeht, befinden wir uns derzeit noch in einer Übergangsphase. Grundsätzlich gilt, dass eine Samplefrequenz von 44,1 kHz genügt, um alle hörbaren Frequenzen abzubilden. Dies ergibt sich aus dem Shannon'schen Abtasttheorem, welches besagt, dass die höchste darstellbare Frequenz der Hälfte der Abtastfrequenz (auch Nyquist-Frequenz genannt) entspricht. Da wir Menschen selbst im Kindesalter kaum mehr als 20 kHz hören können, sollten die resultierenden rund 22 kHz in der Tat genügen. Ein Nutzen hinsichtlich der Erhöhung des darstellbaren Frequenzbereichs ergibt sich also nicht.
Eine höhere Samplingfrequenz bietet aber theoretisch andere Vorteile. Digitale Effekte, die mit hoher interner Samplingfrequenz arbeiten (Oversampling), kommen mit Signalen hoher Samplingfrequenz zu besseren Ergebnissen, da einfach mehr Information zur Verarbeitung vorhanden ist und sich weniger Fehler auf Grund von Rundungen ergeben. Zudem verringert sich der Einfluss des Quantisierungsrauschens, da es auf einen größeren Frequenzbereich verteilt wird.
Dies ist in der Theorie alles richtig. Die Frage ist nun, wie wir dies in der Praxis umsetzen? Ich konnte keinen Test finden, bei welchem Testhörer Aufnahmen mit 44,1 kHz und 96 kHz eindeutig hätten unterscheiden können. Der Klangunterschied der verschiedenen Wandler war stets größer als der vermeintliche Unterschied auf Grund der höheren Samplingfrequenz.
Meine Meinung: Eine höhere Auflösung bringt zwar theoretisch einen besseren Klang. Dieser marginale Vorteil steht aber in keinem Verhältnis zu den erhöhten Anforderungen an Speicher und Performance.
Für Monosignale gilt:
Bei Stereosignalen ist das Ganze natürlich mit Zwei zu multiplizieren.
Warum gibt es dann Wandler mit 24 Bit-Breite und 192 kHz-Auflösung? Ganz einfach, weil es heute technisch machbar ist und weil die Wandlerhersteller – zu Recht - etwas verdienen wollen. Schließlich hat heute praktisch jeder Hardware mit 24 Bit/44,1 kHz-Wandlern. Der Markt ist also gesättigt und es müssen ergo neue Bedarfe geweckt werden.
Trotzdem: Hier können wir die Kirche getrost im Dorf lassen. Für typisches Bandrecording sind 44,1 kHz bei 24 Bit notwendig, aber auch vollkommen ausreichend.
Ein Audio-Engineer, der sich die Frage stellt, ob er heute mit 24 Bit/192 kHz arbeiten soll oder nicht, wird sich zuvor die Frage stellen, wo er seine 100.000 EUR-Mikrofonierung vor dem Sinfonieorchester platziert. Solche Gedanken sind eben - wenn überhaupt - erst in der absoluten Audio-Oberliga sinnvoll.
3.2.3.2Truncation und Dithering
Entgegen der landläufigen Behauptung ist es ist längst nicht so, dass ein digitales Signal über die Strecke hinweg verlustfrei verarbeitet werden kann. Das Durchlaufen unterschiedlichster Prozesse erfordert, dass immer wieder neu verrechnet und gewandelt wird.
Neben allgemeinen Rechenfehlern und Rundungsvorgängen auf den letzten Kommastellen ist es vor allem die Truncation, die ein digitales Signal über die Verarbeitungsstrecke verschlechtern kann. Schließlich werden die beeinträchtigenden Rechenprozesse nicht nur einmal, sondern in Abhängigkeit von der Komplexität der Verarbeitung mehrfach hintereinander durchgeführt.
Unter Truncation versteht man das Abschneiden der jeweils minderwertigsten Bits beim Wandeln von einer höheren auf eine niedrigere Bitrate. Durch diesen Vorgang entstehen stets minimale Klangbeeinträchtigungen, die sich kumuliert als Verlust an Klangtiefe und Präzision bemerkbar machen.
Leider ist Truncation nicht zu vermeiden. Also hat man eine Technik zum Mindern der Negativeinflüsse entwickelt: Dithering. Dieses kaschiert die kleinen Rechenfehler, die beim Quantisieren von 32 oder 24 auf 16 Bit auftreten, indem es die Quantisierungsartefakte mit einem definierten Rauschen überdeckt. Dieses Ditheringrauschen ist psychoakustisch so optimiert, dass es nur marginal wahrgenommen werden kann. Der Effekt mag dir beim Abhören nicht direkt auffallen, das Dithering ist aber technisch gesehen absolute Pflicht für ein sauberes Rendering mit Wortbreitenverringerung.
Dithering findet in vielen Hosts automatisch ohne dein Zutun statt. Dies wird durchgeführt, da im Zuge der Verarbeitung im Host immer wieder temporär auf unterschiedliche Bitraten gewandelt werden muss. Schließlich arbeiten nicht alle Effekte mit der gleichen Auflösung.
Beim finalen Masteringprozess eines Titels musst du das Dithering aber selbst sicherstellen, indem du ein Dithering-Plug-In als letztes Glied der Masterkette einbindest. So kannst du von der höherwertigen Bitrate deiner Masterdatei verlustarm auf die Wortbreite deines Zielmediums konvertieren. Nach diesem finalen Dithering darf das Signal nicht mehr weiter bearbeitet werden, da die dabei durchzuführenden Rechenoperationen das Dithering ja wieder aufheben würden.
3.3Backup
Als ehernes Gesetz der Digitaltechnik gilt:
Es ist niemals die Frage, ob eine Festplatte kaputt geht, sondern wann!
Ergo: Backup, Backup und nochmals Backup!
Im Musikbusiness ist nichts peinlicher und schmerzhafter als seinem Kunden sagen zu müssen, dass seine Aufnahmen unwiderruflich gelöscht sind.
Über die gesamte Produktionszeit solltest du also regelmäßige Sicherungen erstellen. Ob du dies mittels externer Festplatten oder gebrannten DVDs bzw. Blu-Rays erledigst, ist Geschmackssache.
Bei der Festplattenmethode sollte die externe Platte aber auch wirklich nur zu Backupzwecken angeschlossen werden und nicht permanent mitlaufen! Ansonsten unterliegt die Backupplatte der ähnlichen Alltagsbeanspruchung wie deine Standardplatte und die Strategie verfehlt ihr Ziel.
Hast du eine entsprechende Netzbandbreite zur Verfügung, sind großvolumige Onlinedatenspeicher eine weitere, interessante Alternative. Diese können inzwischen sehr preiswert gemietet werden.
Da das Internet nicht 100 % zuverlässig ist und du im Zweifel keinen Zugriff auf deine Daten hast, sehe ich dies aktuell nur als eine Backup-Erweiterung. Um deine Daten zu schützen, empfehle ich hier zudem eine „codierte“ Bezeichnung der Dateien, sodass sie für potentielle Datendiebe uninteressant bleiben.