Loudness War – Normalieren und Dynamik
Am Anfang war es ein Kampf und ich war immer der Verlierer. Nach und nach fand ich Tools für den Audioschnitt, die das Leben etwas leichter machten. Zuletzt hatte ich eine Session in Hannover, in einem professionellen Tonstudio. Dank Thomas ist mir dann einiges klarer geworden, manches hatte ich nicht gewusst, an anderen Stellen Maßstäbe angelegt, die unsinnig waren. Aber alles der Reihe nach. Es geht um Audio-Produktionen.
Über den Umgang mit Material aus den Händen von Profis
Die schlimmsten Produktionen, die ich je gefertigt habe, sind die mit Musikmaterial aus zwei verschiedenen Jahrzehnten. Während in den Siebzigern eher konservativ gemastert wurde, war es in den Achtzigern, noch schlimmer in den Neunzigern, erste Mode, die Lautheit auf ein absolutes Maximum zu bringen. Beim Mastern wurde so heftig komprimiert, dass das Resultat in einem Mehrspur-Programm oder Editor betrachtet wie ein Band aussah, keine Dynamik mehr zu sehen. Dafür klangen die Aufnahmen auch druckvoll und fett. Seit einigen Jahren ist der Trend rückläufig, es wird zwar noch komprimiert, aber längst nicht mehr so heftig wie einige Jahre zuvor. Konsequenz aus der immer größer werdenden Lautheit, aus immer mehr Dichte, war die Reaktion der Sender, solches Material nicht mehr zu akzeptieren. Am schlimmsten waren noch nicht einmal die Musik-Produktionen, sondern die Werbung. Die wurde den Hörern akustisch um die Ohren gehauen. Was bei den CDs von Metallica oder Dream Theater aber trotzdem noch bis heute so ist.
Produziert man mit solch unterschiedlichem Material Sendungen, gehen The Nice oder Yes aus den Sechzigern und Siebzigern akustisch unter, Niacin oder Dream Theater aus den Achtzigern und Neunzigern sind kaum zu bändigen. Man kann nun im Schnitt die unterschiedlichen Qualitäten per Hand auspegeln, alte Aufnahme bekommen ein paar dB dazu, moderne werden herunter geregelt. Bei einer Sendung mit 20 oder 30 Titeln ist das aber nicht nur mühsam, sondern auch zeitfressend. Noch von der Relation Musik zu Sprache/Moderation ganz zu schweigen. Das bereitete mir in den ersten Produktionen entweder lange Sessions mit Auspegeln, Hören, Auspegeln, oder Kopfschmerzen. Das zu automatisieren, war ein erster Schritt. Die Lösung hieß: MP3Gain.
Normalisieren geht vor Ausprobieren
MP3Gain ist ein kostenloses Programm, das Audiodateien in ihrer Lautheit analysiert und entsprechend auf einen Zielwert an Lautheit umrechnet. Der Inhalt ändert sich nicht, nur eben die Lautheit. Nimmt man alle Musikstücke aus dem Programm in MP3Gain und setzt alle Tracks auf einen Zielpegel von 89 bis 92 dB, ist die Sache schon gelinder. Die Tracks klingen nun halbwegs gleich laut, für bereits fertig gemastertes Material hat sich 92 dB als guter Wert ergeben. Das war dann schon mal besser geworden und erheblich zeitsparend. Trotzdem klingen die Tracks, je nachdem, wie stark sie durch einen Kompressor gejagt wurden, immer noch unterschiedlich. Aber nicht mehr so unterschiedlich. War da noch die Baustelle Moderation zu Musik. Und wie man an dieser Stelle ein gutes Verhältnis der Lautstärken erreicht.
Also sprach der Moderator
Nun versuchte ich noch die Moderation zu verschönern. Einen professionellen Voice Processor konnte und wollte ich mir nicht leisten. Diverse VSTi-Plugins versprechen ähnliche Ergebnisse, ebenso einige Equalizer und sonstige Programme wie VocEQ, Easyvox oder Rescue. Tatsächlich klingen Stimmen mit diesen Plugins deutlicher, breiter und eben … nun ja … fetter. Das Resultat dieser Versuche war, dass inzwischen fast ein Gigabyte an Plugins auf der Festplatte herum stand. Es musste so kommen, ich war der Plugin-Sucht verfallen. Zwar klang es nicht schlecht. Aber auch nicht gut. Dann kam dieser Samstagmorgen im Tonstudio Hannover und der Kontakt zu Adobe Audition CS6. Und die Session mit Thomas, dem Inhaber des Studios.
Weniger ist mehr ist weniger
Zwar arbeitete ich schon länger mit Adobe Audition, jedoch in der Version CS2. Im Tonstudio Hannover bekam ich dann Kontakt zu Audition CS6. Und lernte, dass die Produktion eines Hörbuchs oder eines Podcasts in professioneller Weise gar keine zwanzig Plugins oder angeblich zaubernde Tools braucht. Es braucht sehr wenig, um gut zu klingen. Und plötzlich wird die Platte leerer und die Ergebnisse werden zuverlässiger. Adobe Audition CS6 bzw. CC (CS6 ist 32 Bit, CC ist 64 Bit) kostet im Abo 25 Euro im Monat, das Geld hätte ich schon länger investieren sollen.
Wörgfloh in Audition CS6
Was ich noch immer mache, ist das Normalisieren der einzelnen Musik-Tracks in MP3Gain. Moderation nehme ich in Goldwave auf, weil ich mit dem Tool seit 10 Jahren umgehe. Die Sprachaufnahmen normalisiere ich auf -3 dBFS und schneide mit einem passend eingestellten Compressor die meisten Spitzen ab. Das kann man in Goldwave automatisieren, vielleicht mache ich das demnächst auch in Audition. Am Ende landet alles in drei Spuren in Audition, Spur 1 mit Opener, Closer und Jingles, Spur 2 für Musik, Spur 3 für die Moderation. Nun kommt eine hilfreiche Funktion in Audition CS6 zum Einsatz. Dahinter steht eine neue Vorgabe der Medien, die den Loudness War in Musik und Werbung unterbinden soll. Das ist die EBU-Empfehlung R 128, Details finden sich in Wikipedia. Über diese Empfehlung kann man recht zuverlässig die Lautheit jedes einzelnen Tracks kontrollieren, was über die sonst übliche Normalisierung weit hinaus geht. In Audition CS6 selektiert man einen Titel und wählt über das Rechte-Maustaste-Kontextmenu „Match ClipVolume“.
Im Dialog wähle ich eine Lautheit von -12 LUFS. Das gewählte Audiomaterial wird analysiert und auf eine Lautheit eingestellt, die dann einen Spitzenpegel von um die -6 dBFS bedeutet. Da aber jedes Stück einzeln analysiert und mit einem jeweils eigenen Korrekturfaktor versehen wird, können die Spitzenpegel im VU-Meter doch unterschiedlich ausfallen, weil ja auf Lautheit justiert wird, nicht auf reine Pegelwerte. Ist demnach ein Stück sehr stark auf Lautheit komprimiert, wird der maximale Pegel in der Anzeige ein kleinerer sein. Es geht um Lautheit, nicht um isoliert betrachtete Pegel.
Sollten noch einzelne Spitzen drin sein, die nicht die Lautheit bestimmt haben, senke ich die kurz im Waveeditor von Audition ab. Das passiert zum Beispiel bei einer Klavierballade, wo der Pianist einmal kräftiger anschlägt und sonst eher entspannt spielt. Zwar wird von den Rundfunksendern eine Lautheit von -23 LUFS erwartet, was ca. -9 dBFS bedeutet, im Digitalradio kann man aber mehr Headroom ausnutzen, ohne dass es für die UKW-Übertragung kritisch wird. Andererseits arbeiten manche Sender, die viel mit modernen Musikstilen umgehen, auch schon mit -15 LUFS. Diese Funktion benutze ich für jedes Musikstück, das geht sehr fix, weil man sich den Zoom der Spuransicht in Audition so einstellen kann, dass man gleich mehrere Tracks ohne Weiterscrollen bearbeiten kann.
Die Quelldateien werden von Audition übrigens beim Volume Match nicht verändert. Nur Veränderungen im Waveeditor sind von Einfluss. Darum kann man später, wenn es doch nicht so passt, noch mal die Stücke auf -15 oder -10 LUFS nivellieren.
Für die Moderation benutze ich einen selbst erstellten Preset im Effektrack in Audition. Jedoch nur einen Equalizer, um Rumpeln und Raumresonanzen unter 100 Hz zu reduzieren und um bei 4 kHz einen leichten Glanz einzufügen. Danach folgt der De-Esser aus Audition und ein leichter Multiband-Kompressor.
Den Pegel für die Moderation stelle ich so ein, dass ein Peak-Level von -4 dBFS erreicht wird, weil Sprache nicht eine so starke Lautheit hat. Das hängt etwas von der Stimmlage und Sprechweise ab, wer tiefer und kräftiger intoniert, kann auch die Moderation bei -5 oder -6 dBFS begrenzen. Damit ergibt sich ein ausgeglichener Pegel zwischen Moderation und Musik. Der De-Esser nimmt Zischeln und scharfe Geräusche heraus, der Preset für mein Geschlecht passte schon sehr gut. Der Multiband-Kompressor sorgt für einen ausgeglichenen Pegel. Das war’s.
Noch ein paar Worte zu Pegeln
Der Umgang mit unterschiedlichem Material aus vielen Toningenieurshänden ist am Ende immer ein Ritt durch die Wildnis. Wechselnde Komprimierungsgrade, Mastering von Null bis ganz schwer, machen es nicht leicht, in einem Magazin oder einer Musiksendung auf hörerfreundliche Lautheiten zu kommen. Will man das Maximum erreichen, bleibt es einem nicht erspart, die gesamte Sendung durchzugehen und jeden Musiktitel einzeln zu hören und mit der Moderation zu vergleichen. Eine generelle Betrachtung auf hohem Niveau liefert Eberhard Sengpiel.
Ist das Ziel die digitale Weiterverwendung, eben nicht analoges Studio, sollte man den verfügbaren Headroom auch ausnutzen, mit einer gewissen Sicherheitszone. Die liegt bei mir bei -3 dBFS, sind alle Audiotracks so ausgepegelt, dass die -3 dBFS nur von einzelnen Spitzen überschritten werden, ist Übersteuerung unwahrscheinlich. Eine Moderation über Multiband-Kompressor landet in diesem Fall bei -5 bis -6 dBFS für die regelmäßige Aussteuerung. Das ergibt in Zimmerlautstärke mit Rock und Pop einen weitgehend ausgeglichenen Mix.
Fazit
Natürlich kann man mit einem Freeware-Programm wie Audacity, einem Sack voll VSTi-Plugins und einigen Zusatzprogrammen auch gute Ergebnisse bekommen. Schneller, bequemer und zuverlässiger ist es tatsächlich, wenn man mit einem Programm arbeitet, das schon alles an Board hat. Wie Adobe Audition CS6. Und das Programm kostet im Jahr weniger als ein ordentliches Mikrofon.
Dann: auch in der Audio-Produktion hat sich das KISS-Prinzip (Keep It Small and Simple) bewährt. Anstatt mit einer endlosen Kette von Plugins und Tools zu produzieren, die dann auch noch abstürzen oder sich gegenseitig in die Quere kommen, ist das Nutzen weniger Plugins oder Effekte sinnvoller. Die Regel „Viel hilft viel“ stimmt auch an dieser Stelle nicht. Ich bekomme jetzt mit nur leichten und sanften Effekten ein besseres Resultat als am Anfang mit einem Speicher voll Effekten. Auch im Profibereich wird in der Audio-Produktion eher mit schmalem Werkzeug operiert. Der Klang, gerade der menschlichen Stimme, wird durch kräftiges Verbiegen nicht besser. Das Gegenteil ist der Fall, die Stimme wird künstlich, sie verliert die Natürlichkeit.
Nicht zuletzt: wenn man nach Regeln sucht, oder meint, es müsste sie doch geben, steht man sich selbst im Weg. Seien es Fragen wie Zeiten für Fades, Pegelfragen oder Verläufe von Produktionen, liegt das daran, dass man noch unsicher ist. Der Weg aus diesem Dilemma ist nicht schwer. Mehr auf sich selbst verlassen und hören, hören, hören, produzieren und auch mal Zeit für das Experimentieren nehmen. Man musste manche Dinge einfach ausprobieren, aufnehmen und mal Leuten vorspielen und nach Aussagen fragen. Oder: wie machen es die Kollegen beim WDR oder NDR? Mal regelmäßig Podcasts von großen Sendern und Studios hören. Gerade lange Features hellen Fragen auf. Dann wird man gewahr, dass das auch nicht alles Gold ist, was in den Millionen Euros teuren Studios produziert wird. Hören lernen und bewusster hören, auf den eigenen Klangeindruck verlassen. Anstatt nach Regeln oder Eselsbrücken zu suchen. Die Antwort kann gelegentlich auch ein neuer Satz Monitore sein, ich bekomme für Sprache mit dynamischen Mikrofonen einen besseren Klang, es gibt viele Regelpunkte. Oder ein besseres Audio-Interface versuchen. Parallelen zur Homöopathie sind nicht zu leugnen. Aber die Breitseite an Plugins und Effekten bringt es definitiv nicht.
Und zuletzt: die Benutzeroberfläche von Audition hat sich von CS2 zu CS6 enorm verbessert. Nicht nur in der Zahl der Funktionen, sondern auch in kleinen, aber feinen Details. So kann man jetzt direkt mit der Maus nicht-lineare Fades machen, ist in einer Aufnahme ein Peak oder eine Störung, kann man direkt in Audition editieren, alles geht sehr fix und ohne überflüssige Clicks. Alles geht in einem einzelnen Programm, was die Produktion nicht nur beschleunigt, sondern dazu die Nerven schont. Nur ist Audition eben nicht für lau. Aber ich kaufe auch schon lange keine Bohrschrauber für 29 Euro beim Discounter mehr, sondern lieber von Bosch.
Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!