Das Thema treibt mich mittlerweile in den Wahnsinn. Wie mische ich eine moderierte Sendung so ab, dass Sprache und Musik subjektiv gleich laut klingen, so dass die Sprache verständlich bleibt, man aber bei der nächsten Musik nicht gleich wieder einen Sprint ans Radio einlegen muss? Bisher bin ich das Thema weitgehend experimentell angegangen, war aber mit den Ergebnissen nicht immer wirklich zufrieden. Für mich war die Reproduzierbarkeit wichtig, damit ich nicht bei jedem neuen Beitrag wieder ans Ausprobieren komme. Die Antwort war naheliegend, aber nicht bewusst. Ich hatte die dazu sinnvollen Tools in Adobe Audition nämlich schon lange in Gebrauch, war mir aber der Tragweite ihrer Wirkung nicht wirklich bewusst.

Mal die Profis fragen

Es gibt tatsächlich von den verschiedenen Sendern Vorgaben, wie Sendungen in meinem Sinne zu produzieren sind. Ist zum Beispiel bei ARTE oder beim IRT für ARD und ZDF zu finden. Darin ist auch der Zielwert für Fernsehsendungen zu finden, dass die mittlere Lautheit -23 LUFS nicht überschreiten soll. Erst an eher versteckter Stelle finden sich auch Richtwerte fürs Radio. Daraus lässt sich destillieren, wie diese mittlere Lautstärke in Radiosendungen erfüllt wird, nämlich als Zielwert -15 LUFS. Dieser Wert schwankt für die verschiedenen Formate, bei 1LIVE mit jungem Publikum ist das eher -13 LUFS, bei klassischem Material gegen -18 LUFS. Das wären die Zielwerte, aber es sagt noch nichts über das ausgewogene Verhältnis zwischen Musik und Moderation aus. Oder doch?

In der Praxis ist kein Unterschied

Im Grunde beantwortet sich die Frage von selbst, wenn man sich den tatsächlichen Inhalt der Frage mal genauer vornimmt. Denn gefragt ist, wie Moderation und Sprache gleich laut sind. Die Antwort ist simpel: sie müssen nur die gleiche Lautheit haben. Bleibt man bei den schon zur Verfügung stehenden Tools in Adobe Audition, liegt die Antwort nahe: Sprache und Musik bekommen eben den gleichen LUFS-Wert, und siehe da, dann klappt das auch im Verhältnis Moderation und Musik. Audition hat ja schon ein brauchbares Tool in den letzten Versionen an Board, mit dem man den LUFS-Wert von Quellen ermitteln und justieren kann. Zu finden über das Menu Fenster | Lautstärke-Anpassung. Was nicht korrekt ist, denn es müsste Lautheit-Anpassung heißen. Zieht man Dateien aus dem Datei-Explorer in dieses Fenster, kann man den LUFS-Wert nach ITU setzen lassen. Macht man das nun einmal für Musik und einmal für Sprache, stellt sich heraus, dass trotz unterschiedlicher Pegelanzeigen im VU-Meter und unterschiedlicher Ausdehnung in den Spuren die Sprache genau so laut ist, wenn beide Quellen auf -16 LUFS gesetzt werden. Damit kommt eine alte Faustregel der Toningenieure wieder ins Spiel. Nach der soll die Musik -3 dB unter der Moderation liegen. Das ist bei gleichem LUFS-Wert nicht ganz der Fall, kommt dem aber nahe. Zu beachten ist noch, dass keine der Spuren im Pegel irgendwie hochgezogen oder heruntergesetzt sind. Und es muss zwischen Mono und Stereo unterschieden werden, kommt gleich.

Damit habe ich einen Workflow, der gut automatisiert verwendet werden kann. Die Moderation egalisiere ich mit Normalisierung und Hardlimiter, wie hier beschrieben. Statt des Hardlimiters kann auch ein Compressor verwendet werden, dann mit einer Reduzierung von 6:1 oder sogar 8:1. Nicht wegen der Lautheit, sondern um Spitzen und Schwankungen in der Stimme zu beseitigen, lasse sie dann mit dem Zielwert -6 dBFS als Spitzenwert stehen. Danach kommt die Lautheits-Anpassung zum Einsatz, Musik auf -16 LUFS, Sprache auf -16 LUFS. Und siehe da, so funktioniert es dann ziemlich zuverlässig. Mit den Standardeinstellungen in Audition kann das Resultat etwas merkwürdig aussehen, als wenn die Spur durch einen Compressor oder Hardlimiter gegangen wäre. Das liegt an den Einstellungen des Loudness-Tools. Hier links die passenden Einstellungen ohne diesen Effekt.

Wie laut denn nun wirklich?

Hier geben die Regelungen der IBU wie auch die von ZDF und ARD die Werte vor:

  • Podcast zur Verteilung: -15 bis -16 LUFS
  • Radiosendung modern: -16 bis -18 LUFS
  • Radiosendung klassisch: -18 bis -20 LUF
  • Fernsehsendung: -23 LUFS

Dann noch Mono versus Stereo

Einen Haken gibt es in der Geschichte dann doch noch. Man lernt immer noch dazu. Wie in diesem (englischen) oder jenem (englischen) Artikel geschildert, ist die tatsächliche Lautheit nach Wiedergabe unterschiedlich, je nachdem, ob die Spur in Mono oder in Stereo wiedergegeben wird. Das kann physikalisch erklärt werden, ist nicht ganz trivial, hier aber einfach das Ergebnis: Liegt die Spur in Stereo vor, so wird mit dem effektiven Zielwert angeglichen, hier -16 LUFS. Ist die Spur jedoch in Mono, wird die Lautheit um -3 LU abgesenkt um die gleiche Lautheit zu bewirken. In diesem Fall dann -19 LUFS. Zusammengefasst hieße es dann: Mono-Moderation -19 LUFS, Stereo-Musikmaterial -16 LUFS.

Damit das in Audition klappt, muss noch ein Parameter berücksichtigt werden, nämlich Essential Sound. Je nach Auswahl eines Presets für Sprache kann die subjektive Lautheit enorm schwanken. In den meisten Presets werden entweder Compressor oder EQ benutzt, die die tatsächliche Lautheit stark beeinflussen können. Um das zu beurteilen, kann man den Clip einmal mit Essential Sounds hören und einmal ohne. So nett Essential Sound gedacht ist, so gefährlich kann die Nutzung der vordefinierten Presets sein, weil sie unter der Haube Effekte und Bearbeitungen nutzen, die unserem Ziel gleicher Lautheit für Moderation und Musik entgegen wirken. Daher nutze ich Essential Sound mit einem eigenen individuellem Preset, der die Lautheit des Clips so wenig wie möglich verändert, indem Funktionen wie Compressor und Limiter vermieden werden. Noch besser wäre gar kein Essential Sound zu benutzen, dann kann mir auch niemand hinein pfuschen. Für die alltäglichen Anwendungen reichen meistens die einfachen Möglichkeiten wie etwas EQ und eventuell der Desesser in den Effekten.

Was ist mit dem Bett?

Gemeint ist natürlich das Musikbett, das unter einer Moderation liegt. Auch dazu finden sich in den Richtlinien von ARTE oder ARD Antworten, wiederum an versteckter Stelle. Da funktioniert die Vorgabe zwischen fremdem Interviewtext und der Übersetzung ins Deutsche ganz gut. ARTE gibt folgenden Bereich vor:

Entsprechend den Festlegungen in 3.3.1.5.1 Short-term Messung gemessene Abweichungen der Lautheit sind wie folgt zulässig:
– Programme einer Länge über 2’00: Gespräch: ± 7 LU, gemessen auf Basis der „Short-term Loudness“ bezogen auf den Lautheits-Zielwert.
Lautheitsbereich (LRA Loudness Range): Der LRA-Wert darf höchstens 20 LU (siehe EBU Tech 3342) betragen. Empfehlung für den Herstellungsprozess: In der Praxis ist es empfehlenswert, zur Vermeidung eines übermäßig „dichten“ Abhöreindrucks den LRA-Wert zwischen 5 und 15 LU zu halten.

Heißt in Deutsch: zwischen Musikbett und Moderation sollen mindestens etwa 7 dB und maximal 15 dB Abstand liegen. 12 dB sind ein guter Mittelwert, hängt aber auch von der jeweiligen Musik ab. Wird die Moderation also auf einen Maximalpegel von -6 dB gelegt, sollte das Musikbett bei -18 dB landen. Hängt ein bisschen vom Material ab, ob es ruhige Streicher sind oder heftiger Synthesizer-Sound. Denn diese beiden Quellen haben sehr unterschiedliche Lautheitswerte. Da wird der Synthesizer eher 15 dB leiser laufen als die Moderation.

Quellen

Einheitliche Lautheit im Radion (RBB)

Die Richtlinie R128 verstehen und anwenden (sae)

Aussteuerung Sprache/Musik (BR)

Funkspotmischung/Sounddesign (Schellenberger)

Technische Richtlinie (ARTE)

0 Kommentare

Hinterlasse ein Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.