Beiträge

Das Thema treibt mich mittlerweile in den Wahnsinn. Wie mische ich eine Sendung so ab, dass Sprache und Musik subjektiv gleich laut klingen, so dass die Sprache verständlich bleibt, man aber bei der nächsten Musik nicht gleich wieder einen Sprint ans Radio einlegen muss? Bisher bin ich das Thema weitgehend experimentell angegangen, war aber mit den Ergebnissen nicht immer wirklich zufrieden. Für mich war die Reproduzierbarkeit wichtig, damit ich nicht bei jedem neuen Beitrag wieder ans Ausprobieren komme. Die Antwort war naheliegend, aber nicht bewusst.

Mal die Profis fragen

Es gibt tatsächlich von den verschiedenen Sendern Vorgaben, wie Sendungen in meinem Sinne zu produzieren sind. Ist zum Beispiel bei ARTE oder beim IRT für ARD und ZDF zu finden. Darin ist auch der Zielwert für Fernsehsendungen zu finden, dass die mittlere Lautheit -23 LUFS nicht überschreiten soll. Erst an eher versteckter Stelle finden sich auch Richtwerte fürs Radio. Daraus lässt sich destillieren, wie diese mittlere Lautstärke in Radiosendungen erfüllt wird, nämlich als Zielwert -15 LUFS. Dieser Wert schwankt für die verschiedenen Formate, bei 1LIVE mit jungem Publikum ist das eher -13 LUFS, bei klassischem Material gegen -18 LUFS. Das wären die Zielwerte, aber es sagt noch nichts über das ausgewogene Verhältnis zwischen Musik und Moderation aus. Oder doch?

In der Praxis ist kein Unterschied

Bleibt man bei den schon zur Verfügung stehenden Tools in Adobe Audition, liegt die Antwort nahe: Sprache und Musik bekommen den gleichen LUFS-Wert, und siehe da, dann klappt das auch im Verhältnis Moderation und Musik. Audition hat ja schon ein brauchbares Tool in den letzten Versionen an Board, mit dem man den LUFS-Wert von Quellen ermitteln und justieren kann. Zu finden über das Menu Fenster | Lautstärke-Anpassung. Zieht man Dateien in dieses Fenster, kann man den ITU-Wert setzen lassen. Macht man das nun einmal für Musik und einmal für Sprache, stellt sich heraus, dass trotz unterschiedlicher Pegelanzeigen im VU-Meter und unterschiedlicher Ausdehnung in den Spuren die Sprache genau so laut ist, wenn beide Quellen auf -15 LUFS gesetzt werden. Damit kommt eine alte Faustregel der Toningenieure wieder ins Spiel. Nach der soll die Musik -3 dB unter der Moderation liegen. Das ist bei gleichem LUFS-Wert nicht ganz der Fall, kommt dem aber nahe.

Damit habe ich einen Workflow, der gut automatisiert verwendet werden kann. Die Moderation egalisiere ich mit Normalisierung und Hardlimiter, wie hier beschrieben. Nicht wegen der Lautheit, sondern um Spitzen und Schwankungen in der Stimme zu beseitigen, lasse sie dann mit dem Zielwert -6 dB als Spitzenwert stehen. Danach kommt die Lautstärke-Anpassung zum Einsatz, Musik auf -15 LUFS, Sprache auf -15 LUFS. Und siehe da, so funktioniert es dann ziemlich zuverlässig.

Was ist mit dem Bett?

Gemeint ist natürlich das Musikbett, das unter einer Moderation liegt. Auch dazu finden sich in den Richtlinien von ARTE oder ARD Antworten, wiederum an versteckter Stelle. Da funktioniert die Vorgabe zwischen fremdem Interviewtext und der Übersetzung ins Deutsche ganz gut. ARTE gibt folgenden Bereich vor:

Entsprechend den Festlegungen in 3.3.1.5.1 Short-term Messung gemessene Abweichungen der Lautheit sind wie folgt zulässig:
– Programme einer Länge über 2’00: Gespräch: ± 7 LU, gemessen auf Basis der „Short-term Loudness“ bezogen auf den Lautheits-Zielwert.
Lautheitsbereich (LRA Loudness Range): Der LRA-Wert darf höchstens 20 LU (siehe EBU Tech 3342) betragen.
Empfehlung für den Herstellungsprozess: In der Praxis ist es empfehlenswert, zur Vermeidung eines übermäßig „dichten“ Abhöreindrucks den LRA-Wert zwischen 5 und 15 LU zu halten.

Heißt in Deutsch: zwischen Musikbett und Moderation sollen mindestens etwa 5 dB und maximal 15 dB Abstand liegen. 10 dB sind ein guter Mittelwert. Wird die Moderation also auf einen Maximalpegel von -6 dB gelegt, sollte das Musikbett bei -16 dB landen. Hängt ein bisschen vom Material ab, ob es ruhige Klaviermusik ist oder heftiger Synthesizer-Sound. Denn diese beiden Quellen haben sehr unterschiedliche Lautheitswerte.

Quellen

Einheitliche Lautheit im Radion (RBB)

Die Richtlinie R128 verstehen und anwenden (sae)

Aussteuerung Sprache/Musik (BR)

Funkspotmischung/Sounddesign (Schellenberger)

Technische Richtlinie (ARTE)

Eine wiederkehrende Situation sind Sendungen mit Musikstücken aus verschiedenen Quellen und aus verschiedenen Zeiten. Während das alte Supertramp-Album relativ leise ist, haut ein Metallica-Stück danach die Membranen aus den Lautsprechern. Mein erster Ansatz war, jeweils ein Stück über das Kontextmenü unter der rechten Maustaste auf eine bestimmte Loudness zu bringen. Das dann halt für jedes Stück. Neben der Zeit, die das Verfahren benötigte, war das auch sonst kontraproduktiv. Beim finalen Abhören der gesamten Sendung waren dann doch wieder Unterschiede in der Lautheit zu hören, weil zwar die absolute Lautheit jedes einzelnen Stücks gesetzt war, aber nicht in Relation aller beteiligten Stücke. Dazu hat Audition nämlich ein spezielles anderes Tool an Bord.

Im Hauptmenü findet man unter Fenster die Funktion Lautstärke-Anpassung. Die eigentlich Lautheits-Anpassung heißen müsste. Mit diesem Fenster kann man mehrere oder gleich alles Aufnahmen oder Stücke in einem Beitrag auf einheitliche Lautheit bringen. Dazu zieht man aus der Medien-Bibliothek die betreffenden Stücke in das Fenster für die Anpassung. Natürlich kann man mit Shift-Klick auch alle betroffenen Einträge markieren und in dieses Fenster ziehen. Danach wählt man das gewünschte Lautheits-Modell aus, ich nutze ITU-R mit -15 LUFS Ziel für Radiosendungen, andere Quellen empfehlen -18 LUFS. Danach Ausführen klicken und Audition bringt alle beteiligten Stücke auf gleiche Lautheit.

Das funktioniert in der Tat sehr gut. In einem Beispiel habe ich einmal vier Stücke mit sehr unterschiedlicher Lautheit genutzt. Einmal eine alte Supertramp-Aufnahme, eher leise gemastert, aktuelle Singer-Songwriter-Sachen und die auf maximale Lautheit gemasterte Aufnahme von Magellan. Beim Abhören sind die Stücke nun tatsächlich gut aufeinander abgestimmt, was sich auch in den unterschiedlichen Pegeln in der Track-Ansicht zeigt. Berücksichtigen muss man, dass die Quelldateien verändert werden, also die verwendete Musik immer als Kopien nutzen, nicht das Original.

Natürlich hatte ich in der Vergangenheit den Hard Limiter in Adobe Audition schon benutzt. Allerdings nur, um irgendwelche Spitzen im Signal zu beschneiden. Aber wie so oft, versteht man die Funktion eines Werkzeuges erst, wenn man sich damit mal an der Hand eines Experten beschäftigt hat. Das gilt auch für den Hard Limiter, wie er in Adobe Audition wie in anderen Audio-Programmen zu finden ist. Der Sinn des Hard Limiters ist nämlich nicht einfach, eventuelle Spitzen zu bescheiden, sondern das Signal auch gleichförmiger zu gestalten. Was ja im Radio eine sinnvolle Maßnahme ist. Deshalb hier jetzt mal der Hard Limiter in richtig. Und meine Lernkurve dazu.

Weiterlesen

Original-Signal

Original-Signal

Es war mir schon mal aufgefallen, ich hatte es jedoch ignoriert: Aufnahmen von Moderationen waren irgendwie schief, die Signale oberhalb der Nulllinie waren deutlich schwächer als die unterhalb. Ich schob das auf die Elektronik und ließ es gut sein, denn akustisch war ja alles in Ordnung. Bis ich eine neue Runde einlegte, den eingesprochenen Text für die Aussendung möglichst gut einzupegeln und Spitzen durch Schmatzer, Klicker oder Atmer zu nivellieren. Das geht ganz gut mit dem Hard Limiter in Adobe Audition, werde ich noch einmal separat beschreiben. Der Limiter brachte aber nur teilweise Besserung, denn ihm war es ja egal, ob die Signale positiv oder negativ waren. Das Ergebnis war ein schön nivelliertes Signal im positiven Bereich, aber der negative sah aus wie mit der Schere abrasiert. Was tun? Und warum ist das Signal so schräg? Wenn man es weiß, ist es plausibel.

Weiterlesen

Nein, ich bin nicht arm. Nicht wirklich. Aber ich habe in meiner neuen Wohnung das Problem, dass die Wohnung sehr groß ist. Also ein Luxusproblem. Mein Arbeitszimmer ist ein Schlauch, der nur mit großem Aufwand für Sprachaufnahmen ruhig zu bekommen ist. Daran arbeite ich noch. Aber was bis dahin mit den Beiträgen, die in den nächsten Wochen abgeliefert werden müssen? Eine richtige Sprecherkabine möchte ich nicht, und sie wäre teuer und aufwändig.

Weiterlesen

Es hat mich interessiert, wie sich meine fünf Mikros so schlagen, wenn sie in gleicher Aufnahmesituation, mit gleichem Text, an den Start gehen. Ich wollte einfach wissen, welches mein Favorit ist. Am Ende war es wie vorher klar.

Weiterlesen

Im journalistischen Alltag oft nicht zu vermeiden ist das Transkribieren, zu Deutsch Verschriftlichen von Interviews oder Beiträgen in einer Fremdsprache zum Übersetzen. Das Problem dabei ist, dass unsere Finger auf der Tastatur kaum so schnell sind wie ein normaler Sprecher. Dazu habe ich mir immer einen Fußschalter gewünscht, mit dem ich einen Medienplayer auf dem PC mit der Aufnahme des Interviews starten und stoppen kann. Tatsächlich gibt es solche Geräte, meistens von den großen Anbietern von Bürogeräten wie Olympus oder Tascam. Die werden in einen USB-Anschluss gestöpselt und senden Tastaturkommandos an das jeweilige Programm. Solche Fußschalter liegen dann in den Preisregionen deutlich oberhalb von 100 Euro. Das muss doch billiger gehen. Tut es auch. Wenn man sich mit Einplatinenrechnern wie dem Arduino oder Leonardo auskennt und etwas löten kann. Oder jemanden kennt, der es kann. Zeitbedarf: ca. eine halbe Stunde, Kosten bei 30 Euro, je nach Schönheit und Komfort.

Weiterlesen

Über eine längere Zeit Sprachbeiträge zu produzieren, die immer die gleiche Aussteuerung und damit Mixqualität liefern, ist oft eine Frage des Materials. Zwar kann mit Nachbearbeitung in Adobe Audition einiges erreicht werden, aber das bedeutet immer Zeitverlust. Für mich wäre eine mögliche Lösung ein analoger Compressor vor dem Audiointerface gewesen, nur bekommt man solche Geräte heute nur noch für satt hoch drei- bis vierstellige Beträge, wie von Warm Audio. Mehr durch Zufall stieß ich beim Equipment-Lieferanten meiner Wahl auf eine angebliche Alternative. Einen Mikrofonvorverstärker plus Compressor plus Gate und noch einige Funktionen mehr in einem Gehäuse. Stammt von der amerikanischen Firma dbx, die gerne brauchbare Systeme für kleines Geld liefert. Also mal ausprobieren, was an den Preisungen des Herstellers Wahrheit und Dichtung ist.

Weiterlesen

Manchmal liest man in technisch orientierten Fachzeitschriften einen Artikel, und man blättert nach wenigen Zeilen weiter. Technische Details ohne Ende, aufgelistet und aufgereiht, aneinander geklebt und gespickt mit Fachbegriffen. Manche kennt man als Fachmann, aber es gibt auch Autoren, die es schaffen, sogar den Fachmann zu verwirren. Ist man selbst Autor von Fachartikeln, könnte man sich fragen, was denn einen Beitrag lesenswert macht. Oder noch einen Schritt weiter: wann liest man einen Beitrag gerne und zu Ende? Ohne über Kollegen herfallen zu wollen, vielen Autoren scheint das eher egal zu sein, als ginge es nur darum, die notwendigen Textlängen inklusive Leerzeichen abzuliefern. Dabei sollte doch auch der Fachautor ein Interesse haben, dass seine Artikel gelesen werden. Was zur Frage führt, wann ein Beitrag lesenswert wird, angenommen wird, Spaß macht. Auch wenn der Spaß im beruflichen Umfeld nicht unbedingt erste Priorität hat.

Natürlich kommen als erste Maßnahme die altbekannten Regeln zum Einsatz. Möglichst farbige Verben, keine Substantivierungen, kein Amtsdeutsch, kurze und lange Sätze wechseln sich ab. Hamburger Verständlichkeitsmodell, logische Verläufe des Texts. Wie der Mathematiker sagt, ist das notwendig, aber nicht hinreichend. Auf der Suche nach Modellen, die „gute“ Texte, auch im technischen Umfeld erlauben, fiel mir wieder dieses Heftchen in die Hände. Aus der Zeit auf der Journalistenschule. Über die Königsklasse des Journalismus, über das Feature.

Weiterlesen

Es war 1987, als ich meine erste Email-Adresse bekam, sie war nur im Büro verfügbar, und auch nur über einen bestimmten Rechner. Das war eine Targon /35. Sie lautete boettchers.pad@nixdorf.com und hatte auch nur im Umfeld meines Jobs einen Sinn. Nämlich sich mit Kunden und Kollegen weltweit auszutauschen. In dieser Zeit eine Email-Adresse zu haben, machte mich zu einem Mitglied in einem erlauchten Kreis. Es gab keine Milliarden von Email-Adressen damals, vielleicht einige Hundertausende. Auch alle anderen Teilnehmer in diesem frühen Internet waren Ingenieure, Wissenschaftler, vielleicht noch einige Journalisten oder Lehrende. Kommuniziert wurde über Emails oder die Newsgroups. Letztere kennt heute fast niemand mehr, bis zum World Wide Web sollte es noch gut zehn Jahre dauern. Und noch länger bis zum Geschäftsmodell Facebook, das ich nicht mehr länger unterstützen wollte. Nicht wegen Zuckerberg, sondern aus anderen Gründen.

Weiterlesen