Beiträge

Die Geschichte ist aus dem Ruder gelaufen. Begonnen hatte sie mit diesem Buch von der Vorschlagsliste meines örtlichen Buchhändlers. Über Johann Sebastian Bach habe ich schon so Einiges gelesen, Michael Maul gilt jedoch als ausgesprochener Kenner dieses barocken Musikers. Seine Biografie spricht Bände. Kaum begonnen, stieß ich auf den Hinweis zu einer umfangreichen Podcast-Serie im Deutschlandfunk, «Universum JSB». Schon einige Jahre alt, aber Johann Sebastian ist ja schon lange nicht mehr unter uns. Also hörte ich einmal rein. Was zur Folge hatte, dass die 33 halbstündigen Beiträge mich eine ganze Zeit in Anspruch nahmen. Noch schlimmer, am Ende jeder Folge wollte ich die nächste kaum abwarten. So ging die Zeit ins Land, erst danach konnte ich zum Buch zurückkehren. Ich stieß erstmals auf Bach in einer Zeit, als solche Musik für Youngsters absolutes No-Go war. Walter Carlos bzw. Wendy brachte ihn mir nahe, wenn auch auf einem ungewöhnlichen Instrument. So erkannte ich dann, was Leute wie Keith Emerson oder Rick Wakeman als wirkliche musikalische Wurzeln hatten. Wen sie da oft in ihrer Musik zitierten. Im Grunde gehören das Buch sowie die darin verwiesene Spotify-Playlist als auch der Podcast zusammen, liefern ein unglaublich breites wie unterhaltsames Wissen über den großen Musiker des Barock. Ja, ich habe eine Menge Neues erfahren. Das Eine oder Andere sogar erst jetzt verstanden.

Michael MaulJ. S. Bach


Ganzer Beitrag …

Ein Kritikpunkt an Audacity, im Vergleich zu anderen Programmen wie Adobe Audition oder Steinberg Cubase, ist der, dass die mitgelieferten Effekte leider nur statische sind. Man kann einen Effekt an einer Spur nur nutzen, wenn man das Sample auswählt und den Effekt anwendet. War es nicht der gewünschte Effektpegel oder die angezielte Wirkung, muss man mit STRG-Z zurück, andere Parameter für den Effekt einstellen und wieder anwenden. Diese Anwendung der Effekte liegt an der Art, wie Audacity entwickelt wurde, nämlich für gleich mehrere Betriebssysteme. Linux, Windows und weitere. Und die handhaben dynamische Effekte jeweils sehr unterschiedlich. So genannte dynamische Effekte, bei denen man im laufenden Betrieb Effektparameter ändern kann und gleichzeitig mithören, muss man nachträglich einbringen. Dieses geht mit den VST-Plugins, Software-Module, deren Schnittstelle die Firma Steinberg schon vor langer Zeit definiert hat. Ein weiterer Vorteil dieser Plugins ist der, dass man zum Beispiel Compressoren oder Equalizer nach dem Anwendungsziel aussucht. Weil ein Compressor für ein Schlagzeug anders verwendet wird als für Sprache oder Gesang. Seltsamerweise haben sich unzählige Hersteller an diese Schnittstelle für Plugins gehalten, weshalb sie heute ein Quasistandard ist. Doch ist die Nutzung der VST-Plugins in Audacity nicht ganz trivial. In Cubase oder Audition geht das einfacher. Aber es ist auch keine Raketenwissenschaft.


Ganzer Beitrag ...

Um andere für uns zu gewinnen, sollten wir kompetent, selbstbewusst und leidenschaftlich wirken. Es kommt eben nicht nur darauf an, was wir sagen, sondern auch wie wir es tun. Aber woran liegt es eigentlich, dass uns manche Stimmen in den Bann ziehen – ist es eine Frage der Routine oder angeborenes Talent? In der Podcast-Serie »Smarter leben« gab es einen Beitrag mit dem Phonetiker Oliver Niebur, hier der komplette Artikel, der erklärt, was eine Stimme glaubwürdig und charismatisch macht. Hörenswert für alle, die mit Sprechen zu tun haben.

Smarter lebenCharismatische Stimme

Bisher kannte ich die Möglichkeit, die Lautheit (nicht den Pegel) einer Spur festzulegen, nur aus Adobe Audition. Doch hier hat Audacity nachgezogen. Seit kurzer Zeit hat Audacity unter den Effekten die Funktion zum Anpassen der Lautheit. Die Anwendung ist relativ einfach. Man wählt das Sample, das angepasst werden soll, einfach aus, ruft die Anpassung auf und gibt vor, welche Lautheit die Anpassung einstellen soll. Wie alle anderen Effekte in Audacity – im Gegensatz zu Audition – kann es Effekte nur als Bearbeitungsfunktion, nicht als dynamische Funktion handhaben. Bei der Lautheit unterscheiden sich da Audacity und Audition nicht.

Allerdings muss man darauf achten, dass als Normalisierung die wahrgenommene Lautheit gewählt wird, was die Grundeinstellung ist. Zwar erlaubt Audacity nicht den Bezug zu den IBU-Rundfunknormen wie Audition, für den Hausgebrauch reicht es schon. Empfehlen würde ich für Podcasts die gute alte -16 LUFS-Vorgabe von Apple, die -14 LUFS bei Amazon halte ich für zu laut. Wenn man regelmäßig Jingles verwendet, sollte man diese einmal so normieren und danach erneut abspeichern. Verkürzt den Workflow gerade bei großen Sample erheblich.

Nicht zum automatischen Anpassen, aber zum Ausmessen der Lautheit bietet sich das Youlead Loudness Meter an.

Vor schon längerer Zeit hatte ich mich mit dem Thema »Schreiben fürs Sprechen« beschäftigt. Nach reichlichem Quellenstudium, zahllosen Beiträgen im Netz und mit so einigen Büchern. Während man in diesem Fall, dass man seine Texte für einen Beitrag schreibt, die Sache noch weitgehend in der Hand hat, sieht die Sache ganz anders aus, wenn man fremde Texte einsprechen soll. Die sind nämlich in fast allen Fällen eben nicht fürs Sprechen gedacht. Es ist dann nicht die Ausnahme, dass solche Texte kaum ordentlich zu sprechen sind. Weil sie eben als Pressemeldungen oder sonstige Zwecke verfasst wurden. Wie nun an diese Herausforderungen heran gehen? Damit bin ich nun seit einiger Zeit konfrontiert, allmählich schält sich jedoch auch für diese Fälle eine Art Workflow heraus.


Ganzer Beitrag ...

Aufnahmen nach dem maximalen Pegel auszusteuern, ist nur ein Teil der Wahrheit. In Wirklichkeit ist die Lautheit das Maß aller Dinge. Hier ein guter Artikel, der Lautheit erklärt und wie man es in der Praxis anwendet.

https://www.nrwision.de/mitmachen/wissen/lufs-lautheit-pegeln

Das gilt für Produktionen, die gezielt für Radio und Fernsehen gemacht werden. Geht es jedoch um Podcast oder andere Aufnahmen, die nicht über Sendeprozessoren gehen, gelten andere Regeln. In Audition ist bei der Wahl von EBU R128 als Normierungziel -23 LUFS fest eingestellt. Um andere Werte zu wählen, muss auf ITU umgestellt werden.


Ganzer Beitrag ...

Mit O-Tönen kann man auch kleine Beiträge oder Podcasts prima aufpeppen. Doch woher nehmen, wenn nicht selbst aufgenommen? Ein gute Quelle dafür ist YouTube. Von Musik über Politik bis hin zum Zeitgeschehen findet man reichlich Beiträge, Sendungen aller Kanäle bis hin zu Ausschnitten von Filmen. Ein kleines Tools hilft dabei enorm: der 4KVideoDownloader. Damit kann man nicht nur Videos von YouTube herunter landen, sondern auch gleich nur das Audio extrahieren. YT-URL kopieren, den Link einfügen und "Extract Audio" wählen, die MP3-Datei entsprechend ablegen. Die Limitierungen in der freien Version sind für gelegentliche O-Töne eigentlich kein Problem. Wer zieht sich schon mehr als 20 O-Töne pro Tag.

Bitte beachten, das nach der letzten Novellierung des Urheberrechtsgesetzes (UrhG) nur noch Ausschnitte bis zu 15 Sekunden ohne Rechtsverletzung verwendet werden dürfen!

Leider sind die Lautheiten der Quellen sehr unterschiedlich. Ein hilfreiches Tool, wenn man nicht Adobe Audition mit Onboard-Tools verwendet, ist das Youlean-Loudness-VST-Plugin. So klappt das auch mit den O-Tönen.

Beim Produzieren eines Beitrages fiel mir vor einiger Zeit auf, dass der Mix in Audition noch ganz ok klang, der exportierte Mix aber deutlich schlechter. Eher grottig, die Stimme klang verwaschen und undefiniert. Verglichen mit dem Original. Am Mikro konnte es nicht liegen, der Export lief mit 192 kBit/s. Sollte also alles im grünen Bereich sein, war es aber nicht.

Wenn man im Nachhinein darüber nachdenkt, wird klar, was da passierte. Eine Fußangel bei der Verwendung des MP3-Formates, die ich intuitiv musste, aber nicht bedachte.


Ganzer Beitrag ...

Nach dem Verlust meines kleinen Studios im Keller habe ich meinen Kleiderschrank zur Sprecherkabine umfunktioniert. Was prima geht, da die darin untergebrachte Kleidung einen fast toten Raum erzeugt. Den letzten Rest Dämmung erledigen große Noppenschaumstoffe auf der Innenseite der Schranktüren. Das Pult war schon immer in diesem Schrank und beherbergt T-Shirts und Hosen. Etwas nervig war nur das eigentliche Aufnehmen. Ein Notebook neben dem Schrank auf einem Schreibtisch hatte einmal den Nachteil, dass ich zwischen den Abschnitten um die Schranktüren herum hin- und herlaufen musste. Der noch größere Nachteil war das deutlich hörbare Rauschen des Lüfters im Notebook. Zuerst wollte ich das Notebook gegen einen luftgekühlten Mini-PC tauschen, was aber mindestens 400 Euro Kosten bedeutet hätte. Es ging dann nicht nur billiger, sondern auch viel besser.


Ganzer Beitrag ...

Das Thema treibt mich mittlerweile in den Wahnsinn. Wie mische ich eine moderierte Sendung so ab, dass Sprache und Musik subjektiv gleich laut klingen, so dass die Sprache verständlich bleibt, man aber bei der nächsten Musik nicht gleich wieder einen Sprint ans Radio einlegen muss? Bisher bin ich das Thema weitgehend experimentell angegangen, war aber mit den Ergebnissen nicht immer wirklich zufrieden. Für mich war die Reproduzierbarkeit wichtig, damit ich nicht bei jedem neuen Beitrag wieder ans Ausprobieren komme. Die Antwort war nahe liegend, aber nicht bewusst. Ich hatte die dazu sinnvollen Tools in Adobe Audition nämlich schon lange in Gebrauch, war mir aber der Tragweite ihrer Wirkung nicht wirklich bewusst.


Ganzer Beitrag ...