Sound Communities / Klanggemeinschaften

Könnte eine musikalischere Art des Seins, Denkens, Sprechens und Handelns zu einer humaneren und effektiveren (im zweiten Sinne klangvollen) Welt beitragen? Mit anderen Worten: Welche Bedeutung hat das Stichwort “Klanggemeinschaften” für Musik in der Friedensförderung? In dem Artikel von Marcia Ostashewski (2020) setzt Sie sich mit der Bedeutung von Sound Communities auseinander und geht auf die verschiedenen Forschungsansätze unterschiedlicher Disziplinen ein. Im Folgenden wird auf einige der Forschungsansätze eingegangen.

Das Wort jedoch “Klanggemeinschaften” ist im Plural zu verstehen, womit von vornherein ein Gefühl der Vielfalt und Pluralität von Erfahrungen, abweichenden Standpunkten und Interessen innerhalb von Gemeinschaften vermittelt wird. Zum Beispiel kann ein einziger Ort mehrere Gemeinschaften beherbergen, Gemeinschaften können sich über mehrere Orte erstrecken und Gemeinschaften sind keine monolithischen Gebilde. (Walsh und High, 1999, S. 257)

“Praxisgemeinschaften sind Gruppen von Menschen, die ein Anliegen, eine Reihe von Problemen oder eine Leidenschaft für ein Thema teilen und die ihr Wissen und ihre Fachkenntnisse in diesem Bereich durch kontinuierliche Interaktion vertiefen.” (Wenger et al., 2002, S. 4).

Wenger zufolge gestalten sowohl Anfänger als auch Erfahrene durch gemeinsames Üben die Praktiken ihrer Gemeinschaften ständig neu, indem sie die Bedeutung dessen, was sie gemeinsam tun, überprüfen und aushandeln. Gemeinsam erschaffen die Mitglieder der Gemeinschaft kontinuierlich die Identitäten der Gemeinschaft und der einzelnen Praktiker neu. (Wenger in Morley, 2016, S. 161).

Titon beschreibt Klanggemeinschaften als etwas, das im Grunde “durch akustische Kommunikation entsteht und aufrechterhalten wird” (2015, S. 23). Titon legt in seiner Definition den Schwerpunkt auf die Arbeit, die der Klang leistet, um Gemeinschaft zu schaffen und zu erhalten – er dient der Kommunikation. Titons Definition von Gemeinschaft umfasst potenziell alles Leben, einschließlich Pflanzen und Tiere. Titon erkennt das Potenzial für ein Verständnis das durch indigenes Wissen in ein Thema eingebracht wird, das oft Beziehungen beinhaltet, die mehr als nur Menschen umfassen. Titons Einbeziehung anderer als menschlicher Wesen in die Gemeinschaft resultiert zu einem großen Teil aus seiner eigenen interdisziplinären intellektuellen Geschichte und seiner Sensibilität als Ökomusikwissenschaftler (Titon, 2014; Titon und Ostashewski, 2014).  Er erwähnt, dass die aufkeimende wissenschaftliche Forschung, die Informationen ans Licht bringt, wie die Tatsache, dass Pflanzen kommunizieren (Gagliano, 2012), sein Denken in diesem Bereich beeinflusst.

Literatur

Titon, J.T. (2014). Flight call. MUSICultures, 41(2), pp.162-169.

Titon, J.T. (2015). Exhibiting music in a sound community. Ethnologies, 37(1), pp. 23-41.

Marcia Ostashewski (2020). Sound Communities. Music and Arts in Action. Vol 7

Morley, D. (2016). Applying Wenger’s communities of practice theory to placement learning. Nurse Education Today,39, pp. 161-162.

Wenger, E., McDermott, R. and Snyder, W. (2002). Cultivating Communities of Practice: A Guide to Managing Knowledge.Boston: Harvard Business School, McGraw-Hill Distributer.

Walsh, J. C. and High, S. (1999). Rethinking the concept of community. Social History, 32(64), pp. 255-273.

INDEPTH Sound Design

Indepth Sound Design ist ein Sound Design Channel auf Youtube, der sich mit der Philosophie und den techniken des Sound Designs beschäftigt. Dafür werden Beispiele aus echten Filmen gezeigt und erklärt. Indepth Sound Design beschreibt sich selbst als eine Fundgrube für lehrreiche Sound-Dekonstruktionen, Audio-Stem-Breakdowns und andere klangliche Inspirationen. Die Seite wurde von Mike James Gallagher ins Leben gerufen.

Beispiele für Sound Design Dekonstruktion:

In diesem Beispiel wird auf den Film Independence Day eingegangen, wobei der Sound in die verschiedenen Layers aufgebrochen wird. Die Szene ist 3:45 lang und wird 4-mal gespielt.

Zuerst mit nur den Sound Effects, dann nur Dialog und Foley, anschließend nur die Music und zuletzt alles zusammen im Final Mix.

Im zweiten Beispiel geht es um eine 1:09 min lange Szene aus Terminator 2. Auch diese Szene wir mit den Layers Sound FX, Ambience, Foley, Music und Final Mix separat gezeigt.

Außerdem spricht im Anschluss der Sound Designer des Films Gary Rydstrom über den Entstehungsprozess des Sound Designs bei dieser Szene.

Quelle:

Indepth Sound Design

https://www.youtube.com/channel/UCIaYa00v3fMxuE5vIWJoY3w

Hochpassfilter (Part 3)

Ein Hochpassfilter (HPF) ist ein elektronischer Filter, der Signale mit einer Frequenz über einer bestimmten Grenzfrequenz überträgt und Signale mit Frequenzen unter der Grenzfrequenz dämpft. Die Höhe der Dämpfung für jede Frequenz hängt vom Filterdesign ab. Hochpassfilter haben viele Einsatzmöglichkeiten, wie z.B. das Blockieren von Gleichstrom von Schaltkreisen, die auf nicht Nulldurchschnittsspannungen oder Hochfrequenzgeräte reagieren. Sie können auch in Verbindung mit einem Tiefpassfilter zur Herstellung eines Bandpassfilters verwendet werden. Außerdem werden sie auch in anderen Bereichen wie der Mechanik, Akustik, Hydraulik oder in Antennenweichen eingesetzt, wo sie jedoch oft einen anderen Namen tragen. In der Tontechnik beschreibt er also, welche Frequenzen noch enthalten sind, werden also hauptsächlich als Equalizer benutzt werden.

Hochpass 1. Ordnung

Ein einfacher elektronischer Hochpassfilter erster Ordnung wird realisiert, indem eine Eingangsspannung über die Reihenschaltung aus Kondensator und Widerstand gelegt und die Spannung über dem Widerstand als Ausgang verwendet wird. Das Produkt aus Widerstand und Kapazität (R*C) ist die Zeitkonstante (τ); sie ist umgekehrt proportional zur Grenzfrequenz fc, also,

wobei fc in Hertz ist, τ in Sekunden, R in Ohm und C in Farad ist.

Tiefpassfilter

Ein Tiefpassfilter (LPF) ist ein Filter, der Signale mit einer Frequenz, die niedriger als eine ausgewählte Grenzfrequenz ist, überträgt und Signale mit Frequenzen, die höher als die Grenzfrequenz sind, dämpft. Der genaue Frequenzgang des Filters ist abhängig vom Filterdesign. Der Filter wird manchmal als High-Cut-Filter oder Treble-Cut-Filter in Audioanwendungen bezeichnet.

Tiefpassfilter gibt es in vielen verschiedenen Formen, darunter elektronische Schaltungen wie ein Rauschfilter, der in Audio verwendet wird, Anti-Aliasing-Filter zur Aufbereitung von Signalen vor der Analog-Digital-Wandlung, digitale Filter zur Glättung von Datensätzen, akustische Barrieren, Unschärfe von Bildern und so weiter. Die in Bereichen wie dem Finanzwesen verwendete gleitende Durchschnittsoperation ist eine besondere Art von Tiefpassfilter und kann mit den gleichen Signalverarbeitungstechniken analysiert werden, die auch für andere Tiefpassfilter verwendet werden. Tiefpassfilter bieten eine glattere Signalform und entfernen die kurzfristigen Schwankungen.

Beispiele für Tiefpassfilter finden sich in der Akustik, Optik und Elektronik. Eine steife physikalische Barriere neigt dazu, höhere Schallfrequenzen zu reflektieren und wirkt so als akustischer Tiefpassfilter zur Schallübertragung. Wenn Musik in einem anderen Raum gespielt wird, sind die tiefen Töne leicht zu hören, während die hohen Töne abgeschwächt werden. In einem elektronischen Tiefpassfilter für Spannungssignale werden hohe Frequenzen im Eingangssignal gedämpft, aber das Filter weist unterhalb der durch seine RC-Zeitkonstante bestimmten Grenzfrequenz eine geringe Dämpfung auf.  Elektronische Tiefpassfilter werden an den Eingängen von Subwoofern und anderen Lautsprechern verwendet, um hohe Töne zu blockieren, die sie nicht effizient reproduzieren können. Funksender verwenden Tiefpassfilter, um harmonische Emissionen zu blockieren, die andere Kommunikationen stören könnten. Der Klangregler vieler E-Gitarren ist ein Tiefpassfilter, mit dem die Höhen im Klang reduziert werden.

Tiefpass 1. Ordnung

Eine einfache Tiefpassfilterschaltung besteht aus einem Widerstand in Reihe und einem Kondensator parallel zur Spannungsquelle/-abnehmer. Der Kondensator weist eine Reaktanz auf, blockiert niederfrequente Signale und drückt sie stattdessen durch die Last. Bei höheren Frequenzen sinkt die Reaktanz, und der Kondensator wirkt effektiv als Kurzschluss. Die Kombination aus Widerstand und Kapazität ergibt die Zeitkonstante des Filters τ = RC. Die Grenzfrequenz (in Hertz), wird durch die Zeitkonstante bestimmt:

Diese Schaltung kann unter Berücksichtigung der Zeit verstanden werden, die der Kondensator zum Laden oder Entladen durch den Widerstand benötigt:

Bei niedrigen Frequenzen bleibt genügend Zeit, damit der Kondensator praktisch auf die gleiche Spannung wie die Eingangsspannung auflädt.

Bei hohen Frequenzen hat der Kondensator nur Zeit, eine kleine Menge aufzuladen, bevor der Eingang die Richtung wechselt. Der Ausgang geht auf und ab, nur ein kleiner Bruchteil der Menge, die der Eingang auf und ab geht. Bei doppelter Frequenz bleibt nur Zeit, um die Hälfte des Betrages aufzuladen.

Passive Filter (Part 2)

Passive Filter basieren auf Kombinationen von Widerständen (R), Induktivitäten (L) und Kondensatoren (C). Diese Typen werden zusammenfassend als passive Filter bezeichnet, da sie nicht von einer externen Stromversorgung abhängig sind und/oder keine aktiven Komponenten wie Transistoren enthalten.

Induktoren (Spulen) blockieren hochfrequente Signale und leiten niederfrequente Signale, während Kondensatoren den umgekehrten Weg gehen. Ein Filter, bei dem das Signal durch einen Induktor geleitet wird oder bei dem ein Kondensator einen Erdungsweg bereitstellt, weist gegenüber niederfrequenten Signalen eine geringere Dämpfung auf als Hochfrequenzsignale und ist daher ein Tiefpassfilter. Wenn das Signal durch einen Kondensator geht oder einen Erdungspfad durch einen Induktor hat, dann zeigt das Filter eine geringere Dämpfung gegenüber hochfrequenten Signalen als niederfrequente Signale und ist daher ein Hochpassfilter. Widerstände allein haben keine frequenzselektiven Eigenschaften, sondern werden Induktoren und Kondensatoren hinzugefügt, um die Zeitkonstanten der Schaltung und damit die Frequenzen, auf die sie reagieren, zu bestimmen.

Die Induktivitäten und Kondensatoren sind die reaktiven Elemente des Filters. Die Anzahl der Elemente bestimmt die Reihenfolge des Filters. In diesem Zusammenhang wird eine LC abgestimmte Schaltung, die in einem Bandpass oder Bandsperrfilter verwendet wird, als ein einziges Element betrachtet, obwohl sie aus zwei Komponenten besteht.

Aktive Filter

Aktive Filter werden mit einer Kombination aus passiven und aktiven (verstärkenden) Komponenten realisiert und erfordern eine externe Stromquelle. Operationsverstärker werden häufig in aktiven Filterdesigns eingesetzt. Diese können einen hohen Q-Faktor (Höheres Q bedeutet einen geringeren Energieverlust im Verhältnis zur gespeicherten Energie des Resonators; die Schwingungen sterben langsamer ab. Bei einem Filter ist dann die Grenzfrequenz steiler) haben und ohne den Einsatz von Induktivitäten Resonanzen erzielen. Ihre obere Frequenzgrenze wird jedoch durch die Bandbreite der Verstärker begrenzt.

Elektronische Filter (Part1)

Elektronische Filter sind Schaltungen, die Signalverarbeitungsfunktionen übernehmen, insbesondere um unerwünschte Frequenzanteile aus dem Signal zu entfernen, gewünschte zu verbessern oder beides. Sie verändern es abhängig von der Amplitude, der Frequenz und der Phasenlage. Filter können in verschieden Kriterien klassifiziert werden, wie zum Beispiel passive oder aktive Filter, analoge oder digitale, HP/LP/BP Filter, linear und nicht-lineare Filter. Die meisten der genutzten Filter sind lineare Filter. Die ältesten Formen von elektronischen Filtern sind passive analoge lineare Filter, die nur aus Widerständen und Kondensatoren oder Widerständen und Induktivitäten bestehen. Diese werden als RC- bzw. RL-Einpolfilter bezeichnet. Diese einfachen Filter haben jedoch nur sehr begrenzte Einsatzmöglichkeiten. Mehrpolige LC-Filter bieten eine bessere Kontrolle über Ansprechform, Bandbreite und Übergangsbänder. Der erste dieser Filter war der konstante k-Filter, der 1910 von George Campbell erfunden wurde. Campbells Filter war ein Leiternetz, das auf der Theorie der Übertragungsleitungen basiert. Zusammen mit verbesserten Filtern von Otto Zobel und anderen werden diese Filter als Bildparameterfilter bezeichnet. Einen großen Schritt nach vorne machte Wilhelm Cauer, der den Bereich der Netzwerksynthese zur Zeit des Zweiten Weltkriegs gründete. Cauers Theorie erlaubte es, Filter zu konstruieren, die genau einer vorgegebenen Frequenzfunktion folgten.

Filtertypen

Bei einem TP (Tiefpassfilter) werden alle tiefen Frequenzen bis zu einer Grenzfrequenz durchgelassen, alle höheren Frequenzen abgeschwächt. Das HP (Hochpassfilter) im Gegensatz lässt alle hohen Frequenzen durch und schwächt die tieferen Frequenzen ab. Die Kombination dieser beiden Filtertypen wird BP (Bandpassfilter) genannt, weil es zwei Grenzfrequenzen gibt, wobei alle höheren und tieferen Frequenzen abgeschwächt und ein mittleres Frequenzband durchgelassen wird. Das Bandrejectfilter ist das Gegenstück dazu, indem er nur das mittlere Band abschwächt und filtert, die Randfrequenzen jedoch durchlässt.

Der Idealfall einer rechteckigen Grenzfrequenz ist in der Realität nicht erreichbar, daher wird normalerweise zur Bestimmung der Parameter von einem normierten TP ausgegangen.

Lineare- / Nichtlineare Filter

Bei nichtlinearen Filtern sind die Eigenschaften des Filters abhängig von dem Signalpegel und dem zeitlich verlauf. Es können Verzerrungen entstehen, daher werden sie auch als Begrenzer, Verzerrer oder Medianfilter eingesetzt. Bei linearen Filtern jedoch sind die Filtereigenschaften unabhängig von der Laustärke und das Signal wird nicht verzerrt. Die grundlegende Form des Signals wird nicht verändert, nur mit einem Faktor multipliziert. Dazu gehören auch TP, HP oder BP Filter.

Logistische Gleichungen (auf Musik und Instrumente anwendbar)

Feigenbaumdiagramm

Das Feigenbaumdiagramm leitet sich aus der logistischen Gleichung ab und bildet eine Periodenverdopplungsbifurkation ab. Bei kleinen Parameterwerten existiert nur ein stabiler Fixpunkt, der am ersten Bifurkationspunkt in einen Orbit aus zwei alternierenden Fixpunkten übergeht. Dieser Orbit verdoppelt dann an weiteren Bifurkationspunkten jedes Mal wieder seine Periode (kommt also erst nach 2, 4, 8, etc. Durchläufen wieder an den gleichen Punkt), bis er bei einem Parameterwert von etwa 3,57 in einen chaotischen Zustand übergeht, wo überhaupt keine Periode mehr erkennbar ist. Die Abbildung ist durch diese Darstellung gut als solche zu untersuchen, nicht jedoch um die Dynamik bei einem bestimmten r darzustellen. Man erhält ein Feigenbaumdiagramm in dem man die Werte für große n (z.B. x600 bis x900) in Abhängigkeit der r-Werte einträgt. Es stellt dann den Endzustand der Orbits dar, die sich an die Attraktoren angenähert haben.

Abb. 5: Feigenbaum – Diagramm

Deterministisches Chaos

Deterministisches Chaos ist das zufällig erscheinende Verhalten von dynamischen Systemen, welches vorherbestimmten Regeln folgt. Dabei wird das chaotische Verhalten jedoch nicht durch äußere Umstände oder Störungen verursacht, sondern folgt aus dem Verhalten des Systems. Der chaotische Zustand ist nicht reproduzierbar, trotz deterministischer Dynamik. Das heißt für chaotische Systeme führen langfristig ähnliche Startbedingungen nicht zu ähnlichen Wirkungen, obwohl die Folgewerte der Funktion eindeutig berechenbar sind. Das Problem ist, das in Experimenten eigentlich von einem schwachen Kausalitätsprinzip ausgegangen, indem gleiche Ursachen auch die gleiche Wirkung haben. Da aber in einem Experiment unter realen Bedingungen nie alle Ausgangsbedingungen gleich sind, geht man von einem starken Kausalitätsprinzip aus, welches besagt: Ähnliche Ursachen haben ähnlich Wirkung. Das dadurch auch nicht jedes Experiment belegt werden kann, zeigt dieses Beispiel. Daher geht man von verletzter starker Kausalität aus. Bei logistischen Gleichungen spricht man von der sensitiven Abhängigkeit der Anfangsbedingungen und lässt sich auf die Streck- und Falteigenschaften der Gleichung zurückführen. Die Entwicklung eines chaotischen dynamischen Systems ist als Folge der Unvermeidbarkeit von Messfehlern bei der Bestimmung des Anfangszustandes nicht vorhersehbar, nicht aufgrund eines stochastischen Verhaltens.

Strogatz, S. (1994). Nonlinear Dynamics and Chaos: With Applications to Physics, Biology, Chemistry and Engineering. Perseus Books Group

Poser, H. (2012). Wissenschaftstheorie. Eine philosophische Einführung. Stuttgart 2012,5, S. 293–295.

Krabs, W. (1998). Dynamische Systeme: Steuerbarkeit und chaotisches Verhalten. B.G.Teubner, Leipzig

Rechtliche Grundlagen beim Einsatz von Musik in Medien

In Deutschland ist die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA) für das Inkasso und die gerechte Verteilung von Tantiemen Ansprüchen durch Aufführung musikalischer Werke verantwortlich. Sie ist monopolistisch und jedes Land hat eine eigene Verwertungsgesellschaft. Sie nehmen für die Künstler, Urheber, Verleger, die Mitglied sind, die Durchsetzung ihres Urheberrechts wahr. Für den TV-Werbebereich gibt es bei einer Anmeldung ein extra Anmeldeformular für Auftragskompositionen zu Fernsehproduktionen. Jedes gespielte Stück wird einzeln abgerechnet und ein prozentualer Betrag an den angemeldeten Künstler und den Verlag ausgeschüttet. Die Einnahmen der GEMA setzten sich zum einen durch den Rundfunkbeitrag und außerdem durch die pro Sendeminute abgerechnete Musik, dessen Lizenzen von den Werbe-/ Filmproduktionen getragen werden müssen, zusammen. Es gibt verschiedene Faktoren, wie den Aufführungsmultiplikator, den Minutenwert oder andere Koeffizienten, welche die Tantiemen für die jeweilige Situation errechnen. Zwischen den meisten Urheberrechtsgesellschaften der Welt bestehen bilaterale Verträge, welche die Weitergabe und Verrechnung mit ausländischen Urhebern und den Gesellschaften regeln. So muss z.B. ein amerikanischer Künstler, der von der ASCAP (American Society of Composers, Authors and Publishers) mit seinen Werken Geld bekommt, diese nur einmal versteuern. Da diese aber auch in Deutschland gespielt werden (er bekommt Geld von der GEMA), müssen die Einnahmen nicht mehrmals in verschiedenen Ländern versteuert werden, durch Doppelsteuerabkommen.

Die GVL (Gesellschaft zur Verwertung von Leistungsschutzrechten) wird zur ausübenden Instanz (ähnlich der GEMA) von Künstlern, die an Stücken mitgewirkt haben, ohne eigene geistige Urheberleistung, welche bereits von der GEMA abgedeckt wird. Da der Musiker meist nur für seinen Auftritt vor Ort bezahlt wird, ist es auch als Tätigkeitshonorar bekannt, und unabhängig von dem Verkaufserfolg des Ton- oder Bildträgers. Dies gilt auch für die im Tonstudio vollbrachte Arbeit. Das Werk kann nämlich auch über einen Livestream verbreitet werden, oder im Fernsehen übertragen werden, wobei jeder einzelne Mitwirkende einen Anspruch auf Vergütung erhält, solange er bei der GVL gemeldet ist.

Wehmeier, R. (1995). Handbuch Musik im Fernsehen. Regensburg: ConBrio S. 139ff.

Komposition und Produktion von Werbemusik

Bei der Wahl von Werbemusik, bleiben den Produzenten nur zwei Möglichkeiten: Entweder das Lied selbst komponieren lassen, genau nach seinen Wünschen, oder ein schon Vorhandenes zu nutzen. Ein selbstkomponiertes Stück hat den Vorteil, dass wenn man genaue Vorstellungen hat, wie das Lied sein soll (Stimmung, Geschwindigkeit, Instrumentierung), es nach den eigenen Wünschen angepasst und verändert werden kann. Nachteile sind jedoch die sehr hohen Kosten und das mangelnde Musikwissen vieler Film- und Werbe-Produzenten. Dadurch gibt es oft nur vage Angaben über den genauen Stil oder das Tempo. Der Vorteil eines bereits existierenden Stückes ist, dass es schon zu vielen Szenen eine passende Musik gibt, sie nur von den richtigen Leuten gefunden werden und passend eingesetzt werden muss. Hier spielt die Erfahrung eine Schlüsselrolle. Bei dieser Wahl müssen Abgaben an die Verwertungsgesellschaften wie die GEMA gezahlt werden, wobei einem jedoch oft sehr große Production Music Archive zur Verfügung stehen, welche mit Verlagen zusammenarbeiten.

Produktionsmusik, Urheberrechtsfreie Musik

Auch wenn der Einsatz von speziell komponierter Musik ungebrochen ist und steigt, wird der gewaltige Musikbedarf der Werbeindustrie zu einem großen Teil von Library-Katalogen abgedeckt. Diese Sammlungen von unterschiedlichster Musik sind häufig von Verlagen angelegt und beinhalten Werke zu fast jedem Musikstil. Der Vorteil solcher Kataloge ist zum einen die enorme Auswahl an Musik, die bereitsteht, die Arbeit mit meist erfahrenen Musikexperten und die gleichzeitige Abwicklung der Lizenzen bei der GEMA und GVL durch die häufige Verbindung zu einem Verlag. Auch dort kommt es beim Preis jedoch immer auf die Nutzung der Musik und die Reichweite an.

Die Produktionsmusik beschäftigt sich also nur mit der Musik für den professionellen Einsatz mit meist kurzer Dauer, wie zum Beispiel Werbespots oder Filmsequenzen. Die Werbetreibenden können, bei der Suche nach dem richtigen Musikstück, meist auch selbst durch diese Kataloge stöbern.

Sogenannte Urheberrechtsfreie Musik ist nicht vom Urheberrecht getrennt, gemeint ist damit eher die Musik, die von Komponisten geschrieben wurde, welche nicht bei der GEMA gemeldet sind. Sie bieten Ihre Produkte für einen pauschalen, relativ niedrigen Preis an und verkaufen diese unwiderruflich an einen Erwerber, der damit tun kann, was er will. Interessenten dafür sind vor allem Video- oder YouTube Produzenten, da diese sich die Abgaben bei den Verwertungsgesellschaften sparen wollen. Neue Plattformen/Unternehmen wie Epedemic Sound (Schweden) entstanden vor ein paar Jahren, mit genau diesem Prinzip, und verdrängen die Verlage und Verwertungsgesellschaften in anderen Ländern. Die Künstler bekommen feste Beträge für ihre Lieder, wobei egal ist, wie erfolgreich oder oft aufgerufen es ist. Im deutschen Fernsehen ist dies rechtlich jedoch nicht möglich, weshalb auch hier weiterhin Tantieme für öffentlich Musiknutzung fällig werden. Auf Internetseiten wie Youtube ist es hingegen eine gute Alternative für unbekannte Künstler und Firmen, günstige, gut passende Musik zu nutzen, ohne diese lizenzieren zu müssen.

Mastering

Mastering ist bei digitalen Produktionen der letzte Schritt, bevor es zur Vermarktung bzw. Veröffentlichung kommt, um den Klang und die Lautstärke an den Industriestandard anzugleichen. Auch das Pressen des Audiomaterials auf Vinylplatten oder das Erstellen von CDs wird Mastering genannt, ist aber in diesem Fall nicht gemeint.

„Mastering is the last creative step in the audio production process, the bridge between mixing and replication – your last chance to enhance sound or repair problems in an acoustically – designed room – an audio microscope. Mastering engineers lend an objective, experienced ear to your work; we are familiar with what can go wrong technically and esthetically.” (Katz, 2003, S. 11)

„Mastering ist keine Anhäufung von Werkzeugen oder ein Gerät, durch das man Musik schickt, sodass sie am Ende „gemastert“ herauskommt. […] Es ist eine Kunstform, die, wenn sie gewissenhaft und in größter Vollendung ausgeführt wird, im überwiegenden Maße von den Fähigkeiten einer einzelnen Person abhängt. Ihrer Erfahrung mit den verschiedenen Musikstilen und ihrem guten Geschmack.“ (Owsinsky, 2009, S. 19)

Erkennbar wird bei den Beschreibungen dieser beiden Zitate, wie viel Erfahrung und Equipment bei dem Mastering-Vorgang benötigt wird. Beide dieser Quellen stammen aus den Jahren vor 2010 und bis dahin war ein Mastering Ingenieur fast die einzige Möglichkeit diesen Prozess durchzuführen. Da es sich beim Mastering um ähnliche Vorgehensweisen handelt, die auf unterschiedliche Stücke angewendet werden, wurde in den letzten Jahren auch vermehrt Software entwickelt, die diesen Schritt automatisch vollzieht. Dazu gehören einerseits die Analyseprogramme des kostenintensiven und bei Mastering-Ingenieuren beliebten Programms „Izotope Ozone“, andererseits gibt es auch viele aufkommende Websites, wie landr.com, cloudbounce.com, emastered.com, usw., deren Dienste schon für monatliches Abonnement genutzt werden können und ähnlich gute Ergebnisse liefern. Dabei geht zwar das Sammeln persönlicher Erfahrungswerte des Audioingenieurs verloren, bei anfänglich guten Mixdowns liefern diese Websites jedoch zum Teil ausreichend gute Ergebnisse für einen Bruchteil des Preises (etwa 7€ monatlich für Mastering-Flatrate (bspw. Landr: 6,99€) im Gegensatz zu etwa 30€+ pro Song beim Mastering-Ingenieur). Vielen Amateurproduzenten wird dadurch das Mastern von Liedern und das Erreichen von professionellen Standards erleichtert.

Quellen:

Katz, B. (2003). Mastering audio: The art and the science. Oxford: Focal. S. 11

Owsinsky, B. (2009). Mastern wie die Profis: das Handbuch für Toningenieure. München. S. 19

Mixing

Unter dem Mixdown (dt.: Mischen) einer Aufnahme, versteht man das endgültige Abstimmen der einzelnen Spuren aufeinander, um Überlagerung von Frequenzen oder Spuren zu vermeiden (obwohl manche Künstler darauf bewusst abzielen). Man versucht alle Elemente noch einmal ohne kreative Beeinflussung nur anhand des Klanges zu betrachten und auf richtiges Timing und Phasenverschiebungen zu achten. Owsinski (2007) hat dafür eine Richtlinie von sechs Elementen aufgestellt, die wichtig für einen guten Mix sind.

  • “Ausgewogenheit und Balance: die Pegelrelation der Einzelnen musikalischen Elemente zueinander
  • Frequenzbereich: alle Frequenzen müssen adäquat repräsentiert sein.
  • Panorama: das Platzieren der musikalischen Elemente im Stereofeld
  • Dimensionen: das Hinzufügen von Räumlichkeit zu einem musikalischen Element
  • Dynamik: die Kontrolle des Lautstärkeverlaufs einer Spur oder eines Instruments
  • Interesse: das gewisse Etwas einer Mischung“

(Owsinski, 2007, S. 34)

Ausgewogenheit und das Verständnis der richtigen Pegelrelationen benötigen viel Erfahrung und die richtige Abhöranlage. Es geht dabei laut Conrad (2012) um einen ständigen Vergleich mit existierenden Produktionen, sowie gute Lautsprecher, einen geeigneten Raum ohne störende Reflektionen und gelegentliche Ruhe und Abwechslung für das Gehör (Conrad, 2012, S. 210). Bei diesem Prozess können die Automationsfunktionen der DAW’s im digitalen Mischpult helfen. Das Endprodukt der abgemischten Produktion sollte dabei nach Conrad (2012) eine maximale Lautstärke von -6 dB aufweisen, um genügend Spielraum für das Mastering zu lassen. Oft ist die genaue Laustärke der einzelnen Spuren jedoch persönliche Präferenz.
Auch der Frequenzbereich der Spuren muss beachtet werden. Es gibt bereits Plug-Ins, wie z. B. Isotope Ozone, die eine Anzeige für die optimale Tonale Balance anbieten. Der Effekt, der laut Conrad (2012) dafür genutzt wird, ist der Equalizer, welcher durch das Einsetzen von z.B. Hoch-/ Tiefpass Filtern unerwünschte Frequenzen herausfiltert und somit Überlagerungen und Phasenverschiebungen vorsorgt. Er gleicht Verzerrungen des Frequenzgangs aus und trägt somit zu einer ausgewogenen Verteilung bei (Conrad, 2012, S. 170).

Ein weiteres wichtiges Element, das in fast jeder Musikproduktion enthalten ist, sind Raumsimulationen (Dimensionen). Zu den dabei genutzten Effekten gehören z. B. der Hall (Reverberation) oder das Delay/ Echo. Da unsere Umgebung und Orientierung akustisch durch Hall und Reflektionen von Flächen charakterisiert ist, gibt dies einem Instrument einen natürlich besseren Klang, als würde es trocken, ohne diese Effekte, wahrgenommen werden. Bei der Aufnahme bemüht man sich laut Conrad (2012) jedoch um ein möglichst reflektionsarmes Signal, um es im Nachhinein flexibler zu bearbeiten. Mathematisch können durch die Faltung eines Signals, auch von echten Räumen, die Raumcharakteristika nachgebildet werden, in der Praxis wird dies jedoch meist von Plug-Ins simuliert. Die Ausklingzeit und Dichte des Halls lässt sich dabei kontrollieren. Unter Echo oder Delay versteht man unterscheidbare Wiederholungen des Signals, die in der Natur an den Reflektionen glatter Flächen erkennbar und durch die Verzögerung des Schalls bedingt sind. Die Delayzeiten können beliebig gesetzt werden, oder an die Noten-Zählzeit und Tempo angepasst werden. Durch eine lange Delayzeit kann z. B. mehr Tiefe und Räumlichkeit erzeugt werden (Conrad, 2012, S. 141f.). Die Räumlichkeit und Verteilung der Spuren im Mix wird nach Owsinksy (2007) auch Panorama genannt. Dafür werden vor allem die höherfrequentierten Spuren wie Drums auf die seitlichen Lautsprecher verteilt (paning), oder durch ein Tremolo- oder Spread-Effekt die Weite im Mix simuliert (Conrad, 2012, S. 141f.). Um die Amplitude eines Signals zu regeln, werden laut Conrad (2012, S. 156) Dynamikprozessoren verwendet, ein Beispiel dafür ist ein Kompressor. Laute Passagen eines Signals werden durch ihn ab einem bestimmten Schwellenwert (Threshold) zurückgenommen, leisere angehoben, um das Signal gleichmäßiger zu machen (Conrad, 2012, S. 156f.). Es kann sich demnach bei der Abschwächung um das Signal selbst handeln, oder um ein anderes (Side Chain). Andere Dynamikprozessoren sind z. B. Limiter, Gates, De-Esser oder Expander, und diese Effekte tragen, nach Conrad (2012), zwar zu einem lauteren, klareren Mix bei, machen ihn jedoch auch weniger dynamisch. Dies führt zu einer feinen Linie zwischen laut genug, aber dadurch undynamisch, und etwas leiser, dafür dynamischer und natürlicher. Diese Entwicklung wird in der Musikindustrie auch als Lautheitskrieg (Loudness war) bezeichnet (Conrad, 2012, S. 156f.).

Insgesamt führen all diese Effekte und Herangehensweisen zu einem besseren Sound, welcher jedoch schwer zu definieren ist, und auf Erfahrung und im Sinne des Bearbeitenden liegt. Jedes Genre und jeder Toningenieur nutzt andere Arbeitsweisen und Detailfokussierung.

Quellen:

Owsinski, B. (2007). Mischen wie die Profis: das Handbuch für Toningenieure. München. S. 34

Conrad, J. (2012). Recording: Einführung in die Technik der Musikproduktion (7. grundlegend neu überarbeitete Auflage.). Bergkirchen: PPVMedien.