Wwise Events

Eine der wichtigsten Funktionen der Middleware Wwise sind die sogenannten Events. Das sind unterschiedliche Anweisungen, die zur Steuerung von Audiodateien dienen. Zu den häufigsten Anwendungen gehören vor allem das Abspielen, Pausieren und Filtern von Audiodateien.

Auswahl an Aktionen, die in einem Event ausgeführt werden können

Zudem dienen Events auch als Bindeglied der jeweiligen Game Engine und der Audio Engine Wwise. Durch sogenannte Game Calls, die von der Game Engine an die Audio Engine geschickt werden und Events aufrufen, erkennt Wwise, dass Audiodaten verarbeitet werden sollen. Diese Game Calls werden im Programmcode an der passenden Stelle eingefügt. Dabei muss beachtet werden, dass die Schreibweise des Eventnamens mit dem String (Zeichenkette in einer Programmiersprache) im Programmcode übereinstimmt.

An dieser Stelle wird das Event Play_SFX_Ellen_Run aufgerufen

In Wwise können Events sowohl einzelne Soundeffekte aufrufen als auch ganze Wwise-Container. Dabei wird im Target-Feld des Event Editors der jeweilige Soundeffekt oder Container aus der Actor-Mixer Hierarchy ausgesucht. Dieser wird dann in Kombination mit der Anweisung (Type) aufgerufen.

Shotgun_Blast Soundeffekt wird im Event Fire_Shotgun_Player abgespielt

Quellen:

[1] https://www.audiokinetic.com/library/edge/?source=Help&id=managing_events_overview

[2] https://www.audiokinetic.com/courses/wwise101/?source=wwise101&id=creating_an_event

Sound Vision

Im Entstehungsprozess für den Sound haben wir uns vorgenommen ausschließlich akustische Instrumente zu verwenden. Da wir eine sphärische Aufnahme geplant hatten eigneten sich Instrumente mit viel Decay, mit denen man große Flächen erzeugen konnte. Zum Einsatz kamen exotische Instrumente wie Handpans, eine Kalimba, ein Vibraphon und kleinere Perkussionsinstrumente wie Chimes, Fingercymbals, ein Rain Maker und ein Crash Cymbal.

Die Handpan spielt eine getragene Fläche, die wie beim Atmen mit der Dynamik auf und nieder geht. Das Kalimba wird durch einen Grain Delay geschickt, der ohne bestimmten zeitlichen Verlauf, also eherer random, kleine Tonschnipsel in unterschiedlichen Oktaven wiederholt, was teilweise wie ein Shimmer klingt. Die Chimes werden reversed abgespielt, was auch innerlich die Erscheinung bringt, dass etwas zurückgespult wird. Das tiefe Grollen bzw der Bass kommt von einem recht großen 22“ Cymbals, das nur sehr leicht angeschlagen ist, aber extrem dicht ans Mikrofon gehalten wurde. Somit wurde die Bassabnahme sehr verstärkt und es klingt schon fast bedrohlich.

Das Vibraphon wird nicht wie üblich mit Mallets gespielt, sondern mit einem Geigenbogen gestrichen. Somit fällt die Attack des Anschlags weg. Dazu habe ich zwei unterschiedliche Takes gemacht und hard L R gestellt. So werden die unterschiedlichen Töne immer aus einer anderen Richtung aus und eingefadet.

Sound Vision

Dieses Projekt durfte ich gemeinsam mit Christof Geramb gestalten, der den visuellen Part umgesetzt hat.

Cross-correlation

The second type of signal correlation is the cross-correlation.

In this case, it is a measurement that tracks the data in a time-series of two or more signals relative to one another.

It is used to compare multiple time series and objectively determine how much resemblance exists between them and, in particular, at what point the best match occurs.

To be more precise, in signal processing, “cross-correlation is a measure of similarity of two series as a function of the displacement of one relative to the other.”

This type of correlation is also called sliding dot product or sliding inner-product.

It has various applications, such as in pattern recognition, single particle analysis, electron tomography, averaging, cryptanalysis, and neurophysiology.

A good way to find the cross-correlation is to use graphics.

It works like the autocorrelation, thus we have a reference signal, and a second signal is shifted sample by sample to the right at every interval, and every time those signal are firstly multiplied and, secondly, the result is summed.

Here is an example: [1]

In the first line is represented our reference signal, in the second one the signal we want to compare with. As the samples are sliding frame by frame, the digital values of the signal are being multiplied, then their result is summed.

We got those values: -6, 13, -8, 8, -5, 1, -1.

8 is the zeroth sample, this means that the two signal are fully overlapped, no sample is left behind.

Yet, the highest peak is 13, when only the last two samples of the second signal is correlated with the first two of the reference signal. This is due to the fact that, in this case, the signals overlap at its best, as the samples of the two are identical.

References

[1] H.L. Sneha: Understanding Correlation. 2017

[2] Wikipedia – Cross Correlation.

Autocorrelation

What is it? Correlation normally describes the mutual relationship that exists between two or more things.

In statistics, it referred to any association which, considering a pair of variables, refers to which degree they are linearly related.

We could also say the same thing in the context of signals, where the correlation between signal indicates how much one signal resembles another.

There are 2 types of correlation in signal processing: autocorrelation and cross-correlation.

When the signal is correlated with itself, it’s called autocorrelation. In this case the signal is mostly compared with its time-shifted version.

One way of computing it is through the graphic technique.

Considering the first digital signal, already represented graphically, we then shift sample by sample the second signal at each interval, overlapping it with the first one. The results are continuous multiplication and addition.

This process is well represented in this image: [1]

As we can easily imagine, the first row represents the given signal, our reference one. The second row represents its time-shifted version, compared sample by sample to the reference one. The third row is the result of the multiplication of the first two rows and the red number is their sum.

So, we got those results: -1, 0, 6, 0, -1.

The maximum value is obtained when the overlapping signal best matches the reference one, therefore, in this case, when the time-shift is exactly zero, as there will always be a peak at a lag of zero in an autocorrelation. Also, its size will be the energy of the signal.

References

[1] H.L. Sneha: Understanding Correlation. 2017

[2] Wikipedia – Correlation

Jazz Popcorn Robot Drum Solo

Dieses Video stammt von Moritz Simon Geist, einem Sound Designer, der mit verschiedensten selbst gebauten Robotern Musik macht. In seinen Projekten kommen sehr oft Motoren oder Solenoids zum Einsatz, die durch ein bestimmtes Ereignis getriggert werden und einen mechanischen oder perkussiven Klang von sich geben. Eines seiner Projekte hat mich besonders beeintruckt, da ich selbst Schlagzeuger bin. Es handelt sich um ein DrumSet, das durch PopCorns getriggert wird.

Im Vergleich zu klassischer Musik ist im Jazz die Improvisation das um und auf. Dieses Experiment vertont die Zufälligkeit, in der die Popcorns poppen, die dann zur gleichen Zeit eine zufällige Trommel bzw. Becken triggern. Zwischenzeitlich hat man wirklich das Gefühl, dass das Drumset Solo tatsächlich von einer Person gespielt wird. Auch wenn die Schläge natürlich sehr random auftreten wirkt es auf mich musikalisch und unterhaltsam.

https://fb.watch/4hLmBaeE75/

Schaffensprozess und musikalische Entwicklungsprozesse (Part 2)

Die Komponisten können nach den Studien Pohjannoro’s (2016) Probleme in ihrem Produktionsprozess überwinden, indem bewusste Zielsetzungen und Ideen geschaffen werden, die vom Künstler selbst als Intuition empfunden werden. Danach kann er nach Evaluation des Stücks auch im Entscheidungsprozess zurückgehen, um seine Fehler zu verbessern, während er gleichzeitig schon das Endprodukt vor Augen hat. Es kommt jedoch nach Lothwesen & Lehmann (2018) immer auf das Verhalten der Einzelpersonen an, welches nicht unbedingt verallgemeinerbar ist, jedoch „wichtige Einsichten in die Individualität und Komplexität der generativen Tätigkeiten“ (Lothwesen & Lehmann (2018, S. 352) bringt. Bahle (1982, S. 84) machte außerdem deutlich, dass Komponieren umso unbewusster verläuft, je mehr die übernommenen Methoden durch häufiges Anwenden unter die Bewusstseinsschwelle versinken. Er schrieb außerdem:

„Je ausgeprägter und origineller ihr Personalstil ist, um so bewusster verläuft der Schaffensprozess, das heißt um so mehr findet man die Methoden des Experimentierens und Reflektieren in ihrem Gesamtschaffen, das dann einem Arbeitsprozess mit all seinen Stockungen und Mühen gleicht.“ – Bahle (1982, S. 84)

Außerdem ist ohne Übung weder Leistungssteigerung noch Leistungserhalt möglich, wobei mit Übung dabei eher die Wiederholung von Verhaltensweisen bezeichnet wird (Renkl, 2009, S. 19). Damit ist von Platz & Lehmann (2018, S. 75) unter anderem der Zuwachs von Erfahrung beschrieben. Bis 1980 nahm man laut Baer (2015) an, die kreativen musikalischen Fähigkeiten wären ein Persönlichkeitsmerkmal, wobei man heutzutage davon ausgeht, dass diese als domänenspezifisch trainierbar gelten. Bei diesen Theorien muss ein Individuum zunächst „Willen und Gelegenheit zur kreativen Beschäftigung mit Musik“ haben, sowie die nötigen Fertigkeiten zur Ausübung bereitstellen (Lothwesen, Lehmann (2018, S. 346). Angenommen wird auch, dass „kreative Problemlösungen nicht von der Expertise abhängen, die lediglich eine notwendige, aber keine hinreichende Voraussetzung darstellt“ (Lothwesen & Lehmann (2018, S. 346). Es gibt demnach auch unkreative Experten in ihren Domänen.

20

Nach Schneider‘s Serendipitätsprinzip (2006) werden manche Lösungen zufällig gefunden und einer passenden Fragestellung nachträglich zugeordnet. Dieses Prinzip passt auch zu den Erkenntnissen von Bahle (1982), wie bereits oben beschrieben, da sich auch das Experimentieren ohne Expertise in den Schaffensprozess eingliedern lässt, es jedoch womöglich von der Expertise abhängt, wie zielgerichtet das Experimentieren gelingt. Aus Sicht der Gehirnforschung gibt es laut Altenmüller (2006) unter anderem die Frontalhirnhypothese, welche besagt, dass „musikalische Kreativität mit einem gewissen Grad an Kontrollverlust einhergeht.“ (Lothwesen & Lehmann, 2016, S. 356; Altenmüller, 2006). Es wird dabei angenommen, dass bei zunehmenden kreativen Schaffensprozessen, wie Melodiebildung, die rechte tempoparietale Übergangsregion (rTPJ) deaktiviert wird, welche in Verbindung mit der Steuerung von Aufmerksamkeitsprozessen und sozialen Interaktionen gesehen wird. Dies kann das Generieren und Ausführen von kreativen musikalischen Handlungen unterstützen und ist Expertise-abhängig, also bei unerfahrenen Künstlern konnte kein solcher Effekt festgestellt werden (Lothwesen & Lehmann, 2016, S. 356; Altenmüller, 2006).

Altenmüller, E. (2006). Das improvisierende Gehirn. Musikpsychologie und Musikermedizin, 13(1), S. 1-10

Amabile, T. (1983). The social psychology of creativity: A componential conceptualisation. Journal of Personality and Social Psychology, 45(2), S. 357-376

Baer, J. (2015). Bridging generality and specifity. The amusement Park Theoretical model of creativity. Roeper Review, 27(3), S. 158-163

Bahle, J. (1947) Der musikalische Schaffensprozess: Psychologie der schöpferischen Erlebnis- und Antriebsformen. Konstanz: Christiani

Bahle, J. (1982). Eingebung und Tat im musikalischen Schaffen: Ein Beitrag zur Psychologie der Entwicklungs- und Schaffensgesetze schöpferischer Menschen (2., unveränd. Aufl.). Hemmenhofen/Bodensee: Kulturpsychologischer Verl. S. 84

Kaufmann, J.; Sternberg, R. (2010). The Cambridge handbook of creativity. Cambridge. CUP.

Lothwesen, K.; Lehmann, A. (2018). Komposition und Improvisation. In: Handbuch Musikpsychologie. Hogrefe S. 346ff

Platz, F.; Lehmann, A. (2018). Vom Anfänger zum Experten: Lernen, Übung, Motivation. In: Handbuch Musikpsychologie. Hogrefe S. 75

Pohjannoro, U. (2016). Capitalising on intuition and refelction: Making sense of a composer’s creative process. Musicae Scientiae, 20(2), S. 166-188

Renkl, A. (2009). Wissenserwerb. In: E. Wild & J. Möller (Hrsg.), Pädagogische Psychologie. (S. 3-26). Heidelberg. Springer

Schneider,M. (2006). Teflon, Post-it und Viagra: große Entdeckungen durch kleine Zufälle. Weinheim: Wiley-VCH.

Webster, P.R. (2002). Creative thinking in music: Administrative Guideline. Evanston. Northwestern University

Schaffensprozess und musikalische Entwicklungsprozesse (Part 1)

Der Schaffensprozess prägt sich bei jedem Künstler anders aus. Es gibt bereits durch verschiedene Wissenschaftler definierte Ablaufprozesstheorien, denen auch Musiker folgen, jedoch interagieren diese laut Lothwesen & Lehmann (2018, S. 346) sehr oft miteinander und sind nicht sehr trennscharf. Häufig genutzte Schemata musikalisch kreativer Prozesse folgen der Theorie des vierstufigen Ablaufs von Graham Wallas (1926) (Webster (2002); Burnard & Yunker (2004)). Demnach gibt es die Phasen „Präparation“, die Vorbereitung auf das Projekt und die “Inkubation“, in der die verschiedenen Aspekte und Inhalte zueinander in Beziehung gesetzt werden. Anschließend folgt die „Illumination“, in der der entscheidende „kreative Funke springt“ und man weiß, welchen Lösungsansatz man wählt, und zuletzt die „Verifikation“, bei der das Endprodukt erstellt und überarbeitet wird. Bei dieser Prozesskette fehlen nach Lothwesen & Lehmann (2018, S. 344) jedoch Dynamik, Interaktion und Problemstellung zwischen den einzelnen Phasen, die sich in den eigentlich überlagernden Phasen feststellen lassen (Kaufmann; Sternberg, 2010). Die kognitiven Prozesse, die bei einem solchen Prozess vor sich gehen, lassen sich nach Lothwesen und Lehmann (2018, S. 346f.) in fünf Kategorien unterteilen: Imaginieren, Generieren, Ausführen, Wahrnehmen und Bewerten (Abb. 1). Demnach steht am Anfang eines Schaffensprozesses ein motivationaler Impuls (Amabile, 1983; Bullerjahn, 2005), oder „schöpferische Erlebnis- und Antriebsformen“ (Bahle, 1947) die das kreative Imaginieren und das Bedürfnis diese Musik zu Schaffen, anregen (Lothwesen, K.; Lehmann, A., 2018, S. 348).

Abb. 1: Verlaufsmodell musikalisch kreativer Handlung (aus: Lothwesen; Lehmann, 2018, S. 347)

Wie in Abb. 1 veranschaulicht, besteht der Prozess musikalisch kreativer Handlung aus den fünf bereits beschriebenen Kategorien und zeichnet sich durch die ständigen Rückkopplungen in diesem Prozess aus (Lothwesen & Lehmann (2018) S. 347). Jede Entscheidung und Ausarbeitung ist dabei abhängig von den anderen Schritten, auch wenn diese erst zeitlich später geschehen, da im Prozess immer zurückgegangen werden kann. Nach dem anfänglichen Imaginieren, folgt nach Lothwesen & Lehmann (2018, S. 348) das Generieren von Elementen, welche aus der Sicht der Hirnforschung aus der Kombination und mentalen Repräsentation kleinerer Einheiten zu größeren Motiven entsteht (Altenmüller, 2006). „Es greift auf überlernte motorische Programme zurück oder nutzt formelbasiertes Repertoire und internalisierte Muster, die mehr oder weniger bewusst herangezogen werden.“ (Lothwesen & Lehmann, 2018, S. 348; aus: Katz & Gardner (2012)) Bahle (1947) hat für den Kompositionsprozess zwei Schaffenstypen theoretisiert. Den „planvoll-konstruktiven Arbeitstypus“ und der „improvisatorisch-spontane Inspirationstypus“ (Bahle, 1947). Einzelne Arbeitsschritte werden laut Lehmann (2005, S. 927) vom Arbeitstypus als bewusst und intentional, der Inspirationstypus als unbewusst, zufällig, wie fremdgesteuert beschrieben.

Altenmüller, E. (2006). Das improvisierende Gehirn. Musikpsychologie und Musikermedizin, 13(1), S. 1-10

Amabile, T. (1983). The social psychology of creativity: A componential conceptualisation. Journal of Personality and Social Psychology, 45(2), S. 357-376

Baer, J. (2015). Bridging generality and specifity. The amusement Park Theoretical model of creativity. Roeper Review, 27(3), S. 158-163

Bahle, J. (1947) Der musikalische Schaffensprozess: Psychologie der schöpferischen Erlebnis- und Antriebsformen. Konstanz: Christiani

Bahle, J. (1982). Eingebung und Tat im musikalischen Schaffen: Ein Beitrag zur Psychologie der Entwicklungs- und Schaffensgesetze schöpferischer Menschen (2., unveränd. Aufl.). Hemmenhofen/Bodensee: Kulturpsychologischer Verl. S. 84

Kaufmann, J.; Sternberg, R. (2010). The Cambridge handbook of creativity. Cambridge. CUP.

Lothwesen, K.; Lehmann, A. (2018). Komposition und Improvisation. In: Handbuch Musikpsychologie. Hogrefe S. 346ff

Platz, F.; Lehmann, A. (2018). Vom Anfänger zum Experten: Lernen, Übung, Motivation. In: Handbuch Musikpsychologie. Hogrefe S. 75

Pohjannoro, U. (2016). Capitalising on intuition and refelction: Making sense of a composer’s creative process. Musicae Scientiae, 20(2), S. 166-188

Renkl, A. (2009). Wissenserwerb. In: E. Wild & J. Möller (Hrsg.), Pädagogische Psychologie. (S. 3-26). Heidelberg. Springer

Schneider,M. (2006). Teflon, Post-it und Viagra: große Entdeckungen durch kleine Zufälle. Weinheim: Wiley-VCH.

Webster, P.R. (2002). Creative thinking in music: Administrative Guideline. Evanston. Northwestern University

Vital – der intuitive Alleskönner unter den Synthesizern

Als Sounddesigner und Musikschaffender ist es wichtig Werkzeuge zu haben, mit welchen Ideen möglichst einfach und schnell zu realisieren sind. Synthesizer sind oft komplexe Geräte, die einen Laien schnell überfordern können und lange Lernkurven haben. Selbst für erfahrene Nutzer sind viele Synthesizer oft nicht sehr intuitiv zu bedienen bzw. müssen aufwendig, teilweise durch langes Probieren, konfiguriert werden, um einen gewünschten Sound zu erzielen.

Vor kurzem ist allerdings der kostenlose Software-Synthesizer Vital veröffentlicht worden, der einen starken Fokus auf intuitive Benutzung legt und somit auch einsteigerfreundlich ist. Er ist jedoch auch hinsichtlich seiner Features sehr vielseitig einsetzbar ist und deckt ein breites Spektrum an Synthesemöglichkeiten ab. Die äußerst einfache Bedienung wird vor allem durch das gute User Interface ermöglicht. Obwohl dieser Synthesizer sehr viele verschiedene Funktionen hat, die auch in die Tiefe gehen, ist das Interface relativ simpel und logisch gestaltet. Hierzu muss man sagen, dass Vital stark vom Synthesizer Serum inspiriert wurde, der sich in den letzten 10 Jahren als einer der populärsten Synthesizern in der Produktion von elektronischer Musik etabliert hat. Beim ersten Öffnen des Plugins fällt ganz besonders auf, dass alle Elemente dieses Synthesizers grafisch so dargestellt werden, dass man sie leicht versteht. Sowohl die Wellenformen der Oszillatoren, als auch die Verläufe der Envelopes und LFOs bis hin zu der Form der Filterkurven werden alle auf einem Bildschirm visualisiert.

Komplexer Patch grafisch anprechend und logisch dargestellt

Die Oszillatoren bieten unterschiedliche Wellenformen: Von der einfachen Sinusschwingung bis zu komplexen Wavetables, die man selbst erstellen oder importieren kann. Sogar eine Text-To-Speech Funktion gibt es, die ein Wort oder einen Satz in verschiedenen Sprachen als Wavetable speichert und abspielt. Die Oszillatoren kann man zusätzlich noch untereinander mit verschiedenen Algorithmen modulieren. Für den modernen Klang elektronischer Musik gibt es die Unison-Funktion, mit welcher man bis zu 16 Stimmen eines Oszillators erzeugen kann, die einen breiten Stereoeffekt ermöglichen. Es gibt zusätzlich noch einen Sampler, in welchen man eigene Samples laden und wie die anderen Oszillatoren mit Envelopes, LFOs, Filtern und Effekten bearbeiten kann. Alternativ kann man den Sampler auch als Whitenoise-Generator verwenden.

Die Envelopes und LFO’s erlauben komplexe Verläufe, die man selber mit der Maus einzeichnen kann. Damit lassen sich Sounds sehr detailliert einstellen. Diese Envelopes und LFO’s lassen sich auf fast jeden Parameter des Synthesizers legen. An dieser Stelle muss erwähnt werden, dass das Routing über Drag & Drop realisierbar ist, was diesen Synthesizer besonders einfach und schnell in der Bedienung macht. Es gibt auch eine klassische Routing-Matrix, mit welcher man noch ein wenig mehr Optionen hat, aber die grundlegenden Funktionen, lassen sich per Drag & Drop der LFO’s und Envelopes auf die Parameter bewerkstelligen. Möchte man komplexe Effekte, bestehend aus der Veränderung mehrerer Parameter, auf einen MIDI-Controller mappen, gibt es dafür mehrere Makro-Drehregler. Beispielsweise, kann man darauf einen Wavetable durchlaufen, diesen mit einem zweiten Oszillator modulieren, den Filter-Cutoff und zugleich den Sustain des Envelopes verändern.

Ich persönlich nutze oft auch die Random-Generatoren, die mehrere Modi wie z.B. Sample & Hold bieten und mit welchen man andere Parameter modulieren kann.

Die Filter reichen von simplen Hochpass- und Tiefpassfiltern bis hin zu Kammfiltern und speziellen Filtern, die unterschiedliche Vokale simulieren. Man kann zusätzlich zwischen “sauberen” digitalen Filtern und analogen Filtern, die Sättigungseffekte und andere Imperfektionen aufweisen, wählen.

Zur weiteren Klangverarbeitung bietet Vital eine Reihe an Effekten, wie Delay, Reverb, Distortion, Equalizer, Upward- und Downward-Kompressor (auch in Multiband-Ausführung) Chorus, Phaser, Flanger und einen zusätzlichen Filter. Auch diese lassen sich mithilfe der Envelopes und LFO’s modulieren.

Effects-Tab in Vital

Im Advanced-Tab kann man Vital noch hinsichtlich Klangqualität und Performance konfigurieren. Es gibt unter anderem Optionen für Oversampling, Qualität der Wavetables, Unison-Verhalten und Stimmung des Synthesizers.

Wieso ich Vital verwende?

Ideen tauchen oft als spontane Einfälle oder Geistesblitze auf, die ich schnell realisieren möchte und auch muss, bevor ich sie wieder vergesse. Da Vital schnelles und detailliertes Arbeiten erlaubt und ein breites Spektrum an Möglichkeiten abdeckt, ist dieser Synthesizer inzwischen in meine erste Wahl, wenn ich einen Klang synthetisch erzeugen möchte. Wenn ich Sounds hingegen durch Experimentieren und Limitieren meiner Möglichkeiten erzielen möchte, greife ich trotzdem noch gerne zu anderen Synthesizern (oft Emulationen analoger Geräte). Es ist dennoch erstaunlich, dass ein solcher Synthesizer, wie Vital, der teilweise kommerzielle Produkte hinsichtlich Features, Usability und Design überbietet, kostenlos zur Verfügung gestellt wird. Es gibt auch eine kostenpflichtige Plus- und Pro-Version, die vor allem mehr Wavetables und vorgefertigte Presets beinhalten, aber in der kostenlosen Version sind bereits alle Features enthalten.

Quellen:

https://vital.audio/

Typen von analogen Audiokompressoren

Wer sich schon einmal die Signalketten bekannter Mixing oder Mastering-Ingenieure angesehen hat, dem wird schnell auffallen, dass häufig (oder fast überwiegend) analoge Kompressoren, die aus den 50er – 80er Jahren stammen, zu sehen dins. Viele moderne Geräte sind von diesen (aus Sicht der Tontechniker) “legendären” Kompressoren inspiriert und basieren auf den grundlegenden, technischen Prinzipien, die damals entwickelt wurden. Es gibt heutzutage auch viele virtuelle Emulationen dieser Geräte in Form von Plugins, die es in gewisser Form jedem ermöglichen die Kompressionscharakteristiken dieser Geräte zu nutzen ohne Unsummen (im vierstelligen Bereich!) für diese ausgeben zu müssen.

Grundsätzlich handelt es sich bei diesen Kompressoren um analoge Technik, die auf elektrotechnischen Schaltungen basiert. Von diesen Kompressoren gibt es vier Typen, die sich hinsichtlich ihrer Bauart und ihres Kompressionsprinzips unterscheiden. Dadurch unterscheidet sich natürlich auch die Klangcharakteristik der verschiedenen Typen.

VCA-Kompressoren (Voltage Controlled Amplifier)

VCA-Kompressoren sind die am meisten verbreiteten Arten von Kompressoren. Sie sind häufig in Mischpulten verbaut. Bei dieser Technik wird die Spannung mithilfe eines Transistors, der in einem integrierten Schaltkreis verbaut ist, direkt bearbeitet und erlaubt somit eine große Kontrolle der Kompressionsparameter Attack, Release, Threshold Ratio und in manchen Fällen Knee. Der Klang eines solchen Kompressors ist tendenziell neutral und somit vielseitig einsetzbar. Das ist bei Mischpulten, in welchen VCA-Kompressoren verbaut sind und die das Grundgerüst einer Mischung bilden, auch erwünscht.


Bekannte Geräte

SSL G Bus Kompressor, API 2500 Bus Kompressor, DBX 160A

SSL Bus Kompressor

API 2500 Bus Kompressor

FET-Kompressoren (Field Effect Transistor)

Bei FET-Kompressoren wird das Signal über eine spezielle Transistorschaltung komprimiert. FET-Kompressoren wurden als Alternative zu den langsamen Röhren- oder Opto-Kompressoren entwickelt und sind deshalb besonders, weil sie extrem schnelle Attack-Zeiten erreichen können. Im Gegensatz zu VCA-Kompressoren haben FET-Kompressoren einen starken, eigenen Klangcharakter, der das Signal in einer gewissen Form klanglich färbt. Durch eben die schnelle Reaktionsfähigkeit und der besonderen Färbung des Kompressors wird dieser oft bei Drums und Gitarren in Rock Songs genutzt, um einen aggressiveren Sound zu erzeugen.

Bekannte Geräte:

UREI/Universal Audio 1176, Drawmer 1978

Drei Versionen des 1176LN von Universal Audio

Opto-Kompressoren

Bei Opto- bzw optischen Kompressoren leuchtet im inneren des Gehäuses eine Lampe. Das Leuchten der Lampe ist je nach Pegel des Eingangssignals, unterschiedlich stark. Mithilfe eines Fototransistors wird die Lichtstärke registriert, was wiederum den Widerstand, der dem Audiosignal entgegengesetzt wird, reguliert. Daraus ergibt sich, dass ein starkes Signal stärker komprimiert wird als ein schwaches. Besonders ist bei Opto-Kompressoren, dass diese bauartbeding träge sind und somit längere Attack- und Release-Zeiten aufweisen. Zusätzlich dazu ist das Attack- und Release-Verhalten nicht linear und vom Pegel des Eingangssignals abhängig. Klanglich könnte man diese Art von Kompression durch diese Eigenheiten als “smooth” bezeichnen. Das macht diese Kompressoren hervorragand für die allgemeine Dynamikausbalancierung eines Signals Für die Kompression von Transienten eignet sich ein solcher Kompressor weniger.

Bekannte Geräte:

Teletronix LA-2A, Universal Audio LA-3A

Teletronix LA-2A
Universal Audio LA-3A

Variable-Mu-Kompressoren (Röhrenkompressoren)

Variable-Mu-Kompressoren waren die ersten Typen von Kompressoren in der Welt der Audiotechnik. Sie sind bauartbedingt ebenso träge, wie Opto-Kompressoren, und eignen sich somit zur allgemeinen Abrundung eines Signals. Wie der Name schon sagt, wird die Kompression mithilfe von Röhrentechnik realisiert. Klänge, die mit diesem Kompressor komprimiert werden, werden oft als wärmer und dicker wahrgenommen, weshalb sie häufig für die Veredelung von Klängen benutzt werden.

Bekannte Geräte:

Fairchild 670, Manley Variable-Mu Limiter Compressor

Nachbau eines Fairchild 670
Manley Variable Mu Limiter Compressor

Quellen:

https://www.izotope.com/en/learn/4-types-of-analog-compression-and-why-they-matter-in-a-digital-world.html

https://producerhive.com/ask-the-hive/types-of-audio-compressors-when-to-use-them/

https://www.blackghostaudio.com/blog/4-types-of-audio-compressors-you-need-to-know-about

Wwise Containertypen

Die Nicht-linearität von Videospielen verlangt ein Soundsystem, das adaptiv ist und auf verschiedene Gegebenheiten reagieren kann. Zusätzlich wird bei verschiedenen Klängen eines Typs Variation erwartet, um ein glaubwürdigeres und nicht repetitives Hörerlebnis zu bieten. Die Middleware-Software Wwise bietet für eine Ansammlung an zusammenhängender Sounds sogenannte Container, die unterschiedliche Möglichkeiten bieten und an unterschiedliche Bedingungen geknüpft sind. Man kann Container zusätzlich ineinander verschachteln und quasi einen Container in einen anderen einfügen, womit man ein breites Spektrum an Verwendungsmöglichkeiten erhält[1]

Random Container

In diesem Container werden Soundfiles gesammelt, die in einer zufälligen Reihenfolge abgespielt werden. Diese Container finden Verwendung für Sounds wie Schritte, Schüsse usw. Random Container bieten außerdem weitere Funktionen, wie die Gewichtung von Sounds, also quasi welche Sounds priorisiert und somit häufiger abgespielt werden als andere. Man kann die Sounds noch zusätzlich hinsichtlich ihrer Tonhöhe randomisieren, um noch mehr Variation zu ermöglichen. Ein weiteres praktisches Feature ist das Verhalten der Reihenfolge, nachdem ein Sound abgespielt wurde (Play Type). Dabei kann man bestimmen, wie viele andere Sounds abgerufen werden müssen, damit das selbe Soundfile wieder abgespielt werden darf.

Random Container mit mehreren Soundfiles

Sequence Container

Hier werden Soundfiles in einer bestimmten Reihenfolge (Playlist) gespeichert und abgespielt. Das kann Sinn machen bei einem Dialog, der in einer bestimmten Reihenfolge abgespielt werden soll, oder auch bei komplexeren Sounds, die aus mehreren Segmenten zusammengesetzt werden, wie das Schießen einer Waffe. Dieses würde sich z.B. aus folgenden Sounds zusammensetzen: Betätigen des Abzugs -> Schussexplosion -> Abprallen der Patronenhülsen am Boden -> Nachladen [2]

Sequence Playlist gefüllt mit Soundfiles aus Random Containern

Switch Container

Ein Switch Container ist an Bedingungen geknüpft und ermöglicht das Abspielen passender Sounds an unterschiedliche Gegebenheiten. Hierzu werden sogenannte Switches verwendet, die im Spiel getriggert werden und an Wwise weitergeben, welcher Soundtyp abgespielt werden soll. Klassischerweise werden in Switch Containern z.B. Schritte in verschiedene Untergrundbeschaffenheiten eingeteilt. Switches stellen in diesem Fall das Material des Bodens dar [3]

Switch Container bei welchem Fußschritte in unterschiedliche Bodentypen eingeteilt werden

Switches mit verschiedenen Materialen

Blend Container

Bei diesem Containertypen können Sounds graduell von einem Sound zum anderen mittels eines Crossfades übergeblendet werden. Das macht Sinn für Klänge, die unterschiedliche Intensitätsstufen benötigen, wie z.B. unterschiedliche Windstärken, Motorengeräusche, die abhängig sind von der Drehzahl oder die Arrangementfülle eines Musikstücks. Dazu wird mittels RTPCs (Real Time Parameter Control), also Parametern, die im Spiel graduell getriggert werden, bestimmt, welche jeweilige Intensitätsstufe abgespielt wird. Eine Intensitätsstufe wird jeweils durch ein Soundfile repräsentiert.

Quellen:

[1] https://www.audiokinetic.com/library/edge/?source=Help&id=grouping_sound_and_motion_objects_to_create_actor_mixer_hierarchy_types_of_containers

[2] https://www.audiokinetic.com/courses/wwise101/?source=wwise101&id=creating_sequence#read

[3] https://www.audiokinetic.com/courses/wwise101/?source=wwise101&id=creating_switch_container#read