There are a lot of things to say about Radiohead and all the amazing and interesting things about their music like math, technology, experimentation.
You can also find a small book called Kid Algebra: The Euclidean and Maximally Uniform Rhythms of Radiohead by Brad Osborn, in which all these small subtle details are analyzed.
He describes their music as a Goldilocks principle, saying that it inhabits a space between mundane conventions and pure experimentation, the perfect “sweet spot”.
Here I would like to share this interesting transformation of one of their songs into an orchestral soundtrack for the film Blue Planet II, produced by the BBC Natural History Unit in 2017.
For this film, in which they worked with composer Hans Zimmer, they decided to use their song Bloom from their eight studio album, The King of Limbs (2011). This song was formerly written by singer Thom York and was inspired by the Blue Planet movie. Therefore, this was perfect.
This song is rhythmically very complex, full of polyrhythm, so it wouldn’t be appropriate for a film about all the beauty and depth of the ocean. Thus, this was the challenge. How to turn it into an immersive soundtrack for the ocean?
Well, in this video they (Thom Yorke and Johnny Greenwood) and Hans Zimmer explain the surprisingly simple yet effective process and technique they used to achieve this. Just a little spoiler, the answers lies in Pointillism.
And this is the final, magical, version of the song for the soundtrack.
Reference
1. B. Osborn – Kid Algebra: Radiohead’s euclidean and maximally even rhythm. 2014.
Virtuelle Räume und donnernder Untergrund am Campus
Die mdw bekommt im Neubau mit dem Klangtheater einen hochspezialisierten elektroakustischen Klangraum von ca.170 m2 und ist für 99 Besucher_innen (im Normalfall) zugelassen. Genutzt soll dieser doppelschalige Saal als Konzert- und Proberaum sowie für Lehre und Forschung werden. Zusammenarbeiten wie mit dem Institut für musikalische Akustik – Wiener Klangstil (IWK) sind angedacht. Der Raum wird in seiner geplanten öffentlichen Nutzung einzigartig in der Kulturlandschaft Wiens sein.
Die Ausstattung mit 21+2 Lautsprechern in einem dreidimensionalen Layout (vorerst nur auf drei Ebenen – hemisphärisch angeordnet) bilden den 3D-Raum. Weitere drei Bühnenlautsprecher dienen als klassische Bühnenbeschallung, eine 4-Kanal-Lautsprecher-Eckaufstellung und einige ältere Vintage-Speaker machen den Raum zu einem Alleskönner für viele beschallungstechnische Aufgaben im Bereich elektroakustische Musik, Akusmatik, Live-Elektronik und traditionelle Beschallung für Tonmeister_innen. Die Diversität dieser unterschiedlichen Klangquellen macht dabei das Klangbild reichhaltiger, was für klangliche Demonstrationen in der Lehre besonders wichtig ist. Eine Art elektroakustischer Wiener Klangstil.
Unterschiedliche Raumrichtungssynthesen und Verräumlichungsmethoden zur Gestaltung eines virtuellen Raumerlebnisses kommen hier zum Einsatz. Um diese vielen Kanäle unter Kontrolle zu bekommen und sie der Lehre zur Verfügung zu stellen, braucht es ein wohl durchdachtes Bedienungskonzept für die vielen unterschiedlichen Anwendungen in diesem Genre der akustischen Projektion.
Die Raumakustik des Klangtheaters ist bewusst trocken gehalten und ermöglicht so ein speziell analytisches Arbeiten. Raumrichtungen, die eine Software synthetisiert, können in dieser akustischen Atmosphäre viel präziser wahrgenommen werden. Methoden wie Ambisonics und High Order Ambisonics (HOA), amplitudenbasiertes Panning (VBAP) und Wellenfeldsynthese (WFS) sowie eine Vielzahl weiterer experimenteller „Raumverteilungen“ werden in der Lehre diskutiert und konzertant angewandt.
Das Stichwort „Immersive Sound“ ist in aller Munde und suggeriert einen neuen akustisch-virtuellen Realismus, jedoch meist ohne Sinnhaftigkeit. Hier kommt die Wichtigkeit eines solchen Akustiklabors in einer universitären ästhetischen Auseinandersetzung und in der Lehre zur Geltung.
Im Alltag können wir – wortwörtlich – nicht aufhören zu hören. Das Ohr kann nicht verschlossen werden wie das Auge: Wir sind gewohnt, einen ständigen Strom an Schallinformation zu erhalten und die für uns wichtigen Inhalte herauszufiltern (das nennt man den Cocktailparty-Effekt). Klänge und Musik können starke Emotionen hervorrufen, geben Auskunft über Zeit und Raum und verstärken somit die Wahrhaftigkeit des Moments. Anders gesagt: Klang kann das Immersionsniveau eines Erlebnisses erhöhen.
Was ist Immersion?
Laut Janet Murray, Professorin für Digitale Medien, ist ein immersives Erlebnis vergleichbar mit der Sensation, in den Ozean zu springen und unter der Wasseroberfläche zu verharren. Wir sind dabei von einer anderen Realität umgeben, die unseren gesamten wahrnehmenden Apparat beansprucht: Ich sehe die unendlich schwarzen Tiefen unter mir, schmecke das Meerwasser auf meiner Zunge, höre das Dröhnen der Wassermassen, fühle die sanfte Strömung zwischen meinen Fingern und rieche die salzige Meeresluft, wenn ich wieder auftauche.
Geschichten können aber auch unabhängig von der Intensität der Sinnesstimulierung immersiv sein. Der Immersionsgehalt hängt noch von weiteren Faktoren wie der Aufmerksamkeit, Zielsetzung oder Involvierung im Geschehen ab. Viele dieser Mechanismen laufen im Bereich der Virtual Reality zusammen: Das HMD (Head-Mounted Display) umgibt mein Sichtfeld, ich stehe in einer Bar auf einem Sandstrand in Süditalien. Die Controller lassen mich meinen Mojito-Cocktail aufheben und fast entkommt mir eine Träne, als ich eine Trinkbewegung mache und den Kristallzucker nicht schmecken kann.
Was ist Immersive Audio?
Immersive Audio beschreibt technologische und damit einhergehende dramaturgische Verfahren, um Schallereignisse dreidimensional darstellen und den Zuhörer ein besseres Klangerlebnis bieten zu können. Das Audio kommt dabei nicht traditionellerweise von links und rechts (wie bei Stereo-Lautsprechern und Kopfhörern), sondern auch von oben, unten und hinten. Manche 3D-Wiedergabeverfahren ermöglichen die Klangreproduktion von unendlich vielen Richtungen, sodass die Hörer von einer echten „Klangkugel“ umgeben sind.
Wer sich nichts darunter vorstellen kann, sollte sich folgendes YouTube-Video ab Minute 2:41 mit Kopfhörern anhören. Man spürt hier förmlich, wie der Friseur einem die Haarspitzen abschneidet. https://www.youtube.com/embed/IUDTlvagjJA?enablejsapi=1 LovelyVirus
Wer braucht das?
Diesen Satz sagen jene Menschen, die noch nie in einer Dolby-Atmos-zertifizierten Kinovorstellung gesessen sind. Film- und Musikliebhaber suchen immer nach Möglichkeiten, die emotionalen Inhalte eines Medienprodukts noch intensiver darstellen zu können: Dies passiert konsumentenseitig durch den Kauf neuerer und „besserer“ Kopfhörer und Fernseher, produzentenseitig durch neuere und „bessere“ Soft- und Hardware und künstlerisches Know-how. Immersive Audio bietet eine neue Dimension an Gestaltungsmöglichkeiten für Kunstschaffende, die auf verschiedenste Weise von Endnutzern genossen werden kann.
Auch in Virtual Reality wird von Immersive Audio Gebrauch gemacht. Foto: Lukas Zeiler
Wiedergabegeräte für Immersive Audio
Diese neue Form der Klanggestaltung braucht keine teure Hardware, um die Inhalte hören zu können. Mithilfe von „binauralem Klang“ kann 360-Grad-Audio auch auf ganz normalen Kopfhörern gespielt werden. Im Hintergrund werden dabei psychoakustische Phänomene ausgenutzt, um dem Gehirn vorzugaukeln, die Klänge kämen aus allen Richtungen, obwohl sie nur aus zwei Quellen im Kopfhörer kommen: links und rechts.
Beeindruckend sind auch die neuesten Entwicklungen im Bereich der „Soundbars“. Für Leute, die keine Kopfhörer aufsetzen wollen und „Netflix and Chill“ lieber auf der Couch vor dem Fernseher betreiben, hat zum Beispiel der Herrsteller Sennheiser eine Lösung: Die AMBEO Soundbar nutzt die Technologie des „Beamformings“ und schießt den Schall an die Wände und Decke eines Raumes. Die daraus resultierenden Reflexionen erreichen dann die Hörer von allen Seiten. Maßgeblich an der Entwicklung dieser Soundbar beteiligt war das international angesehene Fraunhofer Institut, das ebenso bei der Erfindung des mp3-Formates mitgewirkt hat. Auch die Amazon Echo Studio Soundbar funktioniert aus technischer Sicht ähnlich, nur mit einer schlechteren Klangqualität.
Surround-Sound gibt es nun schon einige Jahrzehnte, hat aber aufgrund des hohen Preis- und Platzaufwandes nicht den Weg in die breiten Massen gefunden. Wer schon ein 5.1- (fünf Lautsprecher und ein Subwoofer) oder 7.1-Surround-Set-Up besitzt, kann sein Heimkino mithilfe von „Dolby Atmos“ erweitern. Dies involviert meist das Anbringen von Lautsprechern an der Decke. Für die Wiedergabe des Atmos-Contents wird dann aber auch ein Prozessor gebraucht, der das Format dekodieren und an alle Lautsprecher weiterleiten kann. Weitere Verfahren zum Abhören von 360-Grad-Audio sind Ambisonics und Auro 3D.
Objektbasiertes Audio
Produktionsseitig liegt der immersiven Klanggestaltung das „objektbasierte Mixing“ zu Grunde. Anstatt sich beim Mischen der Klänge auf die einzelnen Kanäle (L, R, C, LH, RH, …) zu konzentrieren, wird jeder Sound als „Klangobjekt“ in einem dreidimensionalen Panner dargestellt. Das Objekt kann dann beliebig im Raum bewegt werden. Der springende Punkt hierbei ist, dass beispielsweise die Musik eines Filmes dann nicht für jede Art der 360-Grad-Wiedergabe neu gemischt werden muss. Die Mischung wird nur einmal vom Mixing-Engineer in seinem eigenen Dolby-Atmos-Studio (mit Lautsprecheranzahl x) erstellt und kann dann mithilfe des Algorithmus auf ein beliebiges Dolby-Atmos-Wiedergabesystem (mit Lautsprecheranzahl y) gerendert werden.
Die Digital-Audio-Workstation “Reaper” mit einem Binaural-Audio Plugin. Screenshot: Lukas Zeiler
Wenn ich von „objektbasiertem Mixing“ schreibe, kann ich eine weitere technologische Errungenschaft nicht unerwähnt lassen. Wer wollte nicht schon mal den Fußballkommentator im Fernsehen zum Schweigen bringen? Zukünftig soll dies mithilfe des ebenfalls vom Fraunhofer Institut entwickelten „MPEG-H“-Systems möglich sein. In den Metadaten der Audiodatei ist der Fußballkommentator als Objekt gespeichert, das durch beliebige Parameter (wie Lautstärke, Position, Sprache, …) manipuliert werden kann. Anstatt ein unveränderbares Stereo-Audiofile vom Broadcaster zu erhalten, werden die Metadaten der einzelnen Objekte im Audiofile eingebettet und können während des Abhörens auf der Couch verändert werden. Ich könnte mithilfe des MPEG-H-Systems aus mehreren Fußballmoderatoren wählen und je nach meiner Stimmung die Lautstärke der „You’ll Never Walk Alone“-Gesänge der Liverpool FC-Fans anpassen. Werden diese Gesänge jetzt auch noch mit einer 360-Grad-Soundbar wiedergegeben, steht einem spannenden, immersiven Fußballabend nichts mehr im Weg.
Vertriebskanäle von Immersive Audio
Große Musikstreaming-Plattformen wie Tidal und Amazon Music HD bieten mittlerweile schon 360-Grad-Musik an. Hier spielt Sony mit ihrem 360-Reality-Audio eine große Rolle. Die Musik kann auf normalen Kopfhörern im Binaural-Format gehört werden.
Wie bereits erwähnt springen viele Film-Streaming-Plattformen wie Netflix auf den Immersive-Audio-Zug auf. Einige Serien können dort bereits in Dolby Atmos gehört werden.
Auch im Gaming-Bereich hat Immersive Audio eine tragende Position. Besonders in Shooter-Spielen kann es wichtig sein, genau zu hören, von wo sich der Feind nähert und ob die Schüsse aus dem Stockwerk über mir kommen oder nicht. Ich habe bei meiner Recherche eine Liste gefunden, auf der Spieletitel mit 3D-Audio gesammelt werden. Bei Videospielen wird meist mit binauralem Sound gearbeitet, da viele Gamer mit Kopfhörern spielen.
Content ist gefragt!
Letztlich bleibt die Kunstschaffenden zu ermutigen, sich in die Domäne des immersiven Erlebnisses zu trauen und Content für die vielen verschiedenen Verbreitungsplattformen zu produzieren, die es bereits gibt. Die Zeichen im Mediensektor weisen stark darauf hin, dass auch die Big Player wie Facebook und Apple immersiven Content – egal ob in Virtual oder Augmented Reality – als zukunftsfähig sehen. Facebook hat mit seiner 360-Spatial-Workstation Tools geschaffen, die der Öffentlichkeit gratis zur Verfügung stehen und Content-Entwicklung in dieser Richtung fördern. Die Gerüchteküche brodelt, wenn es um Head-Tracking-Sensoren in zukünftigen Apple-Kopfhörerprodukten geht. Natürlich gibt es bei den Technologien für 360-Grad-Audio noch viel zu verbessern (siehe das HRTF-Problem), jedoch wird der Zugang zu den Inhalten immer einfacher.
Ich gestehe, dass ich mich schon auf die Jahre freue, die ich als 80-jähriger Altersheimbewohner in einer zukünftigen Form des VR-Chats verbringen werde. Abgekoppelt von meinem Umfeld, eingetaucht in eine neue Wirklichkeit aus außerirdischen Klängen und fremden Realitäten. Und das gemeinsam mit Millionen anderer Pensionist*innen aus der ganzen Welt. (Lukas Zeiler, 17.11.2020)
Lukas Zeiler ist Blogautor für TEDxVienna und studiert Digital Media Production an der FH St. Pölten.
Parallax is a technique used to determine distances, as it is a difference in the apparent position of an object viewed along two different lines of sight. This difference is then measured by the angle of inclination between those lines.
This principle is for example used in astronomy, where scientists use it to measure larger distances (i. e. distance of a planet from Earth).
There are many types of parallax effects used in many different fields, one of them is the Parallax Scrolling, used in computer graphics.
Here, when background images move passing the camera slower than foreground images, we have an illusion of depth, even if it is a 2D scene.
This also means, that this effect describes how depth affects your perception of movements.
This effect could also be used in music to change the way the listener will perceive the song, creating depht and movement.
Here an example:
References
Wikipedia – Parallax
C. Prendergast – Parallax Scrolling: Examples and History
A basic granular synthesis patch that uses a real-time mic-in signal with tools that pure data is offering. It should contain parameters like Grain starting time, grain length and playback speed which also affects the pitch of the grain.
Circular Buffer
Pure data has a built-in object called delwrite~. This object collects the incoming audio and stores it for a given time in this so-called circular buffer. You can imagine it as a round tape where the new audio from the mic-input is recorded over old audio. In the following example the tape has a length of 5 seconds.
Play Sound from the Buffer
To make use of this circular buffer and play sound that has been stored a play head is needed which is implemented with the vd~ object in PD. This play head needs a given delay time that will later be the starting point of a single grain.
As technology moves more toward immersive experiences, such as VR and AR, as well as more realistic in-game experiences on other platforms, there is an increasing need for surround sound mixing. It has already been part of the cinema experience for quite a while, but now the boundaries have to be pushed to create something even more modern, thus requiring even more complex production/mixing techniques. This article gives creative tips and lists mostly open-source surround mixing software, as well as some paid options. There are not so many surround plugins available on the market, and most of them come at a pretty hefty price. It is not uncommon to see surround plug-in suites selling even for 1-2 thousand dollars. With a little bit of creativity, more layering, some coding knowledge and resourcefulness, it is possible to make high-quality surround mixes without breaking the bank.
IEM Plug-In Suite
The first and obvious choice that we were already shown in our classes is the IEM Plug-In suite. It can work with up to 7th order Ambisonics and provides the perfect base for a good surround mix. It contains the following plug-ins: AllRADecoder, BinauralDecoder, CoordinateConverter, DirectionalCompressor, DirectivityShaper, DistanceCompensator, DualDelay, EnergyVisualizer, FdnReverb, MatrixMultiplier, MultiBandCompressor, MultiEncoder, MultiEQ, OmniCompressor, ProbeDecoder, RoomEncoder, SceneRotator, SimpleDecoder, StereoEncoder and ToolBox. Each of the plug-ins have a lot of options, just be careful with CPU usage- the reverb for example can be quite intense, so you might want to choose an FDN size of 32 instead of 64 if you are having issues. If this suite doesn’t contain enough plug-in types to unleash your creativity, the rest of article lists other great options that could be combined well with the IEM Suite.
VISR Production Suite
The VISR Production suite is special because it is the first open-source suite for producing and reproducing object-based audio. Object-based differs from channel-based mixing in the way that it is scalable, future-proof, and adaptable for any type of user system, which provides a new level of interaction and personalisation. Right now the suite is compatible with Reaper, but it will soon be available for use with Ableton and Logic as well, which is very exciting news, being an avid Ableton user myself! The suite is available to download in the VST3 format. Just make sure to have the appropriate version of Python installed- it is required for the Binaural Renderer plug-in.
MCFX v0.5.11 – Multichannel Audio Plug-in Suite
The mcfx plug-in collection has tons of different plug-ins, including the convolver, which is very useful and necessary for creating convincing spaces and atmospheres. This is yet another free resource that we discussed in class. Note the most of the open-source variants will be a bit glitchy, and unfortunately due to that, I was not able to install this suite. So, if it works on your machine, it’s definitely worth it.
Envelop 4 Live
Envelop 4 Live is a collection of Max devices that can be used in Ableton to create spatial audio. Normally, the Ableton mixer is only able to do stereo mixes, but there is a binaural mixer in the plug-in suite which enables working with binaural audio in up to 3rd order ambisonics. This is not as much as the aforementioned plug-ins, but it still gives you cool capabilities and can be used for interactive VR sound creation.
Waves 360 ° Ambisonics
The Waves ambisonics suite is a paid one, but I included it because Waves plug-ins are so popular and they often have discounts. The current price is 399 USD. Some of the features of this bundle:
B360 Ambisonics Encoder, Nx Virtual Mix Room, and Nx Head Tracker. Mix stereo and mono elements into Ambisonics B-format. Convert surround mixes into 1st-order Ambisonics B-format. Precise positioning and easy placement of elements in a 360° mix. Intuitive user interface for a familiar-feeling workflow. Adjustable Width, Rotation, and elevation. Compatible with AmbiX. Includes AmbiX-FuMa and FuMa-AmbiX converter. Virtual acoustically optimised mix room for use in recording or mixing with headphones. Enables surround mixes via headphones. Individually coordinated parameters can be saved. 360° Head-tracking with selectable sources. Adjustable room dimensions and speaker positions.
This suite really has some amazing tools, which is not surprising. Waves has always had some awesome industry-standard plug-ins. The price is definitely worth it for anyone who can afford to splurge, especially when there is a discount.
Using Stereo Plug-Ins
Believe it or not, if if feels like the surround plug-ins currently available are not enough, or if you want the specific sound of a certain reverb (for example) modelled from special analogue gear, then you will have to creatively use stereo plug-ins inside a surround mix. This will enable you to obtain that unique colouring you love so much about certain plug-ins. I sure have my own staple plug-ins that I couldn’t imagine producing without. And with some effort, I don’t have to give them up when doing an ambisonic mix! You might want to do 2-3 layers of the same reverb at different pre-delay or reflection times and surround panning in order to simulate a realistic space using stereo plug-ins. This requires some technical knowledge if you want to achieve realism. If you are only looking to create a “cool-sounding” effect, “eyeballing it” will be enough. For the more precise way of working, you will have to make calculations based on desired room size, material and similar. The calculations will not be super-precise, as the coefficients of absorption you can find online are only the average, and not accurate for the same material across different brands. Room reflections can be calculated more accurately though. It will require knowledge of how fast sound takes to reach a wall and then back to our ear, as well as how big the delay between our left and right ear is (in order to model realistic positions of objects). You will also have to take into consideration how many reflections will there be in the room you imagined.
Lastly, here is a video from Waves describing how stereo and surround plugi-ns can be used creatively together. This specific video showcases 5.1 surround mixing, but the same trick (with even higher fidelity) can be applied to any higher order ambisonics mix too:
Now let’s load an actual audio wave file. It’s important that pure data knows the size of the file and the maximum length a grain should have. The horizontal slider has values between 0 and 1 and making all the values relative to the selected file size and maximum grain length.
Select starting and ending point on the file / Modifying the envelope
To select a starting and ending point of the grain a good way is to use the line~ object that allow to read from any index to any index of the audio file. In the following figure the starting index is selected on the left side, the length in the middle and the playback time on the right side of the patch. By hitting bang on top you can play it. The f object is suppressing the bang because the order of bangs is very important for the line~ object. First comes the starting index directly, second the duration and third to play the file.
On the right part of the following patch the envelope is integrated. It receives the time length from the number box that sets the grain duration time.
Music and mathematics are closely linked and an example of their common path are the so-called Euclidean rhythms.
As the name suggests, its roots go back to the Greek mathematician Euclid (around 300 BC). In his text “Elements” a revolutionary algorithm is described to efficiently find the greatest common divisor (GCF) of 2 integers.
Here an example on how it works [2]
[
The Euclidean Algorithm for finding GCD(A,B) is as follows:
If A = 0 then GCD(A,B)=B, since the GCD(0,B)=B, and we can stop.
If B = 0 then GCD(A,B)=A, since the GCD(A,0)=A, and we can stop.
Write A in quotient remainder form (A = B⋅Q + R)
Find GCD(B,R) using the Euclidean Algorithm since GCD(A,B) = GCD(B,R)
Example:
Find the GCD of 270 and 192
A=270, B=192
A ≠0
B ≠0
Use long division to find that 270/192 = 1 with a remainder of 78. We can write this as: 270 = 192 * 1 +78
Find GCD(192,78), since GCD(270,192)=GCD(192,78)
A=192, B=78
A ≠0
B ≠0
Use long division to find that 192/78 = 2 with a remainder of 36. We can write this as:
192 = 78 * 2 + 36
Find GCD(78,36), since GCD(192,78)=GCD(78,36)
A=78, B=36
A ≠0
B ≠0
Use long division to find that 78/36 = 2 with a remainder of 6. We can write this as:
78 = 36 * 2 + 6
Find GCD(36,6), since GCD(78,36)=GCD(36,6)
A=36, B=6
A ≠0
B ≠0
Use long division to find that 36/6 = 6 with a remainder of 0. We can write this as:
In den letzten Jahren sind verschiedene AI-basierte Produkte in der Welt der Tonproduktion angekommen. Dabei erfreuen sich Online-Mastering-Dienste, wie LANDR oder eMastered einer großen Popularität [1, 2]. Diese Dienste erlauben ein schnelles Mastering von Musikstücken per Drag & Drop auf Basis von AI-Technologien. Der Dienst Aria bietet sogar ein automatisches Mastering mit der Einbindung analoger Hardwareprozessoren an, die von einem Roboterarm gesteuert werden [3]. Wer mehr Kontrolle über das Mastering haben möchte, kann auch mit Izotopes Mastering-Suite Ozone sein Musikstück analysieren sich eine AI-generierte Bearbeitung mittels verschiedener Module vorschlagen lassen, in die man jedoch auch noch selbst eingreifen kann [4]. Gullfoss von Soundtheory arbeitet ebenfalls mit künstlicher Intelligenz und dient als Werkzeug, das Maskierungseffekte erkennt und diese, so gut wie möglich, beseitigt [5]. Dabei werden zu dominante Frequenzanteile abgesenkt und Frequenzanteile, die eigentlich maskiert werden würden, mittels eines dynamischen Equalizers angehoben. Das Resultat ist im Optimalfall ein detailreicheres Signal.
Auch hat AI den Weg in die Komposition gefunden und schon teilweise erstaunliche Ergebnisse erzielt. Vor kurzem wurde ein Projekt namens „Lost Tapes of the 27 Club“ veröffentlich, bei welchem Musikstücke von Künstlern analysiert wurden, die zum „Club 27“ gehören – also die im Alter von 27 Jahren verstorben sind – und auf dieser Basis Kompositionen im selben Stil geschaffen wurden.
Aus der Beschreibung des Projekts kann man allerdings entnehmen, dass nur die musikalischen Elemente von künstlicher Intelligenz erstellt wurden. Ein Toningenieur hat diese Elemente letzten Endes noch arrangiert und zu vollständigen Songs zusammengefügt. Hierbei wäre es interessant zu wissen, welches Material die AI generiert hat und wie viel kreative Arbeit der Toningenieur übernommen hat. [6]
Jetzt stellt sich die allgemeine Frage: Ist der Beruf des Toningenieurs bzw. des Kunstschaffenden im Audiobereich durch künstliche Intelligenz bedroht? Das lässt sich nicht so einfach beantworten. Künstliche Intelligenz wird früher oder später technisch einwandfreie Ergebnisse liefern können, jedoch ist die Tonproduktion auch vor allem ein kreativer Prozess, bei welchem intuitive Entscheidungen auf Basis von Geschmack und Emotionen getroffen werden. Diese sind viel tiefer in der Psyche des Menschen verankert und bilden sich aus mehreren Faktoren als nur aus der Auswertung ähnlicher Musikstücke desselben Genres [7]. Künstliche Intelligenz betrachtet Musik und Menschen nicht ganzheitlich und kennt somit auch keine Emotionen, die mit Musik verbunden sind. Davon ist künstliche Intelligenz auch noch weit entfernt.
Ein weiterer Punkt, der durch künstliche Intelligenz nicht abgedeckt ist, ist der Austausch und das Feedback zwischen den verschiedenen Schritten einer Audioproduktion. Ein AI-basiertes System lässt quasi blind einen Algorithmus über ein Musikstück laufen, während z.B. ein Mastering-Ingenieur sich das Material anhört und Feedback an den Mixing-Ingenieur oder Produzenten geben kann, damit die Probleme in einem der vorherigen Schritte behoben werden können, wo die Möglichkeiten zur Fehlerbehebung größer sind und dadurch auch das klangliche Resultat in der Regel besser ist. Diese beratende Funktion fehlt bei AI-Algorithmen komplett, spielt aber eine wesentliche Rolle bei einer Audioproduktion.
Zu einem gewissen Grad umgehen viele Online-Mastering-Nutzer dieses Problem, indem sie ein AI-generiertes Mastering lediglich nur als Referenz nutzen, um auf dieser Basis Probleme in der Mischung oder einem der vorherigen Produktionsschritte zu beseitigen [8].
Aktuell ist künstliche Intelligenz in der Audioproduktion noch kein gleichwertiger Ersatz für einen erfahrenen Toningenieur, Produzenten usw. Allerdings haben AI-Technologien eine Daseinsberechtigung und können auch einen Mehrwert bieten. Ob sie jemals eine Konkurrenz für den Menschen darstellen werden, kann man nicht genau sagen. Aktuell ist der technische Stand noch nicht weit genug, um kreative Schaffensprozesse auf demselben Niveau, wie dem eines Menschens, nachzuahmen.
Unter die Verwendung des Begriffs Techno, fällt heutzutage eine große Anzahl verschiedener kleiner Untergenres. Angefangen hat die Bezeichnung des Genres 1988 bei der Benennung und Veröffentlichung eines Kompilationsalbums (Techno – The new Dance Sound of Detroit) von Virgin Records (Wicke & Ziegenrücker, 1997, S. 541). Bezeichnet wurde dabei, nach Wicke & Ziegenrücker (1997), die heute unter Detroit-Techno bekannte Musikrichtung, die aus der House Music in Detroid in den 80er Jahren entstanden ist. Durch die schnell erlangte Bekanntheit des Genres in den Diskotheken Anfang der 90er Jahre entwickelten sich demnach viele Untergruppierungen, wie Ambient, Goa, Hardcore Techno, Tekkno, Trance, oder Progressive Techno. Techno zeichnet sich nach Wicke & Ziegenrücker (1997, S. 541) vor allem durch mechanisch, maschinengleich stampfende und hochtechnisierte digital produzierte Musik aus. Da sich vor allem in den letzten Jahren zunehmend mehr Untergenres abspalten und die elektronische Musik immer vielfältiger und differenzierter wird, wird an dieser Stelle hauptsächlich auf die Technokultur und die Genres des Hardcore-Techno, Tekkno und Progressive Techno eingegangen. Diese kommen überwiegend der in Deutschland verstandenen Technoszene, am nächsten (Wicke & Ziegenrücker, 1997, S. 541). Hardcore-Techno, die vor allem in Deutschland und Berlin sehr verbreitete Technorichtung, ist eine sehr aggressive und schnelle Version des Technos (Wicke & Ziegenrücker, 1997). Wie beim Hardcore-Rock ist, nach Wicke & Ziegenrücker (1997), das Genre durch einen besonders hohen Verzerrungsgrad gekennzeichnet. Außerdem sei das Hauptmerkmal des Gestaltungsprinzips Monotonie und minimalistische Veränderungen. Ähnlich dazu ist das Genre Tekkno, was mit dem Berliner Club Tresor im Jahr 1992 entstanden ist (Wicke & Ziegenrücker, 1997, S. 542). Es geht bei der Unterscheidung von dem amerikanischen Techno aus Detroit nicht nur um die starken Verzerrungen und die Geschwindigkeit, sondern nach Wicke & Ziegenrücker (1997) vielmehr, um das Gefühl der Anonymität und den Versuch durch die Szene, ein Lebensgefühl zu vermitteln. Oft zeichnen sich die Veranstaltungsorte durch skurrile Dekorationen und Verkleidungen der Teilnehmer aus und haben meist ein dunkles Ambiente mit vielen Lasereffekten und Lichtinstallationen (Wicke & Ziegenrücker, 1997, S. 542). Die meisten Musikstücke dieses Genres werden in Kleinstauflagen oder digital vertrieben und für die Benutzung in Diskotheken veröffentlicht. Dabei geht es auch darum, keine besonders bekannten Titel zu spielen, sondern die Cluberfahrung besonders zu gestalten (Wicke & Ziegenrücker, 1997, S. 420). Insignien für die Anfänge des Technokults waren z. B. Teesiebe als Sonnenbrillen oder weiße Filtermasken für den Mund, um die Anonymität zu unterstreichen (Wicke & Ziegenrücker, 1997, S. 542). Auch die aus derselben Zeit der 90er Jahre in Manchester ausgehende Bewegung des Raves ist ein heutzutage verschmelzendes Untergenre (Wicke & Ziegenrücker, 1997, S. 420). Es zeichnet sich Wicke & Ziegenrücker (1997) nach vor allem durch Acid-House aus, welches auf dem Klangbild der 60er Jahre aufbaut. Im Zusammenhang mit der „Technowelle“ der 80er Jahre wurde dies aber auch auf die Technopartys angewendet. Rave ist der englische Slangausdruck für eine gute Party und wird oft für lange andauernde Techno-Partys verwendet. Auch die Elemente des Acid-House werden in verschiedensten Techno Genres verwendet und finden auch im Hardcore-Techno Anklang (Wicke & Ziegenrücker, 1997, S. 218). Nach dieser Einordnung des Genres stellt sich die Frage, welche Einflüsse auf die Technokultur und deren „Motoren“, die Musiker, entstehen, da wie bereits erwähnt vor allem die Cluberfahrung im Vordergrund steht.
„Die Party kommt und geht. Festhalten lässt sie sich nicht. Aber erzählen kann man davon“ (Gutmaier, 2013, S. 227)
„Gerade die Flüchtigkeit – die von Anfang an etwa mit Fotografierverboten bewusst ausgestellte und herbeigeführte Vorläufigkeit und Vergänglichkeit – von Techno und den dazugehörigen Partys machen bis heute zu einem Großteil den besonderen Reiz dieser Club- und Ausgehkultur aus.“ (Feser & Pasdzierny, 2016, S. 8f)
Auffällig ist bei diesen Zitaten das Gefühl, was durch die Szene vermittelt werden soll. Bei der Forschung danach, was jedoch die Musik selbst zu dieser Szene beitragen lässt, spalten sich laut Feser & Pasdzierny (2016) die Meinungen der Wissenschaftler. Feser und Pasdzierny (2016, S. 16) weisen darauf hin, dass vor allem in den Popular Music Studies Unklarheiten herrschen, ob Technomusik als „Kunstmusik“ zu betrachten ist, oder ob sie nur durch die Szenen und Abgrenzungsbemühungen dazu gehört. Verschiedene Forscher bezeichnen die Musik dabei als un-intelligent, andere entdecken emporkommende kompositorische Verfahren, was das Genre wissenschaftlich jedoch in eine Situation zwischen den Welten bringt (Feser & Pasdzierny, 2016). Wenn man nun die Musikproduzenten näher in Betracht zieht, kann eventuell ein genauerer Einblick in das Feld gelingen. Die Praktiken des Produzierens mit verschiedensten technischen Geräten wird meist als künstlerischer Schöpfungsakt gesehen und verbindet diese mit unkonventionellem Handeln, welches außerhalb der gesellschaftlichen Norm steht. Der Produktionsprozess wird dabei nach Reitsamer (2016) mit Technikkompetenz, künstlerischer Genialität, Durchsetzungsvermögen und ergebnisorientiertem Handeln assoziiert (Reitsamer (2016); in: Feser & Pasdzierny (2016, S. 36). Einige Technoproduzenten sehen sich daher auch nicht direkt als Musikproduzenten, sondern eher als Musiker, da sie keine andere Musik produzieren, sondern hauptsächlich ihre eigenen Ideale verwirklichen (Carsten Meyer im Film „Fraktus“. Ausschnitt aus Feser & Pasdzierny, 2016, S. 137).
Quellen:
Feser, K.; Pasdzierny, M. (2016). Ästhetik und Geschichte elektronischer Tanzmusik. Berlin
Gutmaier, U. (2013). Die ersten Tage von Berlin. Der Sound der Wende. Stuttgart S. 227
Reitsamer, R. (2016). Die Praxis des Techno. Zur theoretischen und methodischen Erfassung elektronischer Musikkulturen. In: Feser, K.; Pasdzierny, M. (2016). Ästhetik und Geschichte elektronischer Tanzmusik. Berlin
Wicke, P.; Ziegrücker, K. (1997). Handbuch der populären Musik: Rock, Pop, Jazz, world music (3., überarb. und erw. Aufl., überarb. und erw. Neuausg.). Zürich: Atlantis- Musikbuch-Verl.