Rainforest – David Tudor

“Zwischen 1968 und 1973 komponierte David Tudor eine Reihe von Stücken mit dem Titel «Rainforest». In vier unterschiedlichen Versionen («Rainforest I – IV») wird darin die Idee eines Ensembles von klingenden Objekten mit einer für jedes Objekt spezifischen Klangcharakteristik entwickelt. Als Objekte können sowohl einfache Fundstücke als auch aus bestimmten akustischen Erwägungen heraus hergestellte Dinge verwendet werden. An jedem dieser Objekte werden Transducer (Körperschallerreger) befestigt, mit denen sich Klänge direkt auf ihre Oberfläche übertragen lassen. Material, Form und Größe der Objekte wirken als akustische Filter, die die Klänge auf eine je spezifische Art und Weise modulieren. Die Objekte haben damit drei Funktionen: Sie sind individuelle Skulpturen, musikalische Instrumente und mechanische Filter zugleich.


«Rainforest I» entstand 1968 für die legendäre Choreografie von Merce Cunningham, in der die Tänzer*innen in Trikots von Jasper Johns und zwischen heliumgefüllten Kissen, den «Silver Clouds» von Andy Warhol tanzten. Die bekannteste Version aus Tudors Kompositionsreihe ist allerdings «Rainforest IV» (1973). Das Stück sieht die Entwicklung eines räumlichen Environments aus «Rainforest»-Objekten vor. In dieser Version werden zusätzlich die kaum hörbaren Resonanzfrequenzen der Objekte selbst mithilfe von Kontaktmikrofonen abgenommen und über ein Audiosystem in den Raum projiziert.”

Text: Valerian Maly

David Tudor and Composers Inside Electronics Inc.: Rainforest V (variation  1) | MoMA

Quellen:

David Tudor‘s «Rainforest IV» oder die Kunst, Schrott zum Klingen zu bringen

https://www.moma.org/calendar/exhibitions/5077

Das Sounddesign von Diablo IV

Hallo, Reisende. Ich bin Kris Giampa, Sound Supervisor für Diablo IV.

Das Soundteam arbeitet nun schon eine ganze Weile an der Klanglandschaft von Diablo IV. Zwar sind wir noch nicht bereit, die Musik des Spiels in aller Tiefe vorzustellen, jedoch wollten wir euch ein paar Einblicke in die Audioprozesse, Inhalte und Motivationen verleihen, die unsere Soundentwicklung bestimmen.

Bevor wir anfangen, wollten wir euch etwas zum Anhören geben, während ihr dieses Quartalsupdate lest. Genießt die verschneite, düstere und stürmische Atmosphäre der Zersplitterten Gipfel, während ihr euch auf die Reise begebt. https://www.youtube.com/embed/F0G4ECzssK8?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0

Sound und Musik sind für Spiele der unsichtbare Klebstoff, der die Narrative zusammenhält und euch an euren Charakter und dessen Aktionen im Spiel bindet. Die Entwicklung des Sounds für ein Spiel ist eine spannende künstlerische Herausforderung, die man nicht sehen, sondern nur hören kann. Jedoch könnt ihr auch im wahrsten Sinne spüren, wie der Schall euren Körper erfüllt – je nachdem, womit ihr den Sound abspielt. Es ist ein unglaubliches Medium, das beeinflussen kann, was ihr beim Spielen empfindet. Oft ist das sehr subtil, gelegentlich ist es übersteigert, aber der Sound ist immer da, um das Gameplay in jedem Augenblick zu unterstützen. Wir hoffen, dass euch dieser Einblick in die verschiedenen Aspekte der Klangwelt des Spiels gefällt. Euch erwartet noch viel mehr davon, wenn ihr endlich die Gelegenheit bekommt, selbst zu spielen!

Natürlich wollen wir auch, dass diejenigen von euch mit Hörbeeinträchtigungen Diablo IV ebenfalls genießen können. Deswegen arbeiten wir daran, die Spielerfahrung für Menschen mit Hör- oder Sehbeeinträchtigungen inklusiv zu gestalten. Es gibt verschiedene Features für Barrierefreiheit, denen wir uns in Zukunft an dieser Stelle ausführlicher widmen wollen.

Der Teufel steckt im Detail

Für die Klanglandschaften von Diablo IV haben wir die Tradition der befriedigenden Kampfsequenzen fortgeführt, die Atmosphäre weiter ausgebaut, um die offene Welt zu unterstützen, und uns in die düstere und blutige Stimmung vertieft. Zugleich haben wir uns bemüht, einen klareren und dennoch ausdrucksstarken Sound zu liefern, der sich dem Spielgeschehen dynamisch anpasst.

Eines unserer wichtigsten Ziele als Sounddesigner ist es, die qualitativ hochwertigsten Töne in Echtzeit im Spiel auszulösen und sie gemäß euren Erwartungen in der Welt verwurzelt und somit glaubwürdig erscheinen zu lassen. Wenn es ums Gameplay geht, hat die Zufälligkeit der Audiowiedergabe den allerhöchsten Stellenwert. Im echten Leben nimmt man keinen Ton zweimal auf exakt dieselbe Art und Weise wahr, weil sich die Hörumgebung oder die Positionierung der Quelle unterscheidet. Töne werden nie mit dem exakt gleichen Schalldruck erzeugt und durch Reflexionen in der Umgebung sowie alles andere, was in diesem Moment um euch herum geschieht, verzerrt. Kurz gesagt gibt es immer subtile, in der echten Welt verwurzelte Gründe, warum sich nichts jemals exakt gleich anhört. Das bedeutet, dass wir als Sounddesigner in einem Videospiel stets versuchen, subtile, zufällige Variationen hinzuzufügen – nicht nur dem Sounddesign an sich, sondern auch der Wiedergabe im Spiel. Wenn wir unsere Arbeit gut machen, ist das etwas, das ihr nicht bewusst bemerkt und das eure Immersion im Spiel unterstützt, indem die Grafiken, die Geschichte und die gesamte Erfahrung glaubhaft untermalt werden.

Ein weiteres wichtiges Ziel bei der Entwicklung des Sounds für Diablo IV ist die Erschaffung von Tönen für so ziemlich alles, was auf euren Bildschirmen passiert. Die Atmosphäre der Welt, Monster außerhalb des Bildschirms, die kleinen Holzsplitter, die von einer Wand abprallen, wenn ihr etwas kaputtmacht … alles sollte ein Geräusch machen. Wir investieren zahllose Stunden an Arbeit, um fast alles zu vertonen, was ihr seht oder auch nicht seht – und das gleichzeitig subtil genug, dass es nicht ablenkt, sondern sich genau richtig anfühlt. Hier steckt der Teufel definitiv im Detail …

Aber nur, weil wir so ziemlich alles vertonen, bedeutet das nicht, dass ihr diese Töne auch jedes Mal hören müsst. Basierend auf strikten Einstellungen, die wir als Grundregeln festlegen, löst die Playback Engine im Spiel nur eine begrenzte Zahl an Instanzen eines Tons aus, wenn diese alle gleichzeitig abgespielt werden müssten. Aufgrund der isometrischen Kameraperspektive und der Tatsache, dass so vieles gleichzeitig auf dem Bildschirm erscheint, müssen wir einschränken, wie viele Instanzen eines Tons zu einem bestimmten Zeitpunkt abgespielt werden. Mit der richtigen Abstimmung fällt gar nicht auf, dass einige Instanzen gar nicht ausgelöst werden. Das trägt zu einem klareren Sound bei. Es ist ein schmaler Grat, den wir in den epischen Momenten, in denen jede Menge auf dem Bildschirm passiert, genau treffen müssen.

Kommen wir jetzt zu den kreativen Aspekten des Sounddesigns. Natürlich gibt es kein Diablo-Spiel ohne die Helden, die unter eurem Befehl die verschiedenen Übel bezwingen, die sich euch in den Weg stellen. Sprechen wir über einige Feuerfertigkeiten des Zauberers, die zum Kern dieser Klasse gehören …

Helden-Feuerfertigkeiten

Das Soundteam hat das große Glück, alle möglichen spannenden und einzigartigen Töne für das Spiel aufnehmen zu können. So haben wir eine große Vielfalt an Ausgangsmaterial, das wir bearbeiten können, wenn es ans Sounddesign geht. Technisch beschrieben ist Sounddesign der Prozess, Tonaufnahmen zu bearbeiten und zur Verwendung in einem anderen Medium weiterzuverarbeiten. Beim Sounddesign für Videospiele fertigen wir Rohaufnahmen an, bereiten sie auf und bearbeiten sie auf unterschiedliche Arten, um sie unseren Gameplay-Bedürfnissen anzupassen und ein klares, wiederholbares Audio für das Spiel zu schaffen. Manche Töne werden genau so verwendet, wie wir ursprünglich beabsichtigt hatten, während andere am Ende völlig anders klingen an einer völlig anderen Stelle zum Einsatz kommen.

Eine Sache, die wir für ein Spiel wie Diablo wirklich immer brauchen, ist natürlich Feuer! Wenn die Zeit es zulässt, planen wir immer einige Aufnahmesessions im freien Feld. Eine der ersten großen Aufnahmen, die wir als Team für Diablo IV angefertigt haben, war eine Feuersession in der Wüste vor dem COVID-19-Lockdown. Mit einem Arsenal an Aufnahmeausrüstung und Mikrofonen sind wir weit vom Blizzard-Hauptquartier fortgereist, um verschiedene Arten von Feuergeräuschen in der Wüste Kaliforniens aufzunehmen. Zum Glück war es bereits Winter und deshalb tagsüber nicht zu heiß und nachts bloß ein wenig kühl. Auch wenn es uns hauptsächlich um Feuer ging, haben wir letztendlich auch alle möglichen anderen Geräusche aufgenommen, die wir in der Produktionsphase genutzt haben: Umgebungsgeräusche, Aufprall von Steinen, Laubrascheln, Aufprall von Holz, Türenschmettern, das Knarzen einer Holzhütte, Aufprallgeräusche von Metall und Kratzgeräusche.

Zaubererfertigkeiten

Feuerblitz und Inferno

Ein paar der aufgenommenen Feuergeräusche wurden dann für die Zaubererfertigkeiten Feuerblitz und Inferno genutzt. Für die Fertigkeit Feuerblitz haben wir sanft schwelendes Feuerzischen aufgenommen, indem das Geräusch auf verschiedene Arten mit einem Feuerstab oder einem mittelgroßen, trockenen Holzscheit erzeugt und mit Sets von Mikrofonen aufgefangen haben. Sobald wir eine gute Auswahl an verschiedenen Feuergeräuschen hatten, haben wir dieses Feuerzischen editiert und bearbeitet, um es im Spiel als einmalige Audiodateien für Wirk- und Aufprallgeräusche oder als längere Soundschleifen für den Flug des Projektils zu nutzen. Wenn das Ganze dann im Spiel als Soundeffekt der Fertigkeit Feuerblitz wiedergegeben wird, erhält man ein zusammenhängendes Klangerlebnis.

Für die Zaubererfertigkeit Inferno haben wir dann andere Ausschnitte der Feueraufnahmen genommen und sie für die größere Fertigkeit so bearbeitet, dass sie aggressiver und mächtiger klingen. Wie beim Feuerblitz gibt es ein Set von Einzelgeräuschen für das Wirken, ein Set von Soundschleifen und ein weiteres Set von Einzelgeräuschen beim Zusammenziehen der Schlangenform. Es ist ziemlich cool, dass die Fertigkeit Inferno nicht einfach nur aus Feuer besteht, sondern aus Feuer in Form einer Schlange. Wegen dieser Form haben wir ein paar Freiheiten und können mehr als nur Feuer-Sounddesign nutzen. Wir haben das Fertigkeitsgeräusch mit leichten Schlangenrasseln-Spezialeffekten unterlegt, und der Ton wird zum Ende hin düsterer und ätherischer, damit es sich etwas magischer anfühlt. Wenn all diese Elemente im Spiel ausgelöst werden, wird es sich immer wie dieselbe Fertigkeit anhören, aber jedes Mal etwas anders klingen. So erhöht der Sound den Wiederspielwert. https://www.youtube.com/embed/oaU4f6mzppU?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0

Sounddesign bei Monstern

Diablo-Spiele würden nicht so viel Spaß machen, wenn man keine Monster abschlachten könnte. Die Horden der verschiedensten Kreaturen sind einer der spaßigsten Aspekte, wenn man an einem Diablo-Spiel arbeitet. Deshalb sind Monster sowohl für experimentelles als auch für traditionelles Sounddesign perfekt geeignet. Schauen wir uns also das Sounddesign bei den Geräuschen und Stimmen der Monster an.

Monsterbewegungen

Die Mischung aus erstklassiger Animation und K.I. erfüllt die Kreaturen mit Leben und Persönlichkeit, wenn sie sich ihrer niederträchtigen Machenschaften hingeben. Zu Beginn der Audiobearbeitung für ein brandneues Monster empfehle ich den Sounddesignern immer, zuerst die Bewegungsanimationen mit Tritt- und sonstigen Bewegungsgeräuschen (wie Kleidung und Haut) zu unterlegen. Sobald eine Kreatur Tritt- und Bewegungsgeräusche hat, erwacht der Rhythmus ihrer Bewegung erst richtig zum Leben. Ab diesem Punkt sind sie meiner Meinung nach geerdet und mit der Welt verbunden. Das gibt auch vor, wie laut sie basierend auf ihrer Bewegungsmuster sein können.

Monsterstimme

Die nächste Ebene, die Kreaturen zum Leben erweckt, ist ihre Stimme. Dabei handelt es sich um das Grunzen und Brüllen, das sie ausstoßen, wenn sie den Spieler angreifen – oder die Schmerzensschreie, wenn ihr sie nacheinander ausschaltet. Die Monsterfamilien können sich ziemlich voneinander unterscheiden. Also haben wir je nach Monstertyp intensive Klangschichten von animalischen Geräuschen oder nutzen sogar alltägliche Objekte, um Geräusche zu erzeugen, die wie Kreischen oder Schreie klingen und eine zusätzliche Ebene der fertigen Stimme bilden. Manchmal engagieren wir auch einfach Kreaturen-Synchronsprecher an. Sie erschaffen den Kern der Monsterstimme, und wir können mit weiteren Geräuschen darauf aufbauen.

Das Sounddesign vom Waldwesen besteht fast komplett aus knarrendem und ächzendem Holz, dessen Geräusche wir extrem langgezogen haben, und der richtigen Auswahl an Tönen, um Emotionen zu vermitteln. Es hat viel Spaß gemacht, das Sounddesign vom Waldwesen zu entwerfen, da es größtenteils aus seltsamen, knarrenden Holzgeräuschen besteht, unterlegt von sehr tiefen menschlichen Tönen. https://www.youtube.com/embed/c8CS_6RLaZA?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0

Ein weiteres Monster, an dem wir gerne gearbeitet haben, war der abartig großartige Fliegenwirt. Diese Bestie gebiert laufend Fliegen, die den Spieler angreifen. Am Ende haben wir ein paar unserer frühen Aufnahmen von Metzelgeräuschen genommen. Dafür hatten wir Kohlköpfe und Melonen zerrissen und zerschlagen und außerdem Mayonnaise, Salsa und einen köstlichen Schicht-Dip zu einer nicht so toll riechenden Pampe vermatscht, um ein paar ekelhafte und schleimige Geräusche für unser Sounddesign zu erzeugen. https://www.youtube.com/embed/WvXKYrbOBlQ?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0

Umgebungsgeräusche der offenen Welt

Ein grundlegendes Prinzip beim Sound von Diablo IV ist „lebendiges Audio“. Das bedeutet, dass die Klanglandschaft sich stets entwickelt und niemals statisch bleibt. Dieses Prinzip ist tief in den verschiedenen Variationen der Sounddesigns verwurzelt, die wir für alle möglichen Klänge kreieren. Das gilt auch für die Echtzeitwiedergabe im Spiel, insbesondere bei der Umgebung. Da die riesige offene Welt eine zentrale Rolle spielt, wollten wir die Umgebungsgeräusche so detailliert wie möglich machen. Wir finden sie ebenso wichtig wie das Sounddesign der Helden. Für dieses Prinzip ist es wichtig, dass sich die Geräusche und Systeme mit der Zeit subtil verändern. Wir arbeiten immer darauf hin, dass die subtilen Veränderungen der Umgebungsgeräusche (die man womöglich kaum bemerkt) sich selten wiederholen und insgesamt natürlicher und immersiver anfühlen.

Das World Building-Team hat großartige Arbeit dabei geleistet, die Regionen optisch zu füllen und uns somit tonnenweise Inspiration für immersiven Umgebungsgeräusche zu geben.

Da Spieler sich womöglich sehr lange in der offenen Welt aufhalten, wollten wir jeder Außenregion eine einzigartige Klangumgebung schenken, in der es mit der Zeit auch subtile Veränderungen der Geräusche gibt. Um das zu erreichen, nutzen wir Audiosysteme wie Echtzeit-Okklusion, hochwertige Halleffekte und Verzögerungseffekte/Echos, die auf die Umgebung reagieren.

Hier zeigen wir euch ein paar längere Aufnahmen aus dem Spiel mit einem statischen Ausschnitt, damit ihr hören könnt, wie die Umgebungsgeräusche sich mit der Zeit verändern. Damit wollen wir euch nicht nur cooles Sounddesign für die Umgebung zeigen, sondern euch diese Aufnahmen auch für Pen-&-Paper-Sessions zur Verfügung stellen – oder einfach zur Untermalung, wenn ihr euch in eure Arbeit vertieft. Diese Ausschnitte bestehen aus Aufnahmen von 5–6 Minuten, die mit Soundschleifen fast eine Stunde dauern. https://www.youtube.com/embed/0RDwMOxZqsY?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0 https://www.youtube.com/embed/wnez77GvFpU?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0 https://www.youtube.com/embed/JRdkkd4BdYg?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0

Umgebungsgeräusche der Dungeons

Um die richtige Atmosphäre beim Metzeln in den Dungeons von Diablo zu erzeugen, ist es uns ein besonderes Vergnügen, verschiedene und einzigartige Klangerlebnisse zu erschaffen, damit ihr komplett in die Spielwelt eintauchen könnt. Im Vergleich zur neuen offenen Welt sind die Umgebungsgeräusche der Dungeons etwas weniger intensiv, da wir euch nicht von einer der spaßigsten Aktivitäten von Diablo ablenken wollen: Dungeons erkunden. Das ist ein Gebiet, das uns mehr Freiheiten erlaubt, um tief in die höllischen und gruseligen Klangwelten einzutauchen, während die Monster auf dem Bildschirm das Klangerlebnis begleiten. Für Diablo IV gehen wir es in Dungeons mit dem Grundsatz „Was ihr hört, bekommt ihr auch.“ etwas realistischer an. Mit langgezogenen Halleffekten und Geräuschokklusion wollen wir eure Aufmerksamkeit darauf lenken, was hinter der nächsten Ecke lauern könnte, und euch mental auf die nächste Ladung an Feinden vorbereiten.

Zerstörbare Objekte

In den Dungeons sind zahlreiche zerstörbare Objekte verstreut. Das Interactives-Team hat für Diablo IV hunderte unglaublich detaillierte zerstörbare Objekte geschaffen. Um dem Detailreichtum bei ihrer Zerstörung Rechnung zu tragen, wollten wir jeden einzelnen Splitter und Brocken mit glaubwürdigem physikalischen Audio versehen. In Diablo Objekte zu zerstören, sollte genau so glaubwürdig und befriedigend klingen, wie Monster zu töten. Wir haben uns viel Mühe gegeben, allen Objekten ein extrem befriedigendes Zerstörungsgeräusch zu verpassen. Zugleich erhalten die Trümmer winzige Töne, die die Einzelteile begleiten, wenn sie abbrechen und durch den Raum fliegen. Ich bin immer noch beeindruckt von den ganzen Details, die wir bei zerstörbaren Objekten in Diablo IV haben. Wenn ich einen Raum voll mit solchen Objekten sehe, liebe ich es, einfach drauf los zu schlagen! https://www.youtube.com/embed/xdjU8sAG-Vc?theme=light&color=white&cc_load_policy=1&HD=1&rel=0&showinfo=0

Mischung im Spiel

Zu guter Letzt möchte ich ein wenig über die isometrische Kamera sprechen. Sie stellt einen vor interessante Herausforderungen, wenn man alle Elemente des Spiels zusammenbringen will. Da man das Schlachtfeld aus einem bestimmten Winkel und aus einer bestimmten Entfernung betrachtet, müssen wir dafür sorgen, dass die Monster auf dem Bildschirm Geräusche von sich geben, ohne dass die Gesamtmischung insgesamt zu überladen oder zu leer klingt. Unter Berücksichtigung der Prioritäten der Spieler gibt es viel Hin und Her bei der Klangwiedergabe in Echtzeit.

Für Diablo IV können wir die Soundmischung in Echtzeit mehr lenken als je zuvor. Aufgrund der isometrischen Kameraansicht muss alles, das ihr seht, Geräusche erzeugen. Aber wir wollen auch, dass ihr euch auf die wichtigsten Geräusche konzentriert, die eure Aufmerksamkeit verlangen. Wir feilen an Audiomischungen und einem System, das den Fokus auf die wesentlichen Töne lenkt, damit die wichtigsten Monstergeräusche hervorstechen, wenn es nötig ist. Es ist schwer, eine klare Audiomischung zustande zu bringen, wenn es im Spiel mehrere Helden und viele verschiedene Monster auf dem Bildschirm gibt. Da wir zugleich detaillierte Hintergrundklänge haben, müssen wir je nach Situation verschiedene Audiomischungen kreieren.

Wir hoffen, dass euch dieser kleine Einblick in das Sounddesign von Diablo IV gefallen hat. Es gibt noch so viel mehr zu erzählen, aber leider müssen wir das auf ein anderes Mal verschieben. Wir freuen uns über jegliches Feedback zu allem, was ihr in den Videos gehört oder in diesem Quartalsupdate gelernt habt. Danke, dass ihr euch die Zeit genommen habt, um mehr über die Klanglandschaft von Diablo IV zu erfahren!

Kris Giampa,
Sound Supervisor, Diablo IV

Sound Design – What Does Magic Sound Like? A Look At How The Harry Potter Films Redefined The Sound Of Magic

Here is an interesting video on the sound design of magic in the Harry Potter series of films.

Before Harry Potter this video suggests that although there were some indications in literature as to what magic might sound like, that until the Harry Potter films came along the medium of film never seen such formalisation of the sound of magic, such a variety of spells cast with specific gestures and feelings. If the film makers didn’t quite know what that should all sound like they definitely knew that they didn’t want it to sound like shooting scenes from science fiction films.

In preparation fro the first Harry Potter film director Chris Columbus told supervising sound editor Eddy Joseph that he didn’t want anything modern, futuristic or electronic. Although the sound of magic did change and develop throughout the series of films, it is said that this was a mantra that the film makers and sound designers continued to hold to.

Instead if the spell that was being cast had a specific sound related to it then they would use that, like water, fire, freezing, etc. Sometimes the sound of what the spell is impacting is all that is needed. When it comes to levitation then silence works just fine. But there are plenty of examples where the magic doesn’t have a specific sound attached and this is where the sound designers get the chance to be creative.

There is no doubt that the sound of magic developed though the Harry Potter films but there was a major change when it came to to the 3rd film, The Prisoner of Azkaban, when out went the explosions and whooshes and in came much softer sounds for most of the spells, which has the effect of making the magic less aggressive and more mysterious and that is the style the team build on for the key patronus spell that is built out a chorus of voices.

Another development we see through the Harry Potter films is that see the spell sounds become more personal and appropriate for each character to give the impression that the spell comes out of the magician just like their breath.

Watch the video and hear and see the examples played out.

Surroundscapes

The next generation of audio

Surroundscapes: the power of immersive sound

Geoff Taylor, CEO, the BPI: “Cutting-edge new tech, such as immersive audio used in VR and other applications, give us a glimpse of how this exciting new world of consumption and entertainment will take shape.”

In the early days of silent film, music was performed live. There was a band or pianist that would play in front of the screen, serving as commentary for the narrative’s action and flow. In 1927, music and sound were recorded and printed onto film for the first time. Slowly, as film technology became more sophisticated, it encompassed multiple channels of sound, with a number of speakers placed around the theatre. Eventually, surround sound was developed, and became a critical factor in the success of the overall cinematic experience.

Immersive content is no different. If one thinks of virtual reality as an attempt to create an alternative reality, the brain needs audio cues to match the visuals to be able to buy into the illusion. The user has to feel present in the experience, and can only feel present if all the cues received are completely natural. If the sound is flat and coming from just one place, the spell will be broken.

When delivered successfully, immersive audio creates the sensation of height around the user, transporting into a more thrilling experience. Because the power of sound can alert users to something behind or above, it’s important users realise that they are able to move around within the immersive experiences. When creating virtual reality (VR) and augmented reality (AR) experiences, for a long time, the industry has been focusing on the visuals, but that is only part of the environment.

This year, at SXSW, Tribeca and the Venice Film Festival there was a noticeable rise in sound-led immersive experiences: sound has become a powerful storytelling tool.  

Last year, Bose launched BoseAR  and with it three products to transform AR audio. Launched alongside  
these products, the software to  create AR content is now available, with the world’s first audio AR platform: Traverse.

At SXSW, Traverse’s “From Elvis in Memphis”, an AR-based piece of content allowed users to experience the music of Elvis Presley by walking through a physical space. The experience is created in such a way that it’s like being in the studio with Elvis; it’s possible to walk right up to him and his band members.

In the UK, Abbey Road Studios is one of the most famous recording studios in the world. It has been in use since 1931, and has famously provided recording facilities for talents such as The Beatles, Pink Floyd and Aretha Franklin. Abbey Road is the only facility in the UK to offer both scoring and film sound post-production, while the focus on immersive technology grows year on year.

Our research has identified a number of companies in the UK which are creating sound-based tools and solutions. There are even more creating sound-led immersive experiences. Two companies from our CreativeXR programme this year are doing just that: Darkfield and Abandon Normal Devices. On last year’s programme, Roomsize developed Open Space: a platform that enables the rapid construction of interactive audio experiences that occupy physical spaces. All this activity suggests that we are on the brink of a new generation of infrastructure 
to amplify sound in VR, AR and MR. Sound-led content will simultaneously open up new streams of possibilities for entertainment and media.

In partnership with the British Phonographic Industry (BPI) and its Innovation Hub, we are delighted to introduce Surroundscapes: The power of immersive sound. This is the latest Digital Catapult immersive showcase which runs from July to October 2019. We will be shining a light on UK-based startups and scaleups that are either creating the latest solutions to amplify VR, AR and MR experiences with sound, or content creators who are  specifically sound-led. 

Surroundscapes: showcase

After a competitive selection process, Digital Catapult and the BPI welcome six of the most innovative immersive sound companies in the UK: 

1.618 Digital: is an award-winning creative sound design studio that provides audio production and post-production services; immersive and spatial audio solutions for 360 video content; and games and interactive VR/AR media. 

As part of this showcase, 1.618 Digital is proud to present three projects that are on the cutting edge of digital technology for modern education and storytelling and illustrate the innovative applications of immersive audio. Immersive environments allow interactions and user manipulation of objects and sounds, which has been proven to provide 40% more brain activity relating to storage and recall of information. The use of high spatial resolution audio and interactivity along with volumetric audio and 6DOF enables users to engage with stories and other content on a deeper level.

Darkfield: specialises in creating communal location-based immersive experiences inside shipping containers. These experiences place the audience in complete darkness and then deliver binaural 3D audio and other sensory elements, using the darkness to create a canvas for the imagination.

The company has a unique offer grown from over twenty years working in the immersive theatre industry, and over six years creating shows and experiences in complete darkness that use binaural audio, multi-sensory effects and content to place the audience in the centre of evolving narratives. The experiences’ greatest asset is the invitation to walk the line between what seems to be happening and what imaginations can conjure up.

MagicBeans: is a spatial audio company creating a new kind of AR audio. The company maps highly realistic audio ‘holograms’ to real-world locations, visual displays and moving objects, creating a new and emotive presence for experiential businesses and visitor attractions.

The experiences demonstrate how sound can be mapped to visual displays, to individual objects that can be picked up and interacted with, and to a full room-scale audio experience. Experience MagicBeans technology embedded in a next-generation silent disco, an immersive theatre production and a new kind of audio-visual display

PlayLines: is an immersive AR studio that specialises in creating narrative-led immersive AR experiences in iconic venues. Its productions combine cutting-edge location-based AR technology with game design and immersive theatre techniques. The team’s work has been described as “Punchdrunk Theatre meets Pokemon Go”.

CONSEQUENCES is a groundbreaking immersive interactive audio-AR grime rap opera, created in collaboration with multi-award-winning MC Harry Shotta. Explore the AR Grime Club, follow the rhymes, and choose the ending. CONSEQUENCES gives audiences a brand new kind of night out that combines Secret Cinema, silent disco and ‘Sleep No More’. 

Volta: is a new way to produce music and audio, using space and movement as both a medium and an output. It is a VR application that makes spatial audio production not just easy but expressive, like a musical instrument, and easily integrates with audio production software.

Volta achieves integration by retaining the visual and interactive elements of producing spatial audio within the platform, while keeping all audio signal processing in the producer’s or engineer’s audio production application of choice. It uses a robust communication channel that allows the user to physically grab objects, move them in space, and record and automate that motion.

ZoneMe: ZONEME’s TRUE2LIFE™ object-based sound system provides a new way to control how audiences hear things by placing the sound at the point of origination. For example, words can appear to come from an actor’s mouth, not the speakers, or a gunshot can be made to sound as if it takes place outside the room. 

ZONEME aims to put the ‘reality’ into VR/AR/MR experiences by providing TRUE2LIFE™ sound. These experiences can be up to seven times more stimulating than visuals. Yet visuals have seen huge technological advances over the last 30 years that have not been matched by similar developments in audio. 

Naima Camara Thursday 04 July 2019

Is Virtual Reality the Future of Documentary Films?

Virtual reality documentaries are on the rise, illuminating issues of social injustice through immersive experiences.

Is virtual reality a tool for social change?

In the world of film, VR has become a powerful tool for tackling pressing social issues. It’s capable of presenting hard truths in ways that the average person can easily comprehend and connect with. However, its greatest power is its ability to inspire action.

Why Virtual Reality?

The fully immersive experience that VR provides makes it an excellent medium for storytelling.

It cuts off viewers from the outside world. Unlike traditional films, which set a safe distance between you and the story, VR puts viewers right in the middle of it. It creates visceral experiences that enable you to connect with characters in a much deeper way. Moreover, it eliminates the typical distractions that you encounter in the cinema, allowing you to focus on the story.See Also:  Virtual Reality Documentary Tells the Story of the Band That Changed History in Eastern Europe

Depending on the point of view, you can watch the story unfold from the perspective of a character. You can walk in someone else’s shoes. You’ll feel empathy—not just sorrow—for the real lives represented in the film.

How Virtual Reality Documentaries Are Highlighting Social Issues

One of the latest VR documentaries you can check out right now is called Reeducated, which debuted at SXSW back in March. Through this film, The New Yorker exposes the harsh truths inside the Xinjiang prison camps. It accompanies their investigative piece called “Inside Xinjiang’s Prison State,” a multimedia report detailing ethnic and religious persecution in China.

The internment camps in China have been a well-kept secret for quite some time now. Apart from survivor accounts and satellite imagery, the world knows so little about the reality inside these camps. That is, until now, with the debut of Reeducated.

Just before the COVID-19 lockdown, reporter Ben Mauk, director Sam Wolson, and illustrator Matt Huynh traveled to Central Asia. There, they spoke with dozens of survivors of the mass internment campaign.

The documentary, however, only uses the testimonies of three Kazakh men who survived the internment camps.

Huynh captured their stories in pen-and-brush drawings. Animator Nicholas Rubin—with the help of Jon Bernson, who composed the spatial audio—reconstructed the illustrations in a three-dimensional space.

Using a VR headset such as Oculus Rift, you can step into the prison yards, cells, and classrooms in the camps. Since there are no photos or video footage of the camps, VR makes a great alternative. It brings viewers directly into the story, allowing them to connect with these people. Moreover, it conveys the stories with clear and powerful emotions.

Virtual Reality and the Power of Experience

VR documentaries are nothing new. In 2014, Zero Point was released as the first 360-degree movie made for the Oculus Rift. It’s about immersive filmmaking and follows the researchers, developers, and pioneers of virtual reality.

Over the years, there has been an increasing number of VR documentaries, which focus on a myriad of subjects and stories. Some of them are like Reeducated in that they tackle pressing issues.See Also:  Shaun MacGillivray Chats About IMAX and VR Movies

Traveling While Black is one such example. It illustrates the US’ long history of restrictions for Black Americans. At the same time, it shows viewers how they can make a difference in their communities.

Other VR films illustrate human experiences that might be foreign to the average person. Notes on Blindness, The Protectors: Walk in the Ranger’s Shoes, and Zero Days are a few examples. As VR becomes widely available, filmmakers might use it more not just to highlight pressing issues but also to encourage action.

Das Klangtheater

By Wolfgang Musil Posted on 24. November 2020

Virtuelle Räume und donnernder Untergrund am Campus

Die mdw bekommt im Neubau mit dem Klangtheater einen hochspezialisierten elektroakustischen Klangraum von ca.170 m2 und ist für 99 Besucher_innen (im Normalfall) zugelassen. Genutzt soll dieser doppelschalige Saal als Konzert- und Proberaum sowie für Lehre und Forschung werden. Zusammenarbeiten wie mit dem Institut für musikalische Akustik – Wiener Klangstil (IWK) sind angedacht. Der Raum wird in seiner geplanten öffentlichen Nutzung einzigartig in der Kulturlandschaft Wiens sein.

Die Ausstattung mit 21+2 Lautsprechern in einem dreidimensionalen Layout (vorerst nur auf drei Ebenen – hemisphärisch angeordnet) bilden den 3D-Raum. Weitere drei Bühnenlautsprecher dienen als klassische Bühnenbeschallung, eine 4-Kanal-Lautsprecher-Eckaufstellung und einige ältere Vintage-Speaker machen den Raum zu einem Alleskönner für viele beschallungstechnische Aufgaben im Bereich elektroakustische Musik, Akusmatik, Live-Elektronik und traditionelle Beschallung für Tonmeister_innen. Die Diversität dieser unterschiedlichen Klangquellen macht dabei das Klangbild reichhaltiger, was für klangliche Demonstrationen in der Lehre besonders wichtig ist. Eine Art elektroakustischer Wiener Klangstil.

Unterschiedliche Raumrichtungssynthesen und Verräumlichungsmethoden zur Gestaltung eines virtuellen Raumerlebnisses kommen hier zum Einsatz. Um diese vielen Kanäle unter Kontrolle zu bekommen und sie der Lehre zur Verfügung zu stellen, braucht es ein wohl durchdachtes Bedienungskonzept für die vielen unterschiedlichen Anwendungen in diesem Genre der akustischen Projektion.

Die Raumakustik des Klangtheaters ist bewusst trocken gehalten und ermöglicht so ein speziell analytisches Arbeiten. Raumrichtungen, die eine Software synthetisiert, können in dieser akustischen Atmosphäre viel präziser wahrgenommen werden. Methoden wie Ambisonics und High Order Ambisonics (HOA), amplitudenbasiertes Panning (VBAP) und Wellenfeldsynthese (WFS) sowie eine Vielzahl weiterer experimenteller „Raumverteilungen“ werden in der Lehre diskutiert und konzertant angewandt.

Das Stichwort „Immersive Sound“ ist in aller Munde und suggeriert einen neuen akustisch-virtuellen Realismus, jedoch meist ohne Sinnhaftigkeit. Hier kommt die Wichtigkeit eines solchen Akustiklabors in einer universitären ästhetischen Auseinandersetzung und in der Lehre zur Geltung.

Immersive Audio: Eintauchen in 360-Grad-Technologien

17. November 2020, 07:00

Im Alltag können wir – wortwörtlich – nicht aufhören zu hören. Das Ohr kann nicht verschlossen werden wie das Auge: Wir sind gewohnt, einen ständigen Strom an Schallinformation zu erhalten und die für uns wichtigen Inhalte herauszufiltern (das nennt man den Cocktailparty-Effekt). Klänge und Musik können starke Emotionen hervorrufen, geben Auskunft über Zeit und Raum und verstärken somit die Wahrhaftigkeit des Moments. Anders gesagt: Klang kann das Immersionsniveau eines Erlebnisses erhöhen.

Was ist Immersion?

Laut Janet Murray, Professorin für Digitale Medien, ist ein immersives Erlebnis vergleichbar mit der Sensation, in den Ozean zu springen und unter der Wasseroberfläche zu verharren. Wir sind dabei von einer anderen Realität umgeben, die unseren gesamten wahrnehmenden Apparat beansprucht: Ich sehe die unendlich schwarzen Tiefen unter mir, schmecke das Meerwasser auf meiner Zunge, höre das Dröhnen der Wassermassen, fühle die sanfte Strömung zwischen meinen Fingern und rieche die salzige Meeresluft, wenn ich wieder auftauche.

Geschichten können aber auch unabhängig von der Intensität der Sinnesstimulierung immersiv sein. Der Immersionsgehalt hängt noch von weiteren Faktoren wie der Aufmerksamkeit, Zielsetzung oder Involvierung im Geschehen ab. Viele dieser Mechanismen laufen im Bereich der Virtual Reality zusammen: Das HMD (Head-Mounted Display) umgibt mein Sichtfeld, ich stehe in einer Bar auf einem Sandstrand in Süditalien. Die Controller lassen mich meinen Mojito-Cocktail aufheben und fast entkommt mir eine Träne, als ich eine Trinkbewegung mache und den Kristallzucker nicht schmecken kann.

Was ist Immersive Audio?

Immersive Audio beschreibt technologische und damit einhergehende dramaturgische Verfahren, um Schallereignisse dreidimensional darstellen und den Zuhörer ein besseres Klangerlebnis bieten zu können. Das Audio kommt dabei nicht traditionellerweise von links und rechts (wie bei Stereo-Lautsprechern und Kopfhörern), sondern auch von oben, unten und hinten. Manche 3D-Wiedergabeverfahren ermöglichen die Klangreproduktion von unendlich vielen Richtungen, sodass die Hörer von einer echten „Klangkugel“ umgeben sind.

Wer sich nichts darunter vorstellen kann, sollte sich folgendes YouTube-Video ab Minute 2:41 mit Kopfhörern anhören. Man spürt hier förmlich, wie der Friseur einem die Haarspitzen abschneidet. https://www.youtube.com/embed/IUDTlvagjJA?enablejsapi=1 LovelyVirus

Wer braucht das?

Diesen Satz sagen jene Menschen, die noch nie in einer Dolby-Atmos-zertifizierten Kinovorstellung gesessen sind. Film- und Musikliebhaber suchen immer nach Möglichkeiten, die emotionalen Inhalte eines Medienprodukts noch intensiver darstellen zu können: Dies passiert konsumentenseitig durch den Kauf neuerer und „besserer“ Kopfhörer und Fernseher, produzentenseitig durch neuere und „bessere“ Soft- und Hardware und künstlerisches Know-how. Immersive Audio bietet eine neue Dimension an Gestaltungsmöglichkeiten für Kunstschaffende, die auf verschiedenste Weise von Endnutzern genossen werden kann.

Auch in Virtual Reality wird von Immersive Audio Gebrauch gemacht. Foto: Lukas Zeiler

Wiedergabegeräte für Immersive Audio

Diese neue Form der Klanggestaltung braucht keine teure Hardware, um die Inhalte hören zu können. Mithilfe von „binauralem Klang“ kann 360-Grad-Audio auch auf ganz normalen Kopfhörern gespielt werden. Im Hintergrund werden dabei psychoakustische Phänomene ausgenutzt, um dem Gehirn vorzugaukeln, die Klänge kämen aus allen Richtungen, obwohl sie nur aus zwei Quellen im Kopfhörer kommen: links und rechts.

Beeindruckend sind auch die neuesten Entwicklungen im Bereich der „Soundbars“. Für Leute, die keine Kopfhörer aufsetzen wollen und „Netflix and Chill“ lieber auf der Couch vor dem Fernseher betreiben, hat zum Beispiel der Herrsteller Sennheiser eine Lösung: Die AMBEO Soundbar nutzt die Technologie des „Beamformings“ und schießt den Schall an die Wände und Decke eines Raumes. Die daraus resultierenden Reflexionen erreichen dann die Hörer von allen Seiten. Maßgeblich an der Entwicklung dieser Soundbar beteiligt war das international angesehene Fraunhofer Institut, das ebenso bei der Erfindung des mp3-Formates mitgewirkt hat. Auch die Amazon Echo Studio Soundbar funktioniert aus technischer Sicht ähnlich, nur mit einer schlechteren Klangqualität.

Surround-Sound gibt es nun schon einige Jahrzehnte, hat aber aufgrund des hohen Preis- und Platzaufwandes nicht den Weg in die breiten Massen gefunden. Wer schon ein 5.1- (fünf Lautsprecher und ein Subwoofer) oder 7.1-Surround-Set-Up besitzt, kann sein Heimkino mithilfe von „Dolby Atmos“ erweitern. Dies involviert meist das Anbringen von Lautsprechern an der Decke. Für die Wiedergabe des Atmos-Contents wird dann aber auch ein Prozessor gebraucht, der das Format dekodieren und an alle Lautsprecher weiterleiten kann. Weitere Verfahren zum Abhören von 360-Grad-Audio sind Ambisonics und Auro 3D.

Objektbasiertes Audio

Produktionsseitig liegt der immersiven Klanggestaltung das „objektbasierte Mixing“ zu Grunde. Anstatt sich beim Mischen der Klänge auf die einzelnen Kanäle (L, R, C, LH, RH, …) zu konzentrieren, wird jeder Sound als „Klangobjekt“ in einem dreidimensionalen Panner dargestellt. Das Objekt kann dann beliebig im Raum bewegt werden. Der springende Punkt hierbei ist, dass beispielsweise die Musik eines Filmes dann nicht für jede Art der 360-Grad-Wiedergabe neu gemischt werden muss. Die Mischung wird nur einmal vom Mixing-Engineer in seinem eigenen Dolby-Atmos-Studio (mit Lautsprecheranzahl x) erstellt und kann dann mithilfe des Algorithmus auf ein beliebiges Dolby-Atmos-Wiedergabesystem (mit Lautsprecheranzahl y) gerendert werden.

Die Digital-Audio-Workstation “Reaper” mit einem Binaural-Audio Plugin. Screenshot: Lukas Zeiler

Wenn ich von „objektbasiertem Mixing“ schreibe, kann ich eine weitere technologische Errungenschaft nicht unerwähnt lassen. Wer wollte nicht schon mal den Fußballkommentator im Fernsehen zum Schweigen bringen? Zukünftig soll dies mithilfe des ebenfalls vom Fraunhofer Institut entwickelten „MPEG-H“-Systems möglich sein. In den Metadaten der Audiodatei ist der Fußballkommentator als Objekt gespeichert, das durch beliebige Parameter (wie Lautstärke, Position, Sprache, …) manipuliert werden kann. Anstatt ein unveränderbares Stereo-Audiofile vom Broadcaster zu erhalten, werden die Metadaten der einzelnen Objekte im Audiofile eingebettet und können während des Abhörens auf der Couch verändert werden. Ich könnte mithilfe des MPEG-H-Systems aus mehreren Fußballmoderatoren wählen und je nach meiner Stimmung die Lautstärke der „You’ll Never Walk Alone“-Gesänge der Liverpool FC-Fans anpassen. Werden diese Gesänge jetzt auch noch mit einer 360-Grad-Soundbar wiedergegeben, steht einem spannenden, immersiven Fußballabend nichts mehr im Weg.

Vertriebskanäle von Immersive Audio

Große Musikstreaming-Plattformen wie Tidal und Amazon Music HD bieten mittlerweile schon 360-Grad-Musik an. Hier spielt Sony mit ihrem 360-Reality-Audio eine große Rolle. Die Musik kann auf normalen Kopfhörern im Binaural-Format gehört werden.

Wie bereits erwähnt springen viele Film-Streaming-Plattformen wie Netflix auf den Immersive-Audio-Zug auf. Einige Serien können dort bereits in Dolby Atmos gehört werden.

Auch im Gaming-Bereich hat Immersive Audio eine tragende Position. Besonders in Shooter-Spielen kann es wichtig sein, genau zu hören, von wo sich der Feind nähert und ob die Schüsse aus dem Stockwerk über mir kommen oder nicht. Ich habe bei meiner Recherche eine Liste gefunden, auf der Spieletitel mit 3D-Audio gesammelt werden. Bei Videospielen wird meist mit binauralem Sound gearbeitet, da viele Gamer mit Kopfhörern spielen.

Content ist gefragt!

Letztlich bleibt die Kunstschaffenden zu ermutigen, sich in die Domäne des immersiven Erlebnisses zu trauen und Content für die vielen verschiedenen Verbreitungsplattformen zu produzieren, die es bereits gibt. Die Zeichen im Mediensektor weisen stark darauf hin, dass auch die Big Player wie Facebook und Apple immersiven Content – egal ob in Virtual oder Augmented Reality – als zukunftsfähig sehen. Facebook hat mit seiner 360-Spatial-Workstation Tools geschaffen, die der Öffentlichkeit gratis zur Verfügung stehen und Content-Entwicklung in dieser Richtung fördern. Die Gerüchteküche brodelt, wenn es um Head-Tracking-Sensoren in zukünftigen Apple-Kopfhörerprodukten geht. Natürlich gibt es bei den Technologien für 360-Grad-Audio noch viel zu verbessern (siehe das HRTF-Problem), jedoch wird der Zugang zu den Inhalten immer einfacher.

Ich gestehe, dass ich mich schon auf die Jahre freue, die ich als 80-jähriger Altersheimbewohner in einer zukünftigen Form des VR-Chats verbringen werde. Abgekoppelt von meinem Umfeld, eingetaucht in eine neue Wirklichkeit aus außerirdischen Klängen und fremden Realitäten. Und das gemeinsam mit Millionen anderer Pensionist*innen aus der ganzen Welt. (Lukas Zeiler, 17.11.2020)

Lukas Zeiler ist Blogautor für TEDxVienna und studiert Digital Media Production an der FH St. Pölten.

THE MANDALORIAN’s Virtual Sets Are Wild

by Kyle Anderson

The Mandalorian quickly rose in our collective fan hearts with its look, its action, and its tiniest bounty. It just right away felt like Star Wars, and a lot of that was down to how gorgeous and seamless the settings looked. We believed Mando was on a desert planet fighting Jawas, or collecting a bounty on a bleak, barren tundra. But those planets don’t exist, not really. However, they almost do. As a new video from Industrial Light & Magic discloses, the “sets” for The Mandalorian were about as real as they could get. Without actually heading to a galaxy some indeterminate distance away.

As creator Jon Favreau explains, The Mandalorian wasn’t just real to us at home; the locations were there for the actors and crew, too. ILM worked with Epic Games on this project. Using “game engine, real-time render, and video wall technology” they projected whatever backdrop they wanted in a 360-degree, virtual set. LED screens right the way ’round. The set moved when the actors or camera moved so it always appeared in the proper dimensions. It all came together in a massive room on a soundstage, but it looked like a million locations.

Unlike most CGI or bluescreen-heavy productions, which add in the effects and cool knickknacks after the fact, Favreau and ILM made the environments “live” and basically interactable. The camera picks up the actors in physical space and the virtual, real-time background at the same time. And the backgrounds can be ready for projection 24 hours after finalization. That makes something like a television series go so much faster, and it’s why we can have a second season of the effects-heavy show ready by the end of this year.

This cave from The Mandalorian was just an LED screen. Amazing.

Lucasfilm/ILM

It’s truly mind-boggling, the scale of it all. They’d use the virtual environment to light the actors and props, and if the shot didn’t look right, they’d just pivot the environment. Werner Herzog‘s office was a virtual set! It looked perfectly seamless. Eventually, Favreau explained, they would start designing environments that would look best with the engine. For example, the interior of the space station from “Chapter 6: The Prisoner,” in which they built part of Mando’s ship but everything else was virtual. Ming-Na Wen sitting on a rock in the desert an episode prior? Yep, virtual. They didn’t go to the desert at all.

This is a true game-changer for sci-fi and fantasy storytelling. While there’s absolutely something magical about a real location, moving production to remote places on Earth is very tough. So instead, why not take full 360-degree shots of those locations, like Iceland for example, so they’re “real” but then project them when it comes time to actually film? It’s a very controlled way to make things, but it also ensures the director gets the exact shot they want while the actors have real things to act against.

Fulldome

Brno Planetarium, Czech Republic
Brno Observatory & Planetarium

What does “Fulldome” mean?

Fulldome refers to immersive dome-based video projection environments where the viewer is surrounded by the video projection in a hemispherical angle of view.

The dome, horizontal or tilted, is filled with real-time (interactive) or pre-rendered (linear) computer animations, live capture images, or composited environments. Even though astronomy is the most common topic, there are no content limitations and it’s now used also for entertaining shows and other hyper-realistic presentations.Brno Planetarium, Czech Republic Morrison Planetarium
California Academy of Sciences

Developement

Although the current technology emerged in the early-to-mid 1990’s (USA and Japan), fulldome environments have evolved from numerous influences, including immersive art and storytelling, with technological roots in domed architecture, planetariums, multi-projector film environments, flight simulation, and virtual reality.

Early live-action dome cinemas used wide-angle lenses and 35- or 70-mm filmstock. There are still around 125 giant screen dome cinemas operating in the world. However the expense and ungainly nature of the giant screen film medium has prevented more widespread use. Also, film formats such as Omnimax (Imax Dome) do not cover the entire dome surface, leaving the rear section of the dome blank (though, due to seating arrangements, that part of the dome was not seen by most viewers).

Early approaches to fulldome video projection utilized monochromatic vector graphics systems projected through a fisheye lens. Contemporary configurations employ raster video projectors, either single projectors with wide-angle lenses or multiple edge-blended projectors to cover the dome surface with high-resolution, full-color imagery.Planetarium Venus, Poland Planetarium Wenus
Kepler Science Center

A great fast-growing immersive

The fulldome experience comes out as one of the most immersive and entertaining ways to engage a wide range of people with a limitless scope of applications, including education, arts, games and wellness.

Fulldome media is experiencing enormous growth with new planetariums and digital theatres being built around the world, reaching out to new audiences to make them fall in love with such beautiful technology.Société des Arts Technologiques, Canada IX Symposium
Société des Arts Technologiques

Was ist Immersion?

In Zusammenhang mit Virtual Reality fällt häufig der Begriff der “Immersion”, mit denen sich auch Merkmale von 360-Grad-Videos und Virtuellen Rundgängen beschreiben lassen. Der folgende Beitrag soll deshalb Aufschluss darüber geben, was unter Immersion zu verstehen ist und warum unsere Inhalte besonders immersiv wirken.Immersion

Unter Immersion wird das Eintauchen in die Inhaltes eines Mediums verstanden, bei der Fiktion akzeptiert wird. © Der_Typ_von_nebenan / pixabay.de

Mentale Immersion vs. Physikalische Immersion

Der Begriff Immersion beschreibt das Eintauchen in die Inhalte eines Mediums. Dabei kann sie sowohl mental als auch physikalisch hervorgerufen werden, weshalb hier zunächst eine Unterscheidung stattfinden soll:

Mentale Immersion

Die mentale Immersion kennen die meisten sicherlich aus persönlichen Erlebnissen, denn sie entsteht, wenn sich ein Rezipient tief in eine Handlung hineinversetzt und mental in diese eintaucht. So erfahren wir sie beispielsweise beim Lesen eines spannenden Buches oder wenn wir einen fesselnden Film anschauen. Sie beschreibt einen Zustand, in dem der Nutzer ein tiefes Engagement empfindet, hoch involviert und bereit ist, Fiktion zu akzeptieren („suspension of disbelief”).

Physikalische Immersion

Die Immersion in 360-Grad-Medien und auch in Virtual Reality (für die genauere Differenzierung der beiden Begriffe empfehlen wir den Artikel Sind 360-Grad-Videos Virtual Reality?) kann noch weitergehen und nicht nur mental, sondern auch körperlich erfolgen, was dann als physikalische Immersion bezeichnet wird. Eine hohe physikalische Immersion entsteht, wenn Ein- und Ausgabegeräte genutzt werden, die möglichst viele Sinne des Anwenders auf eine reale Art und Weise ansprechen. So unterstützen bspw. die für Virtual Reality typischen HMDs  (Head-Mounted-Displays, umgangsprachlich auch VR-Brillen genannt; erfahren Sie hier mehr über die Entwicklung von Virtual Reality) eine hohe physikalische Immersion, da sie die Realität ausblenden und dafür sorgen, dass der Nutzer – egal, wo er hinguckt – nur die virtuelle Welt wahrnimmt. Handschuhe mit haptischem Feedback, Trackinglaufbänder und andere Ein- und Ausgabegeräte verstärken die physikalische Immersion, was sich widerum positiv auf die mentale Immersion auswirkt.

Immersion und Präsenz

Im Zusammenhang von Immersion wird auch häufig der Begriff der Präsenz verwendet, der das subjektive Gefühl des Nutzers beschreibt, sich tatsächlich innerhalb einer virtuellen Welt zu befinden. Je nach Grad der Präsenz wird die Umgebung für den Betrachter als mehr oder weniger real empfunden. Dieses subjektive Präsenzgefühl kann erreicht werden, indem die Person mental in die Umgebung eintaucht und lässt sich durch einen hohen Grad an physikalischer Immersion intensivieren.Was ist Immersion?

Was ist Immersion? © Vertex / pixabay.de

Das Präsenzgefühl lässt sich durch eine Ortsillusion, eine Plausibiliätsillusion und der Involviertheit des Nutzers hervorrufen.

Dabei beschreibt die Ortsillusion (engl. „place illusion”) das Gefühl des Nutzers, an einem anderen Ort zu sein, obwohl er weiß, dass er sich dort nur virtuell und nicht tatsächlich befindet. Sie wird vor allem durch (physikalisch) immersive Ausgabegeräte unterstützt und insbesondere durch die dreidimensionale Präsentationstechnik und die nutzerzentrierte Sicht gefördert. Eine Ortsillusion kann beispielsweise bei unseren Virtual-Reality-Rundgängen entstehen, die dem Nutzer das Gefühl vermitteln, sich tatsächlich an dem dargestellten Ort zu befinden.

Die Plausibilitätsillusion (engl. „plausibility illusion”) beschreibt den Umstand, dass die Ereignisse der simulierten Umgebung so wahrgenommen werden, als seien sie wirklich geschehen (trotz der Gewissheit, dass sie nur in einer virtuellen Umgebung stattfinden). Im Gegensatz zur Ortsillusion, die im Wesentlichen durch die Art und Weise der Präsentation hervorgerufen wird, beruht die Plausibilitätsillusion auf den Inhalten der simulierten Welt. Dabei scheint die Glaubwürdigkeit der virtuellen Umgebung wichtiger als der sensorische Realismus zu sein, so könnte bspw. ein virtuell perfekt modellierter Mensch, der jedoch nur in stupiden Phrasen kommunizieren kann, zu einem Bruch dieser Plausibilitätsillusion führen. Dieser Bruch wird auch als Präsenzbruch (engl. „break in presense”) bezeichnet und kann sowohl bei der Orts- als auch bei der Plausibilitätsillusion stattfinden, indem die Umgebung nicht so reagiert, wie es der Anwender erwartet.

Die Involviertheit (engl. „involvement”) des Nutzers bezieht sich auf den Grad der Aufmerksamkeit bzw. das Interesse an der simulierten Welt. Ähnlich wie die Plausibilitätsillusion wird die Involviertheit hauptsächlich durch die Inhalte der virtuellen Welt hervorgerufen. So könnte ein Nutzer bspw. auf Grund einer überzeugenden Ortsillusion zwar das Gefühl vermittelt bekommen, sich an dem virtuellen Ort zu befinden, sich dabei aber trotzdem langweilen und nur gering involviert sein, wodurch nur ein geringes Präsenzgefühl entsteht. Andererseits könnte ein Nutzer auf Grund der Inhalte hoch involviert und damit mental immersiert sein, wobei auf Grund einer fehlenden Ortsillusion das Präsenzgefühl trotzdem ausbleiben kann.

Immersives Marketing

Während die mentale Immersion und Präsenz als psychologische Phänomene angesehen werden können, kann die physikalische Immersion als ein technisches und / oder körperliches Phänomen verstanden werden, da die Sinne über physikalische Reize durch den Einsatz von Technologie angesprochen werden. Hier erfahren Sie mehr über die Wirkungseffekte von immersiven Marketing.

Die folgende Abbildung soll abschließend noch einmal die Begrifflichkeiten rund um das Thema Immersion zusammenfassen:Das Zusammenspiel von mentaler Immersion, physikalischer Immersion und Präsenz.

Das Zusammenspiel von mentaler Immersion, physikalischer Immersion und Präsenz. © Kiani / Berger (2017)

Quellen:

  • Sherman, William R. / Craig, Alan B. (2003): Understanding Virtual Reality. INTERFACE, APPLICATION AND DESIGN. Morgan Kaufmann Publishers, San Francisco.
  • Dörner, Ralf / Broll, Wolfgang / Grimm, Paul / Jung, Bernhard (Hrsg.): Virtual und Augmented Reality (VR/AR). Grundlagen und Methoden der Virtuellen und Augmentierten Realität. Springer Verlag, Berlin, Heidelberg.
  • Slater, Mel / Wilbur, Sylvia (1997): A framework for immersive virtual environments (FIVE): speculations on the role of presence in virtual environments. In: Presence: Teleoperators and Virtual Environments. 6(6), MIT Press, Cambridge. S. 603–616.