Master thesis evaluation on reducing polarization in public debates

Title
Exploring perspectives in the public debate with emotional awareness: Design to reduce polarization

Name
Marieke van Dijk

University
Delft University of Technology, Design for Interaction

Date
2020-03-27

Level of design

The level of design is throughout the thesis, scientific poster as well as the presentation slides cohesive, clean and well-suited for the topic. The level of detail and variety of illustration ideas is really impressive.

Degree of innovation

Finding papers and thesis about polarization of public opinion is easy but finding possible theoretical or practical solutions is more difficult. In the section ‘strategies for depolarization’, she makes clear suggestions which are very useful for people working in the design field.

Independence

In several interviews with different people, such as experts in specific fields, journalists, and consumers. She held workshops with study colleagues and asked people on the streets for their opinion.

Outline and structure

A lot of different layout characteristics are used to structure the mass of findings she displays in her thesis. Her structure seems to be good but since her research as well as the description of the artwork is very detailed, the mass of information is kind of overwhelming. But a lot of highlighted text, illustrations, graphs and icons make it easier to access the needed information quickly.

Degree of communication

She explains every section and structures each section into sub-categories. The paragraphs are mostly divided into smaller parts which makes reading more delightful and easy to jump into a topic. In my opinion it is even a bit too much division, illustrations, graphs and quotes. It is interesting to look at and maybe read a passage here and there, but it feels more like an illustrated book rather than a scientific thesis. But I guess this look and feel was done on purpose.

Scope of the work

The scope of the work is probably a total overshoot. Next to her 104-page long thesis document which tons of self-made illustrations and graphs she made a website as a workpiece well-designed workpiece.

Orthography and accuracy Literature

In her literature you can find a lot of books and papers from other universities. Some of her literatures though, are older (from the 80’s and 90’s) and might not be suitable for today.

Source

https://repository.tudelft.nl/islandora/object/uuid:4ae735cb-989a-4a0e-911a-5079334dab36?collection=education

Wie wir lernen – Ein Auszug aus Psychologie, Pädagogik und Neurowissenschaft 3/3

Wie fördert man lernen?

Die folgenden acht Eigenschaften mögen einen nicht überraschen, jedoch möchte ich mich damit beschäftigen, warum diese so wichtig sind und wie wir sie für die Gestaltung von Lehranwendungen anwenden können.

Abb.1 | Multimodales Lernen: Lernen mit mehreren Sinnen

1. Mulitmodales Lernen
Um neues Wissen gut abrufbar abzuspeichern, empfiehlt es sich, verschiedene Modis anzusprechen. Beispielsweise einen gesprochenen Vortrag durch bildhafte Abbildungen zu unterstützen. Hierbei werden mehrere Assoziationsketten und Verknüpfungen zu einer Information gelegt. Da das Ansprechen von mehreren Sinnesorganen nach [1] auch eher in Erinnerung bleibt, ist es sinnvoll für die Gestaltung von Für interaktive Anwendungen

Abb.2 | Semantische Einbettung: An bereits erlerntem Wissen anknüpfen

2. Semantische Einbettung
Da das Gehirn als semantisches Netzwerk aufgebaut ist, ist es hilfreich, wenn verschiedene Queues auf Wissen zugreifen, bzw. wenn mehrere Verknüpfungen zu einer Information führen. Bereits vorhandenes Wissen, dient hierbei als Gedankenstütze für neu erlerntes. In diesem Netzwerk können neue Inhalte an zuvor erlerntem angeknüpft werden. Es macht somit Sinn, neue Themen mit wohlmöglich bekanntem Wissen einzuleiten.

Abb. 3 | Emotionen: Fröhliche, gelassene Stimmung wirkt sich positiv auf Lernerfolg aus

3. Emotionen
Emotionen haben eine starke Auswirkung auf unsere kognitiven Fähigkeiten, sowie Wahrnehmung, Aufmerksamkeit, Lernen, Gedächtnis und das Lösen von Problemen. Sowohl positive wie auch negative Emotionen können Lernförderlich sein. Beispielsweise wirken sich Belohnungen sowie auch milder Druck und Bestrafungen auf den Lernerfolg aus.

Abb. 4 | Tiefe der Verarbeitung: Je elaborierter das Thema behandelt wird, desto gefestigter ist die Information abrufbar

4. Tiefe der Verarbeitung
Je tiefer etwas gelernt wird, also wie häufig, wie elaboriert, wie detailliert, desto eher ist die neu gewonnene Information effizient abrufbar. Wenn Verbindungen zu anderen verwandten Themen hergestellt werden und das neu erlernte im Kontext gesehen wird, wird der Effekt verstärkt, da es zu einer tieferen Auseinandersetzung kommt.

Abb. 5 | Relevanz: Bezieht sich auf allgemeine oder persönliche Interesse

5. Relevanz
Das angestrebte Wissen sollte eine gewisse persönliche Relevanz haben, wie beispielsweise das Interessenfeld des Nutzers oder eine allgemeine Relevanz beinhalten.

Quellen
[1] Max-Planck Gesellschaft: Lernen mit allen Sinnen, 05.02.2015
https://www.mpg.de/8930937/vokabel-lernen-gesten

Abb.1 | https://blog.orselli.net/2020/11/rewind-are-exhibit-timelines-so-boring.html

Abb.2 | https://images.adsttc.com/media/images/52cd/fd12/e8e4/4e34/3700/002b/large_jpg/11053_00_MOHAI_Center_For_Innovation_N18.jpg?1389231329

Abb. 3 | http://everyoneishappy.com/

Abb. 4 | https://whitney.org/events/sound-accumulation

Abb. 5 | https://i.pinimg.com/564x/39/19/b3/3919b3b7470caad88293583b4f7c3940.jpg

Wie wir lernen – Ein Auszug aus Psychologie, Pädagogik und Neurowissenschaft 2/3

Das Gedächtnis

Beim Gedächtnis lautet einer der zentralen Erkenntnisse, dass je öfter gelernt wird, desto schneller wird (dieselbe) Sache erlernt. Das heißt, je öfter eine Tätigkeit getan wird oder eine Information abgerufen wird, desto schneller und präziser ist sie verfügbar.

Man spricht in der Psychologie von einem Mehrspeichermodell, bei dem man von mehreren Gedächtnisarten ausgeht [1]. Wenn ein Reiz registriert wird, nimmt das sensorische Gedächtnis (Ultra-Kurzzeitgedächtnis) dies auf. Das sensorische Gedächtnis ist die Verbindung zwischen Wahrnehmung und Gedächtnis und läuft unbewusst ab. Es handelt sich teils um flüchtige Sinneseindrücke, die nur kurz zwischengespeichert werden. Es kommt im weiteren Schritt zur Filterung und Differenzierung der verschiedenen einwirkenden Reize. Die gefilterten Sinneseindrücke gelangen dann zum Arbeitsgedächtnis bzw. Kurzzeitgedächtnis. Dies ist der erste bewusste Teil unseres Gedächtnisses. Fünf bis neun Informationseinheiten können hier für eine kurze Zeit gespeichert werden. Für die Aufrechterhaltung solcher Information spielt die Aufmerksamkeit eine wichtige Rolle. Dies kann leicht durch Störungen, wie beispielsweise Geräusche, gestört werden. Werden Elemente aus dem Kurzzeitgedächtnis mit genug Aufmerksamkeit vollzogen oder oft genug wiederholt, kommt es zur Speicherung im Langzeitgedächtnis [4].

Die Reise vom Kurzzeitgedächtnis zum Langzeitgedächtnis (Konsolidierung)

Die Festigung von Gedächtnisinhalten wird Konsolidierung genannt und beschreibt die Bewegung von Kurzzeitinformation vom Hippocampus zum Cortex. Hier werden Gedächtnis-Engramme auf molekularer Ebene von Proteinen festgelegt [3]. Engramme sind Veränderungen des Nervengewebes zur Fixierung von Gelerntem. Es werden quasi „Bahnen“ in der Hirnstruktur gelegt, die später willkürlich oder unwillkürlich abrufbar sind und die physiologische Grundlage des Gedächtnisses bilden [2]. Dieser Vorgang findet nicht nur einmal bei der Einprägung statt, sondern immer wieder erneut, wenn die Erinnerung aus dem Langzeitgedächtnis abgerufen wird. Durch die erneute bzw. immer wieder auftretende Konsolidierung kann der Gedächtnisinhalt zwar gefestigt, jedoch auch verfälscht werden. Dies führt dazu, dass im Laufe der Jahre immer mehr Erinnerungen unbewusst abgewandelt werden. Ebenso sind neu gebildete Erinnerung anfälliger für Störungen und können leichter in Vergessenheit geraten [3].

Langzeitgedächtnistypen

Wenn es zu einer Speicherung im Langzeitgedächtnis kam, können diese Inhalte in verschiedene Kategorien unterteilt werden. Generell gibt es zwei Langzeitgedächtnistypen, nämlich das deklarative (explizite) und das prozedurale (implizite) Gedächtnis. Diese Typen sind in verschiedenen Gehirnarealen abgespeichert und dadurch physisch voneinander abgetrennt. Kommt es beispielsweise zu einer Beschädigung eines Gehirnareals, kann das betroffene Wissen nicht mehr abgerufen werden, während die anderen Inhalte problemlos genutzt werden können. Die zwei expliziten passieren bewusst, während die zwei impliziten Gedächtnistypen unbewusst passieren [5]:

  1. Episodisches Gedächtnis (explizit, bewusst):
    Hier sind biografische Daten abgespeichert, wie beispielsweise die Erinnerung an einen Urlaub, Erlebnisse mit Freunden oder unseren ersten Schultag.
  2. Semantisches Gedächtnis (explizit, bewusst):
    Erlernte Fakten, wie beispielsweise „die Hauptstadt von Frankreich ist Paris“, die Geburtsdaten der Eltern, Vokabeln usw.
  3. Prozedurales Gedächtnis (implizit, unbewusst):
    Das Gedächtnis für Bewegungsabfolgen wie Laufen, Fahrradfahren, Autofahren usw.
  4. Perzeptuelles Gedächtnis (implizit, unbewusst):
    Dieser Gedächtnistyp ist eng mit dem Prozeduralen Gedächtnis verbunden. Es hilft uns bekannte Personen, Orte, Gegenstände wieder zu erkennen.

Das Gedächtnis ist eine subjektive Repräsentation der objektiven Welt. Es kommt schnell zu Abweichungen, Überschreibungen oder Störungen. Je nach Queue werden Inhalte verschieden abgerufen. So kommt es je nach Wording oder Kontext zu verschiedenen Ergebnissen und ist somit stark fehlerbehaften. Beispielsweise könnte man beim schnellen Hinsehen eine Maus mit einem Maulwurf verwechseln, wenn man zuvor einen Maulwurfshügel gesehen hat.

Mit dem Wissen, wie Information verarbeitet und abgespeichert wird, möchte ich Verständnis dafür erlangen, wie man Inhalte als Designer, von beispielsweise Lernanwendungen, gezielter vermitteln kann. Nachdem erarbeitet wurde, was im Gehirn grob passiert, wenn Dinge erlebt und erlernt werden, kann betrachtet werden, welche äußeren und inneren Gegebenheiten diesen Vorgang leichter in Gang setzen. Dies soll helfen um aus dem flüchtigen Bedienen einer Anwendung, eine langanhaltende Erinnerung bzw. Wissen zu formen.

Quellen
[1] Stangl, W.: Mehrspeichermodelle – Online Lexikon für Psychologie und Pädagogik, 27.07.2021
https://lexikon.stangl.eu/5117/mehrspeichermodelle

[2] Spektrum.de: Engramm – Lexikon der Neurowissenschaft, 19.04.2019
https://www.spektrum.de/lexikon/neurowissenschaft/engramm/3495

[3] Spektrum.de: Konsolidierung – Lexikon der Neurowissenschaft, 14.01.2019
https://www.spektrum.de/lexikon/neurowissenschaft/konsolidierung/6663

[4] Ratgeber Neuropsychologie: Einteilung des Gedächtnisses, 01.03.2018
https://www.ratgeber-neuropsychologie.de/gedaechtnis/gedaechtnis2.html

[5] Die Ebenen des Gedächtnisses, 30.07.2017
https://www.gehirnlernen.de/lernen/grundlagen-des-lernens/ebenen-des-ged%C3%A4chtnisses/

Wie wir lernen – Auszug aus Psychologie, Pädagogik und Neurowissenschaft 1/3

Um Inhalte zu gestalten, die Information lehren oder eine Botschaft vermitteln sollen, müssen wir verstehen, wie der Mensch sich neues Wisseneurn aneignet. Um beispielsweise das Langzeitgedächtnis anzusprechen, müssen gewisse Gegebenheiten vorhanden sein. Im Interview mit meiner Freundin Ashley Huffer, die derzeit ihren Master in Psychologie in Freiburg absolviert, konnte ich ein wenig in das Thema einfinden und es mit eigener Recherche erweitern.

In der Psychologie muss zwischen Lernen und Gedächtnis unterschieden werden. Zwar hängen die beiden Dinge stark miteinander zusammen, müssen jedoch getrennt betrachtet werden.

Das Lernen

Die Definition vom Lernen, ist eine relativ dauerhafte Verhaltensänderung, die auf Erfahrung zurückgeht [1]. Während das Gedächtnis in drei Hauptprozesse untergliedert wird, worauf ich später weiter eingehen werde. Man unterscheidet beim Lernen zwischen dem assoziativen Lernen, wozu die klassische Konditionierung und die operante Konditionierung gehört, sowie zwischen dem Beobachtungslernen. Generell wird beim Assoziativen Lernen entweder ein Reiz (klassische Konditionierung) oder eine Reaktion mit den Folgen (operante Konditionierung) assoziiert.

Klassische Konditionierung
Hier werden zwei Stimulus miteinander verknüpft.  Man spricht dabei auch von einer Reiz-Reiz-Assoziation. Ein Beispiel wäre einen Hund darauf zu konditionieren, dass nach einem Glockenklingen, der Hund sein Essen bekommt. Anfangs wird das Glockenläuten vor dem Essen keinerlei Bedeutung für den Hund haben. Nach einer Weile sind Verhaltens Änderungen zu finden, da der Hund lernt, die Glocke mit dem Essen zu assoziieren. Somit wird ein Stimulus, nämlich ein Ton mit dem Stimulus vom Essen miteinander verknüpft [2]. Ein persönliches Beispiel wäre, dass ich beim Lesen unglaublich oft einschlafe. Da ich über viele Jahre meistens nur am Abend lese, habe ich mich selbst darauf konditioniert, vom Lesen müde zu werden. Das ist nicht immer praktisch.

Abb. 1 | Mögliches Beispiel zur klassischen Konditionierung für interaktive Anwendungen: Vibration zur Fehlermeldung oder Bestätigung einer Aktion

Die klassische Konditionierung kann für interaktive Anwendungen oder in der Informationsgestaltung verschieden angewendet werden. Beispielsweise wäre bereits das Vibrieren eines Gerätes in Verbindung mit einer Aktion (beispielsweise ein Error) ist meiner Meinung nach in interaktiven Anwendungen oder Informationsgestaltung eher schwierig anzuwenden, da diese „trainiert“ werden muss. Denkbar wäre eine Umsetzung in einem Serios Game oder einer Anwendung, die über einen längeren Zeitraum bedient werden kann. Ein typisches Beispiel aus dem Design-Bereich wäre jedoch die Gestaltung von Werbung. Hier werden oftmals neutrale Objekte, wie beispielsweise ein Parfüm mit gewissen Eigenschaften verknüpft. Ein Parfüm, das für den Nutzer keinerlei Bedeutung hat, kann durch Werbung mit Eigenschaften wie Erotik, Glück, Zufriedenheit und Wohlbefinden verknüpft werden. Die Bedeutung von kontextueller Information übertragen sich in Werbungen auf das ursprünglich neutrale Produkt.

Operante Konditionierung
Bei der operanten Konditionierung wird eine Reaktion mit einem Stimulus verknüpft. Es wird erlernt, dass eine Verhaltensweise eine bestimmte Konsequenz mit sich zieht. Dies bezieht sich auf negative Konsequenzen, wie eine Strafe, jedoch auch für positive Ereignisse. Wenn mein Verhalten in einer gewissen Situation eine positive Konsequenz ermöglicht, dann werde ich in der gleichen Situation auch wieder das gleiche Verhalten aufweisen. Eine Verhaltensweise kann also durch Belohnung verstärkt werden und durch Bestrafung abgeschwächt werden [2].

Abb. 2 | Ein oft genutztes Beispiel zur operanten Konditionierung im Ausstellungsraum wäre die Gamification von erlernbaren Informationen

Das Modell der operanten Konditionierung findet sich in den Grundsätzen der Gamification wieder. Hier werden bestimmte Ereignisse belohnt oder bestraft, um ein gewisses Ziel zu erreichen. Im Bereich der Wissensvermittlung kann dies gut umgesetzt werden, indem man den Nutzer beispielsweise bei einem Quiz Punkte für richtige Antworten gibt.

Quellen
[1] Springer Lehrbuch Psychologie: Wie lernen wir?
https://lehrbuch-psychologie.springer.com/content/myers-kapitel-8-lernen

[2] Springer Lehrbuch Psychologie: Assoziatives Lernen
https://lehrbuch-psychologie.springer.com/sites/default/files/atoms/files/leseprobe_lernen_motivation.pdf

Abb.1 | https://retaildesignblog.net/2015/10/18/hanergy-clean-energy-exhibition-center-by-triad-china-beijing-china/

Abb. 2 | https://www.behance.net/gallery/17501743/Istanbul-O-Matik

Was bisher geschah

Nachdem ich mich letztes Semester mit künstlicher Intelligenz befasst habe, wollte ich dieses Semester ein neues Thema angehen. Rückblickend war es spannend, sich nicht bloß mit der Technologie zu befassen, sondern vielmehr die Auswirkungen auf unsere Gesellschaft zu deuten, sich eine eigene Meinung zu bilden und zu sehen, was die Technologie für mein Arbeitsfeld bedeutet.

Bisher hatte ich mich viel damit beschäftigt, in welche Richtung diese Recherche gehen soll, habe viele Texte gelesen und habe leider auch viel Zeit in Dinge reingesteckt, die ich wahrscheinlich nicht verwenden werde. Da ich bereits zu Beginn meiner Recherche zur künstlichen Intelligenz sicher war, dass dies eher eine Exkursion wird, wollte ich für dieses Semester zu meinem angestrebten Aufgabenfeld zurückfinden. Um vermitteln zu können, wo meine Recherche eigentlich hinführen soll, muss ich zunächst erklären, was ich in den letzten Jahren erarbeitet habe.

Generell arbeite ich gerne an Projekten, die Wissen vermitteln oder eine (meines Erachtens) wichtige Botschaft kommunizieren wollen. Dies war beispielsweise in den drei Projekten gegeben, die ich für eine Ausstellungsdesign-Firma in Hamburg angefertigt habe. Hier hatte ich festgestellt, dass ich nicht mehr nur Produkte oder Dienstleistungen verkaufen möchte, wie es bei vielen Agenturen, bei denen ich zuvor gearbeitet habe der Fall ist, sondern stattdessen Wissen, Erfahrungen und Empathie transportieren möchte. Die drei genannten Projekte waren interaktive Anwendungen für Museen oder Ausstellungen in verschiedenen Themenbereichen. Hierfür war es wichtig, sich gründlich in wissenschaftliche Themen einzuarbeiten und dieses Wissen sowohl fachlich als auch emotional in eine digitale Anwendung zu übersetzten. Ich hatte unglaublich viel Spaß an diesen Aufgaben und möchte aufgrund dessen weiter erfahren, wie wir Menschen uns Wissen aneignen, um in Zukunft dies bei der Implementierung von Anwendungen einfließen zu lassen.  

Außerdem hatte ich mich in meiner Bachelorarbeit damit befasst, warum die meisten Menschen über den Klimawandel Bescheid wissen und davor Angst haben, aber nur die wenigsten wirklich aktiv etwas dagegen unternehmen. Hierzu habe ich die Diskrepanz zwischen diesem Wissen und Tun untersucht und wichtige Leitlinien erarbeiten können, die uns als Designer helfen können, positives Handeln hervorzurufen. Da auch in diesem Kontext, der/die NutzerIn die Möglichkeit hat, etwas dazu zu lernen – zwar nicht im Sinne von bloßer Information sondern vielmehr wie er/sie umweltfreundlicher den Alltag beschreiten kann – zählt auch diese Recherche zum Thema wie der Mensch lernt und wie man Wissen vermitteln kann. Dies wird in einem der folgenden Blogeinträgen nochmal wiederholt und vertieft.  

Talking to a friend – Is artificial intelligence really intelligent?

In the last blogpost we had a look on how we as designers could use artificial intelligence (AI) in our work. For this post, we need to get back to the first question: will AI take over the world and kill us all?

I talked to my friend Michael Meindl, who is doing his PhD in the field of artificial intelligence. Right now, he is doing research on how robots and machines learn movement and how different parts of a machine can communicate with one another, just like a human body would to. He uses machine learning to make the communication within the system possible. His research will probably be used in the medical field, for example for prostheses. For me he is the smartest friend I have (though the competition isn’t really hard since I’m friends with lots of lovable idiots).  I asked him what he thinks about the future of AI, what this means for us and of course if humanity will get destroyed by this technology.

He stated that if we look at how AI is discussed in the media, we are talking about the wrong matters and trying to handle problems which might never come into place. The thinking about AI is formed by sci-fiction books and movies, moreover, the misconception that a machine might have human attitudes or interest. The following article is based on the conversation I had with Michi.

Often, we hear about the crazy short time it takes for an AI to learn a new game. People consider this means that AI is a super quick method to learn things. But we need to take the years of research and programming into account. Even if you have two AI’s which play different games and want to merge them together, it takes years of work to get that job done. Also, the method of how an AI is learning new things, seems kind of odd when we think about it. If a human would want to learn how to play chess by playing it a thousand times and just trying out moves over and over again, to see if he can win the game like that, you’d consider him as stupid. But that’s what a machine learning algorithm is doing. Since we don’t even really understand how human intelligence functions, how shall we create an artificial general intelligence (AGI)?

Is this calculator an AI?

Back then people might have said yes, now maybe no. This example shows that the definition of intelligence is sometimes a very subjective matter. Some calculations we type in might be difficult to solve, but in the end this system just follows given commands. Is that intelligent?

We have kind of a problem when we think about the definition of intelligence. Actually, an AI just does what it is told to do. It follows given commands. This sometimes looks to us as if the system is intelligent. The real intelligent thing about this instruction-following system, is the algorithm which makes that system follow instructions. If a calculator doesn’t seem like an AI to you, then also a self-driving car shouldn’t. Just like a calculator, it follows commands and instructions.

Artificial intelligence as a design tool

For the research on the field of artificial intelligence I collected lots of information from different websites and videos. In the beginning I had problems to gather everything in a nice manner. Positioning images in a Microsoft word document seems like an undoable task. Pen and paper didn’t allow me to copy and paste anything. With Indesign I started layouting stuff which didn’t need a layout. After trying out some tools and being frustrated with the restrictions, I was searching for a tool which could help me to save links and videos, structure information, add text, thoughts and images. It should be easy to use in the process and the output should look appealing without too much design effort. After trying out some online note-tools, I found Milanote [1]. You can have a look at my collection to see more examples for AI driven designs and articles [11]. Milanote is a free online tool for organizing creative projects. It shall help gathering information and structuring it however its desired. I fell in love instantly.

The tool Milanote helped me to structure notes and gather all different kinds of information. View the whole collection at [11]

There is a lot to know about the typology, methods and kinds of AI. In the last blogpost I already explained the difference between machine learning, artificial intelligence and neural networks. The AI systems we know today are based on machine learning. How a simple machine learning algorithm works is not too difficult to understand. There are tons of YouTube videos which explain the basics, I recommend the video of 3Blue1Brown [2] because of it’s visual explanation. But anything will do.

I took a closer look at how I could use artificial intelligence in my own field of interest. As an interaction designer, there are many intersections where AI can help to create. I came across the website of Google AI experiments [3] where different AI projects are shared. “AI Experiments is a showcase for simple experiments that make it easier for anyone to start exploring machine learning, through pictures, drawings, language, music, and more.” It says on the website. It’s collection of work from Google teams and other creative teams in different fields which used AI to find a solution to problem. You find AI examples for learning, drawing, writing, music and other experiments. Just the shear sum of creative work built with AI struck me.

I was especially impressed by the “teachable machine” by the Google Creative Lab [6]. They invented a free online tool, where you can build your own machine learning model in such an easy way… to be honest- it feels somehow rude how easy this tool makes machine learning seem. The video was very inspiring, showing all kinds of solutions and ideas built with pattern recognition. I think this is a huge step in the development of AI and machine learning. I tried the tool if it can spot if I’m wearing glasses or not. First you need to gather pictures of what the method shall recognize. Taking a few selfies of myself wasn’t too difficult. Secondly, by just clicking a button (yes just clicking a button!!) you can train your model and boom that’s all.

The teachable machine makes machine learning crazy easy to non-programmers

This opens up a whole new world to non-programmers and will allow thousands of creative people stepping into the field of machine learning/AI. I have the feeling that using this online tool for a own project might still be more difficult that it seems in the first place, since you need to set up the communication between your model and your code, but still- I’m impressed. Furthermore, this new technique of collecting data of an object opens up a whole new perspective. One of the annoying parts of training a machine learning code was, that you had to feed the model with tagged data. We all know those reCAPTCHA pictures from Google, where you need to click on the pictures which show traffic lights, cars, busses, road signs and stuff like that. What we are doing there is not only a proof for a login, but we are actually feeding and AI with very precious information [4]. (I sometimes click on the wrong images on purpose to confuse Google)

Furthermore, I made a list of how AI could be used in our field of work. This collection is driven a lot by which technologies we used in our first semester.

  1. Use pattern recognition and build physical systems with Arduino
    – Use an Arduino to build a hardware solution where physical things are triggered.
    – Get the input of an event via image (computer vision) or via sound.
    – React to that event with your Arduino device.
    – Example: showed in the video of the teachable machine [5]. Could be used to switch on a light of a disabled, open the little door when the system sees the dog approaching, sort trash by filming the trash etc.
  2. Use pattern recognition to control an object in virtual space
    – Use Unity to control an object in a virtual space.
    – Can track hand gestures or body movement to navigate or manipulate within a virtual 2D or 3D space.

    – Can use for interactive applications in exhibitions
    2.1 The more neural activity your brain has, the more likely you will remember something. If you get the body to move, you can trigger the muscle memory and the user might find it easier to remember your content. For example: teach music theory not only with information or sound but using the gap between your fingers to visualize harmony theory.
    2.2 A higher immersion can lead to more empathy. For example if you made the experience of being an animal in a burning jungle with virtual reality for instance, you might feel more empathy for this concern. A lived experience is more likely to influence emotionally rather than just telling a person that animals are dying in fire.
  3. Draw images with sound
    – Create “random” images which are drawn by incidents in the real world.
    – For the implementation you could use processing or p5.
    – Example: you could record with your Webcam, film the street and trigger an event when a blue car is driving by. This could change how a picture is drawn by code. You could also use certain sounds instead.
  4. Visualizing data
    – Collect data and visualize it in images or in a virtual space.
    – Huge amounts of data can be classified and structured by machine learning to create strong Infographics.
    – Data can be very powerful and reveal insights which you wouldn’t think of. There are good examples where well-structured meta data showed coherences, which didn’t seem related to the data itself. An episode of the design podcast 99% invisible talked about how a list of e-mails within a company showed information of who is a manager and who was probably dealing with illegal and secret projects – without reading one e-mail [7]. Moreover, David Kriesel gives with his presentations an impression of how powerful meta data is [8]. With the power of machine learning and AI we could reveal information which don’t seem obvious in the first place.
    – Example:
    https://experiments.withgoogle.com/visualizing-high-dimensional-space
  5. UI design, recommendations and personalization
    – Use machine learning (ML) in your UI to make navigation easier and quicker.
    – Personalize systems for your user and create experiences where the user can move freely within your application

    – Best practice found in article [9]:
    5.1. Count decisions as navigation steps
    Count how many decisions need to be made for navigating though system. Reduce them with ML. The ML-generated suggestions shouldn’t make the user evaluate the options, otherwise the ML doesn’t make any sense here.
    5.2. A predictable UI is necessary when the stakes are high
    Do not use ML for critic navigation/finding. Human works best in such cases. Consider using it for browsing and exploration.
    5.3. Be predictably unpredictable
    Basically, hide the new ML feature. Think it depends on use case.
    5.4. Make failure your baseline
    ML will make mistakes. Built the system that if mistakes happen, it doesnt take longer to erase them rather than just doing the job on your own in the first place.
  6. Use AI for creative exchange
    – Use AI as a communication in creating new concepts.
    – AI is good in making links and connections to similar fields. Also, it’s good at bringing randomness into the game.
    – Example of writers which chat with AI to boost their ideas. Since ai is built with a neural network its kind of works like our brain, so it’s capable of bringing fascinating ideas for the field it’s programmed for. And since it’s a machine and not a human it can bring new perspectives into thinking (see youtube “Prescursors to a Digital Muse” below).
    – Example: The AI for the game GO, played a move which seemed like a bad one to a human but maximized the winning probability since it was interested in winning the whole game and not conquering as many fields as possible. Professional GO players examined the new thinking of the game which is played since the 4th century, with a new perspective [10].
  7. Get rid of repetitive tasks
    I was so fascinated when I saw how the new iPhone does all the photo editing which I used to do in hours of work, automatically. Of course, it does mistakes and is not as accurate, but come on, who enjoys cropping of a curly haired person in Photoshop. Using a cropped image and putting it somewhere else is the fun part, not the cutting out. At least for me. When such tasks are done by a machine, we can concentrate on all the other ideas we have with that curly-haired-person-image.
Example video for 6. Use AI for creative exchange.

On the search on where AI is and where designers are, you could often read about the fear that AI will take away the jobs of designers. Since AI is capable of doing a lot of work which was dedicated to designers for a long time, it’s definitely true in some ways. But we need to evolve and adapt to technology. A lot of frustrating and repetitive tasks can be done by the machine, take advantage of this and start creating from that point. We can create much larger scaled projects when we can deal with such technologies.

  1. Free tool for collecting notes and structuring ideas:
    https://milanote.com/
  2. Machine Learning tutorial:
    https://www.youtube.com/watch?v=aircAruvnKk&t=3s&ab_channel=3Blue1Brown
  3. Google AI experiments:
    https://experiments.withgoogle.com/collection/ai
  4. Article on how recaptcha images help Googles algorithms:
    https://medium.com/@thenextcorner/you-are-helping-google-ai-image-recognition-b24d89372b7e
  5. The teachable machine promotion video:
    https://www.youtube.com/watch?v=T2qQGqZxkD0&feature=emb_logo&ab_channel=Google
  6. The teachable machine website:
    https://teachablemachine.withgoogle.com/
  7. Interesting podcast – the value of data:
    https://99percentinvisible.org/episode/youve-got-enron-mail/
  8. Interesting presentation on the power of data mining:
    https://www.youtube.com/watch?v=-YpwsdRKt8Q&t=2800s&ab_channel=media.ccc.de
  9. AI in UI design
    https://design.google/library/predictably-smart/
  10. Documentary of the Alpha Go AI
    https://www.youtube.com/watch?v=WXuK6gekU1Y&ab_channel=DeepMind
  11. Collection of articles, example videos and background information
    https://app.milanote.com/1KX8J41TAgBr12?p=d7PvzxFcpuX

Why artificial intelligence is kind of stupid and will kill us all

Artificial intelligence (AI) is used in an enormous number of fields. It is guiding us through critical decisions in logistics, health, finance and which Netflix series to watch next. Even though we use AI a lot, many people do not know too much about it. What people think about artificial intelligence reaches from ‘my fridge sends me smileys’ to ‘the end of the world is near’. While it’s currently used how many apples there shall be in the stores to buy for next week, people are discussing about how it will take over the world and kill humanity.

On a scale from 1 to 10, how scared should we be now?

The word AI is a dangerous buzzword. It is so abstract and broadly used that people mix up a lot of things while still saying the truth. The term is so difficult to define because we already have difficulties to define what intelligence exactly is. We need to differentiate between machine learning, neural network and artificial intelligence to understand these broad assumptions about the technology.

Non-scientific graph of a timeline considering the possible futures with artifical intelligence based on first impressions when you start researching about this topic

Machine learning: In machine learning for example, the machine learns from its experience. Here you simply input data and it will output something. It will learn and understand after a while. But as soon as you change things a little, the system will fail. It is a technique to recognize patterns – it can differentiate, this is a cat or a dog or the word ‘hello’ and then do something according to what it already learned.

Neural network: A neuronal network is a method to achieve machine learning. It is how you might build the actual software of machine learning to do the process of learning. It is an algorithm which models how our brain works. When neurons are combined you can have a set of inputs. Those inputs are moving further down in the network until a certain threshold is met. This threshold can be tweaked and trained with a feedback system. You will tell the system what the desired result is. This creates the ability to recognize patterns. So, this whole process is a method for pattern recognition. There are other ways to do it too, but this is the most frequently used.

Artificial Intelligence (AI): While machine learning is about pattern recognition, AI is mimicking to be intelligent. A computer can exhibit being intelligent but without actually being intelligent. An often-used example is the mind game of a man in a room with lots of information on Chinese language. A Chinese man could be standing in front of that room, sending messages to the other. While the other one has all the data and time to answer the messages, the Chinese man outside would think he is writing to someone, who is familiar to the language. But the man is just exhibiting to speak Chinese without truly knowing Chinese language. Furthermore, we need to differentiate between a weak AI and a strong AI. A weak one exhibits the characteristics of being intelligent while a strong one could possibly form a consciousness and is self-aware. This brings questions of morality and ethics.

An interesting aspect of AI is shown in the work of the researcher Janelle Shane. In her TED talk she explains the power but also the limits of AI. She says: ‘The danger of artificial intelligence isn’t that it’s going to rebel against us, but that it’s going to do exactly what we ask it to do’. Computers and algorithms have no common sense. It’s difficult to think of every possible outcome, use case or scenario while programming.

Further questions to be answered

The motivation behind this topic is to see what all the fuss is about. Getting a clearer image of what is going on with this technology and learn how I can maybe use it for my own work or how we can deal with it in our everyday life. We need to understand how much it is already embedded in our everyday life and understand where this might take us. I want to dig deeper into the concept of how it works, what it can do and where the limits are. Furthermore, it might be appropriate to listen to what no one else but Elon Musk and Bill Gates are warning about. Elon Musk is basically warning us that AI will take over the world and we need regulations before it’s too late. He talked about AI as ‘an immortal dictator from which we would never escape’. Maybe we should all panic now.