IMG_0022.jpg

Human Machines - Machine Humans

Interaction Design & Rapid Prototyping

Durch die Verwendung technischer Artefakte stellen wir fest, dass wir uns nicht mehr nur mit passiven, sondern auch mit aktiven und handelnden Dingen befassen müssen. In der Vergangenheit war die Rolle von Mensch und Maschine relativ klar: Der Mensch handelt, die Maschine arbeitet. Heute erleben wir, dass wir auch mit Dingen "zusammenarbeiten" und Dinge beginnen, mit uns "zusammenzuwirken". Daher fragen wir vielleicht nicht mehr nur nach der Aktion des Menschen oder nach dem Funktionieren der Maschine, sondern betrachten verteilte Aktionen von menschlichen und nicht-menschlichen Akteuren. Durch erste Prototypen werden wir mögliche Interaktionen erleben und zukünftige Szenarien von Mensch-Maschine-Kollaborationen untersuchen. Oft denken wir nur an den logischen Aspekt einer Maschine, mit der Befehlskette vom Menschen zur Maschine. Oft hat eine Maschine jedoch die Fähigkeit, den Menschen zu kontrollieren. Mit dieser Kontrolle sowie der emotionalen Reaktion, die diese hervorruft, haben wir uns beschäftigt. Was wäre, wenn emotionale Reaktionen auch von einer Maschine durch Interaktionen hervorgerufen werden können?

happy emotion

happy emotion

Unser Konzept hat es Maschinen ermöglicht, grundlegende emotionale Reaktionen auf den Menschen während der Interaktion zu zeigen. Es kann Glück, Langeweile, Trauer, Stress oder Ärger zeigen. Dazu haben wir in einer ersten konzeptionellen Phase die Möglichkeiten der emotionalen Darstellung analysiert, die von einer Maschine ausgehen könnten. In einer ersten Machbarkeitsprüfung haben wir die Darstellung von Emotionen auf ein akustisches und visuelles Signal reduziert. Eine alltägliche Interaktion, die in vielen von uns eine Emotion hervorruft, ist der Ampelknopf für Fußgänger. Für viele springt die Ampel nicht schnell genug um und man ärgert sich oder wird ungeduldig. Man freut sich, wenn die Ampel für den Fußgänger grün wird. Alternativ kann der Ampelknopf ignoriert werden. Diese Emotionen waren die Ausgangslage für unseren Prototypen, welcher  mithilfe zweier OLED-Displays, eines Ultraschallsensors sowie eines IR-Sensors mit einer Arduino Platine verbaut wurden. Die jeweiligen Emotionen wurde durch Augenbrauen visualisiert , die durch ihre verschiedenen Verformungen verschiedene Emotionen gleichzeitig zum Ausdruck bringen konnten. Aktiviert wurden die Displays durch zwei Faktoren: zum einen durch die Zeit, die verstrichen ist ohne den Ultraschallsensor zu aktivieren, und zum anderen durch den Ultraschallsensor selber.

Sobald sich ein Rezipient der Maschine genähert hat, wurden die Displays aktiviert. Ein IR-Sensor hat wiederum die Displays aktiviert, sobald der Knopf an der Ampelanlage gedrückt wurde. Um eine Mobilität und Flexibilität zu gewährleisten wurden die jeweiligen Elemente in einzelnen Boxen verbaut. So hatten wir die Möglichkeit diese in jeder Umgebung anzubringen. Einsatzgebiet waren zum einen der Fußgängerknopf einer Ampel sowie der Knopf, um einen Fahrstuhl zu rufen. 

Ashley Morgan | Gil Aldor | Alexander Kaschuba | Sebastian Miller