In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
Driver‘s fatique and emotions are difficult to handle in isolated rooms. This design of cinetic panels focuses on non-invasive methods to make long distance driving more safe and comfortable. In this GP we developed a multimodal, responsive interface.
Problem: strong emotions while driving can feel unsafe, overwhelming or isolating. Especially long-distances.
Intention: make it easier to regulate emotions while driving, going after driver's fatigue. Make car driving more safe and comfortable.
Built-in-panels (grey space on the dashboard) reacting to intense emotions with rhythmic texture, via a built-in sensor (orange amplitudes).
Specialized for driving services
Wir sahen die Chance im Kurs Synaptic Surfaces, ein experimentelles Forschungsprojekt auf die Beine zu stellen, an der Schnittstelle von Human‑Machine Interaction, affective computing und textilbasierter Kinetik im Fahrzeuginterieur. Ziel war es, ein Interface zu entwickeln, das nicht lediglich emotionale Zustände widerspiegelt, sondern aktiv zur emotionalen Co‑Regulation beiträgt. Ausgangspunkt war die Beobachtung, dass starke Emotionen – Wut, Stress, Erschöpfung oder Traurigkeit – insbesondere bei langen Fahrten zu Fehlentscheidungen, Unaufmerksamkeit oder Überforderung führen können. Anstatt Fahrende nur zu warnen, verfolgt dieses Projekt den Ansatz, den Innenraum selbst als unterstützenden Mikro‑Akteur zu gestalten: eine Oberfläche, die durch subtile, meditative Rhythmen emotionale Stabilisierung anbietet.
Die inhaltliche Grundlage bildet eine multimodale Biosignal‑Pipeline, die interne physiologische Zustände mit äußerlich sichtbaren Ausdrucksformen verbindet. Radar‑Sensorik dient der nicht‑invasiven Erfassung von Herzrate, Herzratenvariabilität sowie Mikro‑Bewegungen des Brustkorbs. Damit lassen sich Atemfrequenz, Atemtiefe und Atemrhythmus ohne Körperkontakt messen – ein entscheidender Vorteil für den Einsatz im Fahrzeug. Parallel analysiert eine Kamera über Convolutional Neural Networks Augenöffnung, Pupillenorientierung, Lippen‑ und Augenbrauentonus sowie mikrodynamische Veränderungen im Gesicht. Diese Kombination ermöglicht eine höhere Differenzierung, etwa die Unterscheidung zwischen beschleunigtem Herzschlag aufgrund von Wut oder aufgrund positiver Erregung.
Die emotionale Interpretation fokussiert fünf Zustände, die sich nach physiologischen Parametern und Forschungsliteratur klar voneinander abgrenzen lassen: Anger, Stress/Anxiety, Sadness, Joy und Exhaustion. Jeder dieser Zustände besitzt ein charakteristisches Muster aus Aktivierung (Arousal), mimischen Markern und kardiorespiratorischen Signalen. Während etwa Wut durch hohe Herzfrequenz, geringe HRV und angespannte Mimik gekennzeichnet ist, äußert sich Freude hingegen in erhöhter HRV und entspannten, symmetrischen Gesichtsausdrücken. Diese klaren Differenzierungen sind essenziell, um mechanische Reaktionen nicht willkürlich, sondern gezielt regulierend einzusetzen.
Die mechanische Ausgabe erfolgt über eine kinetische textile Oberfläche, die Bewegungsmuster generiert, welche physiologisch beruhigend wirken. Während im frühen Experimentierstadium verschiedene Ansätze getestet wurden – insbesondere Shape‑Memory‑Alloys (SMA) in Form verschiedener Drahtgeometrien – erwiesen sich diese in der Anwendung als unzuverlässig, schwer zu kontrollieren und materialtechnisch anfällig. Wir entschieden uns daher bewusst für elektromagnetische Aktuatoren. Diese bieten kontrollierbare lineare Bewegungen, schnelle Reaktionszeiten und eine robuste Ansteuerbarkeit über Mikrocontroller. Über eine eigens entwickelte Hebelmechanik wird der Bewegungsweg erweitert, sodass bereits ein 10‑mm‑Hub eine sichtbare Verformung der Oberfläche erzeugen kann.
Der entwickelte Prototyp besitzt einen Durchmesser von 70 cm und besteht aus einem konzentrischen Ringaufbau, der die Übertragung lokaler Hebelbewegungen auf die textile Oberfläche erleichtert. Die Wahl eines nahtlosen 4‑Way‑Stretch‑Materials (Lycra‑Lack) ermöglicht eine homogene, organisch wirkende Struktur ohne sichtbare Unterbrechungen. Neun Elektromagnete sind unter dem Stoff positioniert und heben einzelne Stellen vertikal an. Für den Prototyp stand nicht die endgültige formale Ästhetik im Mittelpunkt, sondern die Demonstration eines zuverlässigen, skalierbaren mechanischen Prinzips.
Die technische Pipeline ist klar modular aufgebaut: Die Datenerfassung erfolgt über Radar und Kamera, die Auswertung der Emotionen wird auf einem Raspberry Pi 4 berechnet. Die resultierenden Werte werden über eine serielle Schnittstelle an einen Arduino Mega übertragen, der die elektromagnetischen Aktuatoren ansteuert und Bewegungsmuster generiert. Diese Muster werden ausschließlich bei akuten emotionalen Zuständen aktiviert. Die Oberfläche verhält sich im Normalzustand neutral und tritt erst dann in Aktion, wenn physiologische Parameter außerhalb eines definierten Korridors liegen. Für künftige Entwicklungen ist ein einheitliches regulierendes Atemmuster – beispielsweise ein 4‑4‑4 Rhythmus – vorgesehen, das Fahrenden eine nachweislich beruhigende Atemstruktur anbietet.
Die Entwicklungsphase war stark experimentell geprägt. Obwohl das Team keine klassischen technischen Probleme im eigentlichen Sinne hatte, wurden im Verlauf wesentliche Entscheidungen getroffen, die den Projektverlauf bestimmten. Die Abkehr vom SMA‑Ansatz zugunsten elektromagnetischer Aktuatoren war dabei die wichtigste technische Weichenstellung, da sie die Zuverlässigkeit und Reproduzierbarkeit der Bewegungen deutlich erhöhte. Ebenfalls zentral war die Entscheidung, Radar‑Sensorik einzusetzen, da dies die emotionale Erfassung ohne Tragen eines Wearables ermöglicht – ein entscheidendes Kriterium für Fahrzeuginteriors. Softwareseitig war die Eigenentwicklung eines stabilen Auswertungssystems durch ein Teammitglied maßgeblich, um multimodale Inputdaten in Echtzeit für die mechanische Ausgabe nutzbar zu machen.
Insgesamt demonstriert ein Cinetic Panel das Potenzial, emotionale Daten nicht nur als Informationsquelle, sondern als Auslöser für körperlich wahrnehmbare, regulierende Interaktionen zu nutzen. Das Projekt zeigt, wie textile Oberflächen als adaptive Schnittstellen fungieren können, die sowohl physisch als auch emotional auf die Bedürfnisse von Fahrenden eingehen. Durch die Integration multimodaler Sensorik, präziser mechanischer Aktuation und textiler Materialität eröffnet das Konzept neue Perspektiven für die Gestaltung empathischer Fahrzeuginnenräume und zukünftiger human‑zentrierter Mobilitätssysteme.
We identified an opportunity within the Synaptic Surfaces course to develop an experimental research project situated at the intersection of human–machine interaction, affective computing, and textile‑based kinetics in automotive interiors. The objective was to design an interface that does not merely mirror emotional states but actively contributes to emotional co‑regulation. The project is grounded in the observation that strong emotions—such as anger, stress, exhaustion, or sadness—can lead to impaired decision‑making, inattention, or overwhelm, particularly on long-distance drives. Instead of simply alerting the driver, the project proposes to position the interior itself as a supportive micro‑agent: a surface that provides subtle, meditative rhythms as a form of emotional stabilization.
The conceptual foundation is a multimodal biosignal pipeline that integrates internal physiological states with outwardly visible expressions. Radar sensing enables non‑invasive measurement of heart rate, heart rate variability, and micro‑movements of the thorax. This allows the detection of respiratory rate, depth, and rhythm without bodily contact—an essential advantage in vehicular contexts. In parallel, a camera system employs convolutional neural networks to analyze eye openness, gaze direction, lip and eyebrow tension, and micro‑dynamics of the face. This combined approach enhances differentiation accuracy, such as distinguishing elevated heart rate caused by anger from that caused by positive arousal.
The emotional classification focuses on five states that can be clearly distinguished based on physiological parameters and established research: anger, stress/anxiety, sadness, joy, and exhaustion. Each state corresponds to a characteristic pattern of arousal, facial markers, and cardiorespiratory signals. Anger, for example, is associated with elevated heart rate, reduced HRV, and facial tension, while joy is marked by high HRV and relaxed, symmetrical expressions. Such distinctions are essential for generating mechanical responses that are not arbitrary, but purposefully regulatory.
Mechanical output is produced through a kinetic textile surface that generates movement patterns with physiologically calming effects. During the early experimentation phase, various approaches were tested—most notably shape‑memory alloys (SMA) in different wire configurations. However, these proved unreliable, difficult to control, and materially fragile in practice. The team therefore opted for electromagnetic actuators, which provide controllable linear motion, fast response times, and robust microcontroller‑based operation. A custom lever mechanism amplifies the movement range, making a 10‑mm actuator stroke sufficient to visibly deform the textile surface.
The final prototype has a diameter of 70 cm and consists of a series of concentric rings that facilitate the transfer of localized lever movements to the textile top layer. The selection of a seamless 4‑way‑stretch material (Lycra lacquer) creates a homogeneous, organic surface without visible transitions. Nine electromagnets are positioned beneath the fabric, lifting specific points vertically. The primary focus was not on defining a final aesthetic, but on demonstrating a reliable, scalable mechanical principle.
The system architecture follows a modular logic. Radar and camera sensors capture the input data, which are processed on a Raspberry Pi 4 for emotional inference. The resulting values are sent to an Arduino Mega via serial communication, which then controls the electromagnetic actuators and generates the corresponding motion patterns. These patterns are only activated during acute emotional states. The surface remains neutral under normal conditions and intervenes only when physiological parameters move outside predefined thresholds. Future iterations will include a standardized regulatory breathing pattern—such as a 4‑4‑4 rhythm—to provide drivers with a scientifically validated form of physiological calming.
The development process was characterized by iterative experimentation. While no major technical problems occurred, several decisions critically shaped the project’s trajectory. The shift away from SMA toward electromagnetic actuation was the most consequential, significantly improving reliability and reproducibility. Equally important was the decision to use radar sensing, enabling emotional assessment without wearables—a decisive factor for automotive integration. On the software side, the custom development of a stable real‑time evaluation system by a team member was essential for integrating multimodal inputs into mechanically expressive outputs.
Overall, the Cinetic Panel demonstrates the potential of emotional data not only as information but as a trigger for perceptible, regulatory interactions. The project illustrates how textile surfaces can function as adaptive interfaces that respond physically and emotionally to the needs of the driver. Through the integration of multimodal sensing, precise mechanical actuation, and textile materiality, the concept opens new directions for designing empathic vehicle interiors and future human-centered mobility systems.
Danke an Virginia Binsch, Manuel Kretzer, Kristian Gohlke, Mike Herbig, Thomas Wiesel, Melanie, Louis und allen weiteren helfenden Händen, Augen und Ohren, die unser Projekt voran gebracht haben und durch die wir neue Perspektiven kennenlernen konnten.