In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
Wir sind räumliche Wesen. Unsere Wahrnehmung, unser Gedächtnis und unsere Intelligenz sind tief mit dem Körper verbunden: Wir orientieren uns im Raum, wir merken uns Dinge über Bewegungsabläufe, wir vertrauen auf die Informationen unserer Muskeln. Diese körperliche Verankerung entlastet unser Gedächtnis und schafft Raum für andere Gedanken. Routinen wie das „blinde“ Hantieren mit vertrauten Objekten zeigen, dass Handhabung selbst eine Form von Wissen ist – eine Art stiller Erinnerung, die ohne Sprache oder Bildschirm auskommt.
Doch während unser Alltag zunehmend von Displays geprägt ist, stoßen wir dabei auch an Grenzen: Bildschirme reduzieren komplexe Sinneserfahrungen auf Tippen und Wischen. Sie blenden den Körper aus, obwohl er unser wesentlichstes Interface ist. Wie also können wir Interaktionen so gestalten, dass sie die räumliche und physische Intelligenz des Menschen nutzen – und nicht verdrängen?
Genau hier setzt das Projekt an. Es untersucht, wie Produkte und digitale Anwendungen zu hybriden Dingen verschmelzen können, die nicht nur visuell, sondern auch körperlich erfahrbar sind. Eine App wird selbst als physischen Objekt verstanden.
Dafür wollen wir die Verortung von Objekten untersuchen: Jedes Ding besitzt seinen Aktionsradius und Kontext, jede Wohnung bildet ein unsichtbares Mapping unserer Bewegungen und Routinen. Welche Ortungsprinzipien sind denkbar – Nachbarschaft, Nähe, Berührung, Bewegung, Zeit? Welche Informationen können Objekte bereits während der Handhabung sammeln – Muster, Dauer, Kombinationen? Und wie lassen sich diese Informationen nutzen, um Handlungen zu antizipieren und Objekte reagieren zu lassen?
Das Projekt, das in Kollaboration mit dem eLAB stattfindet, versteht sich als Labor für neue Formen des Interagierens. Es sucht nach Wegen, wie Objekte und digitale Systeme nicht länger unsere Aufmerksamkeit auf Bildschirme lenken, sondern im Gegenteil unser räumliches, körperliches Wissen aktivieren. Ziel ist es, Dinge zu entwerfen, die unsere Wahrnehmung ernst nehmen, unseren Alltag vereinfachen und inklusiver machen – und dabei zeigen, dass das Zusammenwirken von Körper, Raum und Technologie eine Zukunft voller intuitiver, ästhetischer und inspirierender Erfahrungen eröffnen kann.
Das Projekt bietet workshops zu dem Basics der App-Gestaltung in Figma, sowie weiterer relevanter Prototypierungswerkzeuge wie Proto Pie und Arduino, um eigene Konzeptideen erfahrbar zu machen und prototypisch umzusetzen. Es sind keine Vorkenntnisse im Programmieren erforderlich.
Die projektinternen Monday-Talks fokussieren ebenfalls auf UX: Gäste sind u.a. Johannes Schmidt, Yu-Chun Hsiao, Mathias Kuhn (Head of UX/UI Design Volkswagen, Georg Klöck (Digital Product Design Director Ford ), Ariane Jäger (Gründerin Usetree), Meret Sonnenschein (IBM), Robin Hoske (Studio Wint), Lucas Rex (EdenSpiekermann)
We are spatial beings. Our perception, memory, and intelligence are deeply connected to the body: we orient ourselves in space, we remember things through movement sequences, we trust the information our muscles provide us with. This physical anchoring relieves our memory and creates space for other thoughts. Routines such as “blind” handling of familiar objects show that handling itself is a form of knowledge—a kind of silent memory that does not require language or a screen.
But while our everyday lives are increasingly dominated by displays, we are also reaching our limits: screens reduce complex sensory experiences to tapping and swiping. They ignore the body, even though it is our most essential interface. So how can we design interactions that utilize human spatial and physical intelligence—rather than suppressing it?
This is precisely where the project comes in. It investigates how products and digital applications can merge into hybrid objects that can be experienced not only visually but also physically. An app is itself understood as a physical object.
To this end, we want to examine the location of objects: every thing has its own radius of action and context; every home forms an invisible mapping of our movements and routines. What location principles are conceivable—neighborhood, proximity, touch, movement, time? What information can objects collect during handling – patterns, duration, combinations? And how can this information be used to anticipate actions and make objects react?
The project, which is being carried out in collaboration with eLAB, sees itself as a laboratory for new forms of interaction. It seeks ways in which objects and digital systems no longer draw our attention to screens, but instead activate our spatial, physical knowledge. The aim is to design things that take our perception seriously, simplify our everyday lives, and make them more inclusive—while showing that the interaction of body, space, and technology can open up a future full of intuitive, aesthetic, and inspiring experiences.
The project offers workshops on the basics of app design in Figma, as well as other relevant prototyping tools such as Proto Pie and Arduino, to help participants experience their own concept ideas and implement them as prototypes. No prior programming knowledge is required.
The project's internal Monday Talks also focus on UX: Guests include Johannes Schmidt, Yu-Chun Hsiao, Mathias Kuhn (Head of UX/UI Design at Volkswagen), Georg Klöck (Digital Product Design Director at Ford), Ariane Jäger (founder of Usetree), Meret Sonnenschein (IBM), and Robin Hoske (Studio Wint), Lucas Rex (EdenSpiekermann)
Produkt-Design
Entwurfsprojekt
Wintersemester 2025 / 2026
Montag, 14:00 – 19:00
Mittwoch, 10:00 – 13:00
Präsentation und Dokumentation des Prozesses und der Ergebnisse
eLab + Flughalle
August 2030