Multimodales Design und Development am Beispiel Voice User Interfaces

Die Verbreitung von Sprachassistenten nimmt rasant zu. Integriert in Smartphones, Autos oder als Smart Speaker im eigenen Haushalt sind sie als unsichtbare Interfaces mittlerweile allgegenwärtig. Dabei spielen Voice User Interfaces (VUI) sowohl im privaten Kontext, als auch in vielen Industriezweigen eine immer größere Rolle.

Wie gestaltet man nun aber Voice User Interfaces? Wie sehen die Anforderungen für ein unsichtbares Interface aus? Was für Know-how über die zugrunde liegende Technologie muss in die Gestaltung einfließen?
 
Wenn gesprochene Sprache das Bedienelement ist, dann stehen Digital Designer gerade im Requirements Engineering vor vielen neuen Herausforderungen. Während es bei Graphical User Interfaces (GUIs) jahrelang erprobte Designparadigmen und -praktiken gibt, ist der Designprozess im VUI-Kontext stark durch Trial and Error geprägt. Es existiert kein Baukastenprinzip. Und anders als bei Interfaces mit einer sichtbaren Oberfläche können Nutzende Bedienmuster eines VUI schwerer erlernen. Dieser Paradigmenwechsel zwingt zum Umdenken bei der Definition, dem Design und Umsetzen von Anforderungen.

  • Wie gestaltet man einen Dialogverlauf, der sich möglichst natürlich anfühlt und gleichzeitig Nutzende möglichst schnell an ihr Ziel bringt?
  • Wie integriert man nicht funktionale Anforderungen im Kontext Sprache?
  • Und wie schafft man es, ein Spracherlebnis zu schaffen, das mehr bietet als ein monotones: "Wenn Sie mit einem Servicemitarbeiter verbunden werden wollen, sagen Sie jetzt bitte Ja."?
Voice User Interfaces kommen selten allein. Sprechen erlaubt Multitasking, weil die Hände nicht blockiert sind. Gerade deswegen findet man VUIs oft im Smarthome, Auto und in der Industrie wieder. Erst in der Interaktion mit anderen Geräten und Interfaces entfachen sie ihr volles Potenzial. Auch in Hinblick auf Barrierefreiheit. So ermöglichen VUIs Anforderungen neu zu denken und Use Cases zu erweitern.

  • Wie sollten Voice User Interfaces, Smartphone Apps und physische Endgeräte am sinnvollsten miteinander interagieren?
  • VUI vs. GUI vs. Touch-Display vs. haptischer Drehknopf am Endgerät. Wann macht es Sinn ein VUI in die Customer Journey zu integrieren oder besser auf ein anderes Bedienelement zuzugreifen?
  • Welche Anforderungen an das VUI gibt es im Kontext der Multimodalität?

    Aus unseren Projekterfahrungen wollen wir Antworten anbieten und Denkanstöße geben.

Speaker

 

Raffael Link
Raffael Link arbeitet als Software Engineer bei MaibornWolff. Als erfahrener Full-Stack-Entwickler wirkte er bereits in diversen IT-Projekten mit. In seinem letzten Projekt war er maßgeblich an der Implementierung einer Voice-Applikation beteiligt, die über Cloud-Technologien mit smarten Haushaltsgeräten interagiert. Mit Begeisterung beschäftigt er sich seither mit der Entwicklung von Sprachassistenten und deren Schnittstellen. Die Abstimmung zwischen fachlichen Anforderungen, User Experience und der technischen Umsetzung liegt ihm dabei besonders am Herzen.

Matthias Linse
Matthias Linse ist Digital Designer bei MaibornWolff und seit über fünf Jahren in IT-Projekten namhafter Kunden tätig. Innerhalb eines dieser Projekte zur Sprachsteuerung smarter Haushaltsgeräte entdeckte er seine Leidenschaft für Voice User Interfaces und Multimodalität. Über mehrere Jahre konnte er hier bereits praktische Erfahrungen zu Erfolgsfaktoren und Herausforderungen von multimodalem Design sammeln. Als Wirtschaftsinformatiker mit einem Faible für Design und Management begeistert ihn das Zusammenspiel aus Fachlichkeit, Technik und Methodik.

Newsletter Digital Design & UX

Ihr möchtet über die Digital Design & UX Next
auf dem Laufenden gehalten werden?

 

Anmelden