#12months12papers #1

Duet: Exploring Joint Interactions on a Smart Phone and a Smart Watch

Xiang „Anthony“ Chen, Tovi Grossman, Daniel Wigdor, George Fitzmaurice; CHI14, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems; Pages 159-168

Das Smartphone ja doch für viele Menschen unverzichtbar. Der Siegeszug der Smartwatch steht (vielleicht) noch an. Was der Smartwatch meiner Meinung nach fehlt, sind wirklich praktische Anwendungen und sinnvolle Anwendungsfälle. Als Spielzeug ist sind die Geräte ja ganz nett. Als wirklich nützliche Ergänzung im Alltag eher so meeeeh. Die Nutzung der Smartwatch nur als Anzeige oder nur als Fernbedienung für das Smartphone ist imho nicht ausreichend, um einen Durchbruch zu garantieren.

Bezogen auf die Interaktion des Menschen mit den smarten Geräten ist seit dem Siegeszuges des iPhones und damit des Touchscreens wenig passiert. Wir wischen und drücken mit einem oder mehreren Fingern über die Displays. Und das seit knapp acht Jahren. Mehr nicht. Sprachsteuerung hat sich noch nicht wirklich durchgesetzt. OK, hier ein Stift, da eventuell mal ein Schütteln. Aber das war es dann auch schon.
Chen et al. versuchen dieses Paradigma mit Duet auf zu brechen: die Smartwatch soll mit einem Smartphone kombiniert werden. Und das nicht nur in der Art und Weise, dass die Uhr Information des Telefons anzeigt, sondern es werden Interaktionsformen vorgestellt, die explizit beide Geräte erfordern. Und diese eignen sich natürlich super für Aufgaben, die beide Geräte erfordern.

Im verlinkten Artikel wird deswegen ein Set von dualen Gesten entwickelt, Anwendungsfälle für diese vorgestellt und dann bzgl. der Genauigkeit und subjektiver Nützlichkeit durch eine Studie evaluiert.

Die Gesten basieren auf zwei grundsätzlichen Modalitäten:
1. Der räumlichen Position und Orientierung der Geräte
2. Toucheingaben an den Geräten.

Mit der Verknüpfung von diesen Modalitäten wird ein Set von Gesten entwickelt um Aufgaben wie „Bildschirm sperren/entsperren“ oder „Benachrichtungen verwalten“ einfacher zu gestalten und bzw. die Interaktion natürlicher zu gestalten.

Um genauer zu werden ein paar einfache Beispiele:

Aufgabe: Alle Notifications sollen auf der Uhr ankommen
Das Smartphone wird mit der Hand gehalten, die sich auf der Seite befindet, auf der auch die Smartwatch getragen wird. Jetzt muss vom oberen rechten Eck des Smartphones zur unteren linken Ecke gewischt werden. Die Geste wird dann vollendet, in dem ohne (lange) Pause vom oberen rechten Bereich der Uhr weiter zum unteren linken Bereich gewischt wird.

Hier kann ein Nachteil der Technik erkannt werden: Die Uhr muss so getragen werden, dass ihr Display auf der Seite der Handinnenfläche ist. Macht ja nicht jeder Mensch so. Haben die Autoren aber erkannt und versprechen weitere Maßnahmen.

Aufgabe: Handy entsperren.
Der Mensch nimmt das Gerät mit der Hand, an der er die Uhr trägt, aus der Tasche. Jetzt dreht er das Handgelenk mitsamt Uhr und Telefon um ca. 45°hin und zurück (Achse: Ellenbogen) und tippt zweimal auf das Gerät. Die synchronisierte Bewegung von Uhr und Telefon authentifiziert den Nutzer bzw. die Nutzerin und der Tipp bestätigt, dass tatsächlich „Entsperren“ gewünscht ist.

Fand‘ ich auch ziemlich gut. Die Autoren auch. Jedenfalls auf dem Papier. In der Studie stellte sich dann heraus, dass die Leute gar nicht mal so zufrieden damit waren. Zu umständlich. Tja.

Aufgabe: Kartenanwendung (Maps etc.) steuern
Auf dem Smartphone kann gewischt werden um den Ausschnitt zu bewegen und zu zoomen. Alle anderen Kontrollfunktionen wie z.B. die Ansicht umschalten, die Suche aktivieren oder die Routenplanung starten kann auf der Uhr geschehen. So bleibt mehr Platz für die Karte auf dem Device und die Steuerung ist immer noch (räumlich) nahe beisammen.

Macht alles ziemlich Sinn. Der Platz auf dem Smartphone-Screen wird gut genutzt und einfache Steuerfunktionen sind auf der Uhr gut aufgehoben. Trotzdem bleiben die Orientierungs- und Navigationsaufagben genau dort wo sie hingehören: auf der Karte. Kam in der Studie gut an. Und bei mir auch.

Zudem kann mit den beiden Geräte das Standardgestenset erweitert werden indem erkannt werden kann, ob mit der Fingerkuppe, der Knöchel oder der Seitenfläche des Fingers ein Touchevent ausgelöst wird. Hierzu wird die Orientierung der Uhr verarbeitet. Das kann einerseits die Steuerung vereinfachen, verlangt aber auch, dass der Mensch sich mehr Gesten merken muss.

Die Idee, Interaktionen zu kombinieren finde ich ziemlich cool. Vor allem Aufgaben die tatsächlich auch beide Geräte – also Smartwatch und Smartphone – einbeziehen bzw. erfordern, können super durch das vorgestellte Gestenset gesteuert werden. Das Beispiel mit den Benachrichtigungen fand ich super gut. Aber denkbar ist diese Form der Interaktion für Anwendung um das momentan vorhandene Gestenset zu erweitern (vgl. Maps) und die Interaktion und Präsentation zu verbessern. Sofort fällt mir da Video- und Fotobearbeitung ein. Duet erweitert den Einsatz der Smartwatch ungemein und kann durchaus dazu beitragen, die intelligenten Uhren zum Kassenschlager zu machen. Und das ohne sie mit Technik und damit Gewicht zu beschweren.

Der Artikel ist ziemlich super geschrieben, und die Ideen die präsentiert werden, erschließen sich einem sofort. Kann ich sehr empfehlen! Kudos an die Autoren.

Was meint ihr? Fallen euch noch tolle Anwendungsfälle ein? Oder ist das alles totaler Blödsinn?

PS.
Die Reihe #12months12papers ist einer meiner Vorsätze für 2015. Das ganze wird eine Serie von zwölf Artikeln. Ich suche mir jeden Monat ein Paper aus, dass den Best-Paper-Award einer Konferenz gewonnen hat und stelle es vor. Mehr nicht. Danke.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s