Beweglicher Touchscreen erlaubt neue Gesten

12. Mai 2012, 10:40 Uhr | Archiv

Forscher der Carnegie Mellon University arbeiten an einem Touchscreen, der durch bessere Druckempfindlichkeit und Bewegungserkennung die Verwendung neuer Bediengesten ermöglicht. Dank des „Shear Input“-Konzepts soll es möglich werden, Anwendungen mit weniger Onscreen-Menüelementen zu entwerfen und wertvollen Platz auf dem Display freizumachen. Uwe Laufs, Wissenschaftler am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO), sieht durchaus Potenzial für diesen Ansatz.

Shear Input: Druck- und Bewegungserkennung erlaubt neue Gesten - (Foto: cmu.edu)

Der Shear-Touch-Prototyp besteht aus einem rund sieben Zoll großen Touchscreen, der sich bei größerem Druck mehrere Millimeter weit in alle Richtungen bewegen lässt. Anhand verschiedener Programme demonstrieren die Entwickler verschiedene Verwendungsmöglichkeiten der Technologie.

So ist es damit möglich, Zeichen- und Skizzierprogramme um Schnellauswahlbefehle und andere Features zu bereichern. In einem Dateimanager lassen sich die neuen Gesten einsetzen, um Dateien nach Drag-and-Drop-Prinzip zu duplizieren. In der Textverarbeitung wäre das schnelle Kopieren von Textelementen an andere Stellen möglich, ohne dafür Umwege über zusätzliche Menüs nehmen zu müssen.

„Die Entwicklung ist nicht ganz neu“, merkt Laufs an. „Vor dem Touchscreen-Zeitalter gab es optische Systeme, die mit Kameras gearbeitet haben und den Anpressdruck erkennen konnten. Als Entwicklung für mobile Geräte hat so etwas durchaus Potenzial“, urteilt der Experte. Zwar ermöglichen Touchoberflächen relativ umfassende Bedienung von Geräten unterwegs, sie sind aber im Vergleich mit Maus und Tastatur immer noch relativ eingeschränkt, so sein Attest.

Während der Prototyp für dieses System noch relativ rustikal aussieht, geht der Medieninformatiker vom IAO davon aus, dass eine marktreife Version auch ohne beweglicher Teile auskommen könnte. „Ich denke, so etwas könnte sich auch über mehrere Drucksensoren und entsprechende Software realisieren lassen.“

Die Zukunft des Touchinterfaces sieht er in der Multimodalität, da diese Bedienform alleine zu limitiert ist. „Man kann verschiedene Sensoren intelligent zur Unterstützung heranziehen. Ein Beispiel wäre das Eyetracking-System des Samsung Galaxy S3, das erkennen kann, ob der User gerade auf das Display sieht und diese Information in die Energiesteuerung miteinbezieht“, so der Experte.

Ebenfalls geforscht wird an Touchbildschirmen mit Haptik-Features, die verschiedene Oberflächeneigenschaften simulieren und damit eine Onscreen-Tastatur ertastbar machen können. Seiner Einschätzung nach wird es jedoch noch einige Jahre dauern, bis diese Technologie für den Markt bereit ist.

Eine weitere Tendenz ist das Auslagern der Bedienung in Form von Augmented Reality. „Es gibt mittlerweile schon verschiedene Ansätze, das Interface vom Gerät zu entkoppeln und auf den Benutzer oder um ihn herum zu legen. Ein Beispiel dafür wäre das Touché-System, das aktuell von Disney entwickelt wird“, ergänzt Forscher Leif Oppermann vom Fraunhofer-Institut für Angewandte Informationstechnik (FIT).

(via Georg Pichler | Quelle: pressetext.com)

Über den Autor

Marco Schürmann

0 Kommentare


Was meinen Sie zu diesem Thema?

Wir freuen uns über Ihren Kommentar.

Schreibe einen Kommentar

* Pflichtangaben; Ihre E-Mail-Adresse wird nicht veröffentlicht.
 

Copyright

Copyright 2015 Bernd Zipper, zipcon consulting GmbH

Archiv