Natural User Interface

Natural User Interface
QS-Informatik

Dieser Artikel wurde aufgrund von inhaltlichen Mängeln auf der Qualitätssicherungsseite der Redaktion Informatik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Informatik auf ein akzeptables Niveau zu bringen. Hilf mit, die inhaltlichen Mängel dieses Artikels zu beseitigen und beteilige dich an der Diskussion! (+)

Natural User Interfaces (NUI) oder „Reality Based User Interfaces" ermöglichen dem Nutzer eine direkte Interaktion mit der Bedienoberfläche durch Wischen, Tippen oder Berühren. Natürliche Benutzungsoberflächen wie Touchscreens sind berührempfindlich und reagieren auf Finger- und Handbewegungen. Man spricht in diesem Zusammenhang auch von gestenbasierter Bedienung.

Durch die Entwicklung von Touchscreens haben sich die bisherigen Bedienmuster von grafischen Oberflächen (GUI) stark verändert. Während bisher künstliche Eingabegeräte, wie eine Tastatur oder eine Maus zur Interaktion nötig waren, genügt nun eine Fingerberührung. Das Apple iPhone, aber auch Fahrkartenschalter oder Bankautomaten nutzen diese direkte Form der Bedienung.

Da das Berühren und Beeinflussen der virtuellen Objekte nahezu in gleicher Weise wie das realer Objekte funktioniert, fällt es Nutzern leicht, Handlungen aus dem Alltag in das digitale System zu übertragen. Durch Handlungen in der realen alltäglichen Umwelt können Parallelen zu den virtuellen Objekten gezogen und Handlungsweisen übertragen werden. Es werden also bereits bestehende Wissensstrukturen aktiviert und Vorwissen angewandt. Die Entwicklung weg von Eingabegeräten wie einer Maus und hin zu Multi-Touch bringt die reale und die virtuelle Welt näher zusammen. Objekte werden nicht mehr durch Befehle an den Computer beeinflusst, sondern selbst in die Hand genommen. Dieser Ansatz wird ‘Reality-Based Interaction’ (RBI) genannt und dient als Grundlage für die Gestaltung von Multi-Touch-Applikationen. [1]

Verschiedene vorbestimmte Interaktionsmöglichkeiten, sogenannte ‘patterns’, wie zum Beispiel das Skalieren, Verschieben und Drehen von Bildern oder das Scrollen von Informationen, erlauben es dem Nutzer mit dem Gerät und der Software direkt über das Interface zu agieren.

NUI ermöglicht dem Menschen einen sehr viel natürlicheren Umgang mit Interaktionen und bedeutet eine Erweiterung des bisher beschränkten künstlichen Umgangs mit technischen Interfaces.

Inhaltsverzeichnis

Entwicklung

Die ersten Versuche zur Entwicklung berührempfindlicher Eingabegeräte begannen bereits in den 50er Jahren. Der kanadische Wissenschaftler Hugh Le Caine entwickelt zwischen 1945 und 1948 den ersten spannungsgesteuerten Synthesizer, der über berührempfindliche Tasten verfügt, mit denen zum Beispiel Klangfarbe und Frequenz des Synthesizers eingestellt werden können. [2]

Von Mitte der 1960er Jahre bis zum Jahre 1971 werden verschiedene Touchscreen-Techniken unter anderem von IBM und der University of Illinois entwickelt. So beispielsweise ‘PLATO IV’, ein Touchscreen-Terminal aus dem Jahre 1972. Es arbeitet mit einem Vorläufer der heute gängigen optischen Infrarot-Technologie. [3]

1982 entwickelt Nimish Mehta an der University of Toronto das erste Multi-Touch-System. Das sogenannte ‘Flexible Machine Interface’ ermöglicht es dem Nutzer durch Druck auf den Bildschirm mit dem Finger einfache Grafiken zu zeichnen. [4]

1990 wird der ‘Sensor Cube’ als Nachfolger des ‘Sensor Frame’ der Carnegie Mellon University aus dem Jahre 1985 in Zusammenarbeit mit der NASA entwickelt. Sein optisches System ist in der Lage, den Winkel des Fingers zum Touchscreen zu erkennen. [5]

Das im Jahr 1991 von Pierre Wellner bei Rank Xerox EuroPARC entwickelte ‘Digital Desk’ setzt zum ersten Mal eine Interaktion, wie das Skalieren von Objekten ein, welche mit zwei Fingern durchgeführt werden kann. [6]

Im Jahr 1994 erscheint das erste Mobiltelefon mit Touchscreen auf dem Markt. ‘Simon’ wird von IBM und Bell South entwickelt und kann als früher Vorläufer des iPhone und anderer Smartphones der heutigen Zeit betrachtet werden. [7]

Die Input Research Group der University of Toronto stellt 1995 ein ‘Tangible Interface’ vor, welches verschiedene Objekte unterscheiden sowie deren Ort und deren Drehung auf einem Display erkennen kann. So können mit realen physikalischen Objekten, graphische Objekte des Displays bewegt und beeinflusst werden. [8]

Der von Mitsubishi Research Labs 2001 entwickelte Touchscreen ‘Diamond Touch’ erkennt zeitgleiche Bildschirmberührungen mehrerer Personen und kann deren Ort und Druck auseinander halten. [9]

Jeff Han stellt auf der TED-Konferenz 2006 in Monterey, Kalifornien, einen Multi-Touch-Screen mit verschiedenen Funktionen wie Bewegen und Drehen von Objekten, Farbänderungen je nach Fingerdruck, Zoomen und Sortieren von Bildern und vielen weiteren Applikationen vor. [10]

2007 präsentiert Apple das bisher bekannteste Beispiel eines Multi-Touch-Gerätes, das iPhone. Über ein Multi-Touch-Display kann der Nutzer E-Mails und SMS schreiben und durch Inhalte des Terminkalenders, Musik und Bilder navigieren.

Im selben Jahr stellt Microsoft den interaktiven Multi-Touch-Tisch MS Surface vor. Der Nutzer kann auf der Tischoberfläche mit digitalen Inhalten und Objekten durch Handbewegungen und Berührungen auf interagieren.

Windows 7: Microsoft bringt 2009 mit Windows 7 und der integrierten Funktion „Windows Touch“ ein Betriebssystem auf den Markt, das die Nutzung der der Mehrfingereingabe ermöglicht. [11]

Technologie

Unabhängig von der Technologie zur Registrierung eines Berührpunktes („touch event“), verwenden alle Systeme als Grundlage ihrer Hardware drei verschiedene Bestandteile: Sensoren, Komparatoren und Aktoren. Sensoren registrieren Veränderungen des Systems und bestimmen durch ihre Empfindlichkeit und Reichweite die verwendbaren Interaktionen eines Multi-Touch-Screen. Aufgabe der Komparatoren ist es, einen Zustandsvergleich durchzuführen. Der Zustand des Systems nach der Interaktion wird mit dem Zustand des Systems vor der Interaktion verglichen und der Komparator entscheidet, welche Auswirkungen die durchgeführten Interaktionen haben. Dies wird an die Aktoren weitergegeben und als tatsächliche Handlung ausgeführt. [12] Komparatoren und Aktoren treten in Form von Software auf. Sensortechniken kann man in die folgenden Technologien unterscheiden:

Resistive Technologie: Ein resistiver Touchscreens arbeitet mit zwei Folien, die jeweils mit einer leitfähigen Beschichtung versehen sind. Durch Druck berühren sich die beiden Folien und ein elektrischer Kontakt entsteht. Durch den Spannungsabfall innerhalb der Widerstandsmatrix können die Koordinaten des Berührpunktes ermittelt werden.

Kapazitive Technologie: Bei kapazitiven Touchscreens wird eine Glasscheibe mit einer leitfähigen metallischen Beschichtung verwendet. Über dieser ist ein leitfähiger Polyester-Film angebracht. Durch die Berührung der Oberfläche wird das elektrische Feld geändert. Der dabei abgeleitete Strom ist proportional zum Abstand der angelegten Spannungen und des Berührpunktes, wodurch seine Koordinaten berechnet werden können.

Oberflächenwellentechnologie: Erkennung der touch events erfolgt über Ultraschall und akustische Pulserkennung.

Optische Systeme: Erkennung der touch events erfolgt durch den Einsatz von Infrarotlicht und -kameras.

Aktuelle Beispiele für Natural User Interfaces

Apple iPhone Einer der momentan wohl populärsten Vertreter der Multi-Touch-Geräte ist das Apple iPhone. 2008 brachte Apple die neueste Version des Allrounders auf den Markt –Das iPhone 3G. Über ein kapazitives System werden Berührungen des Bildschirms erfasst und so das Scrollen durch Bilder- und Musikdatenbanken mit CoverFlow, das eigene Adressbuch oder das Hineinzoomen in Landkarten und Webseiten ermöglicht. Neben einer Tastatur, die sich an die jeweilig verwendete Applikation anpasst, und damit Platz auf dem Multi-Touch-Screen einspart, verfügt das iPhone über einen Bewegungssensor, der die Lage des Telefons erkennt und den Bildschirminhalt danach ausrichtet. Weitere Sensoren registrieren die Lichtverhältnisse der Umgebung und passen die Display-Helligkeit dementsprechend an. [13]

Apple iPad Der erste Tablet-Rechner von Apple wurde 2010 vorgestellt und wir bis auf wenige Hardware-Tasten am Gerät ausschließlich mit den Fingern über den 10" großen berührungsempfindlichen Bildschirm bedient. In weniger als einem Jahr (Stand Januar 2011) konnte Apple mehr als 15 Millionen Geräte verkaufen und begründete damit eine neue Kategorie von Rechnern.

Microsoft Surface Der Multi-Touch-Tisch Microsoft Surface erkennt neben Gesten auch Objekte, die seine Oberfläche berühren und kann mit ihnen interagieren. Der MS Surface ermöglicht durch das gleichzeitige Erkennen von über 52 Berührpunkten und sein 360-Grad-User-Interface auch die Nutzung in größeren Gruppen. Der MS Surface setzt sich aus einem PC, einem optischen System, einem Projektor sowie einer stabilen Tischplatte zusammen. Ein Projektor, der von unten direkt auf die Plexiglas-Oberfläche gerichtet ist, wirft das Bild. Infrarot-LEDs leuchten die Oberfläche gleichmäßig aus. Fünf Infrarotkameras nehmen Berührungen des Bildschirms wahr, indem sie das auf der Oberfläche reflektierte Licht erfassen.

Forschung

In den letzten Jahren erschienen vermehrt wissenschaftliche Studien zu Interaktionen auf Multi-Touch-Screens und zur Verbesserung der bestehenden Technik. Forscher wie Hrvoje Benko von der Columbia University und Microsoft Research oder Tomer Moscovich von der Brown University beschäftigen sich mit Themen wie der präzisen Auswahl und Erkennung von Objekten und Berührpunkten auf Touchscreens [14]

Eine aktuelle Studie der Hochschule der Medien Stuttgart und der User Interface Design GmbH bestätigt die Intuitivität der gestenbasierten Bedienung. Die Ergebnisse der Studie zeigen, dass die Interaktion mit Multi-Touch-Geräten wie dem MS Surface für junge und ältere Nutzer gleichermaßen leicht zu verstehen ist und den Nutzern kaum Probleme bereitet.

Siehe auch

Weblinks

Einzelnachweise

  1. Girouard, A., Hirshfield, L., Horn, M., Jacob, R., Shaer, O., Solovey, E. & Zigelbaum, J. (2008). Reality-Based Interaction: A Framework for Post-WIMP Interfaces. In ACM (Ed.), Proceeding of the twentysixth annual SIGCHI conference on Human factors in computing systems (pp. 201-210). New York: ACM.
  2. Young, G. (1999). Hugh LeCaine. Zugriff am 21. Dezember 2009 unter http://www.hughlecaine.com/en/biography.html.
  3. Buxton, W. (2009). Multi-Touch Systems that I have known and loved. Zugriff am 21. Dezember 2009 unter http://www.billbuxton.com/multitouchOverview.html.
  4. Saffer, D. (2009). Designing Gestural Interfaces. Köln: O’Reilly, S.8.
  5. Buxton, W. (2009). Multi-Touch Systems that I have known and loved. Zugriff am 21. Dezember 2009 unter http://www.billbuxton.com/multitouchOverview.html.
  6. Buxton, W. (2009). Multi-Touch Systems that I have known and loved. Zugriff am 21. Dezember 2009 unter http://www.billbuxton.com/multitouchOverview.html.
  7. Saffer, D. (2009). Designing Gestural Interfaces. Köln: O’Reilly, S. 10.
  8. Buxton, W. (2009). Multi-Touch Systems that I have known and loved. Zugriff am 21. Dezember 2009 unter http://www.billbuxton.com/multitouchOverview.html.
  9. Mitsubishi (2002). DiamondTouch SDK: Support for Multi-User, Multi-Touch Applications. Zugriff am 21. Dezember 2009 unter http://www.merl.com/publications/TR2002-048/
  10. TED (2006). Zugriff am 12. Februar 2010 unter http://www.ted.com/talks/jeff_han_demos_his_breakthrough_touchscreen.html.
  11. Windows 7 (2009): Zugriff am 21. Dezember 2009 unter http://windows.microsoft.com/de-DE/windows7/products/features/windows-touch
  12. Saffer, D. (2009). Designing Gestural Interfaces. Köln: O’Reilly.
  13. Apple (2009): Zugriff am 21. Dezember 2009 unter http://www.apple.com/de/iphone/iphone-3gs/
  14. Buxton, W. (2009). Multi-Touch Systems that I have known and loved. Zugriff am 21. Dezember 2009 unter http://www.billbuxton.com/multitouchOverview.html.

Wikimedia Foundation.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Natural User Interface — (NUI) is an innovative emerging technology company specializing in advanced multi touch software and service solutions, located in Skelleftea, Sweden. NUI s solutions can convert an ordinary surface into an interactive, appealing and intelligent… …   Wikipedia

  • Natural user interface — In computing, a natural user interface, or NUI, is the common parlance used by designers and developers of computer interfaces to refer to a user interface that is effectively invisible, or becomes invisible with successive learned interactions,… …   Wikipedia

  • natural user interface — noun A user interface for a computer that is effectively invisible, or becomes invisible to its users with successive learned interactions …   Wiktionary

  • Natural language user interface — Natural Language User Interfaces (LUI) are a type of computer human interface where linguistic phenomena such as verbs, phrases and clauses act as UI controls for creating, selecting and modifying data in software applications. In interface… …   Wikipedia

  • Graphical user interface — Screenshot of KDE Plasma Desktop GUI. A screenshot of the GNOME Shell GUI …   Wikipedia

  • User interface — The user interface, in the industrial design field of human–machine interaction, is the space where interaction between humans and machines occurs. The goal of interaction between a human and a machine at the user interface is effective operation …   Wikipedia

  • graphical user interface — a software interface designed to standardize and simplify the use of computer programs, as by using a mouse to manipulate text and images on a display screen featuring icons, windows, and menus. Also called GUI. * * * ▪ computing Introduction… …   Universalium

  • Organic user interface — In human–computer interaction, an organic user interface (OUI) is a user interface with interaction techniques that use the physical shape and position of a device to control it. Organic interfaces may have displays in forms other than a flat… …   Wikipedia

  • Tangible User Interface — A tangible user interface (TUI) is a user interface in which a person interacts with digital information through the physical environment. The initial name was Graspable User Interface, which no longer is used.One of the pioneers in tangible user …   Wikipedia

  • Natural mapping (interface design) — The term natural mappings comes from proper and natural arrangements for the relations between controls and their movements to the outcome from such action into the world. The real function of natural mappings is to reduce the need for any… …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”