Dienstag, 28. Januar 2020
Usability in der virtuellen Realität - Teil 3
#Virtual Reality

Im dritten Teil der Blogreihe „Usability in der virtuellen Realität“ geht es um die Navigation und Information in der virtuellen Realität.
Für VR zu entwerfen sollte nicht bedeuten, 2D-Praktiken auf 3D zu übertragen. Wo früher der Viewport des UI-Designs eingeschränkt wurde, eröffnet VR eine ganze Welt, mit der man interagieren kann. Schaltflächen und Links können jetzt wie Portale, Objekte wie ihr reales Pendant aussehen. Erkenntnisse aus dem Game Design können hierbei relevant werden. In den meisten Fällen gelten die Gestaltungsprinzipien weiterhin und sind wahrscheinlich relevanter als je zuvor.
Bei der Benutzeroberfläche gibt es bereits Erkenntnisse. So bieten sich herkömmliche HUDs nicht an, um Informationen in VR anzuzeigen. Man soll also vermeiden, z.B. eine Web- / Desktop-Benutzeroberfläche zu imitieren und diese vor die Augen des Users einblenden. Stattdessen soll eine Benutzeroberfläche erstellt werden, die für das Eingabegerät (also die Controller und Brille) relevant ist. Oculus schlägt vor, dass Informationen direkt in die Umgebung eingebunden werden sollen oder man den Avatar des Users einbezieht.
Gängige Menüs und Anzeigen der Spielewelt lassen sich dabei in 4 Gruppen einteilen:
Diegetik
Schnittstelle, die in der Spielwelt enthalten ist - das bedeutet sie kann von den Spielfiguren gesehen und gehört werden. Beispiel: ein Kompass oder eine Landkarte, mit der die Spielfigur interagiert.
Nicht-Diegetik
Schnittstelle, die außerhalb der Spielwelt dargestellt wird und nur für die Spieler in der realen Welt sichtbar und hörbar ist. Beispiel: Die meisten klassischen Head-Up-Anzeigeelemente.
Spatial
Elemente der Benutzeroberfläche, die im 3D-Raum des Spiels mit oder ohne Entität der eigentlichen Spielwelt (Diegetik oder Nicht-Diegetik) dargestellt werden. Die Zeichenumrisse im Bild sind ein Beispiel für eine nicht-diegetische räumliche Benutzeroberfläche.
Meta
Repräsentationen können in der Spielwelt existieren, müssen aber für den Spieler nicht unbedingt räumlich visualisiert werden. Dies sind Metadarstellungen. Das offensichtlichste Beispiel sind Effekte, die auf dem Bildschirm gerendert werden, z. B. Blutspritzer auf der Kamera, um Schäden anzuzeigen.
Diese 4 Gruppen aus der Spielewelt lassen sich auch für die VR anwenden, und bieten eine Vielfalt an Navigationsmöglichkeiten und Userfeedback.
Diese Blogreihe veröffentlicht Ausschnitte und Zusammenfassungen der Bachelorarbeit von Jacqueline Buchmaier: „Cardboard Engineering - Optimale Gebrauchstauglichkeit für die Manipulation von Objekten in Virtual Reality und Desktop-Anwendungen“. Die Arbeit entstand im Studiengang Mediendesign und digitale Gestaltung an der Hochschule Ravensburg-Weingarten University of Applied Sciences in Kooperation mit UReality und wurde am 28.02.2019 eingereicht. Für die bessere Lesbarkeit wurden die Quellenangaben aus dem Text entfernt. Die vollständige Arbeit ist einsehbar an der RWU.