Tactile VR-Objects

Immersion in virtuellen Räumen

Aktuelle Technologien erlauben eine nahezu natürliche Interaktion zwischen Mensch und Computer. Diese natürlich geprägten Eingabemöglichkeiten werden als Natural User Interfaces (NUI) bezeichnet.
In der Literatur wird das Konzept des Natural User Interface für Interaktionen in virtuellen Welten folgend beschrieben:

„Der Nutzer interagiert mit virtuellen Objekten in einer Form, die sich an der Interaktion mit realen Objekten orientiert. Da die Interaktion auf der Alltagserfahrung basiert, sind solche Techniken einfach zu erlernen und erscheinen dem Nutzer ‚natürlich’. Man bezeichnet Benutzungsschnittstellen, die sich derartiger direkter Interaktion wie z. B. Antippen oder Wischen bedienen, als Natural User Interfaces. Hier muss nicht die Bedienung künstlicher Eingabegeräte wie z. B. der Maus erst erlernt werden. Sie sind insbesondere für Anwendungen geeignet, in denen ein hoher Grad an Realismus erwünscht ist.“ (Dörner et. al., 2014)

 

Immersion in virtueller Realität
Das Streben nach NUI ist fast so alt wie die moderne Computertechnologie. Aktuelle Spielekonsolen werden daher häufig mit Eingabegeräten ausgestattet, welche eine natürliche Interaktion der Nutzer*innen erlauben (etwa Kinect). Neben der Computersteuerung durch Gesten und Bewegungen der Nutzer*innen wird auch die direkte Kommunikation beispielsweise über Sprache stetig ausgebaut.

NUI kommen verstärkt als Brückeninstrument zwischen digitalen virtuellen Welten (Virtual Reality, kurz VR) und dem/der Nutzer*in. Nähren sich, aus Sicht der Nutzer*innen, die Wahrnehmungseindrücke zwischen der reellen und der virtuellen Welt, so spricht man von dem Erzeugen einer Immersion.

„Immersive VR can be defined by its technology and its effects. Its primary effect is to place a person into a simulated environment that looks and feels to some degree like the real world. A person in this synthetic environment has a specific sense of self-location within it, can move her or his head and eyes to explore it, feels that the space surrounds her or him, and can interact with the objects in it. In immersive VR, simulated objects appear solid and have an egocentric location much like real objects in the real world. They can be picked up, examined from all sides, navigated around, heard, smel- led, touched, hefted, and explored in many sensory ways. The objects can also be autonomous (especially if they are other people) and interact with the virtual voyager, or respond to voice commands (Middleton & Boman, 1994).“ (Psotka, 1995)

 

Der Mensch verfügt über viele Wahrnehmungssinne, welche sich (teilweise) austricksen lassen und mit einem computergenerierten Feedback bespielen lassen. So ist ein unmittelbares wahrgenommenes Feedback des Computers auf eine Interaktion des Menschen ausschlaggebend für ein Gefühl von Immersion.

Visuelles Feedback
In Verbindung mit einem Head-Mounted Display (HMD) wie der stereoskopischen VR-Brille „Oculus Rift“ (s. Abbildung 1) können virtuelle 3D-Welten dargestellt und für den/die Benutzer*in erlebbar werden. Die natürlichen Kopfbewegungen (s. Abbildung 2) der Nutzer*innen werden in Echtzeit erkannt und als visuelles Feedback verarbeitet.

Je nach Anwender*in, Tragedauer, Inhalt und Aktion kommt es beim Benutzen eines HMD allerdings häufig zur Motion-Sickness. Das Problem trat vor allem bei HMD aus den 90er-Jahren auf. Die Ursache des Effekts wird in der Latenz zwischen der Bewegung des Kopfes und der Darstellung des entsprechenden Bildes vermutet. Wird die Latenz reduziert, ist dieses Phänomen weniger stark ausgeprägt. Neben technischen Ursachen können aber auch inhaltliche Darstellungen zu Irritationen bei Nutzer*innen führen. Gestaltung und Interaktion sollten daher VR-tauglich sein und auf Nutzer*innen erwartungskonform wirken.


Taktiles Feedback

Ein berührungsloses taktiles Feedback lässt sich z. B. mithilfe von Luftgebläsen erzielen. Die sogenannten „Sensoramas“ boten bereits in den 50er Jahren auf Basis von Luftgebläsen ein erweitertes sinnliches Erlebnis in Kinosälen oder Vergnügungsparks. Andere Technologien zur berührungslosen Kraftübertragung verwenden hingegen Ultraschall-Emitter, deren Reichweite mit ca. 30 cm beschränkt ist.

 

Abb. 1: Aireal mit gebildetem Vortex (Sodhi, et. al. 2013)

Abb. 3: Aireal mit gebildetem Vortex (Sodhi et. al., 2013).

Aireal ist ein Projekt von Disney Research, welches ein taktiles Feedback ohne Berührung des Nutzers erzeugt. Die Stimulation der Haut erfolgt über das gezielte Ausstoßen von komprimierten Luftwirbeln (Vortex). Diese werden in der Aireal-Maschine durch die Kompression der Umgebungsluft erzeugt und besitzen eine ringförmige Struktur (s. Abbildung 3). Der Vortex transportiert die aufgenommene Kompressionsenergie stabil entlang des Zielvektors. Versuche haben gezeigt, dass die Luftwirbel bei einem Abstand von über 2 m immer noch spürbar sind. Bei geringerem Abstand und leichter Kleidung kann die Kollision eines Vortex auf der Haut gespürt werden. Die Wirkung der Luftwirbel auf einen Körper ist vergleichbar mit dem eines Luftstoßes, der beim Pusten mit zusammengepressten Lippen erzeugt wird.

Zu Forschungszwecken wurde ein Nachbau der Aireal-Maschine auf Basis des veröffentlichten Artikels angefertigt (vgl. Abbildung 5), der als myAir bezeichnet wird.

Das taktile, durch die Luftwirbel erzeugte Feedback kann durch myAir praktisch empfunden werden. Die technisch bedingte Latenz vom Erfassen über das Ausrichten der pan- und tilt-Servomotoren und das Zurücklegen der Strecke durch den Vortex liegt bei durchschnittlich 200 ms und muss beim Auslösen eines taktilen Feedbacks bedacht werden. Beide Maschinen erzeugen bei der Komprimierung der Luft ein Klopfgeräusch. Dieses kann störend bzw. irritierend bei der Interaktion wirken. Aktuell sind keine technischen Lösungen dieses Problems in Sicht. Ein Interaktionskonzept, bei dem das Klopfgeräusch als gewollt akustisches Feedback einbezogen wird, scheint hier noch am Vielversprechendsten.

Zusammenfassung
Die Kombination von visuellem und taktilem Feedback erlaubt das „tatsächliche“ Berühren von virtuellen Objekten (vgl. Abbildung 6 und 7). Es findet eine für Nutzer*innen fühlbare physische Interaktion statt. Dies hat eine weit stärkere Erhöhung der Immersion zur Folge, als es beide Technologien einzeln zu leisten vermögen.

Die Täuschung der Sinne ist ein wichtiger Faktor beim Zugang zu virtuellen Welten. Gelingt es, die virtuelle Welt in der realen Welt abzubilden, so ist eine Unterscheidung zwischen beiden kaum mehr möglich; die Immersion wäre somit nahezu vollständig.

Quellen:

  • Antonov, M., Mitchell, N., Reisse, A., Cooper, L., LaValle, S. & Katsev, M. (2014). Oculus Rift SDK Overview.
  • Dörner, R., Broll, W., Grimm, P., & Jung, B. (Eds.). (2014). Virtual und augmented reality (VR/AR): Grundlagen und Methoden der Virtuellen und Augmentierten Realität. Springer-Verlag.
  • Psotka, J. (1995). Immersive training systems: Virtual reality and education and training. Instructional science, 23(5), 405-431.
  • Sodhi, R., Poupyrev, I., Glisson, M., & Israr, A. (2013). AIREAL: interactive tactile experiences in free air. ACM Transactions on Graphics (TOG), 32(4), 134.