Digitale Avatare sind längst nicht mehr nur in Videospielen zu finden, sondern bevölkern inzwischen auch Virtual-Reality Chaträume und viele andere Bereiche unseres Lebens. Doch nonverbale Kommunikation leidet oft unter dem Fehlen der entsprechenden Emotionen des Gesprächspartners. Wir haben nun ein Patent von Microsoft entdeckt, welches die Vermittlung von Emotionen per Wearable beschreibt.
Siehe auch: Microsoft Launcher Preview App taucht im Play Store auf
Emotionen durch Gesten
Das Patent wurde am 19.06.2019 angemeldet und gestern veröffentlicht. In diesem beschreibt Microsoft die Probleme, wenn die Emotionen des Gesprächspartners nicht erkennbar sind. Dabei wird vor allem von digitalen Avataren gesprochen. Um dieses Problem zu lösen, möchte man Gesten und die Haltung der Person in eine Emotion übersetzen. Dazu soll ein tragbares Gerät genutzt werden. Wörtlich heißt es dazu:
Examples are disclosed that relate to evoking an emotion and/or other an expression of an avatar via a gesture and/or posture sensed by a wearable device. One example provides a computing device including a logic subsystem and memory storing instructions executable by the logic subsystem to receive, from a wearable device configured to be worn on a hand of a user, an input of data indicative of one or more of a gesture and a posture. The instructions are further executable to, based on the input of data received, determine a digital personal expression corresponding to the one or more of the gesture and the posture, and output the digital personal expression.
Es werden Beispiele beschrieben, die sich auf das Erwecken einer Emotion und/oder eines Ausdrucks eines Avatars durch eine Geste und/oder Haltung beziehen, die durch ein tragbares Gerät wahrgenommen wird. Ein Beispiel ist ein Computergerät mit einem Logik-Subsystem und einem Speicher, in dem vom Logik-Subsystem ausführbare Befehle gespeichert werden, um von einem tragbaren Gerät, das so konfiguriert ist, dass es an der Hand eines Benutzers getragen werden kann, eine Eingabe von Daten zu empfangen, die eine oder mehrere Gesten und Haltungen anzeigen. Die Anweisungen sind ferner ausführbar, um auf der Grundlage der Eingabe der empfangenen Daten einen digitalen persönlichen Ausdruck zu bestimmen, der der Geste oder der Körperhaltung oder mehreren entspricht, und den digitalen persönlichen Ausdruck auszugeben.
Wie findet ihr diese Idee? Kennt ihr das Problem, wenn ihr die Emotion und den Gesichtsaudruck eures Textpartners nicht sehen könnt?
Quelle: patentscope
Erinnert mich entfernt, an das was Microsoft mit der Kinect vor hatte, mit dieser sollten Emotionen erkannt werden und die Software/Avatar entsprechend darauf reagieren. Wurde leider nie fertig gestellt,