Elise-Studie: Echte Emotionen virtuell erkennen
Freude, Frust und Langeweile: In der Elise-Studie haben Wissenschaftler der Universität Siegen mit Hilfe einer Sensormaske Überforderung und Unterforderung von Menschen in der virtuellen Realität untersucht. Ziel ist die Emotionserkennung in Echtzeit.
Siegen. 360-Grad-Bilder untermalt mit stimmungsvoller Musik, anschließend ein kahler Raum, in dessen Mitte sich ein Kreis mit einem schwarzen Strich befindet, der sich per Knopfdruck um 90 Grad weiterdrehen lässt. Es folgt das Geschicklichkeitsspiel „Heißer Draht“, bei dem man eine Drahtöse über einen gebogenen Draht führen muss, ohne diesen zu berühren – während die Zeit abläuft und das Schwierigkeitsniveau ansteigt. Diese drei virtuellen Szenarien dauern jeweils etwa fünf Minuten und sollen bei der Nutzerin oder dem Nutzer die Emotionen Freude, Langeweile und Frustration auslösen. Ob das klappt und ob sich diese Gefühlsregungen auch in den Körperdaten erkennen lassen, wird innerhalb des vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojekts Elise an der Universität Siegen untersucht.
Individuelle Körperdaten messen
Elise steht für „Entwicklung eines interaktiven und emotionssensitiven Lernsystems zur Kompetenzentwicklung im Bereich des Geschäftsprozessmanagements“. Forscherinnen und Forscher wollen mit Hilfe einer speziellen Sensormaske, die eigens für das Projekt am Lehrstuhl für Medizinische Informatik und Mikrosystementwurf von Professor Dr. Rainer Brück entwickelt wurde, individuelle Körperdaten messen – etwa Hautleitfähigkeit, Temperatur, Augenbewegungen, Puls und Gehirnaktivität. Ein finaler Prototyp dieser Maske wurde jetzt erstmals in einer zweiwöchigen Emotionsstudie in VR-Umgebung mit rund 100 Teilnehmerinnen und Teilnehmern im Forschungskolleg (FoKoS) der Uni getestet. Ziel ist die Generierung eines Algorithmus zur Mustererkennung von Emotionen in einer Virtual-Reality-Anwendung.
Durchgängig gutes Feedback
Eine erste stichprobenartige Analyse der Daten fiel aus Sicht der Entwickler positiv aus. „Die Sensordaten sehen nicht nur gut aus, wir haben auch durchgängig gutes Feedback zu dem VR-Erlebnis von den Studienteilnehmerinnen und -teilnehmern bekommen. Jetzt hoffen wir, dass die Forschungsgruppe Mustererkennung von Professor Dr. Marcin Grzegorzek an der Universität zu Lübeck, die Teil des interdisziplinären Projektes ist, die Daten erfolgreich verwenden kann“, sagte Dr. Armin Grünewald vom Siegener Lehrstuhl für Medizinische Informatik und Mikrosystementwurf. Das gemeinsame Ziel der Wissenschaftler ist die Emotionserkennung in Echtzeit. Hierfür muss der Algorithmus die gemessenen Körperdaten mit den zugehörigen Gefühlsregungen verknüpfen können.
Redaktion auf Langeweile
Die Echtzeiterkennung der ausgelösten Emotionen kann genutzt werden, um VR-Lernsysteme individuell auf die Nutzer abzustimmen. In einer Beispielanwendung, die auch im Elise-Projekt entwickelt wurde, durchlaufen Auszubildende den Arbeitsprozess einer Poststelle. Hierbei werden die einzelnen Arbeitsschritte wie Paketannahme, Frankierung und Einsortierung virtuell simuliert und erlernt. Durch die Emotionserkennung reagiert das System gezielt auf die Einzelperson. Wird durch den Einsatz der Sensoren Langeweile bei einer Person festgestellt, werden die Arbeitsschritte schneller durchlaufen und das Lernniveau wird gesteigert. Umgekehrt können Arbeitsschritte vereinfacht und wiederholt werden, bis bei der Person eine positive Stimmung erkennbar ist. (PM)