Forschungsschwerpunkt Emotional Computing and Intelligent Interaction
Die Digitalisierung bringt neben der Automation auch immer höhere Anforderungen an die Gestaltung von Schnittstellen zwischen Mensch und Maschine mit sich. Interaktion durch Gesten und Sprache ist inzwischen bereits in einigen Anwendungen zu finden und ergänzt die traditionellen Eingabesysteme. Wearable Computing bringt Sensorik an den Körper, die Kleidung und Alltagsgeräte, die wir bei uns tragen. Humanoide Roboter sollen mit uns zukünftig auch in menschenähnlicher Form interagieren.
Der Forschungsschwerpunkt befasst sich mit den durch aktuelle Sensorik ermöglichten neuen Interaktionsformen und deren intelligenter Ausgestaltung. Eine besondere Rolle spielen dabei auch die Emotionen eines Menschen. Emotionalität wird immer häufiger als zentraler Bestandteil intelligenter Systeme gesehen. Auch Benutzerschnittstellen und Roboter sollen in der Lage sein, "emotional" zu wirken und Emotionen zu erkennen. In Lehr- und Lernszenarien ist die Wichtigkeit der Empathie offensichtlich und es ist vorstellbar, dass E-Learning-Komponenten von einem Emotionsmodell profitieren können. Auch in der Produktbewertung und Marktforschung ist die direkte Messbarkeit von Emotion sehr wertvoll. Betrachtet man die Entwicklung von Computerspielen, so ist die Tendenz zu intelligenteren und menschenähnlicheren (also auch emotionalen) Computergegner*innen erkennbar. Auch ist die Qualität der Spracherkennung und der Erzeugung gesprochener Sprache mit einem Emotionsmodell deutlich verbesserbar.
Aus diesen Anwendungsfeldern ergibt sich die Zielsetzung des Forschungsschwerpunkts Emotional Computing and Intelligent Interaction. Das Forschungsinteresse gilt der Entwicklung von intelligenten, interaktiven Anwendungen unter Einsatz moderner Sensorik, sowie den Möglichkeiten der Emotionsmodellierung, -erkennung und -darstellung. Die Anwendungen werden insbesondere durch die im Studium erworbenen Kenntnisse in der Signal- und Bildverarbeitung, den Methoden der Künstlichen Intelligenz, der wissensbasierten und lernenden Systeme sowie der Interaktiven Systeme gestützt. Viele Projekte entstehen im Rahmen des Studiums als studentische Forschung.
Forschungsaktivitäten
Organisation und Durchführung des jährlichen Workshops "Emotion and Computing – Current Research and Future Impact" im Rahmen der KI Konferenz:
Handtherapie Projekt mit zwei Dualen Partnern zur Verbesserung der Therapie von Handverletzungen mit Hilfe von Serious Games, welche die Vermessung der Hand in motivierende, spielerische Softwareumgebungen integrieren.
Die Forschungsaktivitäten werden im Rahmen des Intelligent Interaction Lab (IILAB) in die Lehre integriert.
Abgeschlossene Projekte
- Kooperatives Forschungsprojekt zur Wirkungsuntersuchung von emotionalen Avataren in modernen Benutzerschnittstellen mit einem Dualen Partner, 2010
Studienarbeiten
- Visualisierung von Hirnaktivität in einem VR-Gehirnmodell
- Untersuchung von Anwendungsmöglichkeiten von AR Technologie in der Unterstützung von Personen mit Autismus Spektrum Störung
- Active Eye Tracking – Steuerung von Applikationen mit Eye Tracking
- Affective computing techniques for the emotionally impaired (Guest PhD), 2016/17
- Emotion Recognition Using Machine Learning, 2016
- Analysis of Eye Tracking Control Scenarios, 2016
- Development of Virtual Reality Driving Simulator for Teaching Driving Behaviours using Gamified Concepts, 2016
- Development of Gesture-Based Applications for Medical Purposes, 2016
- Exploring interactive teaching of a multi modal emotional expression of a humanoid robot, 2016
- Development of a Virtual Coach Scenario for Hand Therapy using LEAP Motion, 2016
- Cycling Trainer: Development and Test of an HMI Concept for Performance Improvement (Master), 2016
- Emotion Recognition on Android, 2015
- Medical Treatment Avatar, 2014
- Extensions of a Virtual Guide, 2014
- Analysis of Social Interaction with Robots, 2014
- Emotion Recognition on Android, 2014
- Analyzing Persuasive Computing Applications, 2013
- Video based Emotion Recognition, 2013
- Emotion Recognition, 2012
- Applications of face detection in games and embodied agents, 2012
- Mont Royal virtual tour Android Application, 2012
- Integrating a 3D Model of a Fortress as Augmented Reality in an Android Smartphone Application, 2011
- Development and Implementation of a Prototypical Tutor Avatar, 2010
- Analysis Tool For Emotion Monitoring Paradigms, 2010
- Emotion Recognition Using Optical Flow, 2009
- A Facial Expression Recognition System Based Upon Video Streams, 2008
- Entwicklung einer Android App zur Gestensteuerung eines humanoiden Roboters mittels des MYO Gesture Control Armbands, 2016
- Oculus Rift meets Startrek, 2016
- NAO – Interaktion mit einem humanoiden Roboter, 2015
- Split Screen – Motivation für Biker, 2015
- Studie zur Akzeptanz von Augmented Reality Glasses, 2015
- Erstellung eines Prototypen für eine mehrspielerfähige virtuelle Lernumgebung mit Oculus Rift, 2015
- Bike App – Application Architecture and Graphical User Interface, 2014RTF Team App, 2014
- Gestaltung von 3D Anwendungen zur Erprobung von Persuasive Computing Ansätzen für Oculus Rift, 2014
- Verwaltung von Sportsensoren für eine Android-App, 2014
- Mensch-ärgere-Dich-nicht: Wie stark beeinflusst ein virtueller Avatar den Menschen?, 2014
- Entwicklung einer Schaltung zur Audiolokalisierung für die EmoCat, 2013
- Analyse und Weiterentwicklung der Benutzeroberfläche des Programms RobiKids, 2013
- Erstellung einer Anwendung zur Speicherung von Hirnströmen unter Verwendung des Emotiv EPOC Headsets, 2013
- Analyse und Konzeption einer grafischen Oberfläche für die Entwicklungsumgebung RobiKids, 2012
- Analyse und Weiterentwicklung eines Emotions-Erkennungs-Programmes, 2012
- Emotional Tagging of Voice Messages, 2012
- Tool for the Recognition of Facial Emotions, 2010
- Einfluss des emotionalen Feedbacks von Avataren auf das menschliche Spielverhalten im "Public Goods Game", 2009
- Mimic Chat – Unterhaltung durch ein virtuelles Gesicht, 2009
- Design und Implementierung eines Public Chat Prototypen, 2009
- Erstellung einer Software zur Emotionserkennung auf Basis des Facial Action Coding System, 2009
- Emotionserkennung durch Biofeedback, 2009
- Entwicklung einer Umgebung zur Simulation der Interaktion emotionaler Agenten am Beispiel des "Public Goods Game", 2008
- Entwurf und Implementierung einer sprachbasierten Emotionserkennungssoftware, 2008
- Umsetzung einer service-orientierten Implementierung des "Public Goods Game" für die Untersuchung und Entwicklung von Emotionalen Agenten“, 2007
- Preparation of a Framework for Real-Time Image Analysis and Manipulation, 2007
- Konstruktion des Grundkonzepts zur emotionalen Interaktion des Roboterhundes AIBO und Teilimplementierung eines Regelsystems, 2006
- Erkennung und Verfolgung der menschlichen Iris in Einzelbildsequenzen, 2006
- Die Rolle der Künstlichen Intelligenz in Computerspielen unter besonderer Berücksichtigung der Modellierung von Emotionen der Computergegner, 2005Gesichtsdetektion und Bestimmung von ROIs in Digitalbildern, 2005
- Emotionserkennung aus Sprache, 2005
- Entwicklung eines Frameworks für Multiagentensysteme mit Hilfe von JADE zur Simulation des "Fungus Eater" Szenarios, 2005
- Development and Implementation of a Software for Gesture Analysis supported by BlueWand II, 2005
- Entwurf, Implementierung, Training und Integration eines Neuronalen Netzes zur Emotionsklassifikation, 2005
- Computergestützte Mimikerkennung mit fortgeschrittenen Bilderkennungs- und Bildverarbeitungsalgorithmen unter Java, 2004
- Development and Implementation of an Emotional Chatbot using AIML, 2004
- Talking to A.L.I.C.E. – Erstellen eines ChatBots mit AIML, 2003
- Emotionale Computer – Stand der Forschung, 2003
Leitung
- Prof. Dr. Dirk Reichardt / Tel.: 0711/1849-4538 / E-Mail: dirk.reichardt@dhbw-stuttgart.de