Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Catrin Misselhorn
ergänzen, wie etwa die stimmbasierte Analyse. Ein solches Verfahren setzt beispielsweise ein von der Firma audEERING entwickelter Fitness Tracker ein, der am Ende des Tages eine umfangreiche Zusammenfassung der Emotionen der Nutzer über den Tag verteilt visuell darstellt. Ziel ist es, den Nutzer zu motivieren, sein Wohlbefinden aktiv zu steigern und negative Emotionen sowie Stress zu minimieren. Auch audio-visuelle Stimuli, die eine bestimmte physiologische Reaktion mit einem bestimmten Auslöser in Zusammenhang bringen, können hinzugezogen werden. Die Aufzeichnung von Bewegungsmustern kann ebenfalls zur Emotionserkennung beitragen.
Emotionserkennung mit Hilfe von Bio-Sensoren zielt besonders auf Gesundheits- und medizinische Anwendungen ab. Das Wohlbefinden der Nutzer soll gemessen und etwa das Stressmanagement erleichtert werden. Die Emotionstracker sollen zusätzlich Hinweise auf mentale Erkrankungen wie Depressionen geben. Menschen, die unter einer Autismus-Spektrum-Störung leiden, werden als eine besondere Zielgruppe anvisiert. Sie haben nicht nur Schwierigkeiten, Emotionen bei anderen zu erkennen, sondern sind häufig auch in ihrem Emotionsausdruck durch Mimik, Gestik oder Stimme beeinträchtigt. Die Emotionsregulation bereitet ihnen ebenfalls Probleme. So besteht häufig eine Neigung zu unkontrollierten Wutausbrüchen. Mit Bio-Sensoren ausgestattete Wearables sollen ihnen selbst und anderen einen leichteren Zugang zu ihrem Gefühlsleben geben und es ihnen auf diese Weise ermöglichen, mit ihren Emotionen besser umzugehen.
Doch auch im Wellness-Bereich und in der Unterhaltungsindustrie wurden eine Reihe von Anwendungen entwickelt. So können entsprechend der jeweiligen Stimmungslage Fernsehprogramme empfohlen oder Beleuchtungen angepasst werden. Bei Computerspielen kann die Emotionserkennung durch Bio-Sensoren im Zusammenspiel mit anderen Technologien eingesetzt werden, um die Spielerfahrung zu intensivieren und zu erweitern.22 Diese Idee geht bereits bis in die 1980er Jahre zurück, setzte sich allerdings kommerziell lange Zeit nicht durch, weil die Technologie zu teuer war und nicht wirklich zu einer umwälzend neuen Spielerfahrung führte.
Neuere Entwicklungen arbeiten an verbesserten Feedback-Schleifen, die den Spielverlauf den Emotionen des Spielenden anpassen. So weist das Spiel Nevermind beispielsweise Bio-Sensoren und gesichtsbasierte Emotionserkennung der Firma Affectiva auf. Zeigt der Spielende dieses First-Person-Thrillers Anzeichen von Furcht, so wird der Ablauf des Spieles gestört. Gelingt es ihm, seine Furcht wieder unter Kontrolle zu bekommen, verschwinden die Schwierigkeiten. Der Hersteller wirbt damit, dass das Spiel im Rahmen der Therapie von Angststörungen eingesetzt werden könne, um zu lernen, seine Emotionen zu kontrollieren.
Multimodale Ansätze
Multimodale Ansätze versuchen die Zuverlässigkeit der Emotionserkennung zu steigern, indem verschiedene Modalitäten berücksichtigt werden. Schließlich bedienen sich auch Menschen bei der Emotionserkennung vielfältiger Informationskanäle. Die Zusammenführung von Informationen aus verschiedenen Modalitäten ist besonders dann zielführend, wenn keine Laborbedingungen vorliegen. So kann die Stimme über jemandes Emotionen in einer Situation zuverlässiger Auskunft geben, in der beispielsweise keine oder schlechte visuelle Daten zum Gesichtsausdruck vorliegen. Sind hingegen starke Hintergrundgeräusche gegeben, während die visuellen Bedingungen gut sind, verhält es sich gerade umgekehrt. Allerdings stehen multimodale Ansätze auch vor besonderen Herausforderungen. Eine Schwierigkeit besteht bereits darin, an entsprechende multimodale Trainingsdatensätze einer größeren Anzahl von Versuchspersonen heranzukommen. Ungelöst ist auch die Frage, wie man die Daten aus unterschiedlichen Modalitäten zusammenführen kann: Wie geht man mit raum-zeitlichen Unterschieden um? Welche Gewichtung sollen die Daten aus den jeweiligen Modalitäten erhalten? In welcher Form werden sie zusammengeführt? Zudem liegen nicht immer Daten aus allen Modalitäten vor. Das kann an fehlenden oder falschen Eingaben liegen, aber auch daran, dass nicht alle Emotionen in jeder Modalität gleichermaßen gut erkennbar sind. Daten aus verschiedenen Modalitäten können sogar zu inkonsistenten Emotionszuschreibungen führen. Da der Versuchsaufbau verschiedener multimodaler Ansätze stark variiert, bleibt es schwierig, die Resultate der Studien miteinander zu vergleichen und gegebenenfalls zu wiederholen.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «ЛитРес».
Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.