Mithilfe der Emotion-AI-Technologie können kontextbasierte Sprachsysteme Stimmungen in verbalen Äußerungen erkennen und interpretieren. Der Einsatz ist nicht nur im Kundenservice wirksam, sondern auch im Gesundheits- und Bildungswesen sowie im HR-Bereich. Ein Gastbeitrag von Maria Müller und Daniel Fitzpatrick von der Digitalagentur Triplesense Reply.
Affective Computing: Mit Emotion AI Gefühle erkennen
Menschen nutzen heutzutage ganz selbstverständlich und barrierearm Alexa, Siri & Co. in ihrem Alltag. Dank Sentiment-Analyse sind Sprachanwendungen seit geraumer Zeit auch in der Lage, Gesagtes – etwa das Feedback im Kundenservice – auszuwerten. Für eine Aussage wie: „Meine Internetverbindung ist katastrophal und furchtbar langsam“ verwenden diese Methoden einen sogenannten „bag of words“, der technologisch eher einfach ist: Es wird geprüft, ob einzelne Begriffe mit einer bestimmten emotionalen Konnotation (etwa glücklich, enttäuscht, wütend) verbunden sind, daraufhin wird die Aussage als positiv, neutral oder negativ eingeordnet. Bei Aussagen, die keine eindeutigen Emotionsäußerungen beinhalten, stößt Sentiment-Analyse-Technologie jedoch an ihre Grenzen.
Von Sentimentanalyse zu Emotion AI
Ausgereifter ist eine weitere Technologie, die – so wie die Sentiment-Analyse – dem Affective Computing zugeordnet wird: Emotion AI. Die Künstliche Intelligenz (KI) erkennt und unterscheidet dabei unterschiedliche Gefühle in der gesprochenen Sprache und kann diese mittels einer Wahrscheinlichkeitsbewertung pro Emotion klassifizieren, interpretieren und verarbeiten. Große Technologieunternehmen wie Apple, Google, Facebook, IBM und Microsoft haben Emotion AI bereits in einige ihrer Produkte eingebunden.
Emotion-AI-Systeme umfassen verschiedene Komplexitätsebenen. Fortgeschrittene Emotionsanalyse ist sogar in der Lage, Ironie und Sarkasmus zu erkennen (was selbst für Menschen manchmal schwierig ist), und mit jeder Auswertung wird die Analyse präziser. Indem verschiedene Aspekte aus semantischer und ontologischer KI sowie automatischer Mustererkennung kombiniert werden, lassen sich nicht nur verlässlichere Ergebnisse erhalten, sondern auch Veränderungen im emotionalen Zustand der oder des Nutzenden vorhersagen – teilweise sogar, bevor sie für die Akteure selbst wahrnehmbar sind.
Eine Aussage wie „Meine Bahn war pünktlich, aber es war sehr warm darin“ könnte etwa von einem Verkehrsunternehmen über eine entsprechende Sprachanwendung als Feedback erfasst werden. Wir Menschen lesen und hören hier eine emotionale Konnotation heraus. Objektiv gesehen ist es allerdings eine recht emotionsarme Aussage. Kein Wort der Freude, kein Wort des Entsetzens. Mit Hilfe einer Emotion-AI-Analyse, die nicht isolierte Wörter, sondern die Kontexte in den Aussagen untersucht, lässt sich der Satz quantifizieren: Subjektive Inhalte werden objektiv ausgewertet und als Daten strukturiert – und sind somit für die weitere Datenverarbeitung geeignet.

Basierend auf so einer Auswertung könnte das Verkehrsunternehmen nun nicht nur seine Klimaanlage besser regulieren, sondern seinen Kundinnen und Kunden ein entsprechendes Angebot offerieren, etwa einen Getränkegutschein für die nächste Fahrt.
Emotion AI für eine bessere Customer Experience
„Emotionsbewusste“ Technologie kann überall dort zum Einsatz kommen, wo es im Kontext digitaler Anwendungen immer wichtiger wird, die Mensch-Maschine-Kommunikation zu verbessern, zu verstehen und zu wissen, wie sich Menschen fühlen. So lassen sich die Erkenntnisse aus der Emotionsanalyse nutzen, um Gespräche in die richtigen Bahnen zu lenken, etwa indem man kontextbezogene anstelle vorgefertigter Antworten gibt. Also zum Beispiel: „Geht es Ihnen heute besser?“ statt „Wie geht es Ihnen heute?“
Auch lassen sich in Echtzeit die Stimmungen verärgerter Kundinnen oder Kunden erkennen, die dann umgehend zu einem menschlichen Callcenter-Agent weitergeleitet werden können. Im Bildungssektor lassen sich Lerninhalte an die Verfassung der Schülerinnen und Schüler anpassen. Alexa & Co. könnten in naher Zukunft auch bei alten Menschen über spezielle Apps und Emotion AI frühzeitig Demenzfälle oder Parkinson diagnostizieren.
Sensibler Umgang mit der Technologie ist elementar
Denkbar ist auch, dass die Anwendung die Umgebung in einem Altenheim an den emotionalen Zustand der Bewohnerinnen und Bewohner angleicht: Verbal kommunizierte Unruhe könnte so durch bestimmte Lichteinstellungen gemildert werden. Künftig wird Emotion AI daher auch an gesellschaftspolitischer Relevanz gewinnen. Sie kann beispielsweise für sogenanntes „Crowd Watching“ zum Einsatz kommen, etwa im Bereich der öffentlichen Sicherheit, um die Gewaltbereitschaft von Demonstrationsteilnehmenden zu quantifizieren.
An diesem Punkt wird deutlich, dass beim Umgang mit Emotion AI ein hohes Maß an Umsicht gefragt ist – zumal es selbst für uns Menschen mitunter schwierig ist, den emotionalen Zustand unseres Gegenübers korrekt einzuschätzen. Das zeigt sich auch deutlich im Bereich des Kundenservices: Es kann viele Vorteile bringen, wenn die Technologie mit ihrer Analyse richtig liegt – liegt sie aber falsch, kann der Effekt kontraproduktiv sein. Der Ärger von Kundinnen und Kunden über den Kundenservice selbst ist mitunter noch schlimmer als die Unzufriedenheit über ein Produkt oder einen Service.
Reflektiert und sensibel angewendet, können Affective-Computing-Emotionsanalysen aber helfen, die Gefühle von Nutzerinnen und Nutzern zu lesen und besser darauf zu reagieren. Unternehmen erhalten damit die Chance, Bedürfnisse besser zu bedienen, Vertrauen aufzubauen – und nachhaltige Beziehungen zu stärken.
Maria Müller konzipiert als Head of Conversational Design bei Triplesense Reply Anwendungen für Sprachassistenten wie Amazon Alexa oder Google Assistant.
Daniel Fitzpatrick verantwortet als Director Conversational Solutions bei Triplesense Reply die Qualität von technischen Lösungen sowie von Entwicklungs- und Publikationsprozessen. Zudem leitet er den weltweiten Reply Thinktank für Voice Interfaces.