Die Kommunikation mit Künstlicher Intelligenz (KI) im Kundenservice bietet viele – häufig ungenutzte – Möglichkeiten für eine Emotionalisierung der Mensch-Maschine-Interaktion. Ein Gastbeitrag von Julia Saswito und Dan Fitzpatrick von der Digitalagentur Triplesense Reply.
Virtuelle Assistenten: Noch einmal mit Gefühl
„Liebe Frau Schneider, Ihr Blutdruck ist heute sehr niedrig und Sie sehen niedergeschlagen aus. Ich werde eine Pflegekraft für Sie rufen, damit jemand nach Ihnen schaut. Soll ich Ihnen solange ihre Lieblingsmusik anmachen oder Ihre Tochter anrufen?“ – Ein solches Szenario ist momentan noch Zukunftsmusik – noch beschränkt sich der Einsatz von KI-gesteuerten Robotern in der Pflege auf einfache Bring- und Holdienste sowie auf Unterhaltungs- und Erinnerungsfunktionen, etwa für die Medikamenten-Einnahme.
Doch nicht nur in der Pflege, sondern überall, wo harte Leistungskriterien wie Daten oder Preise oft zweitrangig sind, wird es wichtiger, Menschen via Sprachassistenten auch auf der Gefühlsebene zu erreichen. Denn nur wenn virtuelle Assistenten emotional und empathisch agieren, werden sie wirklich als ernstzunehmender Ansprechpartner und Helfer wahrgenommen. KI-Anbieter müssen folglich dafür sorgen, dass ihre Maschinen in kürzester Zeit ein ansprechendes Bild im Kopf des Kunden erzeugen und empathisch agieren. Ansonsten hat der Roboter als menschenähnlicher Helfer kaum Daseinsberechtigung. Das gilt für beinahe alle KI-gesteuerten Kommunikations-Angebote, nicht nur in emotional sensiblen Bereichen wie der Altenpflege.
Sprachliche Empathie optimieren
Sprachassistenten sind bereits in vielen Unternehmen ein wichtiger Bestandteil der Kundenkommunikation. Gerade Marketing-Verantwortliche sollten daher an einer möglichst empathischen und damit nutzwertigen Lösung interessiert sein. Denn was bringt einem Unternehmen eine KI-gesteuerte Service-Hotline, bei der das System nicht den Dialekt eines Kunden versteht oder aussteigt, wenn der Kunde nur in Stichworten kommuniziert?
Es gibt verschiedene Ansatzpunkte, die Mensch-Maschine-Kommunikation zu verbessern. Voice-User-Interface (VUI)-Designer arbeiten daran, digitale Sprachinteraktionen immer weiter dem menschlichen Verhalten anzupassen. Dazu werden technische Skills weiterentwickelt und Sprachbefehle, sogenannte „Intents“, flexibel gestaltet und angeglichen. Einer der Entwicklungsschwerpunkte liegt dabei auf der Optimierung der Aussprache. Denn Sprachassistenten, die bei uns fest im Alltag verankerte Fremdwörter wie Latte Macchiato oder Emoji verkehrt aussprechen oder abweichend zu hiesigen Gepflogenheiten intonieren, holen den Nutzer zwar rein technisch ab, kommunizieren jedoch nicht auf der menschlichen Sprachebene.
Weiterhin gilt es, möglichst umfassend sprachliche Besonderheiten zu berücksichtigen. So haben schon kleinste Nuancen von Sarkasmus, Dialekt, Slang, regionalen Gepflogenheiten oder Ironie großen Einfluss auf die Bedeutung von Aussagen. „Sentiment Analysts“ verbessern die Performance der KI-Anwendung stetig, indem sie Tonalität und verschiedene Ausprägungen menschlicher Sprache erfassen und auswerten und das System mit den bestmöglichen Informationen über Sprachbesonderheiten füttern. Der im schwäbischen Dialekt häufig verwendete Ausruf „Ha noi“ führt dann idealerweise nicht zu einem Kurzvortrag über die Hauptstadt Vietnams, sondern zur Nachfrage, was den Nutzer denn so erstaunt.
Die Grenzen maschineller Kommunikation
Indem die Kommunikation mit Sprachassistenten immer weiter an die gesprochene Sprache angepasst wird und User nicht nur über bestimmte Befehle oder nur durch exakt formulierte Abfragen an die gewünschte Information kommen, soll die Interaktion zukünftig durch einen komplett freien und natürlichen Sprachgebrauch erfolgen. Statt „Alexa, bitte starte die Chefkoch-App“ sollte Alexa auch auf Fragen wie „Was soll ich heute kochen?“ oder „Was schmeckt Kindern gut?“ mit einer sinnvollen Antwort reagieren.
Dennoch eignet sich KI sicher auch künftig nicht für jedes Einsatzszenario. Immer dann, wenn die Informations- und Interaktionsdichte zu komplex für KI wird, gerät die Technik an ihre Grenzen, und menschliche Interaktion muss übernehmen. So kann intelligente Technik Pflegekräfte in Zukunft sicherlich in vielen Bereichen unterstützen und entlasten – menschlichen Kontakt wird sie aber voraussichtlich (und zum Glück) nicht vollständig ersetzen können.
Wie die Komplexität menschlicher Kommunikation in sprachlicher, empathischer und emotionaler Hinsicht in zehn bis 15 Jahren technologisch abgebildet werden kann, ist angesichts der hohen Entwicklungsgeschwindigkeit kaum abzusehen. Aktuell gilt jedoch für Anbieter von KI-gesteuerten Anwendungen, mithilfe der vorhandenen Technologien die Mensch-Maschinen-Kommunikation bestmöglich zu vermenschlichen, um einen maximalen Nutzen zu schaffen. Nur so können auch Sprachassistenten besser assistieren.
Über die Autoren
Julia Saswito ist Practice Leader „Reply Digital Experience“ und geschäftsführende Partnerin bei der Digitalagentur Triplesense Reply.
Dan Fitzpatrick ist Head of Experience Technology und Practice Leader „Voice Machine Interface“ bei Triplesense Reply.