Emotion AI

Wenn die Sprachanwendung empathisch reagiert

10. November 2022, 10:00 Uhr | AutorInnen: Maria Müller und Daniel Fitzpatrick / Redaktion: Diana Künstler | Kommentar(e)
Roboter empathisch
© iakovenko/123rf

Gefühle erkennen, Ironie verstehen und Sarkasmus interpretieren – als Sprachsystem? Emotion AI macht dies möglich und kann so für zufriedenere KundInnen sorgen.

Der Artikel beantwortet unter anderem folgende Fragen:

  • Wie funktioniert Sentimentanalyse via Voice Interface?
  • Was unterscheidet die Emotion-AI-Technologie von der Sentimentanalyse?
  • Wie funktioniert diese Form der Emotionsanalyse?
  • Was sind Einsatzmöglichkeiten von Emotion AI?

Stellen Sie sich vor, Sie suchen nach einem langen, anstrengenden Arbeitstag noch schnell im Supermarkt nach einem passenden Wein fürs Abendessen. In der Weinabteilung angekommen, könnten Sie einer Sprachanwendung berichten, dass sie sich heute erledigt fühlen, den erreichten Projekterfolg aber gerne bei einem guten Steak vom Bio-Rind mit einem Gläschen Rotwein feiern wollen. Die Sprachanwendung empfiehlt Ihnen dann den zum Essen und zur Stimmung passenden Wein.

Anbieter zum Thema

zu Matchmaker+

Feinere Gefühlsnuancen erfassen

Emotion AI App-Architektur
Schaubild einer Emotion AI App-Architektur
© Triplesense Reply

Das geschilderte Szenario ist zwar weitgehend Zukunftsmusik, aber theoretisch denkbar. Denn via Emotion AI erkennen und interpretieren Sprachsysteme verbal Kommuniziertes so, wie es tatsächlich gemeint ist.

Sprachbarrieren gibt es heutzutage im Umgang mit Sprachassistenten kaum noch. Dank Sentimentanalyse sind Voice Interfaces seit einiger Zeit in der Lage, Gesagtes auszuwerten. Für eine Beschwerde wie „Mein Handyvertrag ist teuer und hat zu wenig Datenvolumen“ verwenden Sentimentanalyse-Methoden in der Regel einen in der technologischen Komplexitätsstufe simplen „bag of words“. Damit lässt sich prüfen, ob einzelne Begriffe mit einer bestimmten emotionalen Konnotation verbunden sind – wie euphorisch, ängstlich oder empört. So finden Unternehmen beispielsweise im Service-Bereich erfolgreich heraus, ob ein/e KundIn, etwa bei einem Anruf in einem Call-Center, eher positiv oder negativ gestimmt ist. Bei objektiv neutralen Aussagen stößt Sentimentanalyse-Technologie jedoch an ihre Grenzen, die Informationstiefe ist eher oberflächlich.

Emotion AI, eine weitere Technologie, die – wie auch die Sentimentanalyse – unter dem Begriff Affective Computing bekannt ist, ist differenzierter. Sie erkennt und unterscheidet in der gesprochenen Sprache Gefühle anstatt der Grundstimmung und kann sie mittels einer statistischen Intensität pro Emotion klassifizieren, interpretieren und verarbeiten. Einige Technologieunternehmen haben diesen Trend erkannt und Emotion AI in einige ihrer Produkte eingeführt. So kaufte Apple 2016 das Unternehmen für Gesichtscodierung „Emotient“ und meldete Patente für stimmungsbasierte Fernsehwerbung an.

Emotionsbewusste Technologie prototypisch im Einsatz

Affective-Computing-Systemen liegen verschiedene Komplexitätsebenen zu Grunde. Einige fortgeschrittene Emotionsanalysen sind in der Lage, Zynismus, Ironie und Sarkasmus zu erkennen – was selbst für Menschen manchmal schwierig ist. Vor allem dann, wenn sie den Tonfall nicht hören. In der Regel gelingt es uns problemlos, aus Aussagen zumindest eine emotionale Konnotation herauszuhören oder zu lesen. „Mein Essen war geschmacklich in Ordnung, aber nur lauwarm“ wäre ein Feedback, das eine Restaurantkette erfassen könnte. Was für einen menschlichen Servicemitarbeitenden eher negativ anmutet, ist für eine Sprachanwendung und auch objektiv gesehen allerdings eine relativ emotionsarme Aussage. Sie ist grammatikalisch neutral (weder ein Ausrufe- noch ein Fragesatz), analytisch und semantisch ambivalent. Wirkliche Zufriedenheit ist hier für eine Sprachanwendung nicht erkennbar, aber ernsthaft enttäuscht scheint der/die Kund:in wiederum nicht zu sein.

Mit Hilfe der Emotionsanalyse, die eher Kontexte in den Aussagen anstatt isolierter Wörter verwendet, lässt sich der Satz quantifizieren. Dazu bedarf es eines von zahlreichen Modellen, die in der Lage sind, menschliche Emotionen zu ermitteln. Der Cloud-Dienstleister Komprehend kann beispielsweise sechs Grundemotionen unterscheiden, gruppiert nach Ähnlichkeit und geordnet nach Intensität: Subjektive Inhalte werden objektiv und anhand eines emotionstheoretischen Models quantifiziert und als Daten strukturiert. Somit sind sie für die weitere Datenverarbeitung geeignet.

Grob berechnet wäre bei einer komplett neutralen Aussage jede erkannte Emotion mit dem Intensitätswert von 16 Prozent versehen – weil die Intensität in dem Scoring für sechs Emotionslagen einen kumulierten Wert von 100 Prozent ergibt. Bei einer erkennbaren emotionalen Ausprägung wie „45 Prozent Freude“ wird die Systemausgabe zur Laufzeit entsprechend angepasst. Verschiedene Studien zeigen, dass Schnittstellen erheblich angenehmer und effektiver sind, wenn die „Emotionslage“ des Computers die des Anwenders spiegelt. Deshalb ist es sehr wichtig, dass das System – sei es in Bild, Ton oder Wortwahl – angemessen reagiert. Doch Vorsicht ist geboten. Antworten aus einer Anwendung, die mit Emotion AI arbeitet, sollen weder die Gefühle des Users verkennen noch eine Antwort liefern, die die Intensität der erkannten Emotion nicht wiedergibt. So wäre es zum Beispiel fatal, wenn als Antwort zur Aussage „Mein Haus brannte gestern nieder“ „Ach, Pech gehabt“ käme.

Die Analyse wird mit jeder Auswertung präziser, da mehr Inputs verwendet und miteinander verglichen werden können. Verschiedene Aspekte aus semantischer und ontologischer AI sowie automatischer Mustererkennung lassen sich kombinieren, um verlässlichere Ergebnisse zu erhalten und sogar Veränderungen im emotionalen Zustand der/des Nutzenden vorherzusagen. Basierend auf den gewonnenen Erkenntnissen könnte die Restaurantkette nicht nur ihre Speisen heißer servieren, sondern der/dem KundIn beim nächsten Besuch einen Gratis-Aperitif anbieten. Diese emotionsbewusste Technologie kann nicht nur wie im genannten Restaurant-Beispiel zur automatisierten Messung und Erfassung von Kundenreaktionen zum Einsatz kommen, sondern überall dort, wo es im Kontext digitaler Anwendungen wichtiger wird, die Mensch-Maschine-Kommunikation zu verbessern, zu verstehen und zu wissen, wie sich Menschen fühlen. Und das nicht nur im Falle einer Beschwerde, sondern auch im positiven Sinne. So könnte etwa eine KI-gestützte Sprach-Anwendung im Handel – wie eingangs erwähnt – die Wahl eines zur Stimmung passenden Weins ermöglichen. Erste Prototypen gibt es bereits: Der Kunde berichtet ganz frei, wie es ihm heute geht. Kontextbasierte Emotion AI erfasst in Echtzeit per Voice Interface kommunizierte Emotionen, wandelt die Aussage per API-Call in Speech-to-Text um und schickt sie an einen Emotion AI Cloud-Anbieter der Wahl. Dieser spricht dann auf Basis der erkannten Emotionen und anhand eines Tonality Scores eine Weinempfehlung aus.

Von besonderer Relevanz in diesem Anwendungsprototyp ist der Grundsatz, dass Emotion AI verwendet wird, um negative Emotionen abzumildern und positive zu verstärken. Wenn eine freudevolle Aussage wie zum Beispiel „heute ist mein Geburtstag und ich fahre zum Strand“ getroffen wird, würde das System einen Sekt zum Feiern empfehlen.

Technologiegenerierte Erkenntnisse menschlich verifizieren

Gleich ob im Marketing, im Handel, Bildungs- und Gesundheitswesen oder HR-Bereich – die Einsatzmöglichkeiten von Emotion AI sind vielfältig und weit mehr als eine Spielerei mit Alexa, Siri & Co. Doch so einleuchtend und sinnstiftend die Ansätze und Systeme zur Gefühlsauswertung per Sprachanwendung anmuten – einiges gilt es zu berücksichtigen: Die aus der Technologie gewonnenen Erkenntnisse geben zwar richtungsweisende Tendenzen vor, in kritischen Bereichen – etwa, wenn es um medizinische Themen oder um Sicherheit, zum Beispiel im Straßenverkehr geht, sind Extremfälle oder atypische Abweichungen individuell von Menschen zu prüfen und zu verifizieren. Denn die exakte Emotionsauswertung anhand verschiedener Modelle ist noch herausfordernd.

Maria Müller und Dan Fitzpatrick
Maria Müller, Head of Conversational Design und Daniel Fitzpatrick, Business Unit Director – Conversational Solutions, beide bei der Digitalagentur Triplesense Reply
© Triplesense Reply

Mit Emotion AI lassen sich menschliche Emotionen automatisiert besser erkennen – stets mit dem Ziel, ein besseres Nutzererlebnis zu kreieren. Davon profitieren alle. Mithilfe der Technologie können Entscheider:innen kontextbasiert die Auswirkungen negativer Emotionen abschwächen und positive Emotionen verstärken. Indem sie in der Mensch-Maschine Kommunikation Wert auf Empathie legen, bauen sie eine stärkere Bindung zu ihren KundInnen auf – und dies nachhaltig.


Das könnte Sie auch interessieren

Verwandte Artikel

Reply Deutschland SE

Call- und Contact-Center

Matchmaker+