Schwerpunkte

Gastkommentar

Auf dem Weg zur empathischen KI

24. Juli 2020, 10:30 Uhr   |  Autorin: Dagmar Schuller / Redaktion: Diana Künstler | Kommentar(e)

Auf dem Weg zur empathischen KI
© Goran Gajanin/IHK

Dagmar Schuller, CEO und Co-Founder von Audeering

KI-Pionierin Dagmar Schuller zeigt auf, was es braucht, um in Deutschland den Weg zur empathischen KI zu ebnen.

Künstliche Intelligenz und Emotionen – wie geht das zusammen? Diese häufig gestellte Frage zeigt, wo wir in der aktuellen Wahrnehmung von KI in Deutschland stehen. Für die allermeisten Unternehmen ist Künstliche Intelligenz eine Sammlung von Algorithmen, die mehr oder weniger einfache Aufgaben auf Basis von großen Datenmengen lösen. Werden sie mit einer unbekannten Aufgabe konfrontiert, ist es abhängig davon, mit welchen Daten sie trainiert wurden, ob das Ergebnis überzeugend ist oder nicht. Oftmals haben die Unternehmen aber keine Datenstrategie, um überhaupt die entsprechenden Daten für einen sinnvollen Einsatz von KI zur Verfügung zu stellen.  Insbesondere, wenn es um die menschlichen kognitiven Fähigkeiten geht, gilt es oftmals als völlige Fiktion, dass Maschinen ähnlich gut darauf reagieren könnten, als ein anderer Mensch.

Tatsächlich ist Künstliche Intelligenz aber schon viel weiter. Bereits Ende der 90er Jahre haben deutsche Wissenschaftler an der Technischen Universität München im Bereich der Emotionalen KI beziehungsweise des Affective Computing Grundlagenforschung insbesondere im Bereich Audio betrieben. Heute stammen zahlreiche Innovationsführer auf diesem Gebiet aus Deutschland. Doch wie ist die Entstehung einer emotionalen KI möglich? Und warum kommt diese so selten zum Einsatz?

Emotionen verstehen lernen
Die Basis für eine emotional intelligente und einfühlsame KI liegt im Verständnis der Maschine von menschlichen Emotionen. Denn Emotionen beeinflussen unsere Assoziationen, unser Abstraktionsvermögen und unsere Intuition. Sie lenken unsere Aufmerksamkeit. Und sie beeinflussen unsere Entscheidungsfindung. Wie lernt KI uns also zu verstehen?

Hier kommen unsere Gestik, Mimik und auch die Stimme ins Spiel. Letztere wird mit zunehmender Nutzung von Sprachbefehlen, intelligenten Sprachassistenten und IoT-Anwendungen zu einer riesigen Informationsquelle für die Analyse von Emotionen und vielen weiteren menschlichen Zuständen und Eigenschaften in Sekundenschnelle – und dies nur mit einem Sensor: dem Mikrofon.

Mithilfe von Methoden der intelligenten Sprachanalyse kann KI nun verstehen, wie und unter welchen akustischen Bedingungen der Mensch etwas sagt. Unsere Stimme enthält kaum veränderbare emotionale Merkmale wie Tonlage, Stimmklang, Sprachmelodie und -rhythmus. Unter anderem geben diese Parameter Aufschluss darüber, in welcher psychischen und emotionalen Situation oder auch Zustand sich der Sprecher gerade befindet, und zwar ganz unabhängig vom eigentlichen Inhalt des Gesagten. Die Stimme verrät, wie alt wir sind, welches Geschlecht wir haben, ob wir freudig, wütend oder ängstlich sind. Die Analyse dieser Parameter macht es für Künstliche Intelligenz möglich, unsere Gefühle und Emotionen, aber auch Gesundheitszustände einzuordnen. Für einzelne Bereiche liegen die Erkennungsraten der KI-Algorithmen bereits auf menschlichem Niveau, teilweise sogar darüber. Die Verfahren befähigen die Maschinen also dazu, den individuellen Zustand eines Menschen zu erkennen, zu bewerten und darauf angepasst und „intelligent“ zu reagieren. Damit schafft die Technologie die Grundlage für eine neue Generation von angewandter KI: der Empathischen Künstlichen Intelligenz.

Seite 1 von 2

1. Auf dem Weg zur empathischen KI
2. Enormes Potenzial, das nicht ausgeschöpft wird

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Die Komplexität im Kundendialog reduzieren
Revolution im Kundendialog?
Sprachcomputer im Gesundheitswesen
Unbekannte Applikationen managen
Der

Verwandte Artikel

funkschau