Sie sind hier: HomeTelekommunikation

funkschau-Kommentar: Plaudern auf Augenhöhe?

Ob Lieferdienst, Online-Shopping oder Wetterabfrage in den heimischen vier Wänden: Viele Anliegen heutzutage werden nicht mit einem menschlichen Gegenüber geklärt, sondern mit einer Maschine. Genauer gesagt mit "schnatternden Robotern", den sogenannten "Chatbots".

KI Chatbot Bildquelle: © fotolia / Panuwat

Mensch oder Maschine: Wissen Sie immer, mit wem Sie es zu tun haben?

Dabei handelt es sich um textbasierte Dialogsysteme, bestehend aus einer Ein- und -ausgabemaske, über die sich per Sprache oder per Texteingabe mit dem dahinterstehenden System kommunizieren lässt. Technisch gesehen sind Chatbots näher mit einer Volltextsuchmaschine verwandt als mit künstlicher Intelligenz. Als solche durchsuchen sie das Netz entsprechend der Schlagworte, die im Dialog verwendet werden, um die Aufgabenstellung verstehen und reagieren zu können. Dabei gilt logischerweise: Je schneller das Internet, umso schneller die Reaktion des digitalen Assistenten.

Von Eliza bis Alexa
Wer denkt, Chatbots seien eine Ausgeburt unseres Jahrhunderts, der irrt sich: Die Entwicklung dieser Systeme reicht fast 50 Jahre zurück. 1966 stellte Joseph Weizenbaum eine Art virtuelle Psychotherapeutin vor: das Computerprogramm Eliza, mit dem der Mensch über natürliche Sprache mit einem Computer kommunizierte. Danach ging es ganz schnell; immer neue und bessere Systeme wurden entwickelt. Heute gibt es Tausende von Chatbots zu fast jedem Thema. Die bekanntesten sind Siri von Apple, Cortana von Microsoft, Alexa von Amazon und der Google Assistent von Google. Wohlgemerkt: Es gibt auch Chatbots, die gar nicht erst versuchen, wie ein menschlicher Chatter zu wirken, sondern ähnlich wie IRC-Dienste (Internet Relay Chat) nur auf spezielle Befehle reagieren. Sie können als Schnittstelle zu Diensten außerhalb des Chats dienen, oder auch Funktionen nur innerhalb ihres Chatraums anbieten, zum Beispiel neu hinzugekommene Chatter mit dem Witz des Tages begrüßen.

Gewollt dumm?
Doch wie jede größere technische Neuentwicklung hat auch diese mit anfänglichen Akzeptanzproblemen zu kämpfen: Eine Pegasystems-Umfrage unter 3.500 Konsumenten kommt zu dem Schluss, dass vielen Kunden Chatbots einfach noch zu dumm seien. So ist ein Großteil der Befragten zwar der Auffassung, dass Chatbots unter Umständen schnell und bequem sein können, dennoch bevorzugen 65 Prozent in Chats nach wie vor „echte“ Menschen als Partner – nur 17 Prozent würden einem Bot auch etwas abkaufen. Zu den häufigsten Klagen der Kunden über Chatbots gehören: unzureichende Intelligenz, um Fragen effektiv zu beantworten; zu wenig Berücksichtigung des Kontexts; „roboterähnliches“ Verhalten mit nur geringen menschlichen Merkmalen.

Schaut man sich dieses Ergebnis an, scheint der Weg hin zu spezialisierten Assistenzsystemen, die uns in Fragen der Gesundheit, Finanzen, Bildung oder Social Life unterstützen, noch sehr weit zu sein. Optimistische Vertreter jedoch wie die Zukunftsforscher von 2b Ahead peilen dafür bereits das Jahr 2025 an. Laufen hier zwei Ansichten total konträr? Mitnichten. Michael Carl, Managing Director Research & Consulting des 2b Ahead ThinkTanks unterstellt gar „bewusste Unterlassung”.  „Die Anbieter solcher Systeme berichten schon lange hinter nur noch halb vorgehaltener Hand, dass sie die Leistungsfähigkeit ihrer Systeme künstlich einschränken”, sagt er und liefert den Grund gleich mit: „Viele Unternehmen wollen ihren Kunden klar zu erkennen geben, wenn sie mit einer Maschine kommunizieren.“ Ergo: Die Maschine stellt sich dumm, um unseren – des Menschen – Erwartungen gerecht zu werden. Ein interessanter Gedanke; legt er doch nahe, dass uns die Maschine schon längst auf Augenhöhe begegnen kann. Nur wir sind noch nicht so weit.

Was nämlich passiert, wenn sich die Maschine nicht „zurückhält“ – und im Gegenteil eventuell sogar dazu ausgelegt ist, menschlicher zu wirken – veranschaulicht folgendes Beispiel:  Im Mai dieses Jahres stellte Google erstmals die Telefon-KI Duplex vor, die einer menschlichen Stimme derart zum Verwechseln ähnlich klingt, dass Google Zugeständnisse machen musste: Nun gibt sich die Duplex zu Beginn eines Gesprächs zu erkennen, woraufhin der Angerufene das Gespräch ablehnen kann. In Kalifornien ist diese Bot-Transparenz ab Sommer 2019 sogar gesetzlich geregelt.

Nichtsdestotrotz ist es nun mal Fakt, dass ein Großteil der Chatbots – gerade im Kundensupport – in der Tat noch zu „dumm“ ist: Sie sind nicht selten domänenspezifisch und können nur eine recht geringe Zahl an Anfragen beantworten. Dies schränkt ihre Fähigkeit ein, Kundenanfragen effizient abzuwickeln, wenn sie mit einer Frage konfrontiert werden, für deren Beantwortung sie nicht geschult wurden. Avaya hat vor diesem Hintergrund vor Kurzem eine interessante Lösung präsentiert: die „weltweit erste soziale Plattform für Chatbots“ – quasi zur sicheren Interaktion von Bots, mit dem Ziel, die Expertise eines jeden Chatbots zu erweitern.

Chatbots ja, aber nur wenn…
Das Google-Beispiel verdeutlicht allerdings: Die Kenntlichmachung der Kommunikationspartner ist das A und O. Versucht man nämlich eine Maschine für einen Menschen zu verkaufen, ist das Vertrauen schnell dahin. Hinzu kommt: Dass Kunden aus eigenem Antrieb bevorzugt mit Chatbots kommunizieren wollen, ist oft eine Selbsttäuschung von Unternehmen, die nur ihre Kosten im Auge haben. Vielmehr gilt es Chatbots als Ergänzung anderer Kommunikationskanäle anzusehen. In einem begrenzten Bereich lassen sich auf diese Weise dann tatsächlich Prozesse beschleunigen und auch Kosten einsparen und die Akzeptanz nach und nach wachsen.