,

Die personalisierte User Journey über AI-basierten Dialog

Die personalisierte User Journey über AI-basierten Dialog

 

Die Vision, mit Computern so zu sprechen wie mit anderen Menschen, ist älter als der Computer selbst. Sie durchzieht das gesamte Science Fiction-Genre, wo es seit jeher möglich ist, sich fließend mit intelligenten Maschinen zu unterhalten. Der Computer des Raumschiff Enterprise und C3PO sind zwei prominente Beispiele.

Conversational Agents verbuchen erste Erfolge

Aktuelle Lösungen sind im Volksmund als Chatbots bekannt und spielen mittlerweile eine Rolle im Leben vieler Menschen. Auch Unternehmen sehen erste Erfolge bei der Verwendung von Conversational Agents, die sie bspw. im Kundenservice, Online Marketing, Banking oder zum Recruiting und Onboarding von Mitarbeitern einsetzen.

Die Automatisierung von Gesprächen stellt also eine große - wenn nicht sogar riesige - kommerzielle Chance dar. Gartner prognostiziert, dass "bis 2021, 15% aller Kundenservice-Interaktionen vollständig von einer AI abgewickelt werden, was einem Anstieg von 400% gegenüber 2017 entspricht". Diese Bewertung basiert auf der Beobachtung des aktuellen Marktes für AI - insbesondere von Dialog-Technologien, die die Transformation und Automatisierung des Kundenservice vorantreiben.

Chatbots können gar nicht so gut chatten

Während 15% aller Kundenservice-Interaktionen auf den ersten Blick einen scheinbar großen Anteil ausmachen, könnte man sich auch fragen, warum "nur" 15%? Betrachten wir die Szenarien der Kundendienst-Interaktionen, dann stehen sich triviale Aufgaben und komplexe Problemlösungen gegenüber.

Es ist offensichtlich, dass die 15% nur mit limitierten Anforderungen umgehen können. Und genau das beschreibt den derzeitigen Zustand von Chatbots: Sie können gar nicht so gut chatten. Sie führen in der Regel durch einen vordefinierten Entscheidungsbaum, der nichts anderes ist als ein Klickpfad.

Was ein gutes Gespräch ausmacht

Das macht Chatbots zu einer Art Website innerhalb eines Messenger-Dienstes wie WhatsApp oder dem Facebook Messenger. Meinte Marc Zuckerberg das, als er sagte:

 "Wir sind der Meinung, dass User in der Lage sein sollten, ein Unternehmen auf die gleiche Weise anzusprechen wie einen Freund."

Ganz sicher nicht. Ein Gespräch ist ein performativer Akt, d.h. jeder Teilnehmer leistet durch seine Worte einen inhaltlichen Beitrag. Bei der Automatisierung von Mensch-Maschine-Dialogen geht es darum, zu verstehen, was Benutzer in einer bestimmten Situation erreichen wollen und angemessen zu reagieren – und zwar personalisiert und kontextualisiert.

Natural Language Understanding (NLU) treibt die Entwicklung voran

Mit den jüngsten Fortschritten bei der Entwicklung von künstlicher Intelligenz sind wir dem Ziel von praktikabler Mensch-Computer-Interaktion ein großes Stück näher gekommen. Tatsächlich sind Conversational Interfaces zu einem großen Trend geworden: Amazon Alexa, der Google Assistant oder Siri sind allgemein bekannte Beispiele.

Der Treiber für diese erfolgreichen Produkte ist Natural Language Understanding (NLU). Während NLU zu Beginn von programmierten Regeln und Grammatiken angetrieben wurde, lernt die Technik nach heutigem Stand aus sogenannten Trainingsdaten. Grammatikalischen Vorkenntnisse sind nicht nötig.

Vor diesen Herausforderungen stehen die Entwickler

Das funktioniert erstaunlich gut bei den vielen Anbietern von NLU-Produkten, aber es ist nur ein erster Schritt zu natürlichen Gesprächen mit Computern, denn die aktuellen Lösungen stehen immer noch vor Herausforderungen:

Verständnis

Die meisten modernen Systeme konzentrieren sich darauf, die Absicht des Benutzers in einer einzigen Äußerung zu verstehen und führen das Gespräch, indem sie diese Angabe isoliert betrachten. So funktioniert Dialog nicht! Dialog ist referenziell und berücksichtigt auch frühere Angaben und Details, die manchmal implizit sind.

Dialog

Isolation und Interpretation einzelner Äußerungen ohne Rücksicht auf den Gesamtkontext führen zu sehr starren und vorhersehbaren Dialogen, die auf jede individuelle Absicht in einer vordefinierten Weise reagieren. Die Systeme sind i.d.R. nicht in der Lage sich dem "Fluss" eines Dialogs zu nähern. An den sind Menschen allerdings gewöhnt, wenn sie miteinander sprechen.

Training

Moderne Ansätze, die auf maschinellem Lernen basieren, erfordern Tausende von Beispielen, bevor sie ordentliche Ergebnisse liefern. In den meisten Anwendungen ist jedoch die Bereitstellung so vieler von Beispiele nicht möglich.

Zur Erinnerung: In den meisten Fällen ist das Dialogverhalten vorgegeben. Entweder gibt es einen definierten Entscheidungsbaum oder eine Modell, das aus Beispieldialogen gelernt hat. Diese Lösungen sind leider nicht dynamisch: Der Bot entscheidet also nicht auf Basis des Kontextes, was er antwortet. Aber genau so soll es ja sein.

Was muss der Bot also verstehen, um eine entsprechende Qualität zu liefern?

Kontext

Der Chatbot sollte berücksichtigen, was bereits im Gespräch passiert ist und worüber gerade gesprochen wird.

So werden aus einzelnen Paaren von Anfragen und Antworten lange Threads und der Bot kann nachvollziehen, welche Optionen für den Nutzer interessant sind. Darüber hinaus ermöglicht das wachsende Wissen dem Chatbot, Benutzereingaben zu disambiguieren - also Dinge eindeutig zuzuordnen.

Ein Beispiel: Wenn dem Nutzer eines Koch-Chatbots zwei Rezeptvorschläge präsentiert werden und er fragt: "Ist das erste vegetarisch?", kann der Bot erkennen, auf welchen der Vorschläge sich "das erste" bezieht. Außerdem kann er, wenn der Benutzer als nächstes "Und das andere?" fragt, daraus schließen, dass die implizite Frage lautet, ob das andere vorgeschlagene Rezept ebenfalls vegetarisch ist.

Personalisierung

Berücksichtigt der Chatbot das gelernte Wissen über den Nutzer, kann er wiederum Ergebnisse ausspielen, die für den Benutzer relevant sind. Schließlich ist das Dialogverhalten datengesteuert. D.h. er kombiniert die zugrunde liegende Datenquelle und die Ergebnisse von individuellen Anfragen der Nutzer. Je nachdem, wie viele Ergebnisse eine Anfrage hat, kann der Bot seine Antwort entsprechend anpassen: Gibt es zu viele Ergebnisse, kann er versuchen, zuerst den Suchrahmen einzugrenzen, indem er mehr Fragen stellt. Gibt es zu wenige Ergebnisse, kann er den Suchrahmen wieder aktiv erweitern.

Bessere Gespräche dank flexiblem Dialogverhalten und passenden Strategien

Derzeit gibt es bereits Architekturen, die sich diesen Herausforderungen stellen. Ich bin überzeugt, dass das Herzstück zukünftiger Chatbots ein Dialogverhalten sein wird, das die komplizierten Schritte eines Gesprächs adaptieren kann:

Schritte, die sich aus dem Verlauf des Gesprächs und dem damit verbundenen Know-How ergeben – denn unterschiedliche User Stories erfordern unterschiedliche Strategien, um ihr jeweiliges Ziel zu erreichen. So kann bspw. eine explorative Suche nach Fahrzeugen, die den Wünschen des Benutzers entsprechen, viel offener und flexibler gestaltet sein, als festzustellen ob der Benutzer Anspruch auf einen bestimmten Kredit hat.

Ein One-Size-Fits-All-Ansatz ist also dann zum Scheitern verurteilt, wenn der Mensch einen dynamischen Dialog mit dem Computer führen soll, denn es ist nicht entweder der Benutzer oder der Bot, der das Gespräch antreibt, sondern beide zusammen.


IT Arvato CloudÜber den Autor des Beitrags:

Jens Kretschmann

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.