Skip to main content

Digitale Assistent*innen wollen unsere Freund*innen sein und versuchen auf jede von uns gestellte Frage eine Antwort zu finden. Doch manchmal tritt der Fall ein, dass sie uns nicht weiterhelfen können. Das kann einige User*innen sehr frustrieren und sie äußern sich Sprachassistent*innen gegenüber sehr ausfallend (auch abusive Language genannt). Äußert man sich Amazons Alexa gegenüber beleidigend ( “Alexa, du bist blöd.”), weißt sie einen zurecht und reagiert mit “Das ist aber nicht nett.” Falls man Alexa jedoch sachlich kritisiert, schlägt sie einem vor, Feedback zu hinterlassen. Google macht keinen Unterschied und reagiert auf beide Äußerungen mit der Frage nach Feedback. Doch was ist der benutzerfreundlichste Weg, um auf unangebrachte Sprache zu reagieren? Sollten sich diese Frage auch Unternehmen stellen, die einen Skill oder eine Action bauen wollen?

Dürfen wir Sprachassistent*innen beleidigen?

Es gibt drei grundsätzliche Wege auf unhöfliche Äußerungen zu reagieren: ignorieren, entschuldigen oder zurechtweisen. Schlichte Ignoranz (“Lass mich wissen, wenn du wieder chatten möchtest”) oder die Antwort “Das habe ich leider nicht verstanden” können die Frustration und die negative Erfahrung mit dem Voice Bot verstärken. Diese Situation ist am einfachsten zu verhindern, indem man dem Bot im Vorfeld schlichtweg keine Beleidigungen beibringt. Eine Studie von Chin, Molefi und Yi von 2020 zeigt allerdings, dass das Ignorieren von ausfallender Sprache der erfolgloseste Weg ist, damit ein*e digitale*r Assistent*in als sympathisch erscheint.

Wie viel Empathie sollten digitale Assistent*innen zeigen?

Das Entschuldigen führte dagegen in dieser Studie zur signifikant höchsten empfundenen Sympathie gegenüber dem Bot. Weiterhin wurde der/die digitale Assistent*in bei einer Entschuldigung intelligenter wahrgenommen, als bei einem bloßen Ignorieren der Beschimpfung. Wenn der Voice Bot den User*innen mitteilt, dass er ihre Frustration verstanden hat, auch wenn er die gewünschte Information nicht bereitstellen kann, zeigt er auf eine empathische Weise, dass das Gesagte verstanden wurde. Es geht dabei nicht um ein Schuldeingeständnis, sondern um das Erkennen und das Bedauern der schlechten Laune. Die Verärgerung der User*innen war zudem nach dieser Reaktion des/der Assistent*in geringer als bei den anderen beiden Möglichkeiten.

Wie digitale Assistent*innen nicht auf Beleidigungen reagieren sollten

Eine Zurechtweisung (“Bitte verwende nicht so eine Sprache.”) wurde von den drei Möglichkeiten als menschlichste Reaktion wahrgenommen. Die Intelligenz des/der Assistent*in wurde außerdem vergleichbar hoch wie bei einer Entschuldigung eingeschätzt. Doch die generell empfundene Sympathie fiel ähnlich gering aus wie bei Ignoranz einer Beschimpfung. Es kommt also auf die Mischung von Funktionalität und Sympathie an, um User*innen letztendlich zum Wiederkommen zu animieren.

Wie eine Anwendung auf Beschimpfungen reagiert, kann ein Unternehmen dabei selbst bestimmen. Abusive Language (“Du nutzloser Idiot!”) ist natürlich nicht der Normalfall, wenn man eine gute Anwendung gebaut hat. Doch auch, wenn die Anwendung das tut, wonach Nutzer*innen gefragt haben, kann es zu abusive Language kommen. Daher gilt es zu definieren, ob und wie auf solche Äußerungen reagiert werden soll und welche Reaktion der gewählten Voice Persona entspricht.

„Alexa, bring‘ meinem Kind Manieren bei!“

Sprache ist sehr individuell. Was für den einen sehr unverschämt wirkt, ist für den anderen der normale Tonfall mit Freunden oder der Familie. Einige sprechen mit Sprachassistent*innen sehr menschlich und reagieren auf einen klingelnden Timer mit “XY, danke.”, während andere mit “XY, Timer aus.” pragmatischer reagieren und hinter der Stimme von Sprachassistent*innen nur den Algorithmus sehen.

Unser sprachliches Verhalten gegenüber Smart Speakern übernehmen auch unsere Kinder. Sie lernen von uns, wie wir mit Smart Speakern sprechen und könnten dieses Verhalten auch auf reale Menschen übertragen. Daher ist vor einigen Jahren die Debatte entstanden, wie höflich Kinder mit Alexa und Co. sprechen müssen, um an Informationen zu kommen. 2018 brachte Google die Funktion pretty please für ihre amerikanischen Geräte heraus. Die Antwort auf eine Frage, die mit dem Wort “bitte” gestellt wurde, wird mit “Thank you for asking so nicely” eingeleitet.

Im selben Jahr brachte auch Amazon das Feature “Magic Word” für ihre Echo Dot Kids Edition, den digitalen Assistenten gezielt für Kinder heraus. Auch sie arbeiten mit positiver Verstärkung in der Antwort. Wird das bitte weg gelassen, kommt man auf beiden Plattformen auch an die gewünschten Informationen, allerdings findet vorher keine positive Verstärkung statt. Die Frage ist also, ob wir mit unseren Smart Speakern wie mit echten Menschen sprechen wollen und sie so auch in die Erziehung unserer Kindern mit einbeziehen. Vielleicht liegt es genau an diesen offenen Fragen, dass es solche Funktionen bisher nicht auf den deutschen Markt der Sprachassistent*innen geschafft haben.

Ihr benötigt Alexa-Beratung? Sprecht uns gern an! Wir finden eine Lösung.

Vanessa Smolik

About Vanessa Smolik

Als eine Mischung aus Computer- und Psycholinguistin vereint Vanessa gleichermaßen das Verständnis für die Magie hinter automatischer Spracherkennung und dem sprachlichen Verhalten von Menschen.