Warum menschenähnliche Chatbots anders beleidigt werden

Bild: ©Karl J. Donath

Chatbots sollen es Internetnutzern leichter machen, benötigte Informationen schnell zu finden, indem sie auf Fragen und Wünsche direkt antworten. Die Reaktionen auf einen Chatbot sind allerdings nicht immer nur positiv: „Wenn ein Chatbot falsche oder verwirrende Antworten gibt, kann dies bei Nutzern Aggressivität gegenüber dem digitalen Gesprächspartner auslösen“, sagt Prof. Alfred Benedikt Brendel, Wirtschaftsinformatiker an der der TU Dresden. Aggressionen gegenüber dem virtuellen Assistenten, wozu etwa auch Beschimpfungen zählen, können auch weitere negative Effekte haben – zum Beispiel auf die Einstellung der User zur Webseite oder dem Anbieter selbst.

In der Studie untersucht das internationale Forschungsteam um Brendel, ob die Gestaltung von Chatbots einen Einfluss darauf hat, wie Nutzer auf unbefriedigende Antworten reagieren. Die Forschenden nehmen an, dass aggressives Verhalten seltener auftritt, wenn ein Chatbot mit menschlichen Attributen versehen wird. „In unseren Experimenten kam bei einem Teil der Befragten ein menschlicher Chatbot zum Einsatz, der mit Namen, Geschlecht und Bild versehen war. Er beantwortete Fragen sehr freundlich und verstärkte seine Botschaften mit passenden Emojis.“ Ein neutraler Chatbot, mit dem ein anderer Teil der Studienteilnehmer interagierte, enthielt hingegen keine dieser Gestaltungselemente.

Die Ergebnisse der Studie zeigen zunächst, dass der menschliche Chatbot generell die Zufriedenheit der Nutzerinnen und Nutzer steigert. Das wiederum reduziert auch das Auftreten von Frustration. Gibt ein Chatbot jedoch unbefriedigende Antworten führt dies entgegen der ursprünglichen Vermutung der Forscher aber auch bei einem Chatbot mit menschlichen Attributen zu Frustration und Aggressivität. Insgesamt zeigen etwa zehn Prozent der Teilnehmer aggressives Verhalten gegenüber den virtuellen Assistenten.

Im Gegensatz zu einem neutralen Chatbot verringert sich bei einem menschlicheren Chatbot allerdings die Intensität des aggressiven Verhaltens. Laut Studie verwendeten User seltener beleidigende Äußerungen, wenn sie mit einem menschlichen Chatbot interagierten. Die Ergebnisse hätten insbesondere für die Praxis weitreichende Konsequenzen, erläutert Alfred Brendel. „Ich würde Softwareentwicklern empfehlen, bei der menschenähnlichen Gestaltung bedacht vorzugehen und genau zu überlegen, welche positiven wie negativen Effekte zusätzliche menschenähnliche Gestaltungselemente wie Geschlecht, Alter oder bestimmte Namen haben können.“







  • Ähnlichkeit erkannt, Kosten reduziert

    In der Variantenfertigung können Medien- und Systembrüche sowie Prozesse ohne digitales Abbild schnell zu Fehlern und Fehleinschätzungen führen. Wer die Daten hingegen pflegt und die Systeme etwa für CAD, PDM…


  • Prozessoptimierung in der anspruchsvollen Montage

    Das Familienunternehmen Fimab aus Neubulach im Nordschwarzwald setzt bei der Prozessoptimierung auf die Webanwendung Newdrive Analytics. Entwickelt wurde das Tool von einem Startup ganz in der Nähe des Blechbearbeiters.


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen zu generieren.


  • Was Assistenzsystemen oft im Weg steht

    Mit digitaler Werkerassistenz unterstützen Hersteller die Montageprozesse bei kleineren Losgrößen. Dabei sehen sich Unternehmen bei der Integration solcher Systeme oft mit Herausforderungen konfrontiert. Doch welche sind das und wie gehen…


  • IT-Modernisierung als Softwareprojekt

    Softwarewechsel, alte Hardware und fehlende Skalierbarkeit – für die IT-Modernisierung gibt es viele Gründe. Wer umfassende Projekte dieser Art strategisch plant und umsetzt, erlangt mit höherer Wahrscheinlichkeit eine langfristig beständige…