Happy child with robot. Funny kid playing at home. Success, creative and innovation technology concept
Virtuelle Assistenten, Chatbots, sind von vielen Unternehmenswebseiten nicht mehr wegzudenken und gewinnen zunehmend an Bedeutung. Eine Studie der TU Dresden hat untersucht, ob Fehler von Chatbots zu aggressivem Verhalten bei ihren Nutzeren führen und welchen Einfluss die vermeintliche Menschlichkeit der virtuellen Assistenten auf die Reaktionen hat.
Chatbots sollen es Internetnutzer leichter machen, benötigte Informationen schnell zu finden, indem sie auf Fragen und Wünsche direkt antworten. Die Reaktionen auf einen Chatbot sind allerdings längst nicht immer nur positiv, sagt Professor Alfred Benedikt Brendel von der TU Dresden. „Wenn ein Chatbot falsche oder verwirrende Antworten gibt, kann dies bei Nutzern Aggressivität gegenüber dem digitalen Gesprächspartner auslösen“, erklärt der Inhaber der Professur für Wirtschaftsinformatik. Aggressionen gegenüber dem virtuellen Assistenten, wozu beispielsweise auch Beschimpfungen zählen, haben im schlimmsten Fall auch weitere negative Effekte – zum Beispiel auf die Einstellung der Nutzer zur Webseite oder dem Anbieter selbst.
In ihrer Studie untersucht das internationale Forschungsteam um Alfred Brendel, ob die Gestaltung von Chatbots einen Einfluss darauf hat, wie Nutzer auf unbefriedigende Antworten reagieren. Versieht man einen Chatbot mit menschlichen Attributen, ist anzunehmen, dass aggressives Verhalten seltener auftritt als bei einem neutral gestalteten Chatbot. „In unseren Experimenten kam bei einem Teil der Befragten ein menschlicher Chatbot zum Einsatz, der mit Namen, Geschlecht und Bild versehen war. Er beantwortete Fragen sehr freundlich und verstärkte seine Botschaften mit passenden Emojis.“ Der neutrale Chatbot, mit dem ein anderer Teil der Studienteilnehmer interagierte, enthielt hingegen keine solcher Gestaltungselemente.
Die Ergebnisse der Studie zeigen zunächst, dass der menschliche Chatbot generell die Zufriedenheit der Nutzer:innen steigert. Das wiederum reduziert auch das Auftreten von Frustration. Gibt ein Chatbot jedoch unbefriedigende Antworten führt dies entgegen der ursprünglichen Vermutung der Forscher aber auch bei einem Chatbot mit menschlichen Attributen zu Frustration und Aggressivität. Insgesamt zeigen etwa zehn Prozent der Nutzer aggressives Verhalten gegenüber den virtuellen Assistenten.
Im Gegensatz zu einem neutralenChatbot verringert sich bei einem menschlicheren Chatbot allerdings die Intensität des aggressiven Verhaltens. So verwendeten User:innen seltener beleidigende Äußerungen, wenn sie mit einem menschlichen Chatbot interagierten. Die Ergebnisse haben insbesondere für die Praxis weitreichende Konsequenzen, erläutert Alfred Brendel. „Ich würde Softwareentwicklern empfehlen, bei der menschenähnlichen Gestaltung bedacht vorzugehen und genau zu überlegen, welche positiven wie negativen Effekte zusätzliche menschenähnliche Gestaltungselemente wie Geschlecht, Alter oder bestimmte Namen haben können.“
Investitionsbemühungen der Unternehmen werden nur erfolgreich sein, wenn sie die Datenkomplexität, -sicherheit und -nachhaltigkeit bewältigen…
Generative KI kann falsch liegen oder vorurteilsbehaftete Ergebnisse liefern. Maßnahmen, mit denen Unternehmen das Risiko…
82 Prozent der Unternehmen sind der Meinung, die aktuelle Konjunkturkrise sei auch eine Krise zögerlicher…
IT-Verantwortliche in Deutschland vertrauen auf KI-Agenten und investieren mit 2,6 Millionen Euro mehr als Britische…
Deutsche Unternehmen sehen KI-basierte Cyberangriffe zwar als große Gefahr, aber hinken in der Vorbereitung noch…
ISG-Studie: So lassen sich verschiedenste Hyperscaler-Angebote in lösungs-, kosten- und compliance-gerechten Multiclouds vernetzen.