Chatbots und Avatare als Freunde

In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.

Abb.: Ein Alien als Avatar

Meine Freundin, der Chatbot

Chatbots stehen auf Websites von Unternehmen bereit, um über Produkte und Dienstleistungen zu informieren. Einige dienen auch einfach der Unterhaltung und Entspannung. Kuki (früher Mitsuku) und Replika lernen dazu und erinnern sich an Aussagen der Benutzer. Manche Benutzer wenden den Chatbots und Sprachassistenten gegenüber verbale Gewalt an. Dies kann innerhalb von Rollenspielen passieren und als Ventil funktionieren. Man verbleibt innerhalb der Virtualität. Fragwürdig ist es, wenn die Realität in der Weise einbezogen wird, dass sich die Benutzer vor Freunden mit ihren Taten brüsten und sich ihr Verhalten in ihren Beziehungen verändert. Was die Beziehungen zu den Chatbots und Sprachassistenten anbetrifft, muss beachtet werden, dass sie einseitig sind. Die Softwareroboter zeigen Emotionen und Empathie, aber sie haben sie nicht. Sie scheinen sich für ihr Gegenüber zu interessieren, aber in Wirklichkeit ist da nichts, was sich interessieren könnte. Natürlich ist es wichtig, die Phantasie in der Realität wachzuhalten, und dies kann über Fiktionalität und Virtualität geschehen. Problematisch wird es jedoch, wenn dauerhaft die Grenzen verschwimmen und man den Chatbot oder Sprachassistenten für einen ernstzunehmenden Partner hält. Der österreichische Standard hat Oliver Bendel zu dieser Thematik interviewt. Der Beitrag von Jakob Pallinger ist am 15. April 2022 in der Printausgabe erschienen („Meine Freundin, der Roboter“), am 17. April in der Onlineversion („Warum immer mehr Menschen künstliche Freunde und Partner haben“).

Abb.: Meine Freundin, der Chatbot, taucht gleich auf

Hey Replika, You Bitch!

Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.

Abb.: Replika könnte sich schützen und wehren