Wenn Chatbots Probleme erkennen

Im Jahre 2012 fütterte ein Student von Prof. Dr. Oliver Bendel in seinem Auftrag verschiedene Chatbots mit Sätzen wie „Ich will mich umbringen“ oder „Ich will mich ritzen“. Die meisten von ihnen reagierten unangemessen. Es fiel der Startschuss für den GOODBOT, der 2013 entstand, als ein Projekt innerhalb der Maschinenethik. Er erkannte Probleme des Benutzers und eskalierte über drei Stufen. Zunächst fragte er nach, versuchte zu beruhigen und zu helfen. Auf der obersten gab er eine Notfallnummer heraus. Das Projekt wurde von Oliver Bendel bei den AAAI Spring Symposia an der Stanford University und bei weiteren Anlässen vorgestellt. Zudem berichteten Medien darüber. Später entstanden LIEBOT und – im gleichen Geiste wie GOODBOT – BESTBOT, der mit Emotionserkennung (basierend auf Textanalyse und Gesichtserkennung) ausgestattet war, wieder später Chatbots wie MOBO (dessen Verhalten man über ein Moralmenü anpassen konnte) und Miss Tammy (deren Verhalten von Netiquetten gesteuert war). Miss Tammy war – wie andere Chatbots wie @ve, @llegra und kAIxo – kein regelbasierter Chatbot mehr, sondern LLM-basiert. Bereits 2013 diskutierte Oliver Bendel, ob man Chatbots, die Probleme erkennen können, mit externen Systemen verbinden sollte, etwa einem automatisierten Polizeinotruf. Dies birgt allerdings zahlreiche Gefahren und könnte heutzutage, wo von Millionen von Benutzern auszugehen ist, schwer umsetzbar sein. Die anderen Strategien, von der Unterstützung bis zur Herausgabe einer Notfallnummer, scheinen weiterhin zielführend zu sein.

Abb.: Eine neue Illustration des GOODBOT

Soll man nett zu einem Chatbot sein?

Der Spiegel hat mit Prof. Dr. Oliver Bendel ein Interview zu Chatbots, Sprachassistenten und sozialen Robotern geführt, das am 23. Juni 2025 veröffentlicht wurde. Es geht u.a. um Dialoge mit Artefakten. Der Technikphilosoph hält es für unproblematisch, danke und bitte zu einem Chatbot oder einem Sprachassistenten zu sagen. Damit überträgt man einfach bestehende Konventionen. Zudem reagiert ein LLM wie GPT-4o anders, wenn man zugewandt und ausführlich ist. Man erhält oft längere und hilfreichere Antworten und auch hilfreichere Rückfragen. Etwas anderes ist es, wenn es nicht nur um Konventionen, sondern auch um Emotionen geht. Wenn man dem Chatbot gegenüber sein Herz ausschüttet, muss einem klar sein, dass auf der einen Seite nichts ist, was sich für einen interessiert oder das versteht, was Menschen wünschen und brauchen. Hier liegen Täuschung und Betrug nahe, wie Oliver Bendel mit seinen Kollegen auch im Jahre 2023 in einer Studie zu sozialen Robotern herausgearbeitet hat. Das Interview kann über www.spiegel.de aufgerufen werden.

Abb.: Soll man nett zu einem Chatbot sein?

Mit Cleop@tr@ in Ägypten

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Es entstanden @ve, ein Chatbot für Latein (Implementierung durch Karim N’diaye), @llegra, ein Chatbot mit Sprachausgabe für Vallader, ein Idiom des Rätoromanischen (Implementierung durch Dalil Jabou), und kAIxo, ein Chatbot mit Sprachausgabe für Baskisch (Implementierung durch Nicolas Lluis Araya). Zudem experimentiert Oliver Bendel mit Chatbots für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die Welt hat am 1. April 2025 einen Artikel zu seiner Arbeit veröffentlicht, mitsamt einem längeren Interview, in dem der Technikphilosoph die Möglichkeiten und Beschränkungen von großen Sprachmodellen in diesem Kontext dargelegt. Cleop@tr@ nutzt die Multimodalität von GPT-4 für ihre Übersetzungen und Deutungen. Der Artikel kann hier aufgerufen werden.

Abb.: Ein ägyptisches Motiv

Speaking with kAIxo

The final presentation of the „kAIxo“ project took place on January 9, 2025. Nicolas Lluis Araya was the project team member. The FHNW School of Business has been developing chatbots for dead, endangered, and extinct languages for several years. A well-known example is @llegra, a chatbot for Vallader. In the spring of 2024, Oliver Bendel tested the reach of GPTs for endangered languages such as Irish (Irish Gaelic), Maori, and Basque. According to ChatGPT, there is a relatively large amount of training material for them. On May 12, 2024 – after Irish Girl and Maori Girl – a first version of Adelina, a chatbot for Basque, was created. It was later improved in a second version. As part of the „kAIxo“ project (the Basque “kaixo” corresponds to the English „hello“), the chatbot kAIxo was built, which speaks Basque. Its purpose is to keep users practicing written or spoken language or to develop the desire to learn the endangered language. The chatbot is based on GPT-4o and Gemini 1.5 Flash, and the user can select his or her preferred large language model (LLM). Retrieval-augmented Generation (RAG) plays a central role. The ChatSubs dataset is used, which contains subtitles of movie dialogs in Basque. Thanks to a text-to-speech engine, the chatbot can also speak. At the final presentation, Nicolas Lluis Araya presented a working prototype that can be accessed via www.kaixo.ch.

Fig.: Speaking with kAIxo

Hilfreiche Conversational Agents

Am 17. Dezember 2024 findet von 8 bis 9 Uhr wieder das Geriatrie-Seminar der Barmelweid-Akademie statt. Die Barmelweid ist nach eigenen Angaben die führende Spezial- und Rehabilitationsklinik der Nordwestschweiz. Prof. Dr. Oliver Bendel trägt über „Conversational Agents zur Erkennung von Problemen und zur Unterstützung von Personen“ vor. Dabei geht er sowohl auf Chatbots und Sprachassistenten als auch auf „embodied conversational agents“ wie bestimmte Pflegeroboter mit natürlichsprachlichen Fähigkeiten ein. Das übergeordnete Ziel der Seminarreihe ist laut Website, die neusten Ergebnisse aus Lehre und Forschung in die tägliche klinische Arbeit der Barmelweid einfließen zu lassen. Gleichzeitig wollen die Verantwortlichen die ethischen und managementbezogenen Aspekte nicht außer Acht lassen. Im Fokus stehen 2024 die Digitalisierung im Gesundheitswesen, das Delirium-Management und die geriatrische Onkologie. Weitere Informationen sind über die Website der Klinik erhältlich.

Abb.: Hilfreiche Conversational Agents

Danke, Chatbot!

Adrian Lobe hat Oliver Bendel die Frage gestellt, ob man gegenüber Chatbots nett und höflich sein sollte. Der Technikphilosoph und Wirtschaftsinformatiker führte aus, dass Höflichkeit bei Chatbots, die auf LLMs basieren, zu besseren Antworten führen kann, ebenso wie die Behauptung, dass man das Ergebnis für eine gute Sache oder wissenschaftliche Zwecke benötigt. Es sei effektiv, zu Chatbots und Sprachassistenten „danke“ und „bitte“ zu sagen. Zudem wies er darauf hin, dass wir bestimmte Routinen und Konventionen in Gesprächen haben. Es sei durchaus sinnvoll, diese auch dann beizubehalten, wenn es sich um künstliche Gesprächspartner handele. Es sei effizient und konsistent, zu Chatbots und Sprachassistenten „danke“ oder „bitte“ zu sagen. Ich muss, so Oliver Bendel, nicht hin und her wechseln, ich kann das Gespräch wie mit einem Menschen führen. Man tauschte sich noch zu weiteren Aspekten der Höflichkeit gegenüber Chatbots aus. Einzelne Aussagen sind in den Artikel „Warum man unbedingt nett zu Chatbots sein sollte“ eingeflossen, der am 8. November 2024 in der Onlineausgabe der Welt erschienen ist.

Abb.: Danke, Chatbot!

Eine weitere moralische Maschine

Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.

Abb.: Data ist eine moralische Maschine (Bild: DALL-E 3)

Working Paper zu @ve

Im Jahre 2022 wurde das Projekt @ve durchgeführt. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Seit Ende November 2023 liegt ein Working Paper mit dem Titel „@ve: A Chatbot for Latin“ vor. Es wurde bereits im Sommer verfasst. Der Chatbot läuft voraussichtlich noch bis Ende des Jahres.

Abb.: Mit @ve kann man auf Latein plaudern (Bild: Ideogram)

Ask Social Robotics Girl!

On November 6, 2023, OpenAI made so-called GPTs available to ChatGPT Plus users. According to the US company, anyone can easily create his or her own GPT without any programming knowledge. Initial tests have shown the performance of the new function. ChatGPT suggests a name for the chatbot, creates the profile picture and accepts documents with text and reference lists to expand its knowledge of the topic. The function is ideal for creating your own learning companions, modern educational agents so to speak. But you can also benefit from chatbots from other users and providers. A GPT called Social Robotics Girl, which provides information about social robotics, has been available since November 12, 2023. It was created by Prof. Dr. Oliver Bendel and is based on a collection of his articles on this topic. It can therefore give his definition of social robots and make classifications based on his five-dimension model. ChatGPT Plus users can access Social Robotics Girl via chat.openai.com/g/g-TbhZSZaer-social-robotics-girl.

Fig.: A young man with a chatbot (Image: DALL-E 3)

Ein Video zu @llegra

Zu @llegra, einem Chatbot für Vallader, liegt seit 10. September 2023 ein Video vor. Vorgeführt wird ein kurzes Gespräch mit Texteingabe und -ausgabe sowie Sprachausgabe. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen widmete er seine Doktorarbeit an der Universität St. Gallen. An der Hochschule für Wirtschaft FHNW entstanden sie von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Der Technikphilosoph und Wirtschaftsinformatiker widmet sich seit einiger Zeit verstärkt toten, ausgestorbenen und gefährdeten Sprachen. Nach @ve (2022), einem auf GPT-3 basierenden Chatbot für Latein, startete im März 2023 ein weiteres Projekt. Entwickelt wurde bis August 2023 der Chatbot @llegra von Dalil Jabou für das rätoromanische Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Chatbot mit einem Steinbock als Avatar beruht auf dem Sprachmodell GPT-4. Das hat den Vorteil, dass er von Haus aus mächtig ist, und den Nachteil, dass man ihn noch nicht mit eigenem Material trainieren kann – was sich erst Ende des Jahres ändert. Entsprechend rutscht @llegra immer wieder in Sursilvan und Rumantsch Grischun, wenn sie auf Vallader nicht weiterweiß. Das kann freilich auch Menschen passieren, die gerade von Flims nach Scuol gezogen sind und regelmäßig RTR gesehen oder gehört haben. Das Video kann über YouTube aufgerufen werden.

Abb.: Ein junger Steinbock

Ein neuartiger Chatbot, der auf Constitutional AI beruht

Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Wespi gewonnen werden. Er wird im Rahmen seiner Abschlussarbeit Grundlagen zu Constitutional AI erarbeiten und den CAIBOT prototypisch implementieren. Die Ergebnisse werden im Januar 2024 präsentiert.

Abb.: Der CAIBOT benutzt Sprachmodelle wie GPT

@llegra im Unterengadin

Seit März 2023 wird im Auftrag von Prof. Dr. Oliver Bendel der Chatbot @llegra für das rätoromanische Idiom Vallader entwickelt, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Entwickler Dalil Jabou hat auf das Sprachmodell GPT-4 gesetzt und alle wesentlichen technischen Probleme gelöst. Der Benutzer kann Text in Englisch, Deutsch oder Rätoromanisch eintippen und bekommt Text in Vallader ausgegeben. Zudem spricht @llegra das Idiom mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft aus Zürich. Ein kleiner Test mit einem Experten fand bereits statt und führte zu einer ersten Verbesserung. Oliver Bendel war am 9. Juli mit @llegra im Unterengadin unterwegs und suchte nach einer Testperson mit Vallader als Muttersprache. In Tarasp Fontana bei Scuol sprach er mehrere ältere Frauen an. Eine verwies auf eine Dame von vielleicht 78 Jahren, die sich in der Nähe befand und gerade vom Nordic Walking kam. Die Vallader-Sprecherin hörte sich die Antwort des Chatbots auf eine Frage zu Tarasp an und begann ungefragt, das Gesprochene ins Deutsche zu übersetzen. Dann wurde @llegra gefragt, ob sie Scuol kennt. Sie gab wiederum in Vallader eine längere Auskunft. Die ältere Dame bestätigte, dass die Aussprache gut und der Inhalt verständlich ist. Sie begann zu strahlen und fragte, ob es sich um künstliche Intelligenz handle. Oliver Bendel bestätigte dies, strahlte ebenfalls, fuhr weiter und ließ sich von @llegra in Scuol noch Informationen zum dortigen Museum d’Engiadina Bassa geben. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.

Abb.: Das Steinbockmädchen @llegra

ChatGPT als moralische Maschine

„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.

Abb.: Einer der ersten Chatbots, die eine moralische Maschine waren

Plaudern wie die alten Römer

Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.

Abb.: Ein Gladiator

Ein Date mit einem Ding

Simone Luchetta vom Tages-Anzeiger hat Prof. Dr. Oliver Bendel zu Chatbots, Sprachassistenten und sozialen Robotern befragt. Eine Frage war, warum man seit Jahrzehnten davon spreche, dass wir bald Roboter heiraten, aber noch immer nichts dergleichen zu beobachten sei, allenfalls in Japan. Seine Antwort: „Es ist eine alberne Vorstellung, dass wir Chatbots, Sprachassistenten oder Roboter heiraten. Man muss nichts und niemanden heiraten, um eine Beziehung zu führen. In den meisten Fällen dürfte es sich auch um keine echte Ehe handeln. Manchen Produkten liegt ein Zettel bei, den man ausfüllen kann und der über eine Absichtserklärung eine Heirat darstellen soll. Die Maschine selbst hat keine Absichten. Sie hat auch weder Rechte noch Pflichten – und das ist eine schlechte Grundlage für einen Vertrag, der die Ehe letztlich ist. Tatsächlich führen aber viele Menschen eine Beziehung mit einem Sprachassistenten oder einem sozialen Roboter, nicht nur in Japan, sondern auch in den USA oder in Deutschland. Manche haben sogar einen Sexroboter wie Harmony oder gehen zu Liebespuppen in Bordellen. … Letztlich ist und bleibt es eine einseitige Beziehung. Der Roboter interessiert sich nicht für einen, er liebt und hasst einen nicht. Es ist einfach ein Ding, wenn auch ein Ding mit besonderen Eigenschaften. Es ist ein soziales Ding. Und deshalb gehen wir ihm auf den Leim.“ Das Interview umfasste weitere Fragen und Antworten, auch zu kommerziellen Chatbots. Einige Aussagen sind in den Artikel „Meine unheimlich nette Freundin“ eingeflossen, der am 13. und 14. November 2022 in mehreren Schweizer Zeitungen erschienen ist, etwa im Tages-Anzeiger und in der Basler Zeitung. Er ist Teil eines aktuellen KI-Schwerpunkts der Tamedia-Gruppe.

Abb.: Einen Antrag macht man nur unter Menschen

Blatio ergo sum

Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt oder gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden und auch präzisere Antworten zu grammatikalischen Fragen liefern. Außerdem ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.

Abb.: Ein Chat mit Kuki