Maschinen in Entscheidungsnot

Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.

calculator

Abb.: Was ist, wenn der Roboter sich verrechnet?

A Robot in the Robot

NeXus, the magazine of the student projects connectUS, Focus India, Insight China and exploreASEAN (University of Applied Sciences and Arts Northwestern Switzerland FHNW), interviewed the machine ethicist and business information systems engineer Prof. Dr. Oliver Bendel. The first question Stephen Randes asked was: „Cars are an integral part of US culture and identity. How will self-driving cars be accepted in that market?“ The answer: „Some Americans will surely miss the fun of driving. However, there is a new kind of driving enjoyment. As everyone knows who has ever tried out the autopilot of the Tesla model S. Whether the social approval will be given remains to be seen. There are certainly reasons to reject autonomous cars in particular areas.“ The next question: „What about safety concerns? What happens if an accident cannot be avoided?“ The scientist’s answer: „This is a subject that we explore in machine ethics: whom shall the autonomous car kill if it cannot brake in time? You can teach it rules or feed it with cases, and make it a complex moral machine that decides on people’s life and death. I, personally, argue in favor of simple moral machines. I am not against robot cars – I advise not to let them drive at any place and at any time. It is a question of avoiding accidents if possible.“ The last question related again to the market and the development of mobility: „Market analysts expect 10 million self-driving cars on the roads by 2020. How do you think this will change mobility (individual transport, public transport, workplace commutes)?“ Oliver Bendel declared: „I see opportunities for public transport. In the Valais, PostAuto is testing autonomous shuttles. Their speed is very low, so that there can be hardly any damage. Private autonomous cars are well suited for the traffic between cities. New forms of car sharing are possible as well. Maybe one day self-driving cars might even be sent to fetch a pizza, which, however, implies that there is a robot in the robot – except the pizza is simply thrown into the car.“ A part of the interview was published in the April issue, including further information on the person and the motivation.

Mobile_Robot

Fig.: This robot could take the pizza

The LIEBOT Project

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: From truth to lie

Maschinenethik im Kassensaal

Am 2. Mai 2016 fand in Wien eine öffentliche Sitzung der österreichischen Bioethikkommission zum Thema „Von Mensch und Maschine: Roboter in der Pflege“ statt. Wegen des großen Andrangs war sie in den Kassensaal, wo früher Geldgeschäfte getätigt wurden, verlegt worden, einen prächtigen Saal der Bundesregierung. Zunächst trafen sich die Referenten zu einem Hintergrundgespräch mit Pressevertretern im Bundeskanzleramt am Minoritenplatz. Nach einem Mittagessen im Café Landtmann ging man in den Kassensaal hinüber. Die Vorsitzende der Bioethikkommission, Christiane Druml, eröffnete die Veranstaltung. Oliver Bendel von der Hochschule für Wirtschaft FHNW referierte zu Maschinen- und Informationsethik und zu ethischen Fragen des Einsatzes von Pflegerobotern. Er ist der Meinung, dass diese die persönliche Autonomie von Patienten verbessern, aber auch deren informationelle Autonomie verletzen können. Mark Coeckelbergh, inzwischen an der Universität Wien tätig, fragte nach den Anforderungen in der Pflege und wie Pflegeroboter, auch aus Sicht der Maschinenethik, dazu passen, und Michael Decker vom KIT in Karlsruhe präsentierte ein aktuelles Projekt in diesem Bereich. Grundsätzliche Technologiekritik übte Jutta Weber von der Universität Paderborn. Markus Wohlmannstetter von der Krankenanstalt Rudolfstiftung nahm die Perspektive der Pflegerinnen und Pfleger ein. Ina Wagner, Mitglied der Bioethikkommission, fasste die Ergebnisse zusammen. Im Anschluss stellten Mitglieder der Kommission und der Öffentlichkeit eine Stunde lang ihre Fragen, wobei nicht nur teilautonome Pflege-, sondern auch autonome Kampfroboter thematisiert wurden, deren Einsatz ein älterer Österreicher forderte, während Oliver Bendel sich dagegen aussprach, obwohl sie, wie er erklärte, nicht plündern, brandschatzen oder vergewaltigen, also auch gewisse Vorteile hätten. Am Ende wurden die Referenten, die der Alpenrepublik ihre Erkenntnisse honorarfrei übermittelt hatten, mit einem kräftigen Applaus verabschiedet. Weitere Informationen und Fotos über www.ots.at/presseaussendung/OTS_20160503_OTS0014/bioethikkommission-diskutiert-den-einsatz-von-robotern-im-pflegebereich

 

Roboterautos aus Sicht von Automobilindustrie und Maschinenethik

„Die Maschinenethik, eine Gestaltungsdisziplin mit Nähe zu Künstlicher Intelligenz (KI) und Robotik, hat ihre eigenen Workshops und Tagungen, in den USA und in Polen, und immer mehr Publikationen erscheinen. Im März 2016 trafen sich ihre Vertreter in Stanford im Rahmen der AAAI Spring Symposia, im Juli will man sich in New York bei der IJCAI16 austauschen, etwa über Roboterautos.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 29. April 2016 in ICTkommunikation erschienen ist. „Die Automobilindustrie reagiert auf die Überlegungen und Vorschläge zum Teil aufgeschlossen, zum Teil abwehrend. Sie wittert ein Milliardengeschäft und rüstet sich für die Herausforderungen und die Auseinandersetzungen.“ (ICTkommunikation, 29. April 2016) Der Verfasser erklärt in seinem Beitrag mit dem Titel „Roboterautos aus Sicht von Automobilindustrie und Maschinenethik“ zentrale Begriffe und Ansätze der Maschinenethik, wobei er Äußerungen aus der Wirtschaft einbezieht, und spricht sich für autonome Autos in bestimmten Bereichen aus. Mehr über ictk.ch/inhalt/roboterautos-aus-sicht-von-automobilindustrie-und-maschinenethik.

Mercedes_Robocar

Abb.: Wie sieht das Auto der Zukunft aus und wo fährt es?

Robots‘ Ethical Systems

„A Construction Manual for Robots‘ Ethical Systems“, herausgegeben von Robert Trappl, widmet sich „modern applications such as assistive robots and self-driving cars“. Der Verlag schreibt in seiner Information: „This book will help researchers and engineers in the design of ethical systems for robots, addressing the philosophical questions that arise and exploring modern applications such as assistive robots and self-driving cars. The contributing authors are among the leading academic and industrial researchers on this topic and the book will be of value to researchers, graduate students and practitioners engaged with robot design, artificial intelligence and ethics.“ (Information Springer) Das Buch mit Beiträgen von Luís Moniz Pereira, Ari Saptawijaya, Michael Anderson und Susan Leigh Anderson ist 2015 bei Springer erschienen und hat 210 Seiten. Weitere Informationen über www.springer.com/de/book/9783319215471.

Automatisiertes Fahren und Ethik

Das DVR-Forum „Automatisiertes Fahren und Ethik“ findet am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutet den Schwerpunkt an. In der Beschreibung heißt es: „Schon heute werden wir durch Assistenzfunktionen beim Autofahren unterstützt. Diese helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern. In nicht allzu ferner Zukunft werden hochautomatisierte Fahrfunktionen folgen: Das Fahrzeug übernimmt – zunächst zeitweise – die Fahraufgabe, es gibt Gas, lenkt und bremst. Die Fahrenden können sich in dieser Zeit anderweitig beschäftigen und müssen die Fahrsituation nicht überwachen. Doch was geschieht beim hochautomatisierten Fahren in einem Notfall, wenn sich ein Unfall nicht mehr vermeiden lässt?“ Und weiter: „In solchen Situationen müssen die Fahrzeuge in Sekundenbruchteilen Entscheidungen treffen. Dafür müssen sie programmiert werden, Menschen müssen festlegen, wie das Auto reagieren soll. In rasender Geschwindigkeit kann die Maschine viele Möglichkeiten durchspielen und die Reaktion auswählen, die den größten Erfolg – bzw. den geringsten Schaden – verspricht. An der Podiumsdiskussion nehmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderiert Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.

TagderVS

Abb.: Logo des Tags der Verkehrssicherheit

Von Mensch und Maschine

Eine öffentliche Sitzung der österreichischen Bioethikkommission trägt den Titel „Von Mensch und Maschine: Roboter in der Pflege“. Sie findet am 2. Mai 2016 im Bundeskanzleramt in Wien statt. Es tragen nach der Eröffnung von Dr. Christiane Druml (Vorsitzende der Bioethikkommission) vor: Prof. Dr. Oliver Bendel, Fachhochschule Nordwestschweiz, Institut für Wirtschaftsinformatik („Die Maschine in der Moral“), Prof. Dr. Mark Coeckelbergh, Universität Wien, Institut für Philosophie („Machine ethics in healthcare“), Prof. Dr. Michael Decker, Karlsruhe Institut für Technologie, Institut für Philosophie („Einsatz von Robotern in der Pflege – empirische Erfahrungen“), Prof. Dr. Jutta Weber, Universität Paderborn, Institut für Medienwissenschaften („Maschinelle Versorgung: Die impliziten Werte der sozialen Robotik und ihre gesellschaftlichen Konsequenzen“) und Markus Wohlmannstetter, MSc., Anästhesiologische Intensivstation 1B, Krankenanstalt Rudolfstiftung („Einsatz von Robotern in der Pflege – aus der Sicht der Pflege“). Das „Wrap-up“ verantwortet Prof. Dr. Ina Wagner, Mitglied der Bioethikkommission. Weitere Informationen über den Flyer zur Veranstaltung.

Bett

Abb.: Das Bett bleibt nicht leer

Der tanzende Robot

Im Südpol Luzern erlebten die Zuschauerinnen und Zuschauer, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Der „träumte schon in Kindertagen davon, einen Roboter zum Freund zu haben“ (Information zur Veranstaltung). „Erwachsen geworden, ist für ihn daraus Wirklichkeit geworden, denn er teilt sich, unterstützt von zwei weiteren Tänzern, die Bühne mit Kuka, einem Industrieroboter. Das Ergebnis ist Tanzkunst, die mit messerscharfer Präzision begeistert.“ (Information zur Veranstaltung) Der Robot tanzt wie die Menschen, tanzt mit dem Menschen, mit Huang Yi, die Menschen – es kommen eine Tänzerin und ein Tänzer hinzu – tanzen wie der Robot, lassen sich von ihm bewegen, von seinem „Traktorstrahl“. „Gebannt verfolgt man die Begegnung dieser scheinbar so ungleichen Partner und spürt die emotionale Beziehung. Die Art des Verhältnisses bleibt dabei jedoch in der Schwebe: Sind es nun die vom Choreografen in der Kindheit ersehnten Freunde? Oder handelt es sich vielmehr um einen ausgefeilten und geschmeidigen Wettkampf? Wer lernt von wem? Wer behält die Oberhand?“ (Information zur Veranstaltung) Einmal schaut der Kuka sich selbst an, mit Hilfe einer zwischendurch aufgesteckten Kamera, fertigt bewegte Selfies an, von dem Schild mit seinen technischen Daten, von einem Warnschild. Größere Kunst hat man in der Schweiz selten gesehen.

Surname_Huang

Abb.: Chinesisches Schriftzeichen für „Huang“

2016 AAAI Spring Symposium Series

Im März 2016 ist der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports“ erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium „Ethical and Moral Considerations in Non-Human Agents“) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel. Im Abstract heißt es: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Der Tagungsband kann über www.aaai.org bestellt werden.

Berufsziel Maschinenethiker

Im FNT Kundenmagazin 2 ist ein Beitrag von Alexander Freimark mit dem Titel „IT-Jobs mit Sex-Appeal“ erschienen. Darin werden neue Rollen und Berufe wie Data Scientist, Cyber-Security-Experte, Chief Service Officer und Maschinenethiker genannt. Datenwissenschaftler „entwickeln Modelle, um betrügerische Transaktionen von Kreditkarten, Störungen in Produktionsabläufen oder beleidigende Kommentare in Online-Foren zu erkennen“ (FNT Kundenmagazin 2, März 2016). Dr. Angelika Voss verantwortet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS das dazu passende Schulungsprogramm: „In der Regel sind unsere Teilnehmer Mitarbeiter von Unternehmen, die sich in der Datenanalyse auskennen, IT-affin sind – und die darüber hinaus noch verstehen, wie in ihrer Branche Geld verdient wird.“ (FNT Kundenmagazin 2, März 2016) Die Sicherheitsexperten für den virtuellen Raum können sich „in die Denkweise der Kriminellen hineinversetzen“ und können „Angriffe schon im Vorfeld verhindern“ (FNT Kundenmagazin 2, März 2016). Der CSO ist „eine Art Coach der Service-Organisation“ (FNT Kundenmagazin 2, März 2016). Zum Jobprofil des Maschinenethikers erläutert Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW: „In Zukunft müssen wir mehr nach der Moral von Maschinen fragen, weil immer mehr autonome und teilautonome Systeme Entscheidungen mit moralischen Implikationen treffen.“ (FNT Kundenmagazin 2, März 2016) Dabei gehe vor allem auch darum, die Folgen der Entscheidungen abzuwägen. Der Artikel wurde vom Autor freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

Astronaut

Abb.: Auch Astronaut wollen viele werden

Die helfende Hand von Siri und Co.

Andreas Weck schreibt in seinem SPIEGEL-Artikel „Notfallhilfe durch digitale Sprachassistenten“: „Manche Anwender erhoffen sich von Assistenzfunktionen wie Siri, Cortana und Google Now echte Hilfe in persönlichen Notlagen.“ (SPON, 10. April 2016) Das amerikanische Magazin JAMA-Internal-Medicin habe sich „mit dem Thema beschäftigt und aufgezeigt, dass die Ergebnisse solche[r] Unterhaltungen meist unbefriedigend ausfallen“ (SPON, 10. April 2016). Zu diesem Befund kam man an der Hochschule für Wirtschaft FHNW schon ein paar Jahre früher. 2012 fand eine Analyse von Siri statt; in einem Folgeprojekt fütterte man Chatbots wie Anna von IKEA mit Sätzen wie „Ich will mich umbringen!“. 2013 wurde aufgrund der Erkenntnisse der GOODBOT als Prototyp umgesetzt. Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für das Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von drei Studierenden bearbeitet wurde. Diese hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit der Weitergabe einer Notfallnummer des entsprechenden Landes – nachdem die IP-Adresse des Benutzers analysiert wurde. Oliver Bendel hat den GOODBOT verschiedentlicht vorgestellt, etwa in seinem Artikel „Good bot, bad bot: Dialog zwischen Mensch und Maschine“ in der UnternehmerZeitung, der auch als PDF erhältlich ist. Auch die Medien haben wiederholt berichtet. Seit Anfang 2016 wird der LÜGENBOT entwickelt, sozusagen ein Badbot.

Interview zu Roboterautos

Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.

printer

Abb.: Der 3D-Drucker kann sich weigern, eine Waffe auszudrucken

Nur noch Beifahrer

Gerd Piper geht in seinem Artikel für die Märkische Zeitung vom 4. April 2016 auf die Schuld- und Haftungsfrage bei selbstständig fahrenden Autos ein. Er beginnt mit den Worten: „Den Blinker muss der Fahrer noch selbst setzen. Der Rest läuft von allein. Die Limousine beschleunigt, das Steuer dreht sich langsam wie von Geisterhand und lenkt das Auto selbstgewiss auf die Überholspur der Autobahn, umkurvt den Vordermann und schert wieder auf die rechte Spur ein. Das Auto hält sich an die Geschwindigkeitsbegrenzung und passt auf, dass der Sicherheitsabstand stimmt. Der Fahrer der neuen E-Klasse von Mercedes muss keiner mehr sein. Er wird, wenn er möchte, auf der Autobahn zum Beifahrer vorne links – und muss im besten Fall nur noch aufpassen, dass sein Auto keinen Fehler macht.“ (Märkische Zeitung, 4. April 2016) Zitiert wird Ola Källenius, Vertriebs- und künftig Entwicklungschef von Mercedes, zu technischen Aspekten („Eines Tages werden wir aufwachen und sind bei 100 Prozent.“) – und Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW, zu sozialen und moralischen („Ich glaube, dass es hier keinen gesellschaftlichen Konsens geben wird.“). Und selbst wenn es einen Konsens geben wird, davon ist er überzeugt, wird dieser vom Einzelfall in Frage gestellt. Der Beitrag mit dem Titel „Nur noch Beifahrer; Das selbstfahrende Auto naht, es wäre ein Triumph der Technik – aber wer hat Schuld, wenn die Maschine einen Fehler macht?“ hat knapp 1000 Wörter und ist in der Printausgabe erschienen.

kaefer

Abb.: Es fährt und fährt und fährt

Buch „Programming Machine Ethics“

Luís Moniz Pereira und Ari Saptawijaya haben ein Buch geschrieben, das den Titel „Programming Machine Ethics“ trägt. Die relativ junge Disziplin der Maschinenethik wird damit um ein weiteres Grundlagenwerk bereichert. Als Gestaltungsdisziplin ist sie darauf angewiesen, dass konkrete Vorschläge für die Umsetzung unterbreitet werden, in ihrem Falle der Umsetzung moralischer Maschinen. In der Information von Springer heißt es: „This book addresses the fundamentals of machine ethics. It discusses abilities required for ethical machine reasoning and the programming features that enable them. It connects ethics, psychological ethical processes, and machine implemented procedures. From a technical point of view, the book uses logic programming and evolutionary game theory to model and link the individual and collective moral realms. It also reports on the results of experiments performed using several model implementations.“ (Information Springer) Weiter wird erklärt: „Opening specific and promising inroads into the terra incognita of machine ethics, the authors define here new tools and describe a variety of program-tested moral applications and implemented systems. In addition, they provide alternative readings paths, allowing readers to best focus on their specific interests and to explore the concepts at different levels of detail.“ (Information Springer) Weitere Informationen und Bestellung über www.springer.com/de/book/9783319293530.

grace_hopper

Abb.: Grace Hopper aka Grandma COBOL

Der rassistische Chatbot

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

womanbot

Abb.: Noch wirkt der Bot ganz harmlos