Der Tesla-Unfall

Der tödliche Unfall mit einem Tesla Model S vom Mai 2016, der derzeit durch die Medien geht, wurde vom Hersteller am 30. Juni 2016 wie folgt beschrieben: „What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S. Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S.“ (Tesla-Blog, 30. Juni 2016) Demnach kamen zwei Umstände zusammen. Zum einen ist der Sattelzug senkrecht auf den Highway getroffen bzw. hat senkrecht zum Automobil gestanden. Eine ähnliche Situation könnte sich mit LKW und PKW in europäischen Städten ständig ergeben, auf europäischen Autobahnen dagegen kaum. Zum anderen hat sich die Kamera täuschen lassen und, von unten her aufnehmend, die weiße Fläche des Fahrzeugs mit dem hellen Himmel dahinter gleichgesetzt. Dies zeigt einmal mehr, dass Kameras nur bedingt eine geeignete Technik für automatische und autonome Autos sind und in jedem Falle mit verschiedenen anderen Systemen wie Radar und LiDAR kombiniert werden müssen. Kameras kann man leicht täuschen und täuschen sich leicht. Im Tesla Model S ist eine komplexe Sensorik verbaut (Kameras, Radar, Ultraschall). Allerdings besteht offenbar Verbesserungsbedarf, und was das optische System wahrnimmt, muss unbedingt durch ein anderes geeignetes System überprüft werden. Zusätzlich könnten die Hersteller konventioneller PKW und LKW in die Pflicht genommen werden. In Zukunft sind graue, weiße oder blaue Karosserien und Sattelauflieger vielleicht zu vermeiden.

Red_Truck

Abb.: Auch die Fläche dieses LKWs könnte verwechselt werden

Merging of Man and Machines

„Merging of man and machines: questions of ethics in dealing with emerging“ – this is the title of an event which takes place in the European Parliament, Brussels, on 8 September 2016, 9:30 – 13:00. The IEU monitoring newsletter DIGITAL AGENDA provides the following information: „The Working Group Green Robotics would like to invite you to a public hearing on ‚Merging of man and machines: questions of ethics in dealing with emerging technology‘. With this and further discussions we would like to develop a position on how society should respond to questions like How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ In the track „Ethics & Society: Examples of how our lives, values and society will change“ three experts will give talks, namely Yvonne Hofstetter (author and director of Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (author of „Die Moral in der Maschine“ and Professor at the School of Business FHNW) and Constanze Kurz (author and spokesperson Chaos Computer Club). The track „Politics & Law: Examples of how we do/can debate and regulate this field“ is maintained by Juho Heikkilä (DG Connect, Robotics, Head of Unit, tbc) and Prof. Dr. Dr. Eric Hilgendorf (Chairman of the Department of Criminal Law, Criminal Justice, Legal Theory, Information and Computer Science Law, University of Würzburg). Two other lecturers of the event are Enno Park (Chairman of Cyborgs e.V.) and Dana Lewis (founder and OpenAPS thinker).

Exoskeleton

Fig.: Man or machine or both?

AI for Human-Robot Interaction

Für das AAAI Fall Symposium „AI for Human-Robot Interaction (AI-HRI)“ vom 17. bis 19. November 2016 wurde der Call for Papers veröffentlicht. Dieser richtet sich speziell an Sozialwissenschaftler. Im Ausschreibungstext heißt es: „AI-HRI (The AAAI Fall Symposium on Artificial Intelligence (AI) for Human-Robot Interaction (HRI)) seeks to bring together the subset of the HRI community focused on the application of AI solutions to HRI problems. Building on the success of the two previous years’ symposia, the central purpose of this year’s symposium is to share exciting new and ongoing research, foster discussion about necessary areas for future work, and cultivate a vibrant, interconnected research community.“ Einreichungen mit normaler Länge fokussieren auf den Gebrauch von autonomen KI-Systemen. Kurzbeiträge beschreiben Herausforderungen, auf die Sozialwissenschaftler treffen beim Entwerfen, Durchführen und Evaluieren von HRI-Studien. Deadline ist der 15. Juli 2016. Die Konferenz findet in Arlington (Virginia) statt. Weitere Informationen über ai-hri.github.io.

Das Silicon Valley in Berlins Mitte

In der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt fand am 14. Juni 2016 das DVR-Forum „Automatisiertes Fahren und Ethik“ statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Bendel sprach sich dafür aus, die Roboterautos auf der Autobahn fahren zu lassen. Innenstädte seien in den nächsten Jahren kaum beherrschbar. Als Maschinenethiker sieht er nur geringe Chancen, dass befriedigende Regeln und Formeln in Bezug auf Tod und Leben von menschlichen Verkehrsteilnehmern entwickelt werden. Seine Forschung konzentriert sich daher darauf, dass Haus- und Wildtieren mit Hilfe von Fahrerassistenzsystemen und Roboterautos geholfen wird. Hilgendorf wies darauf hin, dass ein utilitaristisches Durchzählen in manchen Fällen durchaus vom Recht gedeckt sei. Lüdemann problematisierte Roboterautos als Datenkraken. Kompaß und Leohold sprachen aus der Perspektive der deutschen Automobilindustrie, die – wie mehrere Diskutanten bemerkten – unter immer mehr Druck aus dem Silicon Valley gerät. Dieses geriet zum Sinnbild des Wandels in der Branche und war mit einem Mal in Berlins Mitte. Weitere Informationen über www.tag-der-verkehrssicherheit.de.

Die Sexroboter kommen

„Die Sexroboter kommen. Die Frage ist nur, wie sie kommen. Laut oder leise? Mit vorgetäuschten Gefühlen oder mit ermahnenden Hinweisen? Als menschenähnliche oder als funktionsorientierte Maschinen? Als Unterhaltungs- und Behandlungsmittel für die Allgemeinheit oder als Nischenprodukt für Einzelpersonen? Und die Frage ist, wann sie kommen. Sie sind bereits jetzt ein gewisses Phänomen. Aber werden sie, wie Sexspielzeug, zum allgemeinen Trend? Im vorliegenden Beitrag werden Ausführungen und Ansätze vorgestellt, vor allem aber moralphilosophische Fragen gestellt, um Entwicklungs- und Verbesserungsmöglichkeiten aufzuzeigen.“ Nach diesem Teaser werden im Artikel „Die Sexroboter kommen“ verschiedene Beispiele vorgestellt und Fragen aus der Perspektive der Maschinenethik sowie von Bereichsethiken wie Informations- und Medizinethik gestellt. Oliver Bendel gelangt zum Schluss: „Man kann Einschränkungen in Bezug auf die Entscheidungsfreiheit und das Erscheinungsbild der Sexroboter vorschlagen; man kann aber auch argumentieren, dass im geschützten Raum jede Phantasie ausgelebt werden darf, wenn niemand dabei Schaden erleidet. Letztlich dürfte nichts gegen eine gewisse Auswahl an Möglichkeiten sprechen, und jeder bzw. jede sollte für sich klären, ob ein Sexroboter richtig und gut für ihn oder sie ist.“ Der Beitrag ist am 13. Juni 2016 in Telepolis erschienen und kann über www.heise.de/tp/artikel/48/48471/1.html aufgerufen werden.

Sexspielzeug

Abb.: Eine Sexbestie oder ein Unschuldslamm?

Die Büchse der Pandora

Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Gerettet hat man sich zunächst bei strömendem Regen in die Eidgenössische Technische Hochschule Zürich. Bendel hatte sich das Gebäude ausgesucht, weil er es seit 30 Jahren kennt und liebt, wie das Gebäude der Universität Zürich daneben. Und weil Einstein dort gewirkt hat, der wie er in Ulm zur Welt gekommen ist. Die Diskussion zwischen Einstein und Niels Bohr zu Kodizes für Ingenieure kennt Bendel seit dem Studium, und auch auf sie kommt die Sprache. Nachdem es aufgehört hatte zu regnen, spazierte man aus der ETHZ hinaus, an der Universität Zürich vorbei, an Luxusvillen und Zweckgebäuden, und schließlich auf Straßen und Treppen bis zum Hirschengraben hinunter, der ein Teil der mittelalterlichen Stadtbefestigung ist. Bald ging es nicht mehr nur um Maschinenethik, Informationsethik und Technologiefolgenabschätzung, sondern um Moral und Ethik im Allgemeinen und um die Rolle der Religion. Bendel betonte, dass die Grundzüge moralischer Vorstellungen wenig mit Religion zu tun hätten. Diese sei eh erst in der letzten Sekunde der Menschheitsgeschichte entstanden, zumindest in der Form, die man sie heute kennt. Zugleich könnten gewisse religiöse Vorstellungen Moral sogar korrumpieren, wie der Fundamentalismus zeigt. Der erste Teil des Interviews ist im Juni 2016 erschienen und darf mit freundlicher Genehmigung des leitenden Redakteurs hier heruntergeladen werden. Der zweite Teil wird im nächsten Heft abgedruckt und ebenfalls auf dieser Website zur Verfügung gestellt.

Pandora_Buechse

Abb.: Pandora in Erwartung ihrer Büchse

Autonomes Fahren im Bayerischen Fernsehen

Das Bayerische Fernsehen (BR Fernsehen) hat Oliver Bendel im Mai 2016 ins Verkehrszentrum des Deutschen Museums nach München eingeladen und dort ein Gespräch mit ihm geführt. „Mit über 4500 Exponaten zählen die Sammlungen des Landverkehrs zu den größten, wertvollsten und ältesten Sammlungen des Deutschen Museums.“ (Website Verkehrszentrum) Es ging um autonome Autos und den Verkehr der Zukunft. Der Philosoph und Wirtschaftsinformatiker sprach sich dafür aus, die Autobahnen dafür vorzusehen und die Städte weitgehend zu verschonen. Im Museum war ein Prototyp von Daimler ausgestellt, bei dem das autonome Fahren bereits Mitte der 90er-Jahre mit Hilfe von Fernsehkameras realisiert wurde. Im Ankündigungstext wird unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Das Gespräch mit Oliver Bendel führte Patrick Lerch, ausgestrahlt wird der Beitrag voraussichtlich – ursprünglich eingeplant für den 1., dann für den 8. Juni 2016 – am 13. Juli 2016. Weitere Informationen über www.br.de.

Wie macht man Maschinen moralisch?

In einer Pressemitteilung, veröffentlicht über den Informationsdienst Wissenschaft, wird ein Seminar zur Maschinenethik auf Schloss Dagstuhl angekündigt. Dr. Roswitha Bardohl geht in ihrem Text auf die Entwicklung teilautonomer und autonomer Systeme ein und schreibt: „Wie bringt man solchen Maschinen die Moral bei?“ „Mit dieser Frage beschäftigt sich diese Woche ein internationales interdisziplinäres Seminar auf Schloss Dagstuhl. Die Teilnehmerinnen und Teilnehmer sind Wissenschaftler aus unterschiedlichen Ländern und kommen aus verschiedensten Fachbereichen: von der Informatik und der Mathematik über die Philosophie und Gesellschaftswissenschaften bis hin zu Wirtschafts- und Rechtswissenschaften.“ (Pressemitteilung IDW, 30. Mai 2016) In mehreren Arbeitsgruppen arbeiten die Teilnehmer, so die Pressemitteilung, zu den Fragestellungen „Wie macht man Maschinen moralisch?“ und „Wie überträgt man menschliche Kriterien der Moral auf künstliche Intelligenz?“ … Nach der Tagung „Roboterethik“ in Berlin und dem Workshop zur Maschinenethik in Bremen (beide 2015) mehren sich damit die Veranstaltungen zur Thematik im deutschsprachigen Raum. Weitere Informationen über idw-online.de/de/news653260.

Über die Moral der Maschinen

Ein vierteiliges Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel ist am 31. Mai 2016 in Telepolis erschienen. Es geht um autonome Autos, um neuartige Chatbots wie den GOODBOT und um tierfreundliche Saugroboter wie LADYBIRD. Es geht um die Forschung in der Schweiz und in den USA und das Zusammenleben mit den Maschinen. Zum Verkehr der Zukunft sagt Bendel: „Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.“ (Telepolis, 31. Mai 2016) Der Beitrag mit dem Titel „Über die Moral der Maschinen und eine programmierte Ethik“ kann über www.heise.de/tp/artikel/48/48387/1.html abgerufen werden.

Duck

Abb.: Über den Entenmarsch staunt auch die Quietscheente

From Teledildonics to Roboethics

The second international congress on „Love and Sex with Robots“ will be taking place in London, from 19 to 20 December 2016. Topics are robot emotions, humanoid robots, clone robots, entertainment robots, teledildonics, intelligent electronic sex hardware and roboethics. In the introduction it is said: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community.“ (Website LSR 2016) The congress „provides an excellent opportunity for academics and industry professionals to present and discuss their innovative work and ideas in an academic symposium“ (Website LSR 2016). According to the CfP, full papers should „be no more than 10 pages (excluding references) and extended abstracts should be no more than 3 pages (excluding references)“ (Website LSR 2016). More information via loveandsexwithrobots.org.

Logo_Congress

Fig.: Logo and mascot of the congress

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Grundrechte für Primaten

Grundrechte für Primaten fordert ein Positionspapier, das im April 2016 erschienen ist. Im Abstract heißt es: „Nichtmenschliche Primaten sind hochkomplexe Wesen und besitzen ein fundamentales Interesse daran, zu leben und körperlich und geistig unversehrt zu bleiben. Die bestehenden rechtlichen Bestimmungen in der Schweiz tragen diesen Interessen aber kaum Rechnung, weshalb Primaten des Schutzes durch Grundrechte bedürfen. Um die Forderung nach Grundrechten umzusetzen, wird ein konkreter Vorschlag für eine kantonale Initiative gemacht, die die Verankerung von Grundrechten auf Leben und auf körperliche und geistige Unversehrtheit für nichtmenschliche Primaten auf kantonaler Verfassungsstufe verlangt.“ Autorinnen und Autoren sind Raffael Fasel (Sentience Politics), Charlotte Blattner (PhD-Kandidatin im Völker- und Tierrecht, Universität Basel), Adriano Mannino (Präsident von Sentience Politics) und Tobias Baumann (Leiter Strategie von Sentience Politics). Als Unterstützer werden Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) und Prof. Dr. Markus Wild (Universität Basel) genannt. Bendel verbindet in seiner Forschung Maschinen- und Tierethik und hat im April 2016 zur Tier-Maschine-Interaktion an der Universität Bochum vorgetragen. Wild vertritt an seiner Hochschule u.a. die Tierphilosophie, inklusive der Tierethik, sowie die Philosophie der Biologie. Das Positionspapier kann direkt über sentience-politics.org heruntergeladen werden (Link nicht mehr gültig).

Primat

Abb.: Ein Primat wie du und ich

Contributions on Machine Ethics

The proceedings of the AAAI conference 2016 have been published in March 2016 („The 2016 AAAI Spring Symposium Series: Technical Reports“). The symposium „Ethical and Moral Considerations in Non-Human Agents“ was dedicated to the discipline of machine ethics. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) and Oliver Bendel (School of Business FHNW) spoke about moral and immoral machines. The contribution „Annotated Decision Trees for Simple Moral Machines“ (Oliver Bendel) can be found on the pages 195 – 201. In the abstract it is said: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ The proceedings can be ordered via www.aaai.org.

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Blechpolizisten mit Elektroschockern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.

AnBot

Abb.: Ein Verwandter von AnBot und K5 bzw. K3

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.