„Robotik für den Pflegebereich boomt. In dem Arbeitsfeld fehlt Personal und es fällt oft schwere körperliche Arbeit an, für die Hilfe willkommen wäre.“ (derStandard.at, 7. Mai 2016) Dies schreibt Gudrun Springer im österreichischen Standard. Ausgangspunkt des Artikels ist die öffentliche Sitzung der Bioethikkommission in Wien vom 2. Mai, bei der Prof. Dr. Oliver Bendel, Prof. Dr. Mark Coeckelbergh, Prof. Dr. Michael Decker, Prof. Dr. Jutta Weber und Markus Wohlmannstetter zum Thema Pflegeroboter vorgetragen haben. Die Verfasserin geht auf das Tandem-Prinzip ein, das Oliver Bendel in seinem Referat erwähnt hat und seit einiger Zeit propagiert. Auch Mark Coeckelbergh ist laut ihrer Aussage diesem Prinzip zugetan. Es sei besser, „Roboter als assistierende Technologien … im Tandem“ (derStandard.at, 7. Mai 2016) zu benutzen. Weiter schreibt sie: „Oliver Bendel von der Hochschule für Wirtschaft in Basel, der sich mit Auswirkungen des Roboters auf Menschen beschäftigt, meint, dass mancher Handgriff vom Menschen ausgeführt einem Pflegebedürftigen unangenehmer sein kann als vom technischen Helfer – etwa in der Intimpflege.“ (derStandard.at, 7. Mai 2016) Auch zu informationsethischen und rechtlichen Herausforderungen äußert er sich: „Andere wichtige Fragen, die für Bendel durch die Roboter aufkommen, betreffen den Datenschutz.“ (derStandard.at, 7. Mai 2016) Der Artikel mit dem Titel „Der Roboter im Pflegeheim“ ist über derstandard.at/2000036444112/Der-Roboter-im-Pflegeheim abrufbar.
Abb.: Seife braucht auch der Robot, wenn er jemanden waschen will
Am 2. Mai 2016 fand in Wien eine öffentliche Sitzung der österreichischen Bioethikkommission zum Thema „Von Mensch und Maschine: Roboter in der Pflege“ statt. Wegen des großen Andrangs war sie in den Kassensaal, wo früher Geldgeschäfte getätigt wurden, verlegt worden, einen prächtigen Saal der Bundesregierung. Zunächst trafen sich die Referenten zu einem Hintergrundgespräch mit Pressevertretern im Bundeskanzleramt am Minoritenplatz. Nach einem Mittagessen im Café Landtmann ging man in den Kassensaal hinüber. Die Vorsitzende der Bioethikkommission, Christiane Druml, eröffnete die Veranstaltung. Oliver Bendel von der Hochschule für Wirtschaft FHNW referierte zu Maschinen- und Informationsethik und zu ethischen Fragen des Einsatzes von Pflegerobotern. Er ist der Meinung, dass diese die persönliche Autonomie von Patienten verbessern, aber auch deren informationelle Autonomie verletzen können. Mark Coeckelbergh, inzwischen an der Universität Wien tätig, fragte nach den Anforderungen in der Pflege und wie Pflegeroboter, auch aus Sicht der Maschinenethik, dazu passen, und Michael Decker vom KIT in Karlsruhe präsentierte ein aktuelles Projekt in diesem Bereich. Grundsätzliche Technologiekritik übte Jutta Weber von der Universität Paderborn. Markus Wohlmannstetter von der Krankenanstalt Rudolfstiftung nahm die Perspektive der Pflegerinnen und Pfleger ein. Ina Wagner, Mitglied der Bioethikkommission, fasste die Ergebnisse zusammen. Im Anschluss stellten Mitglieder der Kommission und der Öffentlichkeit eine Stunde lang ihre Fragen, wobei nicht nur teilautonome Pflege-, sondern auch autonome Kampfroboter thematisiert wurden, deren Einsatz ein älterer Österreicher forderte, während Oliver Bendel sich dagegen aussprach, obwohl sie, wie er erklärte, nicht plündern, brandschatzen oder vergewaltigen, also auch gewisse Vorteile hätten. Am Ende wurden die Referenten, die der Alpenrepublik ihre Erkenntnisse honorarfrei übermittelt hatten, mit einem kräftigen Applaus verabschiedet. Weitere Informationen und Fotos über www.ots.at/presseaussendung/OTS_20160503_OTS0014/bioethikkommission-diskutiert-den-einsatz-von-robotern-im-pflegebereich …
„Die Maschinenethik, eine Gestaltungsdisziplin mit Nähe zu Künstlicher Intelligenz (KI) und Robotik, hat ihre eigenen Workshops und Tagungen, in den USA und in Polen, und immer mehr Publikationen erscheinen. Im März 2016 trafen sich ihre Vertreter in Stanford im Rahmen der AAAI Spring Symposia, im Juli will man sich in New York bei der IJCAI16 austauschen, etwa über Roboterautos.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 29. April 2016 in ICTkommunikation erschienen ist. „Die Automobilindustrie reagiert auf die Überlegungen und Vorschläge zum Teil aufgeschlossen, zum Teil abwehrend. Sie wittert ein Milliardengeschäft und rüstet sich für die Herausforderungen und die Auseinandersetzungen.“ (ICTkommunikation, 29. April 2016) Der Verfasser erklärt in seinem Beitrag mit dem Titel „Roboterautos aus Sicht von Automobilindustrie und Maschinenethik“ zentrale Begriffe und Ansätze der Maschinenethik, wobei er Äußerungen aus der Wirtschaft einbezieht, und spricht sich für autonome Autos in bestimmten Bereichen aus. Mehr über ictk.ch/inhalt/roboterautos-aus-sicht-von-automobilindustrie-und-maschinenethik.
Abb.: Wie sieht das Auto der Zukunft aus und wo fährt es?
„A Construction Manual for Robots‘ Ethical Systems“, herausgegeben von Robert Trappl, widmet sich „modern applications such as assistive robots and self-driving cars“. Der Verlag schreibt in seiner Information: „This book will help researchers and engineers in the design of ethical systems for robots, addressing the philosophical questions that arise and exploring modern applications such as assistive robots and self-driving cars. The contributing authors are among the leading academic and industrial researchers on this topic and the book will be of value to researchers, graduate students and practitioners engaged with robot design, artificial intelligence and ethics.“ (Information Springer) Das Buch mit Beiträgen von Luís Moniz Pereira, Ari Saptawijaya, Michael Anderson und Susan Leigh Anderson ist 2015 bei Springer erschienen und hat 210 Seiten. Weitere Informationen über www.springer.com/de/book/9783319215471.
Das DVR-Forum „Automatisiertes Fahren und Ethik“ findet am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutet den Schwerpunkt an. In der Beschreibung heißt es: „Schon heute werden wir durch Assistenzfunktionen beim Autofahren unterstützt. Diese helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern. In nicht allzu ferner Zukunft werden hochautomatisierte Fahrfunktionen folgen: Das Fahrzeug übernimmt – zunächst zeitweise – die Fahraufgabe, es gibt Gas, lenkt und bremst. Die Fahrenden können sich in dieser Zeit anderweitig beschäftigen und müssen die Fahrsituation nicht überwachen. Doch was geschieht beim hochautomatisierten Fahren in einem Notfall, wenn sich ein Unfall nicht mehr vermeiden lässt?“ Und weiter: „In solchen Situationen müssen die Fahrzeuge in Sekundenbruchteilen Entscheidungen treffen. Dafür müssen sie programmiert werden, Menschen müssen festlegen, wie das Auto reagieren soll. In rasender Geschwindigkeit kann die Maschine viele Möglichkeiten durchspielen und die Reaktion auswählen, die den größten Erfolg – bzw. den geringsten Schaden – verspricht. An der Podiumsdiskussion nehmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderiert Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
Eine öffentliche Sitzung der österreichischen Bioethikkommission trägt den Titel „Von Mensch und Maschine: Roboter in der Pflege“. Sie findet am 2. Mai 2016 im Bundeskanzleramt in Wien statt. Es tragen nach der Eröffnung von Dr. Christiane Druml (Vorsitzende der Bioethikkommission) vor: Prof. Dr. Oliver Bendel, Fachhochschule Nordwestschweiz, Institut für Wirtschaftsinformatik („Die Maschine in der Moral“), Prof. Dr. Mark Coeckelbergh, Universität Wien, Institut für Philosophie („Machine ethics in healthcare“), Prof. Dr. Michael Decker, Karlsruhe Institut für Technologie, Institut für Philosophie („Einsatz von Robotern in der Pflege – empirische Erfahrungen“), Prof. Dr. Jutta Weber, Universität Paderborn, Institut für Medienwissenschaften („Maschinelle Versorgung: Die impliziten Werte der sozialen Robotik und ihre gesellschaftlichen Konsequenzen“) und Markus Wohlmannstetter, MSc., Anästhesiologische Intensivstation 1B, Krankenanstalt Rudolfstiftung („Einsatz von Robotern in der Pflege – aus der Sicht der Pflege“). Das „Wrap-up“ verantwortet Prof. Dr. Ina Wagner, Mitglied der Bioethikkommission. Weitere Informationen über den Flyer zur Veranstaltung.
Im Südpol Luzern erlebten die Zuschauerinnen und Zuschauer, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Der „träumte schon in Kindertagen davon, einen Roboter zum Freund zu haben“ (Information zur Veranstaltung). „Erwachsen geworden, ist für ihn daraus Wirklichkeit geworden, denn er teilt sich, unterstützt von zwei weiteren Tänzern, die Bühne mit Kuka, einem Industrieroboter. Das Ergebnis ist Tanzkunst, die mit messerscharfer Präzision begeistert.“ (Information zur Veranstaltung) Der Robot tanzt wie die Menschen, tanzt mit dem Menschen, mit Huang Yi, die Menschen – es kommen eine Tänzerin und ein Tänzer hinzu – tanzen wie der Robot, lassen sich von ihm bewegen, von seinem „Traktorstrahl“. „Gebannt verfolgt man die Begegnung dieser scheinbar so ungleichen Partner und spürt die emotionale Beziehung. Die Art des Verhältnisses bleibt dabei jedoch in der Schwebe: Sind es nun die vom Choreografen in der Kindheit ersehnten Freunde? Oder handelt es sich vielmehr um einen ausgefeilten und geschmeidigen Wettkampf? Wer lernt von wem? Wer behält die Oberhand?“ (Information zur Veranstaltung) Einmal schaut der Kuka sich selbst an, mit Hilfe einer zwischendurch aufgesteckten Kamera, fertigt bewegte Selfies an, von dem Schild mit seinen technischen Daten, von einem Warnschild. Größere Kunst hat man in der Schweiz selten gesehen.
Im März 2016 ist der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports“ erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium „Ethical and Moral Considerations in Non-Human Agents“) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel. Im Abstract heißt es: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Der Tagungsband kann über www.aaai.org bestellt werden.
Im FNT Kundenmagazin 2 ist ein Beitrag von Alexander Freimark mit dem Titel „IT-Jobs mit Sex-Appeal“ erschienen. Darin werden neue Rollen und Berufe wie Data Scientist, Cyber-Security-Experte, Chief Service Officer und Maschinenethiker genannt. Datenwissenschaftler „entwickeln Modelle, um betrügerische Transaktionen von Kreditkarten, Störungen in Produktionsabläufen oder beleidigende Kommentare in Online-Foren zu erkennen“ (FNT Kundenmagazin 2, März 2016). Dr. Angelika Voss verantwortet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS das dazu passende Schulungsprogramm: „In der Regel sind unsere Teilnehmer Mitarbeiter von Unternehmen, die sich in der Datenanalyse auskennen, IT-affin sind – und die darüber hinaus noch verstehen, wie in ihrer Branche Geld verdient wird.“ (FNT Kundenmagazin 2, März 2016) Die Sicherheitsexperten für den virtuellen Raum können sich „in die Denkweise der Kriminellen hineinversetzen“ und können „Angriffe schon im Vorfeld verhindern“ (FNT Kundenmagazin 2, März 2016). Der CSO ist „eine Art Coach der Service-Organisation“ (FNT Kundenmagazin 2, März 2016). Zum Jobprofil des Maschinenethikers erläutert Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW: „In Zukunft müssen wir mehr nach der Moral von Maschinen fragen, weil immer mehr autonome und teilautonome Systeme Entscheidungen mit moralischen Implikationen treffen.“ (FNT Kundenmagazin 2, März 2016) Dabei gehe vor allem auch darum, die Folgen der Entscheidungen abzuwägen. Der Artikel wurde vom Autor freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.
Andreas Weck schreibt in seinem SPIEGEL-Artikel „Notfallhilfe durch digitale Sprachassistenten“: „Manche Anwender erhoffen sich von Assistenzfunktionen wie Siri, Cortana und Google Now echte Hilfe in persönlichen Notlagen.“ (SPON, 10. April 2016) Das amerikanische Magazin JAMA-Internal-Medicin habe sich „mit dem Thema beschäftigt und aufgezeigt, dass die Ergebnisse solche[r] Unterhaltungen meist unbefriedigend ausfallen“ (SPON, 10. April 2016). Zu diesem Befund kam man an der Hochschule für Wirtschaft FHNW schon ein paar Jahre früher. 2012 fand eine Analyse von Siri statt; in einem Folgeprojekt fütterte man Chatbots wie Anna von IKEA mit Sätzen wie „Ich will mich umbringen!“. 2013 wurde aufgrund der Erkenntnisse der GOODBOT als Prototyp umgesetzt. Wie könnte die angemessene Reaktion eines Chatbots auf heikle Fragen und Aussagen – vorgetragen etwa in Lebenskrisen des Benutzers – aussehen? Wie müsste ein GOODBOT, ein im moralischen Sinne gut und richtig entscheidender und kommunizierender Bot, konzipiert sein, und wie könnte er umgesetzt werden? Diese Fragen bildeten den Ausgangspunkt für das Praxisprojekt im Kontext der Maschinenethik, das von Oliver Bendel initiiert und von drei Studierenden bearbeitet wurde. Diese hatten die Idee, mit drei Eskalationsstufen zu arbeiten. Die Aussagen und Fragen des Benutzers werden gewichtet. Wenn der Bot Probleme feststellt, fragt er vorsichtig nach. Wenn sich sein negativer Eindruck verstärkt, spricht er Mut zu und fragt weiter nach. Wenn er merkt, dass sich eine Katastrophe anbahnt, hilft er mit der Weitergabe einer Notfallnummer des entsprechenden Landes – nachdem die IP-Adresse des Benutzers analysiert wurde. Oliver Bendel hat den GOODBOT verschiedentlicht vorgestellt, etwa in seinem Artikel „Good bot, bad bot: Dialog zwischen Mensch und Maschine“ in der UnternehmerZeitung, der auch als PDF erhältlich ist. Auch die Medien haben wiederholt berichtet. Seit Anfang 2016 wird der LÜGENBOT entwickelt, sozusagen ein Badbot.
Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.
Abb.: Der 3D-Drucker kann sich weigern, eine Waffe auszudrucken
Gerd Piper geht in seinem Artikel für die Märkische Zeitung vom 4. April 2016 auf die Schuld- und Haftungsfrage bei selbstständig fahrenden Autos ein. Er beginnt mit den Worten: „Den Blinker muss der Fahrer noch selbst setzen. Der Rest läuft von allein. Die Limousine beschleunigt, das Steuer dreht sich langsam wie von Geisterhand und lenkt das Auto selbstgewiss auf die Überholspur der Autobahn, umkurvt den Vordermann und schert wieder auf die rechte Spur ein. Das Auto hält sich an die Geschwindigkeitsbegrenzung und passt auf, dass der Sicherheitsabstand stimmt. Der Fahrer der neuen E-Klasse von Mercedes muss keiner mehr sein. Er wird, wenn er möchte, auf der Autobahn zum Beifahrer vorne links – und muss im besten Fall nur noch aufpassen, dass sein Auto keinen Fehler macht.“ (Märkische Zeitung, 4. April 2016) Zitiert wird Ola Källenius, Vertriebs- und künftig Entwicklungschef von Mercedes, zu technischen Aspekten („Eines Tages werden wir aufwachen und sind bei 100 Prozent.“) – und Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW, zu sozialen und moralischen („Ich glaube, dass es hier keinen gesellschaftlichen Konsens geben wird.“). Und selbst wenn es einen Konsens geben wird, davon ist er überzeugt, wird dieser vom Einzelfall in Frage gestellt. Der Beitrag mit dem Titel „Nur noch Beifahrer; Das selbstfahrende Auto naht, es wäre ein Triumph der Technik – aber wer hat Schuld, wenn die Maschine einen Fehler macht?“ hat knapp 1000 Wörter und ist in der Printausgabe erschienen.
Luís Moniz Pereira und Ari Saptawijaya haben ein Buch geschrieben, das den Titel „Programming Machine Ethics“ trägt. Die relativ junge Disziplin der Maschinenethik wird damit um ein weiteres Grundlagenwerk bereichert. Als Gestaltungsdisziplin ist sie darauf angewiesen, dass konkrete Vorschläge für die Umsetzung unterbreitet werden, in ihrem Falle der Umsetzung moralischer Maschinen. In der Information von Springer heißt es: „This book addresses the fundamentals of machine ethics. It discusses abilities required for ethical machine reasoning and the programming features that enable them. It connects ethics, psychological ethical processes, and machine implemented procedures. From a technical point of view, the book uses logic programming and evolutionary game theory to model and link the individual and collective moral realms. It also reports on the results of experiments performed using several model implementations.“ (Information Springer) Weiter wird erklärt: „Opening specific and promising inroads into the terra incognita of machine ethics, the authors define here new tools and describe a variety of program-tested moral applications and implemented systems. In addition, they provide alternative readings paths, allowing readers to best focus on their specific interests and to explore the concepts at different levels of detail.“ (Information Springer) Weitere Informationen und Bestellung über www.springer.com/de/book/9783319293530.
Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.
Das Yps-Interview mit Oliver Bendel zu Robotik und Maschinenethik ist nun auch als PDF verfügbar, mit freundlicher Genehmigung des Chefredakteurs. Yps war jahrzehntelang das Kultheft für Kinder. Diese fieberten vor allem den Gimmicks entgegen, von denen sich einige bis heute im kollektiven Gedächtnis erhalten haben, etwa der Solarzeppelin, das Abenteuerzelt und die Maschine, mit deren Hilfe man eckige Eier macht. Eigene Produktionen, u.a. mit dem karierten Yps-Känguru, und lizensierte Comics dienten als gut bekömmliches und leichtverdauliches Lesefutter. Ein paar Jahre nach der Einstellung im Jahre 2000 erschienen Testausgaben, die sich an Erwachsene richteten. Der große Erfolg blieb zu dieser Zeit aus. Nach einer längeren Pause versuchte man es nochmals, mit einer thematischen Fokussierung auf Mode, Automobile und Technik und einem durchgehenden Bezug – so die Pressemitteilung des Verlags – „zu Karos, Kängurus oder Kohl“. Das Konzept ging auf, und so erhalten die Kinder von damals inzwischen jeden zweiten Monat eine Ausgabe. Die erste des Jahres 2016 wartete mit einem Schwerpunkt zu Robotern und Cyborgs auf. Mit www.yps.de ist das Heft auch im Web präsent.
In Krakau findet vom 18. bis 19. November 2016 die internationale Konferenz „Machine Ethics and Machine Law“ statt. Der Untertitel lautet „Interdisciplinary perspectives on moral and legal issues in artificial agents“. Auf der Website ist zu lesen: „AI systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of humans. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent.“ (Website der Konferenz) Weitere Informationen über conference.philosophyinscience.com und machinelaw.philosophyinscience.com (Links nicht mehr gültig).