Kategorie: Maschinenethik

13 Artefakte der Maschinenethik

Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Bei haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.

Abb.: 13 Artefakte der Maschinenethik

Pflegeroboter im Spektrum Spezial

Spektrum Spezial (Biologie, Medizin, Hirnforschung) widmet sich in Ausgabe 1/2020 (Erscheinungsdatum: 24. Januar 2020) KI und Robotik und speziell auch Pflegerobotern. Der achtzehnseitige Beihefter zu diesem Thema ist in dieser Form einzigartig. So stellt Michael Anderson, einer der weltweit führenden Maschinenethiker, die Umwandlung eines sozialen Roboters in eine moralische Maschine im Pflegekontext vor. Florian Coulmas, der verdiente Ostasienexperte (Universität Duisburg-Essen), relativiert die Annahme, dass Japaner zu Dingen ein völlig anderes Verhältnis als Europäer haben. Gundula Hübner und Stephanie Müller von der Martin-Luther-Universität Halle-Wittenberg und Andreas Keibel von KUKA geben Hinweise in Bezug auf Akzeptanz, Technik und Markt von Pflegerobotern. Armin Grunwald – der renommierte Technikphilosoph – und Christoph Kehl vom KIT bzw. TAB gehen auf ihre Studie für den Deutschen Bundestag ein. Oliver Bendel, der wissenschaftliche Direktor des 23. Berliner Kolloquiums der Daimler und Benz Stiftung, aus dem die Artikel hervorgingen, leitet in die Thematik ein. Das elektronische Pendant – das Spektrum Kompakt zu Pflegerobotern – ist bereits im November 2019 erschienen, mit Beiträgen von Karsten Schwarz und Patrick Jahn, Susan L. Anderson und Oliver Bendel.

Abb.: Wer pflegt und betreut uns, wenn wir alt sind?

Das MOBO-MOME

Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.

Abb.: Talk to me

HAPPY HEDGEHOG könnte Igelbabys helfen

Zwischen Juni 2019 und Januar 2020 wurde an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel das Projekt HAPPY HEDGEHOG (HHH) durchgeführt. Die Studierenden Emanuel Graf, Kevin Bollier, Michel Beugger und Vay Lien Chang entwickelten im Kontext der Maschinenethik den Prototyp eines Mähroboters, der seine Arbeit einstellt, sobald er einen Igel entdeckt hat. HHH verfügt über eine Wärmebildkamera. Wenn er auf ein warmes Objekt stößt, wird dieses mittels Bilderkennung weiter untersucht. Nachts hilft eine oben angebrachte Lampe dabei. Nach dem Training mit hunderten Fotos kann HHH recht treffsicher einen Igel identifizieren. Es ist nicht nur eine weitere moralische Maschine im Labor entstanden. Das Team liefert mit ihr auch einen Lösungsvorschlag für ein Problem, das in der Praxis häufig auftritt. Handelsübliche Mähroboter töten nämlich immer wieder Igelbabys in der Dunkelheit. HAPPY HEDGEHOG könnte dabei helfen, sie zu retten. Das Video auf youtu.be/ijIQ8lBygME zeigt ihn ohne Verkleidung; ein Foto mit Verkleidung findet sich hier. Der Roboter steht in der Tradition von LADYBIRD.

Abb.: HAPPY HEDGEHOG als Designstudie

Von Roboterrecht bis Maschinenethik

Zusammen mit dem Zentrum für Wissenschaftstheorie (Philosophisches Seminar der Universität Münster) veranstaltet das Centrum für Bioethik im Wintersemester 2019/2020 eine gemeinsame Ringvorlesung zur Maschinenethik, wobei auch Informationsethik und Roboterethik sowie Roboterrecht ein Thema sind. Die einzelnen Vortragsveranstaltungen finden jeweils donnerstags von 18 bis 20 Uhr statt. Oliver Bendel (Windisch, Schweiz) trägt am 9. Januar 2020 über „Pflege- und Therapieroboter aus ethischer Sicht“ vor, Armin Grunwald (Karlsruhe) am 23. Januar 2020 über „Digitalisierung als Schicksal? Plädoyer für eine Rückeroberung von Gestaltungsoptionen“. Bereits im letzten Jahr referierten Klaus Mainzer (München), Jürgen Altmann (Dortmund), Michael Hauskeller (Liverpool, England) und Susanne Beck (Hannover). Ein Plakat zur Veranstaltung kann hier heruntergeladen werden. Weitere Informationen über www.uni-muenster.de/Bioethik/aktuelles/index.html.

Abb.: Von Roboterrecht bis Maschinenethik

The BESTBOT Project

The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.

Fig.: The BESTBOT project

Roboter als Subjekte und Objekte der Moral

Janina Loh hat den Disziplinen der Roboterethik und der Maschinenethik ein weiteres Grundlagenwerk hinzugefügt. Damit ist die Auseinandersetzung im deutschsprachigen Raum nicht abgeschlossen, aber schon mehr oder weniger vollständig. Aus der Verlagsinformation: „Die Philosophin Janina Loh befasst sich in ihrem grundlegenden Buch mit den moralischen Herausforderungen, die beim Bau von Robotern und im Umgang mit ihnen eine Rolle spielen: Sind Roboter autonom? Können sie gar moralisch handeln? Haben sie einen moralischen Wert? Sollten ihnen Rechte zuerkannt werden? Wer ist zur Rechenschaft zu ziehen, wenn ein Roboter einen Menschen schädigt? Kritisch diskutiert Loh diese und weitere ethische Fragen und stellt die wichtigsten Lösungsansätze vor.“ (Verlagsinformation Suhrkamp) Zusammen mit „Grundfragen der Maschinenethik“ (Catrin Misselhorn) und „Handbuch Maschinenethik“ (Oliver Bendel) erkundet das Werk den philosophischen und ethischen Raum, den u.a. Serviceroboter und Kampfroboter eröffnen. Weitere Infos über www.suhrkamp.de/buecher/roboterethik-janina_loh_29877.html.

Abb.: Ein futuristisches Gefährt

Care Robots in Istanbul

In his lecture at the Orient-Institut Istanbul on 18 December 2019, Oliver Bendel dealt with care robots as well as therapy and surgery robots. He presented well-known and less known examples and clarified the goals, tasks and characteristics of these service robots in the healthcare sector. Afterwards he investigates current and future functions of care robots, including sexual assistance functions. Against this background, the lecture considered both the perspective of information ethics and machine ethics. In the end, it became clear which robot types and prototypes or products are available in healthcare, which purposes they fulfil, which functions they assume, how the healthcare system changes through their use and which implications and consequences this has for the individual and society. The lecture took place within the series „Human, medicine and society: past, present and future encounters“ … The Orient-Institut Istanbul is a turkological and regional scientific research institute in the association of the Max Weber Foundation. In close cooperation with Turkish and international scientists, it dedicates itself to a multitude of different research areas. More information via www.oiist.org.

Fig.: A worker in Istanbul

Rechtliche Fragen des automatisierten Fahrens

„Das automatisierte Fahren besitzt das Potenzial, den Straßenverkehr erheblich sicherer zu machen. Es wirft allerdings eine Vielzahl von ethischen und juristischen Fragen auf, die einer weiteren erfolgreichen Markteinführung der neuen Systeme im Wege stehen könnten, wenn sie nicht gelöst oder zumindest geklärt werden. Das Spektrum reicht von Fragen der zivil- und strafrechtlichen Verantwortlichkeit über den Datenschutz bis hin zu Grundlagenproblemen, bei denen sich rechtliche und moralische Perspektiven überschneiden. Dazu gehören etwa Leben-gegen-Leben-Entscheidungen, aber auch die Frage, welchen Grad an Risiko eine Gesellschaft im Straßenverkehr zu akzeptieren bereit ist. Außerdem ist zu klären, ob der Staat über die Technologien des automatisierten und vernetzten Fahrens nicht wesentlich stärker in den Straßenverkehr eingreifen sollte, um die Gefahr von Unfällen zu minimieren.“ (Abstract) In seinem Beitrag für das „Handbuch Maschinenethik“ widmet sich Eric Hilgendorf als einer der führenden Experten für Roboterrecht dem automatisierten und autonomen Fahren. Der Informations- und Maschinenethiker Oliver Bendel ist Herausgeber des Buchs, das im Oktober 2019 bei Springer VS erschienen ist.

Abb.: Fahrerloses Fahren

Moralische Maschinen als Fundamentalisten

Raffael Schuppisser, stellvertretender Chefredakteur und Leiter Kultur, Leben & Wissen von az Nordwestschweiz bzw. Schweiz am Wochenende, sprach Ende Oktober 2019 mit Oliver Bendel über Maschinenethik. Das Ergebnis wurde am 3. Dezember 2019 in zahlreichen Schweizer Medien publiziert, darunter Aargauer Zeitung und Basellandschaftliche Zeitung. In der Limmattaler Zeitung wurde die kritische Haltung des Informations- und Maschinenethikers zu autonomen Autos herausgestellt. Oliver Bendel sieht diese vor allem auf der Autobahn, nicht in der Stadt. Er rät dazu, sie nicht über Leben und Tod von Menschen entscheiden zu lassen. Moralisieren kann man sie aber mit Blick auf Tiere. In der Neuen Luzerner Zeitung wurde thematisiert, dass Oliver Bendel gegenwärtige moralische Maschinen als kleine Fundamentalisten ansieht – weil sie sich sklavisch an Regeln halten. Dies ist keinesfalls zu ihrem Nachteil und auch nicht zum Nachteil der Umwelt, in der sie sich bewegen – was man bei menschlichen Fundamentalisten nicht gerade behaupten kann. In Watson wird auf die Rolle der Maschinenethik bei Sexrobotern hingewiesen. Die Disziplin kann dabei mithelfen, diese im Sinne der Benutzer zu gestalten. Vorschläge dazu hat Oliver Bendel wiederholt gemacht, etwa 2016 auf der Konferenz „Love and Sex with Robots“ am Goldsmiths in London. Der Artikel in Watson kann über www.watson.ch/!197665855? abgerufen werden.

Abb.: Moralische Maschinen können kleine Fundamentalisten sein