Doktorand(in) in IT Ethics gesucht

Die Universität von Uppsala in Schweden sucht zwei Doktoranden im Bereich der Mensch-Computer-Interaktion. Maschinenethik und Informationsethik spielen bei einer der Stellen eine zentrale Rolle. In der allgemeinen Beschreibung steht: „The importance of IT necessitates the integration of ethical aspects in the development of computerized artifacts. Automation and interaction with advanced technology demand new knowledge of the conditions of use. An important part of HCI is the development of theories and methods on the integration of ethical values during the design and use of IT systems.“ (Website Uppsala Universitet) Zu den Anforderungen der einen Stelle wird gesagt: „One PhD student will work on developing basic HCI theory and theory/method for the integration of ethical aspects in design and use of computerized systems and tools. Part of the work is to investigate theories empirically through the construction of prototypes and test environments.“ (Website Uppsala Universitet) Bewerbungsschluss ist der 1. Dezember 2015. Für Fragen zu den Projekten können die Professoren Anders Jansson (anders.jansson@it.uu.se) und Iordanis Kavathatzopoulos (iordanis@it.uu.se) kontaktiert werden. Weitere Informationen über www.uu.se.

The Car that Rolls on Twitter Polls

„Wer soll auf den Straßen über Leben und Tod von Menschen entscheiden?“ So lautete die Frage von @Infoethik bei einer der ersten Umfragen auf Twitter. Die neue Funktion namens Twitter Polls erlaubt es, die Meinungen der Benutzer einzuholen. Auf ZDNet wird Produktmanager Todd Sherman zitiert: „Twitter Polls sei eine neue Möglichkeit, mit dem riesigen Twitter-Publikum zu interagieren und herauszufinden, was Menschen denken. Für die Teilnehmer sei es eine einfache Möglichkeit, sich Gehör zu verschaffen.“ (Website ZDNet, 22. Oktober 2015) Weiter wird erklärt: „Umfragen auf Twitter haben eine vorgegebene Laufzeit von 24 Stunden. Nutzer können über zwei mögliche Antworten zu einer Frage abstimmen lassen.“ (Website ZDNet, 22. Oktober 2015) Jeder, der angemeldet ist, kann den passenden Radiobutton auswählen; wie man abgestimmt hat, wird nicht öffentlich mitgeteilt. Die beiden Antworten „Die Fahrer“ und „Die Autos“ wurden in den ersten Minuten einige Male angeklickt. Die Autos rasten davon. Es sollen weitere Umfragen zur Maschinenethik und zur Informationsethik stattfinden.

twittervogel

Abb.: Da freut sich der Vogel

Das Roboterauto zwischen den Kulturen

Prof. Dr. Mark Coeckelbergh vom Centre for Computing and Social Responsibility De Montfort University, Leicester, UK hält am 21. Oktober 2015 einen Vortrag zum Thema „Die Ethik selbstfahrender Autos“. Im Ankündigungstext heißt es: „Sollten wir völlig automatisierte, intelligent selbstfahrende Autos ohne menschliche Fahrer entwickeln und verwenden? Können solche Autos jemals sicher sein? Können sie ethisch sein? Stellen solche Autos eine Bedrohung von Menschen dar oder ist das Weglassen von Menschen als Fahrer die Lösung?“ (Website ots.at) Es geht demnach um Fragen der Technik- und Informationsethik, aber auch der Maschinenethik. Auch die Frage nach der kulturellen Adaption wird aufgeworfen: „Ein weiteres Problem könnte hinsichtlich der kulturellen Unterschiede entstehen: wenn Fahrverhalten in Gesellschaften und Kulturen verschieden ist, wie kann das beim Design solcher autonomer Systeme berücksichtigt werden?“ Der Vortrag findet am Österreichischen Forschungsinstitut für Artificial Intelligence in Wien statt und beginnt um 18.30 Uhr. Weitere Informationen über www.ots.at.

Abb.: Für die Kuh wird gebremst, ob in Indien oder in Texas

Programm der Tagung „Roboterethik“

Das Programm der Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von der Daimler und Benz Stiftung sowie vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres), wurde Mitte Oktober 2015 fertiggestellt. Es steht auch über maschinenethik.net zum Download bereit. Während der eintägigen Veranstaltung in Berlin soll, wie ceres auf seiner Website schreibt, „aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können“ (Website ceres). Die Leitung der Tagung, die am 24. November 2015 ab 10 Uhr stattfindet, hat Prof. Dr. Christiane Woopen inne, die Referenten sind Prof. Dr.  Alin Albi Schäffer (Deutsches Zentrum für Luft- und Raumfahrt, Direktor des Instituts für Robotik and Mechatronik), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik), Prof. Dr. Hartmut Hirsch-Kreinsen (Technische Universität Dortmund, früherer Inhaber des Lehrstuhls für Wirtschafts- und Industriesoziologie), Prof. Dr. Norbert Lammert (Präsident des Deutschen Bundestages), Prof. Dr. Catrin Misselhorn (Universität Stuttgart, Direktorin des Instituts für Philosophie), Prof. Dr. Jochen Steil (Universität Bielefeld, geschäftsführender Direktor des Instituts für Kognition und Robotik) und Prof. Dr. Johannes Weyer (Technische Universität Dortmund, Professor für Techniksoziologie). Die Eröffnungsrede hält Prof. Dr. Eckard Minx, Vorsitzender des Vorstands der Daimler und Benz Stiftung.

Abb.: Eine Skulptur in Berlin

Rolf Pfeifer und Ethik

In einem Artikel im Tages-Anzeiger von Lucie Machac (11. Oktober 2015) werden auch Maschinenethik und Roboterethik gestreift. Grundlage ist ein Interview mit Rolf Pfeifer. Als Erbauer definiere er für den Roboter auch ein Wertesystem. „Er meint damit nicht ethisch-moralische Werte.“ Maschinenethik treibt er demnach  nicht – wie ist es mit der Roboterethik, genauer gesagt mit dem Bereich, der nach Rechten von Maschinen fragt? Würde Pfeifer, wenn individuelle Fähigkeiten erworben wurden, den Stecker ziehen? „Zum jetzigen Zeitpunkt habe ich überhaupt keine Skrupel.“ Mit dieser Haltung ist der Robotiker nicht allein – die meisten Experten sehen keinerlei Anlass, Roboter jetzt oder in naher Zukunft wie Tiere oder Menschen zu behandeln. Dennoch wagt er einen Blick in die weitere Zukunft: „Aber stellen Sie sich vor, wenn uns Roboter einmal anflehen können, den Stecker bittebitte nicht zu ziehen  … Und vielleicht weinen sie dabei sogar. Was würden Sie dann tun?“ Die meisten Experten würden antworten: Erst recht den Stecker ziehen.

Kabel

Abb.: Wer zieht den Stecker, wer das Kabel?

Ein Cyborg aus Pflanze und Maschine

Cyborgs sind Verschmelzungen von Mensch und Maschine. Auch Tier oder Pflanze können als biologische Komponente dienen. Es geht in der praktischen Anwendung meist darum, den menschlichen Körper mit technischen Mitteln zu perfektionieren oder seine Schwächen auszugleichen. Eine Kakerlake kann als fremdgesteuerte Kreatur und Spionin dienen, was Informations-, Technik-, Roboter- und Tierethik kritisch reflektieren müssen. FLORABORG ist ein Versuch, die Pflanze selbst (und nicht ihr Umfeld) zu optimieren, damit sie z.B. gegen Trockenheit gewappnet ist. Hält diese eine Weile an, ist die Pflanze gestresst. Dies kann von einem Computer gemessen werden, etwa einem Smartphone. Die solarbetriebenen Fächer werden ausgefahren und dem Sonnenlicht entgegengestreckt. Es kann sich Kondenswasser bilden, das über die künstlichen und echten Blätter tropft, den Stengel hinunterrinnt und ins Erdreich eindringt, wo es von den Wurzeln aufgenommen wird. Hat sich die Pflanze erholt, verringert sich der Stress, und die Fächer können eingefahren werden. Nicht zuletzt vermögen die Fächer auch Schatten zu spenden. Welche Stellung ein Cyborg aus Pflanze und Maschine in der Maschinenethik hat, muss erst noch erforscht werden.

Abb.: Designstudie FLORABORG

Formalisierung von Ethik

Einen Artikel über die Formalisierung von Ethik hat Caspar Österheld von der Universität Bremen in der Springer-Fachzeitschrift Synthese veröffentlicht. Der Titel lautet „Formalizing preference utilitarianism in physical world models“. Im Abstract heißt es: „Most ethical work is done at a low level of formality. This makes practical moral questions inaccessible to formal and natural sciences and can lead to misunderstandings in ethical discussion. In this paper, we use Bayesian inference to introduce a formalization of preference utilitarianism in physical world models, specifically cellular automata.“ Auch auf die Maschinenethik wird am Rande eingegangen: „Some formalization has … been conducted in the realm of machine ethics.“ Der Artikel ist über link.springer.com/article/10.1007/s11229-015-0883-1 erhältlich.

Auto und Ethik bei der IAA in Frankfurt

Das große Thema der IAA war im September 2015 das autonome Auto. Das zeigte sich auch im „IAA Spot – Das offizielle Magazin“. Darin wurden nicht zuletzt Bezüge zur Maschinenethik hergestellt. Der Artikel von Holger Holzer mit dem Titel „Das Autonomie-Dilemma“ beginnt mit den Sätzen: „Unsere Autos werden mit zunehmender Autonomie künftig auch über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln soll das geschehen? Die Diskussion dazu hat gerade erst begonnen.“ Zu Wort kommen u.a. Daimler-Chef Dieter Zetsche und Maschinenethiker Oliver Bendel. Zetsche „forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus“. Bendel ist skeptischer und schlägt vor, die Maschinen in komplexen Situationen, in denen das Weiterleben von Menschen auf dem Spiel steht, nicht selbstständig entscheiden zu lassen. Zudem will er die autonomen Autos in festgelegte Bereiche verbannen. Sven Hötitzsch, Experte für Roboterrecht, beantwortet die Schuldfrage im juristischen Sinne. Der Artikel kann hier abgerufen werden.

Train

Abb.: Immer wieder bemüht wird das Trolley-Problem

Wen soll das Roboterauto überfahren?

„Wen soll das autonome Auto lieber überfahren?“ Diesen Titel trägt ein Artikel, der am 14. September 2015 in der Online-Version der WELT erschienen ist; eine gedruckte Version folgte am 21. September. Interviewt wurden Eric Hilgendorf, Juraprofessor an der Universität Würzburg, und Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Auch Politiker werden zitiert: „In rund drei Jahren werden 80 Prozent aller Neuwagen in Deutschland miteinander vernetzt sein“, sage Verkehrsminister Alexander Dobrindt voraus. „Dann können die Autos erkennen, wo andere Fahrzeuge sind, wie weit weg, wie schnell. Sie können Informationen von diesen über den Straßenzustand, die Verkehrsdichte, die Witterungsverhältnisse bekommen.“ (WELT, 14. September 2015) Oliver Bendel konzipiert moralische Maschinen, ist aber skeptisch in Bezug auf komplexe moralische Maschinen, also auch in Bezug auf autonome Autos, die in offenen Welten eine Vielzahl von Entscheidungen – manche mit moralischen Implikationen – treffen müssen. Er ist der Meinung, dass sich gewisse Dilemmata nicht in befriedigender Weise lösen lassen.

Abb.: Was macht man, damit das Auto nicht vom rechten Weg abkommt?

Die Sexroboter kommen (oder auch nicht)

„Ethiker haben“, so meldet es wired.de, „eine Kampagne gegen Sexroboter gestartet“ (wired.de, 16. September 2015). Das Ziel sei, die Entwicklung der Androiden zu verbieten. „Die Gründer der Kampagne befürchten, dass der Umgang mit Sexrobotern menschlichen Beziehungen schadet und eine Sichtweise stärkt, die Frauen und Kinder zu Sexobjekten herabwürdigt.“ (wired.de, 16. September 2015) Diese Aussagen werden einige Experten aus verschiedenen Gründen irritieren. Zunächst einmal gibt es nur wenige Sexroboter. Die menschenartige Roxxxy ist bekannt, neben der einen oder anderen handlichen Variante. Die Akzeptanz ist derzeit gering, und das dürfte sich so schnell auch nicht ändern. Es gibt also, so könnte man einwenden, kein eigentliches Problem. Weiter wird unterstellt, dass die Entwicklung der Roboter in nur einer Richtung stattfindet, dass vor allem das weibliche Geschlecht und die kindliche Unschuld angegriffen werden. Das muss aber nicht sein und ist vom Markt, von der Moral und von anderen Faktoren abhängig. Nicht zuletzt kann man die Roboter auch als moralische Maschinen gestalten, was die Maschinenethik untersucht. Vorschläge dazu unterbreitet der Buchbeitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ von Oliver Bendel im Herausgeberband „Machine Medical Ethics“ – außerdem sein Artikel „Reflections on the Development and the Design of Medical and Care Robots“ (über gbs-schweiz.org/blog/development-design-medical-care-robots/). Kathleen Richardson und Erik Billing vergleichen ihr Vorgehen mit den Kampagnen, „die sich gegen die Produktion von Killerrobotern wenden“ (wired.de, 16. September 2015). Damit man diese Roboterarten in einen Topf werfen kann, muss man wohl die Rede von den Waffen einer Frau oder eines Manns, seien diese fleischlich oder künstlich, wörtlich nehmen.

womanrobot

Abb.: Sex mit und zwischen Robotern ist nicht weit verbreitet

Von Handygirl zum GOODBOT

Auf seiner Vortrags- und Lesereise vom 14. bis 16. September 2015 durch die Niederlande erzählte Oliver Bendel von seinen Handyromanen und -haikus und trug kurze Passagen aus seinen Werken vor, etwa aus „Handygirl“ (2009 – 2010). Handygirl ist ein Avatar und lebt auf dem Handy von Liza. Sie liest die SMS vor und ist eifersüchtig, wenn Liza über ihr Notebook chattet. Niemand ahnt, dass Handygirl eines Tages zur Superheldin wird. Am wenigsten Handygirl selbst. Doch eines Tages geschieht es: Als Liza in Gefahr gerät und fürchterliche Angst bekommt, steigt Handygirl aus dem Handy und rettet und tröstet sie. Sie wird eine Superheldin, vor allem aber ein Mensch; und für Augenblicke lebt sie wirklich. Handygirl war eine Inspiration für den GOODBOT, der 2013 an der Hochschule für Wirtschaft FHNW als Prototyp entwickelt wurde, und den Oliver Bendel am Ende der Veranstaltungen als moralische Maschine vorstellte. Stationen waren u.a. Universiteit Leiden, Universiteit Groningen und Universiteit Utrecht. Eingeladen haben den Wissenschaftler und Schriftsteller die Goethe-Institute Amsterdam und Rotterdam und die Deutsche Bibliothek in Den Haag. In der Reihe, an der schon Hans Magnus Enzensberger, Friedrich Christian Delius, Peter Stamm und Kathrin Passig mitgewirkt haben, ging es dieses Mal um die Digitalisierung der Literatur.

Moral für die Maschine

Der Hessische Rundfunk (hr2 Kultur) bringt am 20. September 2015 eine Sendung zum Thema „Moral für die Maschine – Ansätze einer Roboterethik“. Im Ankündigungstext auf der Website heißt es: „Die Roboter kommen. Aus dem Alltag werden sie bald nicht mehr wegzudenken sein. Roboter-Autos fahren, ohne dass ein Mensch am Steuer sitzt. Pflege-Roboter erinnern alte Menschen daran, regelmäßig zu trinken. Elektronische Plüschtiere geben Pflegebedürftigen Zuwendung und Nähe. Die Maschinen werden immer selbstständiger und intelligenter. Es dauert nicht mehr lange, bis Roboter eigenständig eine moralische Entscheidung fällen müssen. Je autonomer Roboter handeln können, desto dringender ist die Frage nach einer Ethik der Maschinen. An welchen Werten soll sich ein Roboter orientieren? Wie entscheidet das selbstfahrende Auto in einer Dilemmasituation? Inwiefern können emotionale Roboter den Menschen in der Pflege ersetzen? Philosophen und Ingenieure suchen nach Lösungen, den Maschinen moralische Vorstellungen einzuprogrammieren.“ (Website hr2 Kultur) Befragt hat Barbara Schneider u.a. den Maschinenethiker Oliver Bendel. Weitere Informationen über www.hr-online.de/website/radio/hr2/.

Abb.: Roboterfrau (oder Alienfrau?) mit oder ohne Moral

Sollen uns Roboter pflegen?

Unter diesem Titel ist am 9. September 2015 ein Artikel von Oliver Bendel in der Zeitschrift IT for Health erschienen. Operations-, Pflege- und Therapieroboter verbreiten sich immer mehr. Zwei Studierende an der Hochschule für Wirtschaft FHNW, Christine Fahlberg und David Wenger, haben in einem Forschungsbeitrag im Rahmen eines Masterstudiengangs untersucht, ob Patienten unter bestimmten Umständen lieber von Maschinen als von Menschen betreut und begleitet werden wollen. Tatsächlich scheint dies der Fall zu sein, wenn Privat- und Intimsphäre geschützt werden können, wenn man etwa vom Pflegeroboter im Intimbereich gewaschen wird. Als Gesprächspartner und Kontaktperson lehnt man diesen eher ab. Die Perspektive der Patienten wird in einschlägigen Studien selten eingenommen, und überhaupt sind Würde, Intim- und Privatsphäre sowie Datensicherheit kaum ein Thema, auch wenn es immer wieder ethische Betrachtungen gibt. Der Artikel fasst die Ergebnisse der beiden Masterstudierenden zusammen und kündigt weitere Untersuchungen an, bei denen auch die Maschinenethik eine Rolle spielen soll. Informationen zum Heft sind über www.netzmedien.ch/de-CH/medien-plattformen/itforhealth verfügbar. Eine Onlineversion ist in der Netzwoche über www.netzwoche.ch/de-CH/News/2015/09/10/E-Health-Prozesse-auf-dem-Operationstisch.aspx erschienen.

CareAbb.: Im Health Care geht es auch um moralische, sittliche und soziale Werte

Auch Maschinen brauchen Moral

Im Beitrag „Auch Maschinen brauchen Moral“ von Marlene Nowotny wird auf die Forschung von Matthias Scheutz, Professor für Cognitive and Computer Science und Direktor des Human-Robot Interaction Laboratory an der Tufts University in Massachusetts, eingegangen. „Je selbstständiger diese Maschinen in sozialen Kontexten agieren, desto besser müssen sie mit Konfliktsituationen umgehen können.“ (Website ORF, 1. September 2015) Scheutz arbeite „daran, Robotern genau diese Fähigkeit zu geben“. „Eine solche ethische Kontrollarchitektur für Roboter könnte auch bei selbstfahrenden Autos zum Einsatz kommen. Die entsprechende Robotertechnologie ist hier bereits vorhanden – die Fahrzeuge können u.a. einschätzen, ob der Fahrer vor ihnen risikoaffin ist oder nicht -[,] aber die selbstfahrenden Autos sind nicht in der Lage, in Krisensituationen Entscheidungen zu treffen.“ (Website ORF, 1. September 2015) Im Gegensatz zu Autos mit Notbremsassistenten – die Technik ist also teilweise verfügbar, an der Moral wird noch gefeilt. Interessant ist der Hinweis auf aktuelle Forschungsergebnisse von Scheutz: „In solchen Situationen ein Urteil zu bilden, ist kompliziert genug. Doch es kommt erschwerend hinzu, dass Menschen an Roboter höhere ethische Erwartungen haben als an ihre Mitmenschen.“ Der Beitrag ist am 1. September 2015 erschienen und kann über science.orf.at/stories/1762399/ abgerufen werden.

Tagung „Roboterethik“

Die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Robotcar

Abb.: Ist das Roboterauto gut oder böse?

Tagung „Autonomes Fahren“

Die Daimler AG lädt zur Tagung „Autonomes Fahren“. Am 23. September 2015 widmet man sich in Frankfurt am Main sowohl Roboterautos als auch selbstständig fahrenden LKW. In der von Dr. Christine Hohmann-Dennhardt (Vorstand für Integrität und Recht der Daimler AG) unterschriebenen Information heißt es: „Wenn aber Autos in Zukunft autonom über unsere Straßen fahren sollen, dann müssen zuvor auch alle rechtlichen, ethischen und gesellschaftspolitischen Fragen beantwortet sein, die sich rund um die Thematik ergeben.“ Es referieren u.a. Prof. Dr. Sabine Gless von der Universität Basel (Ordinaria für Strafrecht und Strafprozessrecht) und Prof. Dr. Ferdinand Dudenhöffer (Automobilexperte). Vor allem aber ist die Politik präsent. Ein Vertreter der Maschinenethik fehlt; diese Lücke vermag die Fachtagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ zu schließen, die am 24. November in Berlin stattfindet und die von der Daimler und Benz Stiftung und dem Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (ceres) getragen wird.

mercedes_skizze

Abb.: Wohin steuert Daimler?