Autonomes Fahren tötet

In Tempe (Arizona) ist am 19. März 2018 bei einem Unfall mit einem Uber-Roboterauto eine Frau ums Leben gekommen. Sie schob ihr Fahrrad, als sie die Fahrbahn betrat. Der Insasse des Fahrzeugs griff nicht ein. Philipp Vetter von der Welt war am 20. März 2018 im Gespräch mit Oliver Bendel. Der Informations- und Maschinenethiker plädiert seit Jahren dafür, hoch- und vollautomatisierten Individualverkehr in erster Linie auf Autobahnen stattfinden zu lassen. Dort wird seiner Ansicht nach Leben geschützt. Was Uber und Co. in amerikanischen Städten machen, hält er für leichtfertig, unabhängig vom aktuellen Fall. Immer wieder hat er sich auch ein Bild vor Ort gemacht, etwa in San Francisco, wo selbstständig fahrende Autos im dichtesten Verkehr anzutreffen sind. Er rät dazu, solche Tests einzustellen und sich auf die Beherrschung von Autobahnen – recht leicht – und Landstraßen – recht schwierig – zu konzentrieren. Der Beitrag „Autonomes Fahren tötet. Warum? Weshalb? Egal!“ wurde am 20. März 2018 veröffentlicht und ist über www.welt.de/wirtschaft/article174745972/Uber-Unfall-mit-selbstfahrendem-Fahrzeug-koennte-Technik-zurueckwerfen.html aufrufbar.

Abb.: Müssen Roboterautos in Städten verboten werden?

Die Suche nach dem Moralmodul

„Das Auto hat sich und seine Umwelt immer wieder stark verändert. Am Anfang versuchte man, die Kutsche nachzuahmen, und fast wie in den Jahrhunderten zuvor holperte und wankte man über das Pflaster. Dann entdeckte man die Stromlinienförmigkeit, duckte sich in den Fahrerraum hinein, wand sich aus dem Sitz heraus. In die Lücke, die die Steine hinterlassen hatten, floss der Asphalt. Die Städte wurden umgebaut. Sie wurden so autofreundlich, dass der Gehsteig in manchen Ländern zum Strich verkam, auf dem man sich vorsichtig zwischen Verkehr und Mauer vorwärts bewegte. Vorwärts, vor allem im Sinne des Fortschritts, das war die Devise, bis man die Innenstädte wieder für die Fußgänger erschloss und Fußgängerzonen entstanden. Dann tat sich eine Weile nichts. Autoindustrie und Stadtplaner wirkten müde und schwach. Bis die Idee des autonomen Autos geboren wurde.“ So beginnt ein Artikel zu Roboterautos und zur Maschinenethik von Oliver Bendel, erschienen am 9. September 2016 im Tagesspiegel, der traditionsreichen Zeitung aus Berlin, für Berlin und ganz Deutschland. Er kann über https://causa.tagesspiegel.de/die-suche-nach-dem-moralmodul.html abgerufen werden.

kutschenfahrt

Abb.: Den Pferden und dem Kutscher ausgeliefert

Die Versklavung der Maschinen

„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.

Sklave

Abb.: Versklavte Maschinen statt versklavte Menschen

Der Tesla-Unfall

Der tödliche Unfall mit einem Tesla Model S vom Mai 2016, der derzeit durch die Medien geht, wurde vom Hersteller am 30. Juni 2016 wie folgt beschrieben: „What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S. Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S.“ (Tesla-Blog, 30. Juni 2016) Demnach kamen zwei Umstände zusammen. Zum einen ist der Sattelzug senkrecht auf den Highway getroffen bzw. hat senkrecht zum Automobil gestanden. Eine ähnliche Situation könnte sich mit LKW und PKW in europäischen Städten ständig ergeben, auf europäischen Autobahnen dagegen kaum. Zum anderen hat sich die Kamera täuschen lassen und, von unten her aufnehmend, die weiße Fläche des Fahrzeugs mit dem hellen Himmel dahinter gleichgesetzt. Dies zeigt einmal mehr, dass Kameras nur bedingt eine geeignete Technik für automatische und autonome Autos sind und in jedem Falle mit verschiedenen anderen Systemen wie Radar und LiDAR kombiniert werden müssen. Kameras kann man leicht täuschen und täuschen sich leicht. Im Tesla Model S ist eine komplexe Sensorik verbaut (Kameras, Radar, Ultraschall). Allerdings besteht offenbar Verbesserungsbedarf, und was das optische System wahrnimmt, muss unbedingt durch ein anderes geeignetes System überprüft werden. Zusätzlich könnten die Hersteller konventioneller PKW und LKW in die Pflicht genommen werden. In Zukunft sind graue, weiße oder blaue Karosserien und Sattelauflieger vielleicht zu vermeiden.

Red_Truck

Abb.: Auch die Fläche dieses LKWs könnte verwechselt werden

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

AAAI-Workshop zur Maschinenethik I

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University, der am 21. März 2016 im Rahmen der AAAI Spring Symposia eröffnet wurde, erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie stellten Szenarien vor, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte.

Die Moral der Roboter

Für „Der Sonntag“ vom 13. März 2016 hat René Zipperlen den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW interviewt. Sein Interesse gilt u.a. der Situation, die sich niemand wünscht: „Was ist, wenn ein autonomes Auto einen Unfall baut?“ Der Wissenschaftler führt aus: „Es klingt paradox: Für den Menschen stellt sich womöglich keine moralische Frage, weil alles viel zu schnell geht. Bei der Maschine entsteht aber vielleicht eine moralische Situation, weil sie andere Möglichkeiten nutzen kann als nur Reflexe, sie kann aufgrund einer Vielzahl von Beobachtungen und Bewertungen blitzschnell entscheiden, ob sie weiterfährt, ausweicht oder bremst.“ (Der Sonntag, 13. März 2016) Eine andere Frage ist: „Würden Sie die Autonomie von Fahrzeugen ab einem gewissen Punkt begrenzen?“ Die Antwort lautet: „Ich bin für hybride Autos, bei denen wir noch selbst eingreifen können. Google will Lenkrad und Pedal entfernen. Das halte ich für einen Fehler, denn es macht uns ohnmächtig. Ich wäre durchaus dafür, das autonome Auto zwischen Städten verkehren zu lassen, auf geraden Strecken wie der Autobahn.“ (Der Sonntag, 13. März 2016) Zipperlen: „Und im Stadtverkehr?“ Bendel: „Würde ich es im Moment verbieten. Städte sind zu kompliziert.“ (Der Sonntag, 13. März 2016) Der ganze Beitrag mit dem Titel „Die Moral der Roboter“ kann hier heruntergeladen werden.

Auto_Sonntag

Abb.: Fahrverbot in den Städten für das autonome Auto?

Menschenleben sind keine Rechengröße

In der Stuttgarter Zeitung vom 12. März 2016 ist ein ganzseitiges Interview – geführt hat es der Wissenschaftsjournalist Dr. Werner Ludwig – mit Prof. Dr. Oliver Bendel aus Zürich erschienen. Der Wirtschaftsinformatiker und Ethiker geht u.a. auf autonome Autos ein: „Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.“ (Stuttgarter Zeitung, 12. März 2016) Das Interview mit der Überschrift „Menschenleben sind keine Rechengröße“ ist auf Seite 11 zu finden. Es kann, mit freundlicher Genehmigung des Autors und der Zeitung, hier heruntergeladen werden.

bus_stuttgart

Abb.: Auch ein Bus kann autonom fahren

Welchen Wert hat der Mensch?

„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.

red_hut_girl

Abb.: Mehr Angst vor dem bösen Auto als vor dem bösen Wolf?

Umweltfreundliche Roboterautos

Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW, von der Hochschule für Technik verantwortet und von der Hochschule für Wirtschaft mitgetragen, wurde im Januar 2016 das Projekt „Umweltfreundliche Roboterautos“ beendet. Der Student Robin Güdel, betreut von Prof. Dr. Oliver Bendel (in diesem Studiengang der Dozent für Umwelt- und Unternehmensethik), hat zunächst fünf Fahrerassistenzsysteme bzw. Kommunikationsverfahren untersucht. Es habe sich „herausgestellt, dass die Energieeffizienz beträchtlich erhöht werden kann“ (Abschlussbericht). „Auch Emissionen wie Lärm, CO2 und andere Schadstoffe können dank dieser Systeme gesenkt werden. Die effektiven Einsparungen sind jedoch schwer zu quantifizieren, da diese von vielen Einflussfaktoren abhängen.“ (Abschlussbericht) Im Anschluss wurden Roboterautos unter die Lupe genommen. Ein Ergebnis war, dass neue Konzepte für die Nutzung des Automobils entstehen könnten. Beim „Carsharing der Zukunft“ handle es sich um eine Dienstleistung, bei welcher man mit Hilfe autonomer Fahrzeuge am Standort A abgeholt und zum Standort B transportiert wird. „Falls eine solche Dienstleistung stark genutzt wird, könnten viele Konsumenten von dem Besitz eines eigenen Fahrzeugs absehen.“ (Abschlussbericht)

Laufen

Abb.: Laufen ist noch umweltfreundlicher

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Foundation of Responsible Robotics

„Alle forschen an Robotern und keiner bedenkt, was wir damit anrichten.“ (Website DRadio Wissen, 11. Dezember 2015) Dieser Meinung sei, so der Sender, eine Gruppe von Wissenschaftlern. „Deshalb haben sie die Foundation of Responsible Robotics gegründet, also die Stiftung für verantwortungsvolle Robotik. Bei der Gründungsfeier in London warnte der emeritierte Professor und Mitgründer Noel Sharkey, die britische Regierung stecke zwar viel Geld in die Forschung – aber die Auswirkungen auf die Gesellschaft würden überhaupt nicht bedacht. Und auch ethische Fragen spielten kaum eine Rolle.“ (Website DRadio Wissen, 11. Dezember 2015) Allerdings fragen Informationsethik, Technikethik und Roboterethik sowie Wirtschaftsethik – in vielen Ländern umtriebige Disziplinen – sehr wohl nach ethischen Implikationen des Einsatzes von Robotern, und die Maschinenethik konzipiert sogar moralische Maschinen. Folgende Beispiele führt Noel Sharkey an: „Durch die Automatisierung in der Industrie könnten massenhaft Menschen arbeitslos werden. Auch Menschenrechte würden verletzt, etwa wenn Roboter bei der Betreuung von Senioren mit Kameras filmen. Polizeidrohnen seien in mehreren Ländern mit Waffen ausgerüstet. Selbstfahrende Autos könnten Bomben transportieren und so Selbstmordattentäter ersetzen.“ Das ist freilich nicht das Hauptproblem bei Roboterautos; das Hauptproblem ist, dass diese selbst Menschen töten. „Die Stiftung will erreichen, dass die Forschung solche Gefahren stärker mitdenkt.“ (Website DRadio Wissen, 11. Dezember 2015) Dies ist auf jeden Fall ein ehrenwertes Ziel.

Pflegeroboter und Schamgefühl

In „Forschung aktuell“ (Deutschlandfunk) wurde am 25. November 2015 der Beitrag „Die Moral der Maschinen“ gesendet. Volkart Wildermuth war am Vortag während der Berliner Konferenz „Roboterethik“ im Gespräch mit Prof. Dr. Jochen Steil, Prof. Dr. Catrin Misselhorn, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel. Im Vorspann wird auf Roboter in der Science-Fiction eingegangen. Die Roboter der Wirklichkeit seien fleißig dabei, ihren Kollegen nachzueifern. Dabei würden sich aber moralische Herausforderungen ergeben. Catrin Misselhorn erzählt, dass es ihrer Großmutter nicht recht gewesen sei, wenn der Pflegedienst sie im Intimbereich gewaschen habe. „Ich könnte mir vorstellen, dass ihr in diesem Fall es recht gewesen wäre, wenn ein Roboter diese Tätigkeit übernommen hätte.“ In eine ähnliche Richtung weist eine Befragung, die von der Hochschule für Wirtschaft FHNW durchgeführt wurde. Zu Roboterautos stellt der Maschinenethiker Oliver Bendel fest: „Ich denke, der Mensch sollte bestimmte Entscheidungen selbst treffen, selbst wenn sie falsch sind.“ Für ihn sind dies Entscheidungen über Leben und Tod von Menschen, wie sie in Dilemmata diskutiert werden. Er schlägt grundsätzlich vor, den normalen Verkehr und den autonomen Verkehr soweit wie möglich voneinander zu trennen und Roboterautos zu beschränken. Fußgänger und Fahrradfahrer in Städten sollten sich nicht permanent auf autonome Autos einstellen und ihr Verhalten an diese anpassen müssen. Der Beitrag kann über www.deutschlandfunk.de/forschung-aktuell.675.de.html abgerufen werden.

Krankenschwester

Abb.: Beseitigt der Pflegeroboter das Schamgefühl?

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Wenn Roboter über Leben und Tod entscheiden

Ein Workshop in Bremen widmet sich dem Thema „Maschinenethik – wenn Roboter über Leben und Tod entscheiden“. Den Eröffnungsvortrag hält Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW (Basel, Olten und Brugg-Windisch). Er führt in die Disziplin ein und stellt Methoden vor, um moralische Maschinen umzusetzen. Dabei geht er auch auf annotierte Entscheidungsbäume ein. Auf der Website www.wissenswerte-bremen.de wird erklärt: „Maschinen, die quasi als Subjekte selbst Verantwortung übernehmen – wer trifft die Entscheidungen, wer übernimmt die Verantwortung? Die technologische Entwicklung stellt die Gesellschaft vor viele Fragen und Herausforderungen; bisherige Regeln lassen sich nur schwer auf aktuelle und zukünftige Gegebenheiten übertragen.“ Der Workshop lege den Fokus auf ein hochaktuelles Problem und widme sich den ethischen Problemen bei zwei exemplarischen autonomen Systemen, nämlich bei Roboterautos (Vortrag von Prof. Dr. Barbara Lenz, Leiterin Institut für Verkehrsforschung, Deutsches Zentrum für Luft- und Raumfahrt, Berlin) und autonomen Waffensystemen (Vortrag von Dr. Frank Sauer, Senior Researcher, Institut für Politikwissenschaft, Universität der Bundeswehr München). Der Workshop ist Teil des Dialogforums WISSENSWERTE 2015 vom 16. bis 17. November 2015. Die Programmplanung obliegt u.a. der Technischen Universität Dortmund, Partner sind Helmholtz-Gemeinschaft, Leibniz-Gemeinschaft, Max-Planck-Gesellschaft, Fraunhofer-Gesellschaft und Stifterband für die deutsche Wissenschaft. Das Programmheft enthält weitere Informationen.

Roboterhand

Abb.: Auf wen wird der Roboter zeigen?

Wen sollen das Auto und die Drohne töten?

Wen soll das autonome Auto töten? Darf es überhaupt töten? Wen soll die Drohne töten? Der Maschinenethiker Oliver Bendel befasst sich seit mehreren Jahren mit solchen Fragen. Bei watson.ch gibt es am 4. November alte und neue Antworten. Bendel spricht sich dafür aus, die Maschine nicht über Leben und Tod von Menschen entscheiden zu lassen. Dafür muss man das Roboterauto, wenn man es zulässt, in die Schranken weisen. Auf separaten Fahrspuren, zu bestimmten Uhrzeiten und mit reduzierter Geschwindigkeit entstehen weniger Unfälle und dadurch weniger Dilemmata. Zudem werden die Fahrzeuge für Skeptiker und Gegner berechenbarer, was ihrer Akzeptanz zuträglich ist. Überhaupt muss, so fordert Bendel, die Gesellschaft miteinbezogen werden. Am Rande wird auch auf Kampfroboter eingegangen. Der Maschinenethiker sagt dazu: „Ich habe zwar den Aufruf gegen Kampfroboter mitunterschrieben, aber ich muss zugeben, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint. Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Killerroboter nicht, sie brandschatzen nicht, sie plündern nicht. Sympathisch sind sie mir trotzdem nicht.“ (watson.ch, 4. November 2015) Der Beitrag kann über www.watson.ch/!106690026 aufgerufen werden.

fokker

Abb.: An diesem Jagdflugzeug war noch nichts autonom