An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Der LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden (Links nicht mehr gültig).
Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?
Prior to the hearing in the Parliament of the Federal Republic of Germany on 22 June 2016 from 4 – 6 pm, the contracted experts had sent their written comments on ethical and legal issues with respect to the use of robots and artificial intelligence. The video for the hearing can be accessed via www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996. The documents of Oliver Bendel (School of Business FHNW), Eric Hilgendorf (University of Würzburg), Norbert Elkman (Fraunhofer IPK) and Ryan Calo (University of Washington) were published in July on the website of the German Bundestag. Answering the question „Apart from legal questions, for example concerning responsibility and liability, where will ethical questions, in particular, also arise with regard to the use of artificial intelligence or as a result of the aggregation of information and algorithms?“ the US scientist explained: „Robots and artificial intelligence raise just as many ethical questions as legal ones. We might ask, for instance, what sorts of activities we can ethically outsource to machines. Does Germany want to be a society that relegates the use of force, the education of children, or eldercare to robots? There are also serious challenges around the use of artificial intelligence to make material decisions about citizens in terms of minimizing bias and providing for transparency and accountability – issues already recognized to an extent by the EU Data Directive.“ (Website German Bundestag) All documents (most of them in German) are available via www.bundestag.de/bundestag/ausschuesse18/a23/anhoerungen/fachgespraech/428268.
Die zentrale Botschaft der Verkehrspyramide ist, dass die „natürliche Umgebung“ für das vollautomatisierte Fahren und das autonome Auto die Autobahn ist. Dort gibt es nur wenige Einflüsse und Faktoren, die zu berücksichtigen sind, und die Unfallzahlen können drastisch gesenkt werden. Das Fahren in der (Innen-)Stadt hingegen ist hochkomplex, und die zahlreichen Teilnehmer und Objekte führen zu einer Informationsflut, die das Auto bewältigen muss. Zwar kann es das als rollender Computer im Prinzip gut, aber anders als ein Mensch kann es z.B. nur schlecht priorisieren: Der erfahrene Autofahrer ignoriert unwichtige Details, die das System erst einmal zu erkennen und zu verarbeiten hat. Im Stadtverkehr bietet sich ein teilautomatisierter Verkehr an, und manuelle Eingriffe müssen die Regel sein. Generell gilt, dass automatisiertes Fahren von Beschränkungen in Raum und Zeit profitiert. Die Höchstgeschwindigkeiten müssen angepasst, spezielle Spuren eingerichtet werden. Wichtig ist generell eine Zunahme und Kopplung von Sensoren, nicht nur von Kameras, Ultraschall und Radar, sondern auch von Lidar und Infrarot. Wärmebildkameras sind ein wichtiger Bestandteil des Moralmoduls und helfen dabei, Lebewesen in der Nacht zu erkennen. Menschenleben sollen geschützt, aber weder qualifiziert noch quantifiziert werden, allenfalls bei großen Menschenansammlungen; Tiere dagegen können qualifiziert und quantifiziert werden, und die Maschine vermeidet Tierleid und rettet Tierleben – vor allem auf Landstraßen – durch selbstständige Eingriffe, eine passende Verkehrslage vorausgesetzt.
Abb.: Die Verkehrspyramide für automatisiertes Fahren
Der RFF REAL FICTION FILMVERLEIH informiert in einer Pressemitteilung über den Kinostart der Dokumentation „Krieg und Spiele“ von Karin Jurschick am 18. August 2016. „Die unbemannten Kriegsroboter der Zukunft sind nach dem Vorbild von Tieren gebaut. Perfekte Maschinen, die im Wasser, an Land und in der Luft die Bewegung jeder Maus und jedes Menschen erfassen. Und sie können töten. Autonom. Diese technische Entwicklung verändert jetzt schon die Kriege und unsere Vorstellungen von Ethik und Moral. Ja: unsere Stellung als Menschen in der Welt. Werden am Ende die Maschinen sogar die besseren Entscheidungsträger?“ (Information RFF) Weiter heißt es: „Bringt uns die neue, aus der Ferne steuerbare Kriegstechnologie Aufklärung und Sicherheit, wie es die herstellende Industrie und die Regierungen versprechen, oder macht sie die Version eines totalen Überwachungsstaates möglich? Und was ist mit denen da unten, den Menschen im Fadenkreuz?“ (Information RFF) Nicht zuletzt werden zentrale moralische und rechtliche Fragen angesprochen: „Was passiert mit dem Begriff der Schuld, wenn Maschinen autonom töten? Wer ist verantwortlich, wenn sie einen Fehler machen?“ (Information RFF) Zu Wort kommen u.a. Peter W. Singer, Politikwissenschaftler, Ronald Arkin, Robotiker und Maschinenethiker, Daniel Statman, Moralphilosoph, und Yvonne Hofstetter, KI-Expertin. Weitere Informationen zum Film über realfictionfilme.de.
Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel „Von moralischen und unmoralischen Maschinen“ online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.
Maschinen als Subjekte der Moral werden seit einigen Jahren erforscht, in der Disziplin der Maschinenethik, Maschinen als Objekte der Moral seit mehreren Jahrzehnten, in einem Teilgebiet der Roboterethik und in der Künstlichen Intelligenz. Es geht vor allem um intelligente bzw. teilautonome und autonome Maschinen. Wichtige Grundlagenwerke der Maschinenethik sind „Moral Machines“ (2009) und „Machine Ethics“ (2011); auch Spezialisierungen wie „Machine Medical Ethics“ (2015) und Konkretisierungen wie „Programming Machine Ethics“ (2016) sind auf dem Markt. Aus der Medienethik kamen bisher kaum Beiträge zur Thematik, obwohl auch bestimmte neue Medien und neuere Informations- und Kommunikationstechnologien zum Gegenstand der Maschinenethik gehören können, etwa Münchhausen-Maschinen. Diese Lücke der Disziplin versucht eine Konferenz an der PH Ludwigsburg im Dezember 2016 zu schließen, Auf der Website ist zu lesen, es handle sich um eine Kooperation der Forschungsgruppe Medienethik der PHL und der Professur „Kommunikations- und Medienwissenschaft mit dem Schwerpunkt soziale Kommunikation und Mediatisierungsforschung“ am ZeMKI der Universität Bremen. Thema der Tagung seien „die ethischen Konsequenzen aus einer zunehmenden Kommunikation und Steuerung durch autonome Systeme vor dem Hintergrund der Mediatisierungskonzeption“ (Website PHL). Der Call for Papers kann über die Website der Hochschule heruntergeladen werden.
Abb.: Die Medienethik ist eine altehrwürdige Disziplin
Im ARD-Mittagsmagazin vom 27. Juli 2016 stand Oliver Bendel als Technikphilosoph und Maschinenethiker der Moderatorin Hannelore Fischer Rede und Antwort. Zuvor war ein Film zum automatisierten Fahren gebracht worden. Der Bundesverkehrsminister Alexander Dobrindt ist sozusagen auf der Überholspur und lässt Bedenken, so ist es manchen der Stimmen zu entnehmen, die zu hören sind, weit hinter sich. Womöglich wird „wahrnehmungsbereit“, enthalten in der aktuellen Gesetzesvorlage, sogar Begriff des Jahres – der Interpretationsspielraum ist auf jeden Fall nicht weniger groß als die Bedenken. Der Fahrer soll wahrnehmungsbereit sein, wenn er sich auf das Autoauto verlässt, und weil er dieses voll nutzen will, wird er es nur eingeschränkt sein. In seinen Antworten versucht Oliver Bendel zu vermitteln. Er hat nichts gegen automatisiertes Fahren, ist aber der Meinung, dass es in erster Linie auf der Autobahn stattfinden soll, in der „natürlichen Umgebung“ des Automobils. Städte seien zu komplex; während die Maschine dort in zahlreiche Unfälle verwickelt sein und die eine oder andere falsche (u.U. auch in moralischer Hinsicht schlechte) Entscheidung durch sie getroffen wird, ergeht es ihr auf der Autobahn, wenn es sich nicht gerade um einen amerikanischen Highway mit Wendemöglichkeit handelt, ganz anders, ist sie in ihrem Element, und die seltenen Unfälle – viele kann das Auto vermeiden helfen – wird die Gesellschaft verschmerzen können. Er ist ebenso wie Alexander Dobrindt der Meinung, dass automatische und autonome Autos nicht Menschen qualifizieren sollen, hält aber auch das Quantifizieren für nur bedingt tauglich. Eine befriedigende Lösung, die von der Ethikkommission, die vom Bundesverkehrsminister eingesetzt wird, erarbeitet werden könnte, sieht er im Moment nicht. Weitere Informationen über www.daserste.de/information/politik-weltgeschehen/mittagsmagazin/index.html; dort kann auch einige Wochen lang der Podcast aufgerufen werden.
Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.
Beim DVR-Forum „Automatisiertes Fahren und Ethik“ wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
SoftBank und Honda wollen ein sprechendes Auto bauen – das meldet Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich abturnend sein.
„Der Algorithmus als Richter“ lautet der Titel eines Beitrags von Katharina Schuchmann für politik-digital.de vom 21. Juli 2016. „Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?“ (politik-digital.de, 21. Juli 2016) Die Verfasserin geht auf ein Pilotprojekt in den Niederlanden ein, das System Rechtwijzer, nach ihren Worten ein automatisierter Streitschlichtungsservice. „Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an.“ Zudem wirft sie einen Blick in die Zukunft, über Schlichtung und Scheidung hinaus. Es scheine nur eine Frage der Zeit zu sein, „bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen“ (politik-digital.de, 21. Juli 2016). Vorstellbar sei, dass mittelfristig eine Umkehr der Verhältnisse stattfinde und der Algorithmus nicht mehr den Juristen unterstütze, sondern dieser den Algorithmus, ihn mit Meinungen und menschlichen Einschätzungen füttere und ansonsten walten (und schalten) lasse. Wie bei verschiedenen anderen Automatisierungsbestrebungen – etwa bei Banken und Versicherungen – wäre es freilich auch hier wichtig, dass der Mensch das letzte Wort behält. Zwar kann man Befangenheit und Gefühligkeit ein Stück weit durch maschinelle Verfahren ausgleichen; aber Empathie und Intuition sind meist essentielle Bestandteile rationaler Entscheidungsprozesse. Obwohl es nicht um moralische Urteile geht, sondern um rechtliche, kann die Maschinenethik zur Gestaltung von „Richtersystemen“ beitragen und durch die Konzeption und Implementierung auch die Grenzen der „Maschinenrichter“ aufzeigen.
Daimler hat bei Amsterdam (zwischen dem Flughafen Schipohl und der Stadt Haarlem) selbstfahrende Busse eingesetzt. Der Mannheimer Morgen hat am 18. Juli 2016 Oliver Bendel dazu befragt. Der Maschinenethiker hat schriftlich geantwortet: „Grundsätzlich rate ich davon ab, autonome Fahrzeuge in Städten und Ballungsgebieten einzusetzen. In diesen wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten wie Tauben, Luftballons und Seifenblasen, Lichtreflexen, Schatten und Signalen. Zugleich sehe ich wie Daimler durchaus Potenzial für den öffentlichen Nahverkehr. Man kann das Risiko minimieren, indem man die Geschwindigkeit stark senkt, spezielle Spuren nutzt und verschiedenartige Sensoren koppelt. In Sitten im Wallis verkehren die autonomen Shuttles der PostAuto AG sehr langsam, auf einer bekannten Rundstrecke. Das ist eine gute Lösung. Dennoch könnte eines Tages ein kleines Kind zu Schaden kommen. Die Geschwindigkeit der Daimler-Busse ist sehr hoch. Das mag dann funktionieren, wenn sich auf diesen Spuren ansonsten nichts und niemand befinden kann. Es handelt sich hier immerhin nicht um die Innenstadt von Amsterdam, sondern um eine übersichtliche Strecke zwischen Flughafen und Haarlem. Ich rate auf jeden Fall dazu, nicht allein die Kameras beobachten und entscheiden zu lassen. Sie täuschen sich schnell und sind leicht zu täuschen, auch durch böswillige Passanten mit Taschenspiegeln und Laserpointern. Es sollten unbedingt weitere Systeme die Situation prüfen, etwa Radar, Lidar und Ultrasound, und vor allem sollte eine Art Mehrheitsentscheidung vorhanden sein. Wenn drei Systeme erklären, dass die Luft rein ist, sollte sie rein sein.“ Mehrere Statements wurden in den Artikel „Stadtbus mit Autopilot“ eingearbeitet, der am selben Tag erschienen ist und über www.morgenweb.de/nachrichten/wirtschaft/regionale-wirtschaft/1.2881794 abgerufen werden kann.
„Einer meiner Lieblingsgötter ist Hephaistos, der Schöpfer von Talos und Pandora. Über die Frau mit der Büchse muss man kaum ein Wort verlieren. Talos ist weniger bekannt, obwohl er als Spielzeug bis in unsere Gegenwart überdauert hat. Er, der Wächter von Kreta, bewarf herannahende Boote mit Steinen, bis sie mitsamt den Feinden untergingen. Wenn diese doch das Ufer erreichten, drückte er sie an seinen metallenen Körper, der inzwischen glühte. Das erinnert an eine andere künstliche Figur, die eiserne Jungfrau des Nabis – doch bleiben wir bei Talos.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 16. Juli 2017 in der Beilage Sonntag – und damit in Zeitungen wie Hannoversche Allgemeine und Leipziger Volkszeitung – erschienen ist. Von den erdachten Maschinen und Robotern der Antike wird ein Bogen gespannt bis zu selbstfahrenden Autos. Und zur Maschinenethik, die die Möglichkeiten moralischer Maschinen erkundet. Diese sind ein Topos der Ideengeschichte der künstlichen Kreatur, und ganz gegensätzliche Geschöpfe wie Galatea und Golem treffen sich einerseits in ihrer Sprachlosigkeit und Tumbheit, andererseits auch in ihren Möglichkeiten moralischen oder unmoralischen Handelns. Während Galatea weitgehend Projektionsfläche und Gebärmaschine bleibt, wird der Golem in einer Version zur Zerstörungsmaschine, losgelassen auf Prag. Der Beitrag mit dem Titel „Maschine entmündigt Mensch“ (ursprünglich: „Von Talos bis Pandora“) kann hier aufgerufen werden.
„Im Aargau kam der GOODBOT zur Welt. Programmiert wurde er in verschiedenen Kantonen, doch am Campus Brugg-Windisch der FHNW wurde er erdacht und ausprobiert. Wir hatten 2013 verschiedene Chatbots auf Websites mit Aussagen und Fragen gefüttert. Die Ergebnisse waren erschütternd. Maschinen dieser Art sind dazu da, die Benutzer über Produkte und Dienstleistungen zu informieren. Sie sind auch vorbereitet auf Fragen, die sie selbst und die Welt betreffen. Wenn die Sprache indes auf einen beabsichtigten Selbstmord oder Amoklauf kam, versagten die meisten von ihnen.“ Mit diesen Worten beginnt der Artikel „Nachrichten aus der neuen Fabrik“ von Oliver Bendel, der in der Aargauer Wirtschaft Nr. 7 (14. Juli 2016) erschienen ist. Und weiter: „Ich erfand den GOODBOT, der bei Problemen besser reagieren und im Extremfall eine nationale Notfallnummer herausgeben konnte. Drei Studenten implementierten ihn prototypisch. Die Gestaltungsdisziplinen, deren Methoden wir anwandten, waren soziale Robotik und Maschinenethik. Erstere bringt Roboter hervor, die zu sozialen Interaktionen fähig sind und Menschen nicht überfordern und nicht verletzen, letztere Maschinen, die moralisch angemessen entscheiden und handeln.“ (Aargauer Wirtschaft, 14. Juli 2016) Im Folgenden wird auf die Industrie 4.0 und die Smart Factory eingegangen, wo soziale Robotik und Maschinenethik ebenfalls eine Rolle spielen. Der ganze Artikel kann über hier heruntergeladen werden.
Abb.: Die Smart Factory ist mit der Umwelt vernetzt
Die Journalistin Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Der erste Teil des Interviews ist im Juni 2016 erschienen und in diesem Blog besprochen worden. Der zweite Teil mit dem Titel „Aufhalten lassen wir uns nicht.“ liegt seit dem 14. Juli vor und kann hier heruntergeladen werden. In dem Gespräch ging es, wie bereits ausgeführt, um Maschinenethik, Informationsethik und Technologiefolgenabschätzung sowie um Moral und Ethik im Allgemeinen. Zur Maschinenethik führt Oliver Bendel aus: „Die Maschinenethik begreife ich als Gestaltungsdisziplin, die Informationsethik als Reflexionsdisziplin. Die Maschinenethik ist die Disziplin, die die Moral der Maschine zum Thema hat. Die Moral des Menschen wird anders als in der Menschenethik nur nebenbei betrachtet, als Mittel zum Zweck. Eine menschliche Moral ist sehr viel besser als eine maschinelle Moral. Der maschinellen Moral fehlt einiges. Die Maschine kann aber mindestens eine so gute Moral haben wie der menschliche Fundamentalist.“ (at, 7/2016) Diese These wird im Folgenden näher beleuchtet und begründet. Neben dem Text finden sich in beiden Beiträgen viele Fotos, aufgenommen bei miesestem Regenwetter und bester Diskutierlaune.
Abb.: Ein Fundamentalist bei seiner Lieblingsbeschäftigung
In der Sendung „Kontrovers“ (Bayerisches Fernsehen) vom 13. Juli 2016 ging es um selbstfahrende Autos. Zu Wort kamen neben Bürgerinnen und Bürgern u.a. Alexander Dobrindt, Bundesverkehrsminister von Deutschland, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Im Ankündigungstext wurde unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Oliver Bendel ist nicht gegen hoch- und vollautomatisiertes Fahren oder autonome Autos. Diese gehören nur nach seiner Meinung auf die Autobahn, nicht in die Stadt. Selbst die Autobahn ist noch schwierig zu bewältigen; die Stadt zu bewältigen, ist kaum möglich. Ein Problem sind Kameras, die sich schnell täuschen respektive leicht täuschen lassen. Sie müssen auf jeden Fall mit weiteren Sensoren gekoppelt werden. Das Gespräch mit Oliver Bendel führte Patrick Lerch. Weitere Informationen über www.br.de.
Abb.: Das Interview mit Oliver Bendel fand in München statt