Automatisierte Maschinen und (teil-)autonome Systeme verbreiten sich immer mehr. Sie treffen selbstständig Entscheidungen, auch moralischer Art. Zugleich verschmelzen Menschen und Maschinen, Menschen vermessen sich bei Aktivitäten (Quantified Self), zeichnen ihr Leben auf (Lifelogging), ergänzen und verbessern Körper und Geist und werden zu Cyborgs. Das Europäische Parlament in Brüssel widmet sich diesen Entwicklungen am 8. September 2016 von 9.30 bis 13.00 Uhr. Titel der Veranstaltung, zu der Jan Philipp Albrecht einlädt, ist „Merging of man and machines: questions of ethics in dealing with emerging“. Der Newsletter DIGITAL AGENDA wartet mit folgenden Informationen auf: „The Working Group Green Robotics would like to invite you to a public hearing on ‚Merging of man and machines: questions of ethics in dealing with emerging technology‘. With this and further discussions we would like to develop a position on how society should respond to questions like How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ Im Track „Ethics & Society: Examples of how our lives, values and society will change“ sprechen drei Expertinnen und Experten zu den genannten Themen, nämlich Yvonne Hofstetter (Direktorin der Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Professor an der Hochschule für Wirtschaft FHNW) und Constanze Kurz (Sprecherin des CCC). Der Track „Politics & Law: Examples of how we do/can debate and regulate this field“ wird bestritten von Juho Heikkilä (Bereichsleiter bei DG Connect) und Dr. Hielke Hijmans (Special Advisor at the Offices of the European Data Protection Supervisor). Zwei weitere Vortragende sind Enno Park (Vorsitzender von Cyborgs e.V.) und Dana Lewis (Unternehmensgründerin). Weitere Informationen über www.janalbrecht.eu/termine/merging-of-man-and-machines-questions-of-ethics-in-dealing-with-emerging-technology.html (Link nicht mehr gültig).
Ein kleiner Junge namens Nicholas hat, wie Nerdcore meldet, das Trolley-Problem gelöst. In einem Video wird gezeigt, wie er mit Spielzeugbahn und -figuren an das Gedankenexperiment herangeführt wird. Er überlegt nicht lange, nimmt die eine Person von dem einen Gleis und legt sie auf das andere zu den fünf Personen, die bereits dort sind. Dann lässt er den Trolley bzw. die Bahn über die vergrößerte Gruppe rollen. Bisher hat man immer entweder die Weiche umgelegt oder eben nicht und sich für den Tod der einen Person oder den Tod der fünf Personen entschieden. Nerdcore schreibt dazu: „Zwar sieht das Gesetz für beide Standardlösungen des Trolley-Problems Möglichkeiten vor, die in Straflosigkeit münden. Aber bis dahin hat der junge Nicholas jede Menge Ärger am Hals und die Medien hacken auf ihm rum, tausend Shitstorms[,] weil er irgendwelche Leute umgebracht/nicht umgebracht hat und so weiter. Es ist daher völlig verständlich und nachvollziehbar, wenn sich Nicholas ganz einfach aller Zeugen entledigt, [sie] auf einen Haufen wirft und mit dem Zug über sie drüberrollert, bis sie Hackfleisch sind. Nicholas wird bestimmt mal 1a[-]Gangster.“ Ein Roboterauto könnte das Verhalten des Jungen nachahmen, wenn es Greifarme hätte, die nicht nur für das Verschieben von Personen, sondern auch zum Entgegennehmen einer Pizza oder eines Sofas sinnvoll wären. Artikel und Video über www.nerdcore.de/2016/09/01/2jaehriger-loest-trolley-problem/ (Link nicht mehr gültig).
Abb.: Ein kleiner Junge hat das Trolley-Problem gelöst
„Maschine und Moral, Roboter und Recht“ ist der Titel eines Beitrags von Hansjörg Schmid und Virginie Jaquet, der im August 2016 in der APUNTO (3/2016) erschienen ist, der Zeitschrift für die Angestellten in der Schweiz. Im Teaser heißt es: „Maschinen und Roboter durchdringen unser Leben immer mehr. Das Zusammenwirken von Mensch und Maschine ist aber, gerade in der Schweiz, noch erstaunlich wenig geregelt, wie Rechtsexperten und Ethiker feststellen.“ (APUNTO, August 2016) Zu Wort kommen Prof. Dr. Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht unter besonderer Berücksichtigung des Arbeitsrechts an der Universität St. Gallen und Expertin für Roboterrecht, Nicolas Capt, Rechtsanwalt bei Barreaux de Genève & Paris und Spezialist für neue Technologien, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel liegt in der selben Ausgabe in französischer Sprache vor, unter dem Titel „Machines et morale, robots et droit“. Der Teaser lautet dort: „Les robots envahissent toujours plus notre vie. Pourtant, la cohabitation entre l’homme et la machine est très peu réglée en Suisse, comme le constatent des experts en droit et un éthicien.“ Das gesamte Heft kann über angestellte.ch/assets/Apunto/apunto-3-16-GzD-low.pdf heruntergeladen werden.
Abb.: Ist dieses Robotermädchen schon moralisiert?
An der Hochschule für Wirtschaft FHNW wurde von Frühjahr bis Spätsommer 2016 im Rahmen der Abschlussarbeit von Kevin Schwegler der LÜGENBOT (LIEBOT) als einfache unmoralische Maschine und Ausprägung einer Münchhausen-Maschine entwickelt. Professor Dr. Oliver Bendel, der Auftraggeber und einer der Betreuer, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert. Darin wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man kann also Lügenmaschinen bauen, Wetterberichte, die die falsche Temperatur angeben, Chatbots, die Tatsachen verdrehen – und uns verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student hat den LIEBOT in Java programmiert, mit dem Eclipse Scout Neon Framework. Dabei stand ihm ein weiterer Betreuer, Prof. Dr. Bradley Richards, zur Seite. Kevin Schwegler ist ein wertvoller Beitrag zur Forschung gelungen, u.a. durch genuine maschinelle Strategien des Lügens, die etwa auf einer Ontologie der Princeton University und einer Funktion von Yahoo beruhen. So wird aus dem Satz „Ein Hase hat lange Ohren“ durch ein Hinauf- und Hinabwandern in der Ontologie die Lüge „Ein Igel hat lange Ohren“ – das Hyponym „Hase“ wird ersetzt durch das Kohyponym „Igel“. Der LÜGENBOT kann ab Ende August 2016 über luegenbot.ch und liebot.org getestet werden (Links nicht mehr gültig).
Abb.: Hat der Igel lange Ohren oder der LIEBOT eine lange Nase?
Prior to the hearing in the Parliament of the Federal Republic of Germany on 22 June 2016 from 4 – 6 pm, the contracted experts had sent their written comments on ethical and legal issues with respect to the use of robots and artificial intelligence. The video for the hearing can be accessed via www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996. The documents of Oliver Bendel (School of Business FHNW), Eric Hilgendorf (University of Würzburg), Norbert Elkman (Fraunhofer IPK) and Ryan Calo (University of Washington) were published in July on the website of the German Bundestag. Answering the question „Apart from legal questions, for example concerning responsibility and liability, where will ethical questions, in particular, also arise with regard to the use of artificial intelligence or as a result of the aggregation of information and algorithms?“ the US scientist explained: „Robots and artificial intelligence raise just as many ethical questions as legal ones. We might ask, for instance, what sorts of activities we can ethically outsource to machines. Does Germany want to be a society that relegates the use of force, the education of children, or eldercare to robots? There are also serious challenges around the use of artificial intelligence to make material decisions about citizens in terms of minimizing bias and providing for transparency and accountability – issues already recognized to an extent by the EU Data Directive.“ (Website German Bundestag) All documents (most of them in German) are available via www.bundestag.de/bundestag/ausschuesse18/a23/anhoerungen/fachgespraech/428268.
Im ARD-Mittagsmagazin vom 27. Juli 2016 stand Oliver Bendel als Technikphilosoph und Maschinenethiker der Moderatorin Hannelore Fischer Rede und Antwort. Zuvor war ein Film zum automatisierten Fahren gebracht worden. Der Bundesverkehrsminister Alexander Dobrindt ist sozusagen auf der Überholspur und lässt Bedenken, so ist es manchen der Stimmen zu entnehmen, die zu hören sind, weit hinter sich. Womöglich wird „wahrnehmungsbereit“, enthalten in der aktuellen Gesetzesvorlage, sogar Begriff des Jahres – der Interpretationsspielraum ist auf jeden Fall nicht weniger groß als die Bedenken. Der Fahrer soll wahrnehmungsbereit sein, wenn er sich auf das Autoauto verlässt, und weil er dieses voll nutzen will, wird er es nur eingeschränkt sein. In seinen Antworten versucht Oliver Bendel zu vermitteln. Er hat nichts gegen automatisiertes Fahren, ist aber der Meinung, dass es in erster Linie auf der Autobahn stattfinden soll, in der „natürlichen Umgebung“ des Automobils. Städte seien zu komplex; während die Maschine dort in zahlreiche Unfälle verwickelt sein und die eine oder andere falsche (u.U. auch in moralischer Hinsicht schlechte) Entscheidung durch sie getroffen wird, ergeht es ihr auf der Autobahn, wenn es sich nicht gerade um einen amerikanischen Highway mit Wendemöglichkeit handelt, ganz anders, ist sie in ihrem Element, und die seltenen Unfälle – viele kann das Auto vermeiden helfen – wird die Gesellschaft verschmerzen können. Er ist ebenso wie Alexander Dobrindt der Meinung, dass automatische und autonome Autos nicht Menschen qualifizieren sollen, hält aber auch das Quantifizieren für nur bedingt tauglich. Eine befriedigende Lösung, die von der Ethikkommission, die vom Bundesverkehrsminister eingesetzt wird, erarbeitet werden könnte, sieht er im Moment nicht. Weitere Informationen über www.daserste.de/information/politik-weltgeschehen/mittagsmagazin/index.html; dort kann auch einige Wochen lang der Podcast aufgerufen werden.
Daimler hat bei Amsterdam (zwischen dem Flughafen Schipohl und der Stadt Haarlem) selbstfahrende Busse eingesetzt. Der Mannheimer Morgen hat am 18. Juli 2016 Oliver Bendel dazu befragt. Der Maschinenethiker hat schriftlich geantwortet: „Grundsätzlich rate ich davon ab, autonome Fahrzeuge in Städten und Ballungsgebieten einzusetzen. In diesen wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten wie Tauben, Luftballons und Seifenblasen, Lichtreflexen, Schatten und Signalen. Zugleich sehe ich wie Daimler durchaus Potenzial für den öffentlichen Nahverkehr. Man kann das Risiko minimieren, indem man die Geschwindigkeit stark senkt, spezielle Spuren nutzt und verschiedenartige Sensoren koppelt. In Sitten im Wallis verkehren die autonomen Shuttles der PostAuto AG sehr langsam, auf einer bekannten Rundstrecke. Das ist eine gute Lösung. Dennoch könnte eines Tages ein kleines Kind zu Schaden kommen. Die Geschwindigkeit der Daimler-Busse ist sehr hoch. Das mag dann funktionieren, wenn sich auf diesen Spuren ansonsten nichts und niemand befinden kann. Es handelt sich hier immerhin nicht um die Innenstadt von Amsterdam, sondern um eine übersichtliche Strecke zwischen Flughafen und Haarlem. Ich rate auf jeden Fall dazu, nicht allein die Kameras beobachten und entscheiden zu lassen. Sie täuschen sich schnell und sind leicht zu täuschen, auch durch böswillige Passanten mit Taschenspiegeln und Laserpointern. Es sollten unbedingt weitere Systeme die Situation prüfen, etwa Radar, Lidar und Ultrasound, und vor allem sollte eine Art Mehrheitsentscheidung vorhanden sein. Wenn drei Systeme erklären, dass die Luft rein ist, sollte sie rein sein.“ Mehrere Statements wurden in den Artikel „Stadtbus mit Autopilot“ eingearbeitet, der am selben Tag erschienen ist und über www.morgenweb.de/nachrichten/wirtschaft/regionale-wirtschaft/1.2881794 abgerufen werden kann.
In Dallas wurde, wie Telepolis meldete, „ein ferngesteuerter Roboter zum Platzieren einer Bombe eingesetzt, um einen Täter auszuschalten“ (Telepolis, 8. Juli 2016). Eigentlich kein Fall für die Maschinenethik, die sich auf Entscheidungen (teil-)autonomer Systeme konzentriert. Aber dennoch ein interessantes Beispiel, weil es zeigt, dass Roboter oftmals vielfältig genutzt, umgewidmet und zweckentfremdet werden können. Florian Rötzer schreibt in diesem Sinne: „Praktisch macht es keinen Unterschied, ob der Täter schließlich durch von Polizisten abgegebene Schüsse ausgeschaltet wird oder durch einen Sprengsatz, den ein Roboter ferngesteuert zu diesem brachte und in die Luft gehen ließ. Aber es zeigt …, dass auch Nichtkampfroboter Dual-Use-Maschinen sind und zu tödlichen Waffen umfunktioniert werden können …“ (Telepolis, 8. Juli 2016) Damit wächst die Zahl der potenziellen Kampfroboter und Kriegsmaschinen erheblich, und auch private Drohnen können zum Werkzeug von Behörden oder auch von Terroristen werden. Die Angst vor der Mehrfachverwendung geht nicht nur in der Medienlandschaft und in der Gesellschaft, sondern auch in der Wirtschaft um. Vor einiger Zeit warnte ein Hersteller davor, seinen niedlichen Spielzeugroboter Pepper für Sexspiele zu verwenden. Das wird sicherlich nicht die Lust zügeln, sondern die Phantasie beflügeln, und man muss nur auf Gebrauchsanweisungen und Vorführungen der etwas anderen Art warten. Auch Rötzer spekuliert, dass der Einsatz in Dallas die Polizei „auf neue Ideen bringen könnte“ (Telepolis, 8. Juli 2016). Für die Maschinenethik ergibt sich die Erkenntnis, dass Entscheidungen der Software unter Berücksichtigung unterschiedlicher Möglichkeiten der Hardware programmiert werden müssen.
„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.
Abb.: Versklavte Maschinen statt versklavte Menschen
The call for papers for „Machine Ethics and Machine Law“ has been released. This international conference will take place in Cracow (Poland) from 18 to 19 November 2016. According to the announcement, the deadline for abstract submissions is 9 September 2016. The following information is provided on the website: „Artificial Intelligence systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Many decision making processes are delegated to machines and these decisions have direct impact on humans and societies at large. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? Issues such as liability, moral and legal responsibility (in different contexts: from autonomous cars to military drones) are coming into the forefront. It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent, or else argue that it is impossible and why.“ (conference website) The conference is a follow-up of the AAAI Spring Symposium on „Ethical and Moral Considerations in Non-Human Agents“ which was held in March 2016 at Stanford University. Further information via machinelaw.philosophyinscience.com (link no longer valid).
„Merging of man and machines: questions of ethics in dealing with emerging“ – this is the title of an event which takes place in the European Parliament, Brussels, on 8 September 2016, 9:30 – 13:00. The IEU monitoring newsletter DIGITAL AGENDA provides the following information: „The Working Group Green Robotics would like to invite you to a public hearing on ‚Merging of man and machines: questions of ethics in dealing with emerging technology‘. With this and further discussions we would like to develop a position on how society should respond to questions like How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?“ In the track „Ethics & Society: Examples of how our lives, values and society will change“ three experts will give talks, namely Yvonne Hofstetter (author and director of Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (author of „Die Moral in der Maschine“ and Professor at the School of Business FHNW) and Constanze Kurz (author and spokesperson Chaos Computer Club). The track „Politics & Law: Examples of how we do/can debate and regulate this field“ is maintained by Juho Heikkilä (DG Connect, Robotics, Head of Unit, tbc) and Prof. Dr. Dr. Eric Hilgendorf (Chairman of the Department of Criminal Law, Criminal Justice, Legal Theory, Information and Computer Science Law, University of Würzburg). Two other lecturers of the event are Enno Park (Chairman of Cyborgs e.V.) and Dana Lewis (founder and OpenAPS thinker).
In der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt fand am 14. Juni 2016 das DVR-Forum „Automatisiertes Fahren und Ethik“ statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Bendel sprach sich dafür aus, die Roboterautos auf der Autobahn fahren zu lassen. Innenstädte seien in den nächsten Jahren kaum beherrschbar. Als Maschinenethiker sieht er nur geringe Chancen, dass befriedigende Regeln und Formeln in Bezug auf Tod und Leben von menschlichen Verkehrsteilnehmern entwickelt werden. Seine Forschung konzentriert sich daher darauf, dass Haus- und Wildtieren mit Hilfe von Fahrerassistenzsystemen und Roboterautos geholfen wird. Hilgendorf wies darauf hin, dass ein utilitaristisches Durchzählen in manchen Fällen durchaus vom Recht gedeckt sei. Lüdemann problematisierte Roboterautos als Datenkraken. Kompaß und Leohold sprachen aus der Perspektive der deutschen Automobilindustrie, die – wie mehrere Diskutanten bemerkten – unter immer mehr Druck aus dem Silicon Valley gerät. Dieses geriet zum Sinnbild des Wandels in der Branche und war mit einem Mal in Berlins Mitte. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
Das Bayerische Fernsehen (BR Fernsehen) hat Oliver Bendel im Mai 2016 ins Verkehrszentrum des Deutschen Museums nach München eingeladen und dort ein Gespräch mit ihm geführt. „Mit über 4500 Exponaten zählen die Sammlungen des Landverkehrs zu den größten, wertvollsten und ältesten Sammlungen des Deutschen Museums.“ (Website Verkehrszentrum) Es ging um autonome Autos und den Verkehr der Zukunft. Der Philosoph und Wirtschaftsinformatiker sprach sich dafür aus, die Autobahnen dafür vorzusehen und die Städte weitgehend zu verschonen. Im Museum war ein Prototyp von Daimler ausgestellt, bei dem das autonome Fahren bereits Mitte der 90er-Jahre mit Hilfe von Fernsehkameras realisiert wurde. Im Ankündigungstext wird unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Das Gespräch mit Oliver Bendel führte Patrick Lerch, ausgestrahlt wird der Beitrag voraussichtlich – ursprünglich eingeplant für den 1., dann für den 8. Juni 2016 – am 13. Juli 2016. Weitere Informationen über www.br.de.
Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.
Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.
Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.