Es singen die Maschinen

„Seit es Autos gibt, werden sie besungen.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 31. Januar 2016 in der Zeitschrift SenLine erschienen ist. „Mercedes Benz“ von Janis Joplin sei einer breiten Öffentlichkeit bekannt, „Wir fahren Manta, Manta“ von den Ärzten eingeweihten Kreisen. Aus den Werken von Chuck Berry ließe sich, so der Verfasser, ein Soundtrack für die Straße mischen. Die Berliner Band 2raumwohnung habe 2004 das Album „Es wird Morgen“ veröffentlicht, mit dem wenig beachteten Lied „Jemand fährt“. „Das war ein paar Jahre nach dem ersten iPod und ein paar vor dem ersten iPhone. Vom Google-Auto hat noch niemand gesprochen.“ In einer Strophe heißt es: „Alles, was klingt, ist Musik./Es singen die Maschinen/auf der stark befahrenen Autobahn/oder auf geraden Schienen.“ Im Folgenden verflicht Oliver Bendel das visionäre Lied mit einer Geschichte zu einer Testfahrt mit dem Model S von Tesla, das einen Autopiloten besitzt. Der Artikel kann über www.senline.ch/es-singen-die-maschinen-id1171 kostenlos heruntergeladen werden. Für die Zeitschrift, die Prof. Dr. Helmut Bachmaier herausgibt, haben schon Prof. Dr. Ernst Peter Fischer und Prof. em. Dr. Helmut Weidhase geschrieben.

The fusion of animal and machine ethics

Der Artikel „Considerations about the relationship between animal and machine ethics“ von Oliver Bendel ist im Januar 2016 in der gedruckten Version der Zeitschrift Artificial Intelligence & Society erschienen. Er stellt Tierethik und Maschinenethik in einen Zusammenhang. Im Abstract heißt es: „Ethics researches morality in respect to humans and animals. Usually, it implies human morality; therefore, the focus is on human-human relationships (generally in ethics) and human-animal relationships (in animal ethics). Ethics can also deal with the morality of machines such as unmanned aerial vehicles, robots and agents or of self-driving cars and computers in automated trading, in other words more or less autonomous systems and programs.“ Auf solche Systeme wird eingegangen, aber nicht im Verhältnis zum Menschen, sondern zum Tier. Und das ist innerhalb der Maschinenethik immer noch – die Onlineversion ist bereits 2013 erschienen – neu. Am Rande wird eine Disziplin der Tier-Maschine-Interaktion (Animal-Machine Interaction) vorgeschlagen. Diese wird im Beitrag „Überlegungen zur Disziplin der Tier-Maschine-Interaktion“ näher diskutiert und im April auf einem Workshop an der Universität Bochum im Rahmen des DFG-Forschungsprojekts „Das verdatete Tier“ vorgestellt. „Considerations about the relationship between animal and machine ethics“ kann über die Website von Springer heruntergeladen werden.

cattle_crossing

Abb.: Soll das Auto für die Kuh bremsen?

Jenseits von Davos

Sonja Striegl von SWR2 war am 20. Januar 2016 im Gespräch mit Prof. Dr. Oliver Bendel. Anlass war das Weltwirtschaftsforum (WEF) in Davos. Dort wird die vierte industrielle Revolution verhandelt. Titel von Veranstaltungen waren beispielsweise „The Internet of Things Is Here“ und „Life in 2030: Humankind and the Machine“. Die Moderatorin fragte den gleichaltrigen Ethiker und Wirtschaftsinformatiker von der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW – beide sind Jahrgang 1968 und haben die Ausbreitung des Internets und die Fortschritte bei der Robotik bewusst miterlebt – nach Entwicklungen bei selbstständig fahrenden Autos und bei Pflegerobotern. Oliver Bendel erläuterte, wie diese teilautonomen und autonomen Systeme, wenn sie auf sich gestellt sind, entscheiden und handeln und wie man sie im Vorhinein „moralisieren“ kann. Der mehrminütige Beitrag mit dem Titel „Bis dass die Software Euch scheidet“ kann über die Website des Senders angehört werden.

Worker

Abb.: Der Arbeiter der Zukunft?

Der Roboter als Freund oder Feind

Die Industrieroboter verlassen – mit dieser Schilderung beginnt der Artikel „Mein Kollege, der Robot“ – die Schutzräume und Fertigungsstraßen. „Sie bewegen sich durch die Hallen, auf festgelegten Spuren oder nach ihrem eigenen Plan. Sie arbeiten in Kooperationszellen eng mit Menschen zusammen. Und sie schauen uns zu, wie wir etwas machen – und machen es nach.“ Oliver Bendel stellt dar, wie die Industrie 4.0 funktioniert, was in der intelligenten Fabrik passiert und wie sich darin der Roboter verändert. Auch die Perspektive der Ethik wird eingenommen. Die Gesellschaft müsse „entscheiden, ob Roboter uns nicht nur unterstützen, sondern auch ersetzen sollen“. „Reflexionen aus Technik- und Informationsethik mögen ihr dabei helfen.“ Schon davor wird die Maschinenethik gestreift: „Die Maschinenethik interessiert sich für moralische Maschinen, zum Beispiel für Apparaturen, die bestimmte moralische Regeln einhalten oder bestimmte Folgen mit moralischen Implikationen voraussehen können.“ Der Beitrag, der am 18. Januar 2016 in der UnternehmerZeitung erschienen ist, kann kostenlos als PDF heruntergeladen werden.

Abb.: Die vierte industrielle Revolution wird Arbeitsplätze kosten

KI im Deutschlandradio

„Wer ist verantwortlich, wenn künstliche Intelligenz versagt?“ Die Sendung bei Deutschlandradio Kultur vom 12. Januar 2016 mit diesem Titel widmete sich aktuellen Entwicklungen in der Robotik und in Roboter- und Maschinenethik. Zu Wort kommen u.a. Eric Hilgendorf, Experte für Roboterrecht an der Universität Würzburg, Ken Goldberg, Robotiker an der University of California, und Oliver Bendel, Informationsethiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Zu Ken Goldberg wird auf der Website gesagt: „Ken Goldberg von der University of California in Berkley Kalifornien ist einer der renommiertesten Robotik-Wissenschaftler weltweit. Er spricht von der Revolution, die auf seinem Arbeitsgebiet gegenwärtig stattfindet. Die Vernetzung von fast allem mit allem – Web 4.0 befreit auch die Roboter aus ihrer Isolation. Sie können nun direkt voneinander und von den Menschen lernen und auf unerhörte Rechnerkapazitäten zugreifen. Cloud Robotics nennt Goldberg das Konzept.“ (Website DRadio Kultur, 12. Januar 2016) Oliver Bendel wird mit diesen Worten vorgestellt: Er „ist Philosoph und Professor für Wirtschaftsinformatik an der Fachhochschule der Nordwestschweiz“. „Bei ihm spürt man die Neugier darauf, was da zwischen Menschen und Maschinen entsteht. Es ist schon mehr ein Miteinander. Am Arbeitsplatz müssen die Roboter aufpassen und ausweichen, um niemanden anzufahren oder mit den Greifern zu verletzen. Und wir Menschen tun gut daran, die Umgebung übersichtlich zu strukturieren, damit sich die Maschinen zurechtfinden.“ (Website DRadio Kultur, 12. Januar 2016) Der Beitrag kann über ondemand-mp3.dradio.de angehört werden.

AI_small

Abb.: Die KI greift nach den Sternen

Maschinenethik in Yps

Yps war jahrzehntelang das Kultheft für Kinder. Diese fieberten vor allem den Gimmicks entgegen, von denen sich einige bis heute im kollektiven Gedächtnis erhalten haben, etwa der Solarzeppelin, das Abenteuerzelt und die Maschine, mit deren Hilfe man eckige Eier macht. Auch umstrittene Beilagen wie die Urzeitkrebse und die Tropenschmetterlinge müssen erwähnt werden. Eigene Produktionen, u.a. mit dem karierten Yps-Känguru, und lizensierte Comics dienten als leichtverdauliches Lesefutter. Ein paar Jahre nach der Einstellung im Jahre 2000 erschienen Testausgaben, die sich an Erwachsene richteten. Der große Erfolg blieb aus. Nach einer längeren Zeit versuchte man es nochmals, mit einer thematischen Fokussierung auf Mode, Automobile und Technik und einem durchgehenden Bezug – so die Pressemitteilung des Verlags – „zu Karos, Kängurus oder Kohl“. Das Konzept ging auf, und so erhalten die Kinder von damals inzwischen jeden zweiten Monat eine Ausgabe. Die erste des Jahres 2016 wartet mit einem Schwerpunkt zu Robotern und Cyborgs auf. Der „Blick in die Zukunft“ widmet sich daneben Fleischimitaten und Traktorstrahlen. Auf Seite 20 findet sich ein Interview mit Oliver Bendel zu Robotik und Maschinenethik. Mit www.yps.de ist das Heft auch im Web präsent.

kangaroo

Abb.: Ein Straßenschild mit einem Känguru

Simple Moral Machines

Vom 21. bis zum 23. März 2016 findet an der Stanford University der Workshop „Ethical and Moral Considerations in Non-Human Agents“ statt, im Rahmen der AAAI Spring Symposia. Keynote-Speaker sind Ron Arkin (Georgia Institute of Technology), Maja Matarić (University of Southern California) und Luis Moriz Pereira (Universidade Nova de Lisboa). Organisiert wird der Workshop von Bipin Indurkhya (Jagiellonian University, Krakau) und Georgi Stojanov (The American University of Paris). Im Programmkomitee sitzen u.a. Peter Asaro (The New School, New York) und Patrick Lin (California Polytechnic State University). Einen der wissenschaftlichen Vorträge wird Oliver Bendel (Hochschule für Wirtschaft FHNW, Basel, Olten und Brugg-Windisch) halten. Aus dem Abstract von „Annotated Decision Trees for Simple Moral Machines„: „This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Weitere Informationen über sites.google.com/site/ethicalnonhumanagents/.

policecar

Abb.: Ein als Polizeiwagen getarntes Roboterauto

Die KI in der Moral

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Der Lügenbot kommt auf die Welt

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation), „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ (Telepolis) und „Der Lügenbot und andere Münchhausen-Maschinen“ (MittelstandsWiki). In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Maedchen_Chatbot

Abb.: Wagt er es, mich anzulügen, der Bot?

Foundation of Responsible Robotics

„Alle forschen an Robotern und keiner bedenkt, was wir damit anrichten.“ (Website DRadio Wissen, 11. Dezember 2015) Dieser Meinung sei, so der Sender, eine Gruppe von Wissenschaftlern. „Deshalb haben sie die Foundation of Responsible Robotics gegründet, also die Stiftung für verantwortungsvolle Robotik. Bei der Gründungsfeier in London warnte der emeritierte Professor und Mitgründer Noel Sharkey, die britische Regierung stecke zwar viel Geld in die Forschung – aber die Auswirkungen auf die Gesellschaft würden überhaupt nicht bedacht. Und auch ethische Fragen spielten kaum eine Rolle.“ (Website DRadio Wissen, 11. Dezember 2015) Allerdings fragen Informationsethik, Technikethik und Roboterethik sowie Wirtschaftsethik – in vielen Ländern umtriebige Disziplinen – sehr wohl nach ethischen Implikationen des Einsatzes von Robotern, und die Maschinenethik konzipiert sogar moralische Maschinen. Folgende Beispiele führt Noel Sharkey an: „Durch die Automatisierung in der Industrie könnten massenhaft Menschen arbeitslos werden. Auch Menschenrechte würden verletzt, etwa wenn Roboter bei der Betreuung von Senioren mit Kameras filmen. Polizeidrohnen seien in mehreren Ländern mit Waffen ausgerüstet. Selbstfahrende Autos könnten Bomben transportieren und so Selbstmordattentäter ersetzen.“ Das ist freilich nicht das Hauptproblem bei Roboterautos; das Hauptproblem ist, dass diese selbst Menschen töten. „Die Stiftung will erreichen, dass die Forschung solche Gefahren stärker mitdenkt.“ (Website DRadio Wissen, 11. Dezember 2015) Dies ist auf jeden Fall ein ehrenwertes Ziel.

Artificial Intelligence Ethics

Artificial Intelligence Ethics – dazu kann auch die Maschinenethik gerechnet werden – wird ein neuer Fokus an der Cambridge University. „A new center to study the implications of artificial intelligence and try to influence its ethical development has been established at the U.K.’s Cambridge University, the latest sign that concerns are rising about AI’s impact on everything from loss of jobs to humanity’s very existence.“ (Wall Street Journal, 3. Dezember 2015) Weiter heißt es: „The new center will work in conjunction with the university’s Centre for the Study of Existential Risk, which researches emerging risks to humanity’s future, including climate change, biological warfare, and artificial intelligence.“ (Wall Street Journal, 3. Dezember 2015) Leiter ist Huw Price, der im Interview erklärt: „Stanley Kubrick was a brilliant film director but we can do better than that now …“ „The classic film features a sentient computer program called HAL-9000 on board a space ship. The computer kills the ship’s crew.“ (Wall Street Journal, 3. Dezember 2015) Weitere Informationen über blogs.wsj.com.

Kamera

Abb.: Das Auge von HAL

Robots between the Devil and the Deep Blue Sea

„Robots between the Devil and the Deep Blue Sea“ lautet der Titel des Beitrags, der am 1. Dezember 2015 in der brasilianischen Zeitschrift Liinc em Revista erschienen ist. Oliver Bendel stellt klassische Dilemmata vor und überträgt sie ins Informationszeitalter. Insbesondere interessiert der Einsatz von Chatbots, Robotern, Drohnen und selbstständig fahrenden Autos, der immer wieder problembehaftet ist. Bei den Lösungsansätzen wird u.a. die Perspektive der Maschinenethik eingenommen. Es stellt sich heraus, dass klassische Dilemmata für die Herausforderungen der Gegenwart nützlich sind und dabei helfen, die Entscheidungsmöglichkeiten teilautonomer und autonomer Systeme zu diskutieren sowie Robotik, Künstliche Intelligenz und Informatik in dieser Frage zu sensibilisieren und ihre Ergebnisse und Erzeugnisse zu optimieren. Skizziert werden das „Roboterauto-Problem“, die „Parkbucht des Karneades“, „Buridans Robot“ und das „Lügenbot-Problem“. Der Beitrag kann über die Website der Zeitschrift kostenlos heruntergeladen werden.

Teufel

Abb.: Roboter können in Dilemmata geraten

Pflegeroboter und Schamgefühl

In „Forschung aktuell“ (Deutschlandfunk) wurde am 25. November 2015 der Beitrag „Die Moral der Maschinen“ gesendet. Volkart Wildermuth war am Vortag während der Berliner Konferenz „Roboterethik“ im Gespräch mit Prof. Dr. Jochen Steil, Prof. Dr. Catrin Misselhorn, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel. Im Vorspann wird auf Roboter in der Science-Fiction eingegangen. Die Roboter der Wirklichkeit seien fleißig dabei, ihren Kollegen nachzueifern. Dabei würden sich aber moralische Herausforderungen ergeben. Catrin Misselhorn erzählt, dass es ihrer Großmutter nicht recht gewesen sei, wenn der Pflegedienst sie im Intimbereich gewaschen habe. „Ich könnte mir vorstellen, dass ihr in diesem Fall es recht gewesen wäre, wenn ein Roboter diese Tätigkeit übernommen hätte.“ In eine ähnliche Richtung weist eine Befragung, die von der Hochschule für Wirtschaft FHNW durchgeführt wurde. Zu Roboterautos stellt der Maschinenethiker Oliver Bendel fest: „Ich denke, der Mensch sollte bestimmte Entscheidungen selbst treffen, selbst wenn sie falsch sind.“ Für ihn sind dies Entscheidungen über Leben und Tod von Menschen, wie sie in Dilemmata diskutiert werden. Er schlägt grundsätzlich vor, den normalen Verkehr und den autonomen Verkehr soweit wie möglich voneinander zu trennen und Roboterautos zu beschränken. Fußgänger und Fahrradfahrer in Städten sollten sich nicht permanent auf autonome Autos einstellen und ihr Verhalten an diese anpassen müssen. Der Beitrag kann über www.deutschlandfunk.de/forschung-aktuell.675.de.html abgerufen werden.

Krankenschwester

Abb.: Beseitigt der Pflegeroboter das Schamgefühl?

Tödliche Entscheidungen

„Wie Roboter über Menschenleben entscheiden“ lautet der Titel eines Artikels von Katrin Haas, der am 25. November 2015 in der Rheinischen Post erschienen ist. Im Teaser wird gesagt: „Ob im Verkehr oder in der Pflege – überall könnten in Zukunft Roboter moralische, manchmal tödliche Entscheidungen treffen.“ „Ich rate von Maschinen ab, die über Leben und Tod entscheiden“, wird der Maschinenethiker Oliver Bendel (Hochschule für Wirtschaft FHNW) zitiert, und er „wirbt dafür, nur einfache moralische Maschinen zu entwickeln“. Seine Forschung konzentriert sich stark auf Begegnungen von Maschinen mit Tieren. Und in diesem Zusammenhang ist er dafür, möglichst viel Leben zu retten. Auch Catrin Misselhorn von der Universität Stuttgart wird zitiert. Auf die Frage, wie lange es noch dauert, „bis Roboter sich um Menschen kümmern“, antwortet sie: „Vor Kurzem hätte ich gesagt, bis das umgesetzt wird, dauert es noch. Aber jetzt im Moment erlebt die Branche einen großen Auftrieb durch die Diskussion um autonom fahrende Autos.“ Die Online-Version des Artikels kann über www.rp-online.de/wirtschaft/wie-roboter-ueber-menschenleben-entscheiden-aid-1.5584750 abgerufen werden.

Berliner Tagung zur Roboterethik

Eine hochkarätig besetzte Tagung zur Roboterethik fand am 24. November in Berlin statt. Eingeladen hatten Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres) und Daimler und Benz Stiftung. Vor dem eigentlichen Programm mit Beginn um 10 Uhr wurde eine Pressekonferenz mit Prof. Dr. Eckard Minx, Prof. Dr. Christiane Woopen, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel durchgeführt. Im Karl-Storz-Besucher- und Schulungszentrum begann dann der wissenschaftliche Marathon. Minx begrüßte und eröffnete, Woopen führte ein, nicht in ihrer Funktion als Vorsitzende des Ethikrats, sondern als Leiterin von ceres. Die Grundlagen autonomer Systeme erklärte Albu-Schäffer in seinem Vortrag „Autonomie und Kognition für menschzentrierte Robotik“. Mit „Autonome Systeme und die Selbstbestimmung des Menschen“ war der nächste Komplex betitelt. „Roboterlernen ohne Grenzen?“ von Prof. Dr. Jochen Steil schuf weitere Robotikgrundlagen. Dann ging es tief in die Maschinenethik. Bendel referierte über „Die Moral in der Maschine“, wobei er die Designstudien CLEANINGFISH und LADYBIRD und den Prototypen GOODBOT vorstellte, Prof. Dr. Catrin Misselhorn über „Maschinen mit Moral? Theoretische Grundlagen und eine Roadmap für autonome Assistenzsysteme in der Pflege“. Nach der Mittagspause waren Prof. Dr. Hartmut Hirsch-Kreinsen und Prof. Dr. Johannes Weyer an der Reihe. Prof. Dr. Norbert Lammert, Bundestagspräsident, sprach zur Rolle der Politik. Christiane Woopen rundete mit ihrem Schlusswort die Veranstaltung ab. Der Diskussionsbedarf war groß, die Nachfrage der Journalisten nach Interviews mit den Fachexperten ebenfalls. Gegen 17 Uhr ging eine ausgesprochen gelungene Veranstaltung zu Ende.

Abb.: Der Berliner Dom

Nachlese zum Workshop zur Maschinenethik

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete in fachlicher Hinsicht den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Dr. Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.