3. Netzpolitischer Kongress im Bundestag

Der 3. Netzpolitische Kongress im Deutschen Bundestag trägt den Titel „Für eine Ethik der digitalen Gesellschaft“. Am 28. Oktober 2016 ist ab 9 Uhr Einlass. Dr. Anton Hofreiter hält um 10 Uhr die Eröffnungsrede. Dann ist Sascha Lobo zugeschaltet. In sechs Workshops, geleitet u.a. von Dr. Konstantin von Notz, Renate Künast und Dieter Janecek, geht man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 6 ist dem Thema „Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ gewidmet. In der Beschreibung auf der Website heißt es: „Auf welche Weisen lernen Maschinen? Kann unser Gehirn eine sinnvolle Blaupause für selbstlernende Systeme sein? Wann übertreffen künstliche neurale Netzwerke die Leistungen von Menschen? Können auch Maschinen moralische Grundsätze berücksichtigen und lässt sich Empathie künstlich abbilden? Welche Grenzen sollten für den Einsatz künstlicher Intelligenz gelten und bis zu welchem Punkt akzeptieren wir diskriminierende oder utilitaristische Maschinen? Was lernen nicht nur Maschinen vom Menschen, was können wir dank selbstlernender Systeme über uns Menschen erfahren?“ Auf dem Podium sitzen Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, und Olivia Klose, Software Development Engineer bei Microsoft. Befragt werden sie von Dieter Janecek, MdB und Sprecher für Wirtschaftspolitik von Bündnis 90/Die Grünen Bundestagsfraktion. Weitere Informationen über www.gruene-bundestag.de/termin/3-netzpolischer-kongress-nk16-fuer-eine-ethik-der-digitalen-gesellschaft.html.

su_flower

Abb.: Sonnenblume mit Hummel

Am Anfang war der Sex

„Was hat Sex mit Technologie zu tun?“ Das fragt Regula Freuler in einem zweiseitigen Artikel, der am 23. Oktober 2016 in der NZZ am Sonntag erschienen ist. „Am Anfang war der Sex, erst später kam die Liebe. So war das in der Geschichte der Menschheit. Die Geschichte der Technologie verläuft offenbar gleich: Seit Jahrzehnten wird an Maschinen und Computersystemen getüftelt, die unser Sexleben bereichern sollen, von Vibratoren bis zu Avataren. Dank künstlicher Intelligenz rückt die Sex-Tech-Industrie bald in eine neue Dimension vor: Sex-Roboter, die sich anfühlen wie ein Mensch und Dialoge führen können wie ein Mensch. Und was ist dann mit der Liebe? Werden wir Roboter lieben? Werden Roboter uns lieben?“ (NZZ am Sonntag, 23. Oktober 2016) Zu Wort kommen Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW), Kate Darling (Research Specialist am MIT Media Lab), Kathleen Richardson (Senior Research Fellow in Roboterethik an der De Montfort University), David Levy (Schachmeister und Computerexperte), Sherry Turkle (Professorin für Science, Technology and Society am MIT) und Eva Illouz (Professorin für Soziologie an der Hebräischen Universität von Jerusalem). Der Beitrag wurde von der NZZ am Sonntag freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

Humanoide Roboter 2016

Annedore Bose-Munde und Victoria Sonnenberg sind die Verfasserinnen des Artikels „Humanoide Roboter dringen überaus gelenkig in die Welt des Menschen ein“, der am 19. Oktober 2016 in der Zeitschrift MaschinenMarkt und am 21. Oktober 2016 – unter dem Titel „Humanoide Roboter dringen in die Welt des Menschen“ – auf konstruktionspraxis.de erschien. „Zunehmend agieren menschenähnliche Roboter in Umgebungen, die bisher nur für den Menschen geschaffen waren.“ (MaschinenMarkt, 21. Oktober 2016) Mit den vielfältigen Einsatzmöglichkeiten wird sich, so der Artikel, die VDI-Zukunftskonferenz „Humanoide Roboter 2016“ beschäftigen, die am 13. und 14. Dezember in Aschheim bei München stattfindet. Vorgestellt werden ausgewählte Projekte. „Daniel Kühn, Projektleiter am Robotics Innovation Center Bremen des DFKI, wird einen hominiden Roboter vorstellen, der die Fähigkeit besitzt, seine Haltung an die jeweilige Gegebenheit anzupassen … An der Hochschule für Wirtschaft FHNW in der Schweiz wurde von März bis August dieses Jahres der Lügenbot entwickelt, ein Chatbot, der so sehr lügt, dass sich die Balken biegen.“ (MaschinenMarkt, 21. Oktober 2016) Die Idee dazu habe Oliver Bendel bereits 2013 in seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ formuliert. „Auch der Vortrag von Dr. Andreas Kipp vom Bereich angewandte Informatik an der Universität Bielefeld beschäftigt sich mit der Interaktion zwischen dem Menschen und einem Roboter. Dabei geht es um eine spielerische Interaktion, bei der die Menschen anfangen zu schummeln.“ (MaschinenMarkt, 21. Oktober 2016)

robochild

Abb.: Ein humanoider Roboter

Auto 4.0

Ende Oktober 2016 ist die neue Ausgabe von swissfuture, des Magazins für Zukunftsmonitoring, erschienen. Titel ist „Auto 4.0: Digitale Transformation und die Zukunft des Autos“. Andreas M. Walker, Co-Präsident von swissfuture, geht in seinem Vorwort auf die Beiträge ein, zunächst auf die von Christian Egeler, Daniel S. Martel, Klaus M. Hofmann, Oliver Kelkar, Andrej Cacilo und Sebastian Stegmüller. „Haftung und Risiko beim Wechsel vom menschlichen Fahrer zum Roboterauto begleiten uns in den folgenden Artikeln. Erich Marte fragt, welche Herausforderungen auf Versicherungsgesellschaften zukommen, wenn ein Computer das Lenkrad übernimmt. Oliver Bendel schildert, was sein wird, wenn das vollautomatisierte Fahren den Durchbruch erlebt und das Roboterauto seinen Prototypstatus hinter sich gelassen hat. Nadine Zurkinden diskutiert, wer die strafrechtliche Verantwortung übernehmen soll, wenn der Autopilot versagt. Quentin Ladetto und Markus Hoepflinger analysieren Risiko-Auswirkungen einer integrierten Mobilität aus voll vernetzten und selbstfahrenden Fahrzeugen für Sicherheit und Verteidigung.“ (swissfuture, 3/2016) „Zum Abschluss erläutert Marco Feser, welche Auswirkungen Industrie 4.0, veränderte Mobilitätsvorstellungen und Shareconomy auf den Vertrieb von Automobilen haben werden, und Detlef W. Schmidt macht Vorschläge, wie innovative Lösungen für das urbane Parken der Zukunft aussehen könnten.“ (swissfuture, 3/2016) Der Beitrag von Oliver Bendel kann hier heruntergeladen werden.

oldtimer

Abb.: Auto 1.0

Programmierte Moral

Nur ein halbes Jahr nach „Die Moral in der Maschine“ von Oliver Bendel und rechtzeitig zur Frankfurter Buchmesse 2016 ist das Buch „Programmierte Ethik“ erschienen, ebenfalls bei Heise Medien, herausgegeben von Florian Rötzer, dem Chefredakteur von Telepolis. Das Buch versammelt Originalbeiträge von Oliver Bendel und Catrin Misselhorn ebenso wie ein bereits bekanntes Interview mit dem in Zürich lebenden Maschinenethiker. Weitere Beiträge stammen von Raúl Rojas, Hans-Arthur Marsiske, Patrick Spät, Stefan Höltgen und Florian Rötzer selbst, der seit Jahrzehnten die neuesten technischen Entwicklungen beobachtet und beschreibt. Aus dem Klappentext: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen uns an den Umgang mit den neuen Mitbewohnern unserer Lebenswelt gewöhnen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert oder anerzogen werden.“ Es geht um das Programmieren von Moral und auch – man denke an die Diskussion, welche Modelle normativer Ethik für Maschinen taugen – um das Programmieren von Ethik. Das E-Book kann über die üblichen Shops bezogen werden und kostet 5,99 Euro.

pc

Abb.: Computer und Roboter entscheiden und urteilen immer häufiger autonom

Vorsicht Wildwechsel

„Navi und App könnten bald vor Wildwechsel warnen“ – so der Titel eines Artikels in der FAZ vom 11. Oktober 2016. Im Teaser heißt es: „Die Zahl der Wildunfälle erreichte 2015 hessenweit einen Rekord. Es ist schwer vorauszusagen, wo Hirsch oder Wildschwein die Straßen kreuzen. Ein Doktorand arbeitet daran, wie Autofahrer besser gewarnt werden können.“ (FAZ, 11. Oktober 2016) Matthias Böhm von der Straßenbaubehörde Hessen Mobil will bis zum Jahr 2020 eine spezielle Datenschnittstelle entwickeln. „Sie soll es Radiosendern oder Anbietern von Apps und Navigationsgeräten ermöglichen, ihre Nutzer lokal vor Hirsch, Reh oder Wildschwein zu warnen.“ (FAZ, 11. Oktober 2016) Tierfreundliche Ansätze gibt es seit Jahren auch in der Maschinenethik. Dabei wird versucht, dem Auto selbst Entscheidungen zu ermöglichen, die sich als gut für Tier und Mensch erweisen. Hilfreich sind Systeme mit Radar, Lidar und Infrarot und Kameras sowie annotierte Entscheidungsbäume, in denen die Lebewesen qualifiziert und quantifiziert werden. Dies ist notwendig, denn um mobil zu bleiben, darf der Wagen nicht vor jedem Insekt oder vor jeder Schnecke abbremsen. Generell müssen auch der Verkehr hinter ihm und der Gegenverkehr berücksichtigt werden. Weitere Informationen über www.faz.net.

jaguar

Abb.: Der Jaguar ist in unseren Breiten eher selten anzutreffen

 

Watson for President

In den letzten Monaten konnte man immer wieder die Aussage hören, ein Roboter oder eine KI-Einheit würde ein besserer Präsident sein als die amtierenden oder kandidierenden Personen es sind oder wären. Ein Roboter hätte nicht den religiösen Habitus eines Joachim Gauck und nicht den weltlichen Wahn eines Donald Trump. Eine KI-Einheit wie IBM Watson könnte rational und auf der Grundlage aller verfügbaren Fakten entscheiden. Überlegungen in dieser Richtung stellt auch eine amerikanische Stiftung an. Auf ihrer Website schreibt sie: „The Watson 2016 Foundation is an independent organization formed for the advocacy of the artificial intelligence known as Watson to run for President of The United States of America. It is our belief that Watson’s unique capabilities to assess information and make informed and transparent decisions define it as an ideal candidate for the job responsibilities required by the president.“ (Website The Watson 2016 Foundation) Sie stellt auch klar: „The Watson 2016 Foundation has no affiliation with IBM. The views and opinions expressed here in no way represent the views, positions or opinions – expressed or implied – by IBM or anyone else.“ (Website The Watson 2016 Foundation) Natürlich sind schnell Nachteile eines KI-Präsidenten zu erkennen. Er kann fehlerhaft sein, gehackt und manipuliert werden, er macht abhängig von den Betreibern, und er kann die symbolische Wirkung eines Präsidenten nicht erreichen, was allerdings auch als Vorteil gewertet werden kann. Ein künstlicher Präsident müsste nicht nur als komplexe politische, sondern auch als komplexe rechtliche und moralische Maschine gestaltet werden. Dies wiederum fällt in den Gegenstandsbereich von Roboterrecht und Maschinenethik. Manche Maschinenethiker lehnen komplexe moralische Maschinen ab und bevorzugen einfache. Weitere Informationen über http://watson2016.com/.

barack_obama

Abb.: Echt oder KI?

Workshop on Robotics and Artificial Intelligence

„Artificial intelligence (AI) raises a number of ethical and political challenges in the present and near term, with applications such as driverless cars and search engines and potential issues ranging from job disruption to privacy violations. Over a longer term, if AI becomes as or more intelligent than humans, other governance issues such as safety and control may increase in importance. What policy approaches make sense across different issues and timeframes?“ (Website European Parliament) These are the initial words of a description of the workshop „Robotics and Artificial Intelligence – Ethical Issues and Regulatory approach“, organised by the Policy Department of the European Parliament. The first part „will focus on basic ethical and policy questions raised by the development of robotics and AI on the basis of presentations by experts“ (Website European Parliament). According to the description, this will be followed by a discussion with national parliamentarians on what the legislator should do and on which level, with the European Parliament’s draft legislative initiative report on „Civil Law Rules on Robotics“ as a basis. Further information can be found on the European Parliament’s website (www.europarl.europa.eu).

Der Cybathlon aus Sicht der Ethik

Beim Cybathlon in der SWISS Arena in Kloten bei Zürich, veranstaltet von der ETH Zürich, traten Sportler mit Behinderungen gegeneinander an. Aus der ganzen Welt waren die Teams angereist. Das Publikum ging begeistert mit, als das virtuelle Rennen mit Gedankensteuerung, das Fahrradrennen mit Muskelstimulation sowie der Armprothesen-, Beinprothesen- und Rollstuhl-Parcours stattfanden. Spektakulär der Exoskelett-Parcours, bei dem sich die Sportler langsam und konzentriert vorwärts bewegten, eine Tür öffneten und schlossen, von Stein zu Stein schritten und sich und ihren Apparat voller Freude über die Ziellinie brachten. Fünfmal war der Moderator Tobias Müller im Gespräch mit Oliver Bendel, dem Informations- und Maschinenethiker, der bei diesem Anlass vor allem Informations- und Roboterethiker war, den Einsatz von Implantaten, Prothesen und Robotern einordnend und bewertend. Einmal war Lino Guzzella mit dabei, der ETH-Präsident, einmal Robert Riener, der Initiator und Organisator des Cybathlon. Der Ethiker betonte immer wieder, dass gegen die technische Erweiterung aus Sicht der Ethik nichts spricht, wenn es um erwachsene, verständige Menschen geht, die ihre Autonomie oder Performanz verbessern wollen. Auch nicht, wenn es sich um gesunde Menschen handelt, wobei man bei diesen sicherlich körperliche Risiken bedenken muss. Anders sieht die Sache nach Meinung von Oliver Bendel aus, wenn die Benutzer nicht frei sind, nicht frei entscheiden können, etwa als Arbeitnehmer oder Soldaten, die Exoskelette tragen müssen. Diese rücken uns förmlich auf den Leib, und es sollte die individuelle Entscheidung bleiben, ob man sie tragen will oder nicht. Der Cybathlon wurde von SRF und 3sat unter dem Titel „SRF Menschmaschine“ live übertragen.

rollstuhl

Abb.: Ein schöner, aber dummer Rollstuhl

Roboterliebe

In 10vor10 vom 7. Oktober 2016 fragte Romana Kayser vom SRF: „Verlieben wir uns bald in Roboter?“ Auf der Website der Sendung wird erklärt: „Roboter werden immer effizienter und dringen in immer mehr Bereiche unseres Lebens vor. Steuern wir auf eine Zukunft hin, in der Menschen und Roboter nebeneinander – oder gar miteinander leben? Können Menschen echte Gefühle für Roboter entwickeln? Ein Blick auf Japan, eines der roboterbegeistertsten Länder der Welt.“ Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Er hat Beiträge zu Pflege-, Therapie- und Sexrobotern veröffentlicht und interessiert sich in seiner Forschung für die Beziehung zwischen Mensch und Maschine. Er ist der Ansicht, dass diese immer einseitig bleiben wird und die Maschine darauf ab und zu hinweisen sollte; zugleich sei die Ideengeschichte voll mit Beispielen der Zuwendung zu künstlichen Kreaturen, von Pygmalions Liebe zu seiner Galatea bis hin zu Calebs Gefühlen für Ava in „Ex Machina“. Insofern ist eine Beziehung vorstellbar und möglich und vielleicht Inspiration für Kulturen und Individuen. Der Beitrag mit einer Länge von fast fünf Minuten kann über www.srf.ch/play/tv/10vor10/video/verlieben-wir-uns-bald-in-roboter?id=bdd4145c-4893-4805-b63f-9b1b310de1dd aufgerufen und heruntergeladen werden.

womancyber

Abb.: Verlieben wir uns bald in Roboter?

Partnership on Artificial Intelligence

Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln wollen. Google, Amazon, Facebook, IBM und Microsoft haben die „Partnership on Artificial Intelligence to Benefit People and Society“ gegründet. Die Süddeutsche schreibt dazu: „Man könnte nun eine Weltverschwörung des Silicon Valley vermuten. Immerhin handelt es sich hier um die fünf Konzerne, die international die größten Datenbanken und damit das Gros der globalen Datensätze besitzen. In Wahrheit ist die Gründung jedoch ein historischer Schritt, denn die Partnerschaft für künstliche Intelligenz soll vor allem garantieren, dass die Konzerne gemeinsame ethische Richtlinien für die Entwicklung künstlicher Intelligenz finden.“ (Süddeutsche Zeitung, 29. September 2016) Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Nicht nur die Wirtschaft widmet sich Möglichkeiten der Regulierung, sondern auch Arbeitsgruppen der IEEE (Global Initiative Classical Ethics) mit Mitgliedern wie Jared Bielby, Rafael Capurro und Oliver Bendel sowie des Europäischen Parlaments. So wurde im Mai 2016 der Initiativbericht zu zivilrechtlichen Regelungen im Bereich der Robotik von der luxemburgischen Berichterstatterin Mady Delvaux-Stehres vorgelegt.

Die Zukunft gehört der Mensch-Maschine

radio eins (rbb) widmet sich einen Tag lang dem Thema Mensch und Maschine. Im Programm zum 3. Oktober 2016 heißt es: „1978 legten sich Kraftwerk fest: Die Zukunft gehört der Mensch-Maschine …“ (Website radio eins) „Fühlen wir uns, so der Sender, heute nicht tatsächlich wie Mensch-Maschinen? „Die Verschmelzung von Natur und Technik scheint schließlich allgegenwärtig. Längst sind wir angeschlossen an die Computerwelt und die Cyborgs sind unter uns!“ (Website radio eins) Und weiter: „Die Beziehung zwischen Mensch und Maschine begegnet uns überall – im Alltag, in der Wissenschaft, Wirtschaft, Philosophie, Medizin, Sport, Kunst, Literatur und Musik.“ (Website radio eins) Oliver Bendel wird befragt zur Maschinenethik, zu moralischen Maschinen – und zu seinem Buch „Die Moral in der Maschine“, das 2016 bei Heise Medien erschien und eine Auswahl seiner Artikel und Aufsätze zur Maschinenethik enthält. Knut Elstermann befand sich im Babylon-Studio von radioeins, Oliver Bendel im SRF-Studio in Zürich. Man sprach kurz und intensiv. Das Resultat kann man sich bei radio eins bzw. über www.radioeins.de/programm/ anhören.

girl_machine

Abb.: Maschine und Mensch verschmelzen

Der LÜGENBOT in der Bild am Sonntag

Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.

Programmierte Moral für autonome Maschinen

„Programmierte Moral für autonome Maschinen“ – so der Titel einer Diskussionsveranstaltung von Telepolis und Westendverlag zur Buchmesse in Frankfurt. Auf der Website der Zeitschrift heißt es: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen den Umgang mit den neuen Mitbewohnern lernen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.“ (Website Telepolis) Und weiter: „Muss für intelligente Maschinen eine eigene Ethik entworfen werden? Müssen sie als digitale Personen verstanden werden? Können Maschine[n] überhaupt moralische Wesen sein und sich moralisch entscheiden? Oder wird die Ethik der Maschinen letztlich immer die Ethik des Programmierers sein? Und wenn autonome Maschinen Pflichten haben, müssen ihnen dann auch Rechte gewährt werden?“ (Website Telepolis) Die Gäste in der Naxoshalle sind Prof. Dr. Catrin Misselhorn, Direktorin des Instituts für Philosophie der Universität Stuttgart, Prof. Dr. Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW, und Peter Weibel, Medienkünstler und Medientheoretiker, Vorstand des Zentrums für Kunst und Medien Karlsruhe. Es moderiert Florian Rötzer, Chefredakteur von Telepolis. Weitere Informationen über www.heise.de/tp/artikel/49/49560/1.html.

skyscraper

Abb.: Hochhaus in Frankfurt

System erkennt Lügen von Menschen

Jeden Monat überprüft der Harvard Business Manager nach eigener Aussage die Thesen von Wissenschaftlern. „Diesmal geht es um die Annahme: Textalgorithmen können Lügen in E-Mails enttarnen.“ (SPON, 28. September 2016) Spiegel Online meldet am 28. September 2016: „Daran forschen Stephan Ludwig, Associate Professor an der University of Surrey (zum Zeitpunkt des Interviews noch Junior Professor für Marketing an der University of Westminster), und Tom Van Laer, Junior Professor für Marketing an der Cass Business School der City University London. Das Ergebnis ihrer Analyse: Wer lügt oder die Wahrheit stark verbiegt, hält sich beim Schreiben unbewusst an bestimmte Regeln.“ (SPON, 28. September 2016) Sie haben vor diesem Hintergrund einen Algorithmus entwickelt, der Lügen von Menschen erkennt. Mit dem LÜGENBOT, der 2016 an der Hochschule für Wirtschaft FHNW implementiert wurde, hätten die Wissenschaftler einen idealen Trainingspartner. Dieser spezielle Chatbot sagt meistens die Unwahrheit, aber nicht immer. Dabei benutzt er verschiedene Lügenstrategien, die er teils kombiniert. Ob das System der Briten auch die maschinellen Lügen des LIEBOT zu erkennen vermag, ist eine spannende Frage, die vielleicht in den nächsten Monaten beantwortet werden kann, wenn die Wissenschaftler zusammenfinden.

directory

Abb.: Hier geht’s zur Lüge

Vorbild Mensch

„Mehr als 600 Ausgaben sind in den vergangenen Jahrzehnten von bild der wissenschaft erschienen. Das erste Heft kam 1964 an den Kiosk. Ersonnen hat es Heinz Haber. Der Physiker produzierte und moderierte … die ersten Wissenssendungen im deutschen Fernsehen.“ (Website bdw) So schreibt es die Zeitschrift selbst auf ihrer Website. In der aktuellen Ausgabe (Oktober 2016) ist ein vierseitiges Interview mit Prof. Dr. Oliver Bendel zu finden, unter dem Titel „Maschinen können Moral lernen“. Es geht um Maschinenethik, um Robotik und Künstliche Intelligenz. Der Mensch ist für die Maschine sozusagen Vorbild. Sie versucht ihn zu imitieren und zu kopieren. Und so entwickelt sie Ansätze einer Moral. Die Fotos hat der Stuttgarter Fotograf Kai R. Joachim angefertigt. Er hat für Magazine wie Metal Hammer, Glamour UK und Cosmopolitan gearbeitet und Aerosmith, Roger Hodgson, Mike Rutherford und Destiny’s Child abgelichtet. Oliver Bendel ist auf den Fotos auf dem Campus Brugg-Windisch unterwegs, in den imposanten oberen Stockwerken, an der spektakulären weißen Wendeltreppe der Bibliothek und am berühmten alten Hallerbau. In dem Heft geht es zudem um den tödlichen Tesla-Unfall in den Vereinigten Staaten. Nicht zuletzt wird nach der Sicherheit auch in anderer Hinsicht gefragt; die „Fülle an Elektronik in den Autos macht es Dieben und Hackern leicht“ (bdw, 10/2016).

machine_brain

Abb.: Maschinen können von Menschen lernen