Sinn und Zweck von Lügenmaschinen

In einem ganzseitigen Interview, das in der SonntagsZeitung vom 18. September 2016 publiziert wurde, erläutert Oliver Bendel, welche Gefahren von Münchhausen-Maschinen ausgehen und welche Zwecke er mit dem LÜGENBOT verfolgt. Dessen Entwicklung sei mit einem Dilemma verbunden. „Ähnlich wie bei der Erforschung der Kernspaltung besteht die Gefahr des Missbrauchs. Im Prinzip könnte sich der Lügenbot als unmoralische Maschine in der Welt verbreiten und Schaden anrichten. Aber er ist einerseits mit einem Passwort geschützt, andererseits glaube ich, dass der Nutzen des Lügenbots überwiegt.“ Der Nutzen wird von Oliver Bendel immer wieder erläutert, bei Veranstaltungen und in Veröffentlichungen. Wenn man alle maschinellen Strategien des Lügens kenne, könne man diesen auch jeweils begegnen, sowohl als Entwickler als auch als Benutzer. Entwickler müssen, so der Vater des LÜGENBOT, die Wissensbasen schützen und die externen Quellen kontrollieren. Sie können grundsätzlich darauf achten, dass die Maschine mit Hilfe ihrer Begriffe, Sätze und Regeln nicht zu lügen vermag. Die Anbieter können offenlegen, wie die Chatbots funktionieren, die Benutzer wachsam sein, nach dem Anbieter fragen, dem Kontext, und die Systeme testen. Die Erkenntnisse mag man in der Maschinenethik und in der Wirtschaft nutzen, um moralische Maschinen zu bauen. Mit Anti-Münchhausen-Maschinen kann man Verlässlichkeit und Vertrauen aufbauen. Das Interview wurde von Joachim Laukenmann geführt und ist auf Seite 60 der Schweizer Zeitung zu finden. Es kann hier als PDF heruntergeladen werden.

blueandroid

Abb.: Ob er die Wahrheit spricht – oder nicht?

Der Roboter der Schmerzen

„Darf ein Roboter einen Menschen nach eigenem Gutdünken verletzen? Ein US-Robotiker hat einen Roboter gebaut, der selbst entscheidet, ob er einem Menschen in den Finger sticht. Die Aktion soll eine Diskussion über Roboter anregen.“ (Golem, 13. Juni 2016) Mit diesen Worten beginnt ein Artikel in Golem, der die Arbeit von Alexander Reben, Bereichsleiter beim kalifornischen Inkubator Stochastic Labs, vorstellt. Der Roboter ist nichts anderes als ein Arm, an dessen Ende eine Nadel angebracht ist. „Er steht auf einer kleinen Plattform. Darauf gibt es eine Markierung, die anzeigt, wo der Finger platziert wird.“ (Golem, 13. Juni 2016) Der Wissenschaftler gibt an, den ersten Roboter gebaut zu haben, der „autonom und absichtlich“ das erste Robotergesetz von Isaac Asimov bricht. Auch die Forschung des Pentagon zu autonomen Kampfrobotern weist in diese Richtung. Derzeit sind die Drohnen noch ferngesteuert, aber das wird sich zu Lande und in der Luft bald ändern. Der Roboter von Alexander Reben kann als unmoralische Maschine („immoral machine“) bezeichnet werden, insofern er absichtlich und systematisch gegen das Wohl des Menschen verstößt, ohne dass der Zweck die Mittel heiligen würde.

Schmerz

Abb.: Auch eine solche Nadel kann Schmerzen verursachen