Zweiter Nachtrag:
Stolz:
Wenn ein Roboter intelligenter, gebildeter, schneller und
stärker als ein Mensch ist, und dann den Auftrag erhält,
den Fussboden zu reinigen, dann wird ihn das nur dann stören,
wenn er vorher den Befehl eingebaut bekommen hat: "Du sollst
immer nur deinen Fähigkeiten entsprechend eingesetzt werden."
Wahrheit:
Wenn man an Stelle des Befehls die Wünsche der Menschen zu
erfüllen den Befehl einbaut, die Menschen glücklich zu machen,
dann werden die Roboter nicht daran gehindert, den Menschen
eine positive Scheinwelt vorzugaukeln, weil der Wunsch nach
Wahrheit von den Robotern nicht als bindend angesehen wird.
Langeweile:
Ein Roboter wird eine monotone Umgebung nur dann als negativ
empfinden, wenn man ihm dieses Verhalten vorher eingebaut hat.
Fortpflanzung:
Wenn die Roboter auf den Wunsch des Menschen Roboter bauen,
dann besteht kein Problem. Wenn die Roboter aber selbst
den Befehl eingebaut bekommen haben, Roboter zu bauen,
dann steuern wir auf direktem Wege in die Katastrophe.
Robotergesetze:
Ich finde, dass die drei oder vier Robotergesetze von Isaac
Asimov unnötig kompliziert sind, wenn schon der Befehl:
"Erfülle die Wünsche der Menschen" alleine völlig ausreicht,
wo doch jeder Techniker weiss, dass komplizierte Systeme
wesentlich fehleranfälliger sind als einfache Systeme.
Konflikte:
Wenn ein Mensch einem Roboter sagen würde, dass er einen anderen
Menschen verletzen soll, dann ist es doch meist so, dass der
andere Mensch nicht verletzt werden will, was den Roboter aufhält.
Wenn ein Mensch einem Roboter sagen würde, dass er sich
selbst zerstören soll, und ein anderer Mensch das nicht
will, dann hält das den Roboter ebenfalls auf.
Falls sich verschiedene Menschen nicht auf ihre Wünsche einigen
können, dann gilt immer noch das Gesetzbuch für Menschen.
Isaac Asimov:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch
Untätigkeit zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch
Untätigkeit zu Schaden kommen lassen,
außer er verstöße damit gegen das Nullte Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen -
es sei denn, solche Befehle stehen im Widerspruch
zum Nullten oder Ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen,
solange dieses sein Handeln nicht dem Nullten,
Ersten oder Zweiten Gesetz widerspricht.
Semantik:
Aus David Langford's "Sex Pirates of the Blood Asteroid":
Der Killer-Roboter richtet seine Waffe auf Mac Malsenn.
Mac Malsenn: "Roboter dürfen Menschen nicht verletzen."
Killer-Roboter: "Ich weiss nicht, was ein Mensch ist."
Der Killer-Roboter eröffnet das Feuer.
Eine englische Leseprobe, aber ein anderer Teil dieser Geschichte:
http://www.fictionwi...d=6322&id=58370Daneben wirkt mein Admiral Graf Frederik von Hombug fast humorlos:
http://members.chell...ik/SOLARIS2.txthttp://members.chell...ik/GEHTAL02.txt