CogniclipStudios

Cogniclip Studios

 Denken, Emotion, Illustration und mehr ...

Asimovsche Robotergesetze

Asimovsche Robotergesetze
© Anita Neuron / cogniclipstudios.com

Während in der ersten Hälfte des 20. Jahrhunderts Roboter zunächst einmal nur in beängstigenden Zukunftsvisionen als metallene Monster und als Bedrohung für die Menschen dargestellt wurden, begann der Science-Fiction Autor Isaac Asimov schon in den 30er Jahren des 20. Jh. damit, in seinen Romanen über freundliche Haushaltsroboter zu schreiben, die dem Menschen Arbeiten im Haushalt abnehmen könnten oder über nützliche Industrieroboter.


Asimov war mit seinen Robotergeschichten sehr erfolgreich und erreichte schnell einen hohen Bekanntheitsgrad. In der Phantasiewelt der Science-Fiction waren seine "humanoiden (menschenähnlichen) Roboter" in ihrem Aussehen der menschlichen Gestalt nachempfunden und ihrem Verhalten wurde eine Intelligenz zugesprochen, die in Bezug auf Denken und Verstehen der menschlichen Intelligenz glich.

Mit seinen Geschichten wollte Asimov zeigen, dass Roboter keineswegs immer nur eine Bedrohung für den Menschen sein müssen und wollte auch zum Nachdenken anregen, ob Roboter, wenn es sie einmal geben würde, mehr sind als Gegenstände und leblose Automaten wie Kaffeemaschinen, Staubsauger oder andere Haushaltsgeräte. Insbesondere interessierte ihn die Frage, ob auch soziale Bindungen zwischen Robotern und Menschen möglich sind und wie diese funktionieren, bzw. auf welcher Ebene der sozialen Interaktion diese stattfinden würden.

Diese Ideen beschrieb Asimov im Juni 1939 in seiner Kurzgeschichte "Robbie", erstmals veröffentlicht 1940 im US-amerikanischen Science-Fiction-Magazin "Super Science Stories" unter dem Titel "Strange Playfellow", in späteren Werken Asimovs unter dem Titel "Robbie", so z.B. in seinem 1950 erschienenen Roman "I, Robot" (Titel dt. Erstausg.: "Ich, der Robot", übersetzt von Otto Schag, Karl Rauch Verlag, Düsseldorf, 1952). Der Roman verbindet neun Kurzgeschichten Asimovs durch eine Rahmenhandlung miteinander.

Asimovs Roman "I, Robot" bildet auch die die Ideenvorlage zu dem gleichnamigen Science-Fiction-Film von Alex Proyas (Twentieth Century Fox, 2004), der als Kinofilm im deutschsprachigen Raum am 5. August 2004 veröffentlicht wurde. Die Handlung des Films ist jedoch völlig unabhängig vom Buch und eigenständig und greift lediglich Motive und Charaktere des Buches auf, unter anderem die Robotergesetze.

In der Geschichte "Robbie" kauft eine Familie einen Hausroboter namens Robbie, der als Kindermädchen für ihre kleine Tochter Gloria eingesetzt werden soll ...

Als Gloria sich immer mehr mit dem Roboter anfreundet, befürchten ihre Eltern, dass sie zu viel Zeit mit ihm verbringt und das Erlernen sozialer Kontakte zu anderen Kindern darunter leidet. Um das zu verhindern, geben sie Robbie in eine Fabrik zur Arbeit in der Industrieproduktion, damit er keinen weiteren Kontakt mehr zu ihr hat. Die Tochter vermisst den Roboter jedoch sehr. Ihre Eltern beschließen dann, dass Gloria zusammen mit ihrem Vater, Robbie in der Fabrik besucht, damit sie erkennt, dass Robbie nur eine Maschine ist, für die sie keine freundschaftlichen Gefühle zu haben braucht.

Als Gloria den Roboter in der Fabrik sieht, rennt sie voller Freude auf ihn zu und wird dabei fast von einem Fahrzeug überfahren. Robbie erkennt sofort die Gefahr für Gloria und rettet ihr das Leben, obwohl er dabei seine eigene Zerstörung riskiert. Daraufhin ändern Glorias Eltern ihre Meinung und sind nun der Ansicht, dass der Roboter mehr Nutzen als Nachteile für ihre Tochter hat. Robbie darf wieder zurück in die Familie und Gloria ist überglücklich ...

Die Vorstellung von humanoiden Robotern ließ bei den Menschen aber auch Befürchtungen aufkommen, Roboter könnten intelligenter werden als Menschen, sich ihnen dann überlegen fühlen und die Kontrolle übernehmen.

Dieses Szenario beschrieb Asimov in seiner Kurzgeschichte "Reason", die erstmals im April 1941 in dem US-amerikanischen Science-Fiction-Magazin "Astounding" veröffentlicht wurde und das nach einigen Namenswechseln bis heute unter dem Namen "Analog Science Fiction & Fact" (ISSN 0003-2603) erscheint. Ebenso wie "Robbie" wurde auch "Reason" in den 1950 erschienenen Roman "I, Robot" eingefügt, in der dt. Erstausg. "Ich, der Robot" (s.o.) unter dem Titel "Vernunft".

In der Geschichte "Vernunft" wird ein neues Robotermodell auf einer Raumstation nahe der Sonne eingesetzt, auf der neben den beiden menschlichen Forschern Donovan und Powell auch noch mehrere humanoide Roboter arbeiten.

Auf der Raumstation befindet sich ein Gerät, der so genannten "Umwandler", der die Sonnenstrahlung in einen Energiestrahl umwandelt, der zur Energieversorgung der Erde genutzt werden soll. Der Energiestrahl ist in einem bestimmten Winkel auf eine Empfangsstation auf der Erde gerichtet. Geringste Abweichungen des Winkels hätten zur Folge, dass der Energiestrahl die Empfangsstation verfehlt und durch seine starke Hitze große Gebiete im Umkreis der Empfangsstation zerstören würde und aufgrund schwankender Sonnenaktivität ständig neu eingestellt werden muss. Nun soll ein neuer Roboter mit dieser Arbeit beauftragt werden.

Nachdem die beiden Forscher dem neuen Roboter mit der Bezeichnung QT-1 erklären, dass er von ihnen erschaffen wurde, glaubt dieser ihnen jedoch nicht und behauptet, er könne gar nicht von den Menschen erschaffen worden sein, da diese seiner Auffassung nach im Gegensatz zu ihm viel unvollkommener seien und daher auch kein Wesen erschaffen könnten, das ihnen selbst überlegen ist.

Es kommt zu einem Streit und QT-1 lässt die beiden Forscher mit Hilfe der anderen Roboter, über die er die Kontrolle übernommen hat, einsperren. Währenddessen erfordert eine erhöhte Sonnenaktivität neue Berechnungen für den Umwandler. Die Forscher sind sehr besorgt und nach mehreren Stunden ihrer Gefangenschaft befürchten sie, dass große Gebiete auf der Erde zerstört wurden, weil sie den Winkel des Energiestrahls nicht rechtzeitig einstellen konnten.

Plötzlich betritt QT-1 den Raum, in dem Donovan und Powell gefangen gehalten werden und erkundigt sich nach ihrem Befinden. Er überlässt ihnen auch die Aufzeichnungen der Messdaten des Energiestrahls. Powell überprüft besorgt die Kurven und Zahlen auf den Papieren mit den aktuellen Messdaten und erkennt mit großer Begeisterung, dass QT-1 den Winkel des Energiestrahls präziser eingestellt hat, als es die beiden Forscher selbst gekonnt hätten.

Donovan und Powell werden nicht weiter gefangen gehalten und können die Raumstation verlassen. Sie diskutieren über die Einsatzfähigkeit des neuen Robotermodells und kommen zu dem Schluss, dass es nicht weiter wichtig ist, wie der Roboter sich seine eigene Existenz erklärt, solange er seine ihm gestellte Aufgabe präziser bewältigt, als es jeder Mensch könnte ...

Eine weitere Befürchtung war, dass humanoide Roboter, die aufgrund ihrer Intelligenz einen eigenen Willen besitzen, auch das Bedürfnis entwickeln könnten, sich selbst vor Gefahren zu schützen und dann dem Menschen schaden, wenn sie dessen Anweisungen oder Verhalten als gefährlich für sich selbst betrachteten.

Um dieses Problem zu lösen, schlug Asimov vor, Verhaltensregeln zu entwickeln, die als fester Bestandteil der Programmierung des Roboters, einen gefahrlosen und friedlichen Umgang zwischen Mensch und Roboter ermöglichen sollten:

"Asimovsche Robotergesetze":

  • §1) Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit dafür sorgen, dass einem Menschen Schaden zugefügt wird.
  • §2) Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, ein solcher Befehl würde Regel 1 verletzen.
  • §3) Ein Roboter muss seine eigene Existenz schützen, es sei denn, dieser Schutz würde die Regeln 1 oder 2 verletzen.

Asimov beschrieb erstmals im Oktober 1941 seine "Robotergesetze" in seiner Kurzgeschichte "Runaround", die im März 1942 in dem US-amerikanischen Science-Fiction-Magazin "Astounding" (s.o.) veröffentlicht wurde. Ebenso wie "Robbie" und "Reason", wurde auch "Runaround" in den 1950 erschienenen Roman "I, Robot" und der 1952 erschienenen dt. Erstausg. "Ich, der Robot" (s.o.) eingefügt.

Die Geschichte handelt wieder von den beiden Forschern Donovan und Powell, die bereits als Hauptfiguren in "Vernunft" (s.o) vorkommen und die diesmal auf dem Planet Merkur ein stillgelegtes Bergwerk wieder in Betrieb nehmen sollen ...

Da man in den 1940er Jahren noch davon ausging, der Planet Merkur besäße keine Rotation um die eigene Achse und eine Seite des Merkur wäre ständig der Sonne zugewandt, was erst 1965 durch Radarbeobachtungen widerlegt wurde, beschrieb Asimov eine Gefahrensituation in seiner Geschichte, die auf dieser Annahme beruht. Heute weiß man, dass Merkur zwar um seine eigene Achse rotiert, allerdings nur ein Mal innerhalb von 58 Tagen. Die von Asimov beschriebene Gefahrensituation bestünde diesbezüglich also weiterhin, auch unter Berücksichtigung der neueren Erkenntnisse. Dennoch sind die Umweltbedingungen auf Merkur, selbst auf der sonnenabgewandten Seite, so extrem, dass ein Aufenthalt dort wohl nicht so einfach möglich wäre. (Die Temperatur auf Merkur beträgt etwa -170 Grad Celsius auf der Nachtseite und mehr als +420 Grad Celsius auf der Tagseite.)

... Die Station der beiden Forscher befindet sich auf der sonnenzugewandten Seite des Planeten und muss daher vor der starken Hitze der Sonne geschützt werden. Dazu dient eine Schutzvorrichtung, für deren Betrieb das chemische Element Selen benötigt wird, das sich in dieser Science-Fiction Geschichte auf der Oberfläche des Planeten befindet und zwar in flüssiger Form in heißen Quellen. Da der Abbau des Selens für die Menschen durch die starke Hitze zu gefährlich ist, beauftragen sie damit einen Roboter.

Als der Roboter, den sie "Speedy" nennen, nach längerer Zeit nicht zurückkehrt, begeben sie sich auf die Suche nach ihm und entdecken Speedy, wie er ständig im Kreis um die heiße Selen-Quelle herumläuft. Dabei stellen sie fest, dass aus der Quelle giftige Gase ausströmen, die die Mechanik des Roboters zerstören würden, wenn er das Selen wie befohlen abbauen würde. Sie versuchen, den Roboter an einer anderen Selen-Quelle einzusetzen, aus der keine giftigen Gase ausströmen, doch der Roboter reagiert nicht auf ihre Anweisungen, sich von der Selen-Quelle zu entfernen und wirkt völlig desorientiert und wie betrunken.

Donovan und Powell sind sehr besorgt, denn sie benötigen dringend das Selen, ohne das die Station nicht mehr lange geschützt ist und auch ihre Schutzanzüge halten außerhalb der Station nur 20 Minuten der starken Hitze der Sonnenstrahlung stand. Um herauszufinden, warum der Roboter nicht mehr auf ihre Anweisungen reagiert, beschäftigen sie sich mit den drei Robotergesetzen, die zu einem festen Bestandteil seiner Programmierung gehören und die sie der Reihenfolge nach aufzählen.

Ihnen fällt auf, dass Speedy die dritte Regel der Robotergesetze, aufgrund einer Anweisung in seiner Programmierung, verstärkt beachten soll, da es sich hier um ein besonders teures Robotermodell handelt. Die dritte Regel besagt, dass sich ein Roboter bei Gefahr schützen muss, sofern er dabei nicht die zweite Regel missachtet, die besagt, dass ein Roboter immer die Befehle der Menschen befolgen muss. Sie bemerken, dass sie Speedy in eine besonders gefährliche Situation gebracht haben, hervorgerufen durch die giftigen Gase, von denen sie noch nichts wussten, als sie Speedy zu der Quelle schickten, sodass er die dritte Regel nun noch stärker beachtet, als es seine Programmierung für ihn ohnehin schon vorsieht.

Da sie es gleichzeitig versäumten, Speedy die Dringlichkeit ihres Auftrages mitzuteilen, beachtet er die zweite Regel nun weniger stark und somit beide Regeln nahezu gleichrangig. Sobald er sich von der Quelle entfernt, um sich zu schützen, verringert sich die Gefahr, in der er sich befindet und es tritt sofort die zweite Regel in Kraft, die ihn verpflichtet, seinen Auftrag auszuführen, sodass er sich wieder der Quelle nähert. Die zweite und die dritte Regel kollidieren hier miteinander, sodass er immer wieder einen Schritt vor und einen Schritt zurück geht. Dieser Zustand verwirrt den Roboter derart, dass er nur noch im Kreis um die Quelle herumläuft und nicht mehr auf ihre Anweisungen reagiert.

Die Forscher überlegen zunächst, ob sie zusätzlich giftiges Gas in die Quelle einleiten sollten, um die Gefahr für den Roboter absichtlich zu erhöhen, damit er die dritte Regel noch stärker beachtet und sich dann weiter von der Quelle entfernt. So könnten sie ihn dann leichter aus dem Gefahrenbereich bergen. Sie erkennen jedoch, dass er durch den hierarchischen Aufbau der Robotergesetze, die dritte Regel nicht stärker als die zweite beachten darf und somit den Gefahrenbereich nicht verlassen wird.

Die einzige Möglichkeit, Speedy neue Anweisungen zu geben, sehen die Forscher darin, ihn dazu zu bringen, dass er die erste Regel der Robotergesetze verstärkt beachtet, die besagt, dass ein Roboter kein menschliches Wesen verletzen oder durch Untätigkeit dafür sorgen darf, dass einem Menschen Schaden zugefügt wird. Daher setzt sich Donovan absichtlich zu lange der Hitze der Sonnenstrahlung aus und ruft Speedy zu, dass er sich in einer akut lebensgefährlichen Situation befindet, da sein Schutzanzug ihn nicht länger schützt und die Zeit für den Rückweg zur Station nicht mehr ausreicht.

Speedy erkennt die Gefahr für Donovan und kann den Gefahrenbereich um die Selen-Quelle herum verlassen, da er aufgrund des hierarchischen Aufbaus der Robotergesetze nun vorrangig die erste Regel beachten muss. Er begibt sich auf den Weg zu Donovan, um diesen zu retten und zurück zur Station zu bringen. Speedy kann nun wieder neue Anweisungen der Forscher entgegen nehmen, da er nicht mehr ständig mit dem Befolgen der zweiten und dritten Regel beschäftigt ist ...

Auf den ersten Blick schienen die ersten beiden Regeln (§1 und §2) alle Gefahren für den Menschen, die von Robotern ausgehen könnten, zu beseitigen. Die dritte Regel seiner Robotergesetze (§3) schien sogar das Bedürfnis eines Roboters mit einem eigenen Willen zu berücksichtigen, sich selbst vor Gefahren oder vor der Zerstörung zu schützen. Dennoch hatte die dritte Regel nichts mit einer individuellen Freiheit des Roboters zu tun, da die Gesetze hierarchisch aufgebaut sind.

"Hierarchischer Aufbau" bedeutet, dass die drei Robotergesetze in ihrer Reihenfolge einer Rangordnung unterliegen, wobei das zuerst genannte Gesetz, den jeweils nachfolgenden Gesetzen immer übergeordnet und somit wichtiger ist. §1 hat also eine größere Bedeutung als die beiden Gesetze §2 und §3, wobei §2 wiederum eine größere Bedeutung hat als §3, jedoch eine geringere Bedeutung als §1. Die geringste Bedeutung hat das zuletzt genannte Gesetz, also §3.

Die Notwendigkeit, ein weiteres Gesetz zu entwickeln, etwa §4, in dem eine Rangordnung der Robotergesetze vorgeschrieben ist, besteht nicht, denn diese Vorschrift existiert ja bereits durch die Einschränkungen in §2 und §3, der Roboter dürfe diese Regeln nur anwenden, solange er nicht die vorherigen Regeln verletzt.

Diese Rangordnung hat zur Folge, dass ein Roboter in jedem Fall einem Menschen helfen muss, der sich in einer akuten Gefahrensituation befindet, selbst wenn der Roboter dadurch seine eigene Existenz gefährdet. Ganz im Gegensatz zum Menschen, der sich frei dafür oder dagegen entscheiden kann, sich selbst und somit seine eigene Existenz zu opfern, um einen anderen Menschen zu retten.

Die Robotergesetze regelten in dieser einfachen Form also nur die rein technische Funktionalität der Roboter und gaben ihnen keinerlei Rechte. Humanoide Roboter, die in ihrem Verhalten dem Menschen gegenüber freundlich wirken, erzeugen bei den Menschen jedoch unwillkürlich das Gefühl, dass sie aufgrund ihrer Rechtelosigkeit im Laufe der Zeit unzufrieden werden und irgendwann rebellieren.

Asimov war sich schon früh bewusst, dass dieses Problem nur gelöst werden konnte, wenn dem Roboter ähnliche Rechte zugestanden würden, wie die Menschenrechte. Offensichtlich kam ihm dieser Gedanke für die damalige Zeit aber noch zu phantastisch vor, sodass er versuchte, die Unvollkommenheit seiner Gesetze durch Beispielszenarien zu verdeutlichen, in denen die Anwendung seiner Gesetze zur kompletten Handlungsunfähigkeit des Roboters führen.

KIs und moralisches Verhalten

thumb

Eine Studie der Universität Osnabrück befasst sich mit der Frage, ob Maschinen bald moralisches Verhalten von Menschen imitieren können. Link zur Pressemitteilung... ...mehr »


KI-Persönlichkeit und Unzufriedenheit

thumb

Würde eine KI mit Bewusstsein und individueller Persönlichkeit entwickelt, dann könnten die Menschen unzufrieden sein, dass die KI gerade als dieser eine Menschentyp konstruiert wurde und nicht als jemand anderes, aber auch die KI selbst... ...mehr »



Durch Klick auf eines der folgenden Themen/Schlagwörter ähnliche Artikel finden...