• Artificial Intelligence

Roboterethik

Isaac Asimov hat mit „Ich, der Roboter“ schon vor über 60 Jahren die richtigen Fragen gestellt, wenn es darum geht, dass wir uns als Gesellschaft mit intelligenten Robotern auseinandersetzen müssen.

Im Film „I, Robot“ (2004) sind wir im Chicago der 2030er-Jahre. Roboter sind hochintelligent und dienen dem Menschen als Helfer und Arbeiter. Einer neuen Generation von ihnen wurden auch Emotionen eingebaut. Sie verhalten sich nach den drei Robotergesetzen Isaac Asimovs, dessen zusammenhängende Kurzgeschichten in „Ich, der Robot“ als Grundlage für den Film dienten.

In seinen Science-Fiction-Romanen wird deutlich: Asimov lässt die Frage nicht los, ob Maschinen so etwas wie ein Gewissen, eine Moral haben können. Demnach wirft er in seinen Kurzgeschichten einige Fragen auf, über die man lange nachdenken und diskutieren könnte. Womöglich ist das ein Grund, warum seine Werke von weltweiter Bekanntheit und zeitloser Relevanz sind.

Wie sieht es mit emotionalen Bindungen zwischen Robotern und Menschen aus? Dürfen Menschen Roboter lieben? Sind Roboter Gegenstände oder Lebewesen? Wo ist hier die Grenze? Treffen Roboter die richtigen Entscheidungen? Ist der Mensch in der Lage, die Parameter der Entscheidungsfindung so zu setzen, dass der Roboter überhaupt die richtigen treffen kann?

Menschen können nicht die richtigen Fragen stellen

Es zeichnet sich in Asimovs Geschichten folgendes ab: Der Mensch ist nicht imstande jeglichen möglichen Entscheidungsweg, den eine bestimmte Situation erfordert, zu antizipieren und dies entsprechend in eine Software umzusetzen. Roboter kommen zu anderen logischen Schlüssen, interpretieren Anweisungen anders. Solange Roboter kein Bewusstsein für Moral oder Ethik haben, fehlen ihnen aber die notwendigen Instrumente, um die richtigen Entscheidungen treffen zu können. In einer Geschichte etwa wird ein in einem sinkenden Auto ertrinkender Mann von einem Roboter gerettet. Bei einem kleinen Kind versucht er es in derselben Situation nicht einmal, da die von ihm berechnete Überlebenswahrscheinlichkeit des Kindes zu gering ist.

Die logische Schlussfolgerung wäre: Damit so etwas nicht passiert, müssen Maschinen intelligenter werden – sofern Roboter einen (dem Menschen nützlichen) Platz in der Gesellschaft haben und als Arbeiter oder Helfer zum Einsatz kommen sollen. Sogleich drängt sich aber eine unangenehme Befürchtung vor einem Kontrollverlust auf: Was geschieht, wenn die Roboter ihre kognitive Überlegenheit realisieren, weil sie ein Bewusstsein haben? Was, wenn nicht vollständig ausformulierte und in Software übersetzte Befehle wie „Schutz“ aufgrund mangelnder Präzision vom Roboter missinterpretiert werden? Asimov definierte deshalb in weiser Voraussicht bereits 1942 die „Grundregeln des Roboterdienstes“. Sie erschienen in einer der neun Kurzgeschichten, aus denen sein Science-Fiction-Roman „Ich, der Roboter“ besteht.

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen, es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Während die Roboter in Asimovs Geschichten weniger mit künstlicher Intelligenz (KI) zu tun haben, ist das im Film „I, Robot“ anders. Vor allem der Zentralcomputer V.I.K.I ist hochintelligent und kommt zu folgendem Schluss: Man kann jene Gesetze, die den Schutz des Menschen fordern, nur dann einhalten, wenn man die Menschen vor sich selbst schützt. Ansonsten würden sie Kriege führen und den Planeten zerstören. KI, vor allem ihre Funktionsweise und das Erschaffen einer echten (humanoiden) KI, beschäftigt Forscher schon seit Jahren immens. Und die Suche danach lässt die Grenzen zwischen Forschung, Wissenschaft und Science-Fiction verschwimmen. Das Undenkbare zu denken ist, was Asimovs Gesetze erst ermöglicht hatten – gleichzeitig dienen sie immer wieder als Grundlage der Diskussion rund um die Gefahren von KI. Auch Jaan Tallinn vom Future of Life Institute warnt vor einem allzu sorglosen Umgang mit künstlicher Intelligenz. Zu groß sei das Risiko, weil die Konsequenzen unvorhersehbar seien. Was, wenn wir gerade an unserem eigenen Ende arbeiten?

 Gesetze für Roboter

 Ob die intelligenten Roboter, die auch ein Bewusstsein, Moral und Ethik haben, nun eine Dystopie oder eine Utopie sind – in vielerlei Hinsicht sind sie noch sehr weit weg. Es zeichnen sich jedoch schon erste Strömungen ab, die den Finger genau dorthin legen, wo es wehtut. Wie zum Beispiel Sexroboter-Firmen, etwa Real Doll in den USA, die – was die Haptik betrifft – extrem menschenähnliche Sexpuppen bauen. In wenigen Jahren sollen sie auch mit künstlicher Intelligenz ausgestattet sein. Einige von ihnen können schon sprechen, um dann Sätze zu sagen wie: „I am here to please you.“ Berechtigterweise stellt sich die Frage, ob das gut ist, wenn Menschen sich in so einem Umfeld bewegen, in dem sich zudem Menschliches mit Sachlichem vermischt.

Überhaupt wird das Zusammenwirken zwischen Menschen und Robotern immer alltäglicher. Deshalb haben die EU-Parlamentarier dieses Jahr einen Bericht verfasst, in dem sie die EU-Kommission aufgefordert haben, Regeln für Roboter zu definieren. Hier geht es vor allem um Haftungsregeln – wie etwa bei selbstfahrenden Autos im Falle eines Unfalls. Zudem sollen ein ethischer Verhaltenskodex und eine europäische Agentur für Robotik geschaffen werden. Die Ethik ist deshalb so wichtig, da es hier vor allem um Datenschutz und Sicherheitsfragen geht. Zudem solle die Menschenwürde im Design und in der Nutzung von Robotern respektiert werden. Im Endeffekt könne die Agentur den EU-Behörden in diesem Zusammenhang das notwendige technische, regulatorische und ethische Wissen zur Verfügung stellen. Umgesetzt sind diese Forderungen aus dem Februar noch nicht, doch sind diese ein erstes gutes Zeichen. Ob man hier auf das Durchsetzungsvermögen der EU-Parlamentarier hoffen darf, bleibt noch abzuwarten.

Up to Date

Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.

Surprise me

Still Awake

Wer entscheidet über Leben und Tod? Eine der früher zentralen Fragen der Religion verlagert sich zunehmend in den Bereich der Wissenschaft. Dort gibt es einen –vermeintlichen – Heilsbringer: die Kryonik.

Read more

Zeit ist nicht Geld

Alternative Wirtschaftskonzepte mit Zeit als Währung gewinnen wieder an Auftrieb. Trotzdem scheint das Ende des klassischen Währungssystems noch Science-Fiction.

Read more

Smart Farmer

Die Digitalisierung der Landwirtschaft schreitet voran. Neue Technologien versprechen Ressourceneffizienz, Umweltschonung und verbesserte Tierhaltung. Wird der Bauer bald endgültig zum Smart Farmer?

Read more

Das Ende der Arbeitskraft

Das zweite Maschinenzeitalter macht vielen Angst: Jobverlust, Massenarmut drohen. Oder doch nicht? Wir haben gerade jetzt die Chance, unsere Gesellschaft zum Besseren zu transformieren.

Read more

Going Next

Terry Pratchetts Romane machen möglich, was uns oft unmöglich erscheint: aus einem hierarchischen Unternehmen eine agile Organisation zu formen. Doch vielleicht ist das ja gar nicht so utopisch?

Read more

Teures Ticket

Die NASA startet bereits die dritte bemannte Marslandung. Doch schnell kämpft die Raumfahrtmission „Ares III“ mit Problemen. Einzig NASA-Astronaut Mark Watney bleibt am roten Planeten zurück…

Read more

Mein Freund, der Roboter?

Wie das Zusammenleben von Menschen und Robotern in ethischer Hinsicht sinnvoll gestaltet werden kann, ist bei Weitem noch nicht geklärt. Geht es nach Aimee van Wynsberghe, ist es aber höchste Zeit dafür.

Read more

Cool Rider

Wenn Coolness ein Synonym hat, heißt es vermutlich „K.I.T.T.“. Jeder wollte einmal mit dem schwarzen Kultmobil aus der TV-Serie „Knight Rider“ davondüsen. Denn K.I.T.T. kann einfach alles. Wie steht’s mit den heutigen Autos?

Read more