• Artificial Intelligence

Roboterethik

Isaac Asimov hat mit „Ich, der Roboter“ schon vor über 60 Jahren die richtigen Fragen gestellt, wenn es darum geht, dass wir uns als Gesellschaft mit intelligenten Robotern auseinandersetzen müssen.

Im Film „I, Robot“ (2004) sind wir im Chicago der 2030er-Jahre. Roboter sind hochintelligent und dienen dem Menschen als Helfer und Arbeiter. Einer neuen Generation von ihnen wurden auch Emotionen eingebaut. Sie verhalten sich nach den drei Robotergesetzen Isaac Asimovs, dessen zusammenhängende Kurzgeschichten in „Ich, der Robot“ als Grundlage für den Film dienten.

In seinen Science-Fiction-Romanen wird deutlich: Asimov lässt die Frage nicht los, ob Maschinen so etwas wie ein Gewissen, eine Moral haben können. Demnach wirft er in seinen Kurzgeschichten einige Fragen auf, über die man lange nachdenken und diskutieren könnte. Womöglich ist das ein Grund, warum seine Werke von weltweiter Bekanntheit und zeitloser Relevanz sind.

Wie sieht es mit emotionalen Bindungen zwischen Robotern und Menschen aus? Dürfen Menschen Roboter lieben? Sind Roboter Gegenstände oder Lebewesen? Wo ist hier die Grenze? Treffen Roboter die richtigen Entscheidungen? Ist der Mensch in der Lage, die Parameter der Entscheidungsfindung so zu setzen, dass der Roboter überhaupt die richtigen treffen kann?

Menschen können nicht die richtigen Fragen stellen

Es zeichnet sich in Asimovs Geschichten folgendes ab: Der Mensch ist nicht imstande jeglichen möglichen Entscheidungsweg, den eine bestimmte Situation erfordert, zu antizipieren und dies entsprechend in eine Software umzusetzen. Roboter kommen zu anderen logischen Schlüssen, interpretieren Anweisungen anders. Solange Roboter kein Bewusstsein für Moral oder Ethik haben, fehlen ihnen aber die notwendigen Instrumente, um die richtigen Entscheidungen treffen zu können. In einer Geschichte etwa wird ein in einem sinkenden Auto ertrinkender Mann von einem Roboter gerettet. Bei einem kleinen Kind versucht er es in derselben Situation nicht einmal, da die von ihm berechnete Überlebenswahrscheinlichkeit des Kindes zu gering ist.

Die logische Schlussfolgerung wäre: Damit so etwas nicht passiert, müssen Maschinen intelligenter werden – sofern Roboter einen (dem Menschen nützlichen) Platz in der Gesellschaft haben und als Arbeiter oder Helfer zum Einsatz kommen sollen. Sogleich drängt sich aber eine unangenehme Befürchtung vor einem Kontrollverlust auf: Was geschieht, wenn die Roboter ihre kognitive Überlegenheit realisieren, weil sie ein Bewusstsein haben? Was, wenn nicht vollständig ausformulierte und in Software übersetzte Befehle wie „Schutz“ aufgrund mangelnder Präzision vom Roboter missinterpretiert werden? Asimov definierte deshalb in weiser Voraussicht bereits 1942 die „Grundregeln des Roboterdienstes“. Sie erschienen in einer der neun Kurzgeschichten, aus denen sein Science-Fiction-Roman „Ich, der Roboter“ besteht.

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen, es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Während die Roboter in Asimovs Geschichten weniger mit künstlicher Intelligenz (KI) zu tun haben, ist das im Film „I, Robot“ anders. Vor allem der Zentralcomputer V.I.K.I ist hochintelligent und kommt zu folgendem Schluss: Man kann jene Gesetze, die den Schutz des Menschen fordern, nur dann einhalten, wenn man die Menschen vor sich selbst schützt. Ansonsten würden sie Kriege führen und den Planeten zerstören. KI, vor allem ihre Funktionsweise und das Erschaffen einer echten (humanoiden) KI, beschäftigt Forscher schon seit Jahren immens. Und die Suche danach lässt die Grenzen zwischen Forschung, Wissenschaft und Science-Fiction verschwimmen. Das Undenkbare zu denken ist, was Asimovs Gesetze erst ermöglicht hatten – gleichzeitig dienen sie immer wieder als Grundlage der Diskussion rund um die Gefahren von KI. Auch Jaan Tallinn vom Future of Life Institute warnt vor einem allzu sorglosen Umgang mit künstlicher Intelligenz. Zu groß sei das Risiko, weil die Konsequenzen unvorhersehbar seien. Was, wenn wir gerade an unserem eigenen Ende arbeiten?

 Gesetze für Roboter

 Ob die intelligenten Roboter, die auch ein Bewusstsein, Moral und Ethik haben, nun eine Dystopie oder eine Utopie sind – in vielerlei Hinsicht sind sie noch sehr weit weg. Es zeichnen sich jedoch schon erste Strömungen ab, die den Finger genau dorthin legen, wo es wehtut. Wie zum Beispiel Sexroboter-Firmen, etwa Real Doll in den USA, die – was die Haptik betrifft – extrem menschenähnliche Sexpuppen bauen. In wenigen Jahren sollen sie auch mit künstlicher Intelligenz ausgestattet sein. Einige von ihnen können schon sprechen, um dann Sätze zu sagen wie: „I am here to please you.“ Berechtigterweise stellt sich die Frage, ob das gut ist, wenn Menschen sich in so einem Umfeld bewegen, in dem sich zudem Menschliches mit Sachlichem vermischt.

Überhaupt wird das Zusammenwirken zwischen Menschen und Robotern immer alltäglicher. Deshalb haben die EU-Parlamentarier dieses Jahr einen Bericht verfasst, in dem sie die EU-Kommission aufgefordert haben, Regeln für Roboter zu definieren. Hier geht es vor allem um Haftungsregeln – wie etwa bei selbstfahrenden Autos im Falle eines Unfalls. Zudem sollen ein ethischer Verhaltenskodex und eine europäische Agentur für Robotik geschaffen werden. Die Ethik ist deshalb so wichtig, da es hier vor allem um Datenschutz und Sicherheitsfragen geht. Zudem solle die Menschenwürde im Design und in der Nutzung von Robotern respektiert werden. Im Endeffekt könne die Agentur den EU-Behörden in diesem Zusammenhang das notwendige technische, regulatorische und ethische Wissen zur Verfügung stellen. Umgesetzt sind diese Forderungen aus dem Februar noch nicht, doch sind diese ein erstes gutes Zeichen. Ob man hier auf das Durchsetzungsvermögen der EU-Parlamentarier hoffen darf, bleibt noch abzuwarten.

Up to Date

Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.

Surprise me

Schuldenberg

Der globale Schuldenstand der Staaten schraubt sich zusehends in die Höhe. Satte 27.700 US-$ sind es pro Sekunde in den USA.

Read more

Kampfroboter

Immer wieder taucht in Science-Fiction-Romanen die hyper-intelligente Maschine auf, die den Menschen in seinen kognitiven Fähigkeiten übertrifft und so zur Gefahr wird.

Read more

Autos mit Flügeln

Fliegende Autos sind ein beliebtes Motiv in Science-Fiction-Stoffen. Die Realität ist da etwas langsamer: Flugautos scheinen laut geflügeltem Wort stets „noch fünf Jahre“ von der Marktreife entfernt zu sein. Wann flitzen wir endlich durch die Lüfte?

Read more

Fette Kohle

Von den dystopischen Zuständen wie in „Wall-E“ sind wir noch weit entfernt. Doch das steigende Übergewicht der Menschen ist ein Problem – und für manche eine Goldgrube.

Read more

Scotty, beam me...

Diesen Satz kennt dank „Star Trek“ die ganze Welt. Heute ist beim „Beamen“ winziger Quantenteilchen bereits einiges möglich. Für Größeres in Zukunft auch?

Read more

Bittere Pille

Viele Menschen versprechen sich von Neuro-Enhancern, ihr Gehirn auf Hochtouren zu bringen. Doch steckt dahinter reines Wunschdenken – ohne medizinische Indikation?

Read more

Klug gemacht

Mittels CRISPR-Cas9-Methode können Forscher im Auftrag von Firmen Gene editieren. Schon bald auch ganze Menschen?

Read more

Ständig online

Die Zahl der Nutzer von sozialen Medien könnte bis 2020 auf rund drei Milliarden Menschen ansteigen – ein Drittel der gesamten Erdbevölkerung. Doch was bedeutet dies für unsere Gesellschaft?

Read more