• Artificial Intelligence

Roboterethik

Isaac Asimov hat mit „Ich, der Roboter“ schon vor über 60 Jahren die richtigen Fragen gestellt, wenn es darum geht, dass wir uns als Gesellschaft mit intelligenten Robotern auseinandersetzen müssen.

Im Film „I, Robot“ (2004) sind wir im Chicago der 2030er-Jahre. Roboter sind hochintelligent und dienen dem Menschen als Helfer und Arbeiter. Einer neuen Generation von ihnen wurden auch Emotionen eingebaut. Sie verhalten sich nach den drei Robotergesetzen Isaac Asimovs, dessen zusammenhängende Kurzgeschichten in „Ich, der Robot“ als Grundlage für den Film dienten.

In seinen Science-Fiction-Romanen wird deutlich: Asimov lässt die Frage nicht los, ob Maschinen so etwas wie ein Gewissen, eine Moral haben können. Demnach wirft er in seinen Kurzgeschichten einige Fragen auf, über die man lange nachdenken und diskutieren könnte. Womöglich ist das ein Grund, warum seine Werke von weltweiter Bekanntheit und zeitloser Relevanz sind.

Wie sieht es mit emotionalen Bindungen zwischen Robotern und Menschen aus? Dürfen Menschen Roboter lieben? Sind Roboter Gegenstände oder Lebewesen? Wo ist hier die Grenze? Treffen Roboter die richtigen Entscheidungen? Ist der Mensch in der Lage, die Parameter der Entscheidungsfindung so zu setzen, dass der Roboter überhaupt die richtigen treffen kann?

Menschen können nicht die richtigen Fragen stellen

Es zeichnet sich in Asimovs Geschichten folgendes ab: Der Mensch ist nicht imstande jeglichen möglichen Entscheidungsweg, den eine bestimmte Situation erfordert, zu antizipieren und dies entsprechend in eine Software umzusetzen. Roboter kommen zu anderen logischen Schlüssen, interpretieren Anweisungen anders. Solange Roboter kein Bewusstsein für Moral oder Ethik haben, fehlen ihnen aber die notwendigen Instrumente, um die richtigen Entscheidungen treffen zu können. In einer Geschichte etwa wird ein in einem sinkenden Auto ertrinkender Mann von einem Roboter gerettet. Bei einem kleinen Kind versucht er es in derselben Situation nicht einmal, da die von ihm berechnete Überlebenswahrscheinlichkeit des Kindes zu gering ist.

Die logische Schlussfolgerung wäre: Damit so etwas nicht passiert, müssen Maschinen intelligenter werden – sofern Roboter einen (dem Menschen nützlichen) Platz in der Gesellschaft haben und als Arbeiter oder Helfer zum Einsatz kommen sollen. Sogleich drängt sich aber eine unangenehme Befürchtung vor einem Kontrollverlust auf: Was geschieht, wenn die Roboter ihre kognitive Überlegenheit realisieren, weil sie ein Bewusstsein haben? Was, wenn nicht vollständig ausformulierte und in Software übersetzte Befehle wie „Schutz“ aufgrund mangelnder Präzision vom Roboter missinterpretiert werden? Asimov definierte deshalb in weiser Voraussicht bereits 1942 die „Grundregeln des Roboterdienstes“. Sie erschienen in einer der neun Kurzgeschichten, aus denen sein Science-Fiction-Roman „Ich, der Roboter“ besteht.

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen, es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Während die Roboter in Asimovs Geschichten weniger mit künstlicher Intelligenz (KI) zu tun haben, ist das im Film „I, Robot“ anders. Vor allem der Zentralcomputer V.I.K.I ist hochintelligent und kommt zu folgendem Schluss: Man kann jene Gesetze, die den Schutz des Menschen fordern, nur dann einhalten, wenn man die Menschen vor sich selbst schützt. Ansonsten würden sie Kriege führen und den Planeten zerstören. KI, vor allem ihre Funktionsweise und das Erschaffen einer echten (humanoiden) KI, beschäftigt Forscher schon seit Jahren immens. Und die Suche danach lässt die Grenzen zwischen Forschung, Wissenschaft und Science-Fiction verschwimmen. Das Undenkbare zu denken ist, was Asimovs Gesetze erst ermöglicht hatten – gleichzeitig dienen sie immer wieder als Grundlage der Diskussion rund um die Gefahren von KI. Auch Jaan Tallinn vom Future of Life Institute warnt vor einem allzu sorglosen Umgang mit künstlicher Intelligenz. Zu groß sei das Risiko, weil die Konsequenzen unvorhersehbar seien. Was, wenn wir gerade an unserem eigenen Ende arbeiten?

 Gesetze für Roboter

 Ob die intelligenten Roboter, die auch ein Bewusstsein, Moral und Ethik haben, nun eine Dystopie oder eine Utopie sind – in vielerlei Hinsicht sind sie noch sehr weit weg. Es zeichnen sich jedoch schon erste Strömungen ab, die den Finger genau dorthin legen, wo es wehtut. Wie zum Beispiel Sexroboter-Firmen, etwa Real Doll in den USA, die – was die Haptik betrifft – extrem menschenähnliche Sexpuppen bauen. In wenigen Jahren sollen sie auch mit künstlicher Intelligenz ausgestattet sein. Einige von ihnen können schon sprechen, um dann Sätze zu sagen wie: „I am here to please you.“ Berechtigterweise stellt sich die Frage, ob das gut ist, wenn Menschen sich in so einem Umfeld bewegen, in dem sich zudem Menschliches mit Sachlichem vermischt.

Überhaupt wird das Zusammenwirken zwischen Menschen und Robotern immer alltäglicher. Deshalb haben die EU-Parlamentarier dieses Jahr einen Bericht verfasst, in dem sie die EU-Kommission aufgefordert haben, Regeln für Roboter zu definieren. Hier geht es vor allem um Haftungsregeln – wie etwa bei selbstfahrenden Autos im Falle eines Unfalls. Zudem sollen ein ethischer Verhaltenskodex und eine europäische Agentur für Robotik geschaffen werden. Die Ethik ist deshalb so wichtig, da es hier vor allem um Datenschutz und Sicherheitsfragen geht. Zudem solle die Menschenwürde im Design und in der Nutzung von Robotern respektiert werden. Im Endeffekt könne die Agentur den EU-Behörden in diesem Zusammenhang das notwendige technische, regulatorische und ethische Wissen zur Verfügung stellen. Umgesetzt sind diese Forderungen aus dem Februar noch nicht, doch sind diese ein erstes gutes Zeichen. Ob man hier auf das Durchsetzungsvermögen der EU-Parlamentarier hoffen darf, bleibt noch abzuwarten.

Up to Date

Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.

Surprise me

Intelligente Computer

Klassische Computertechnik stößt an fundamentale physikalische Grenzen. Der moderne Quantencomputer wird diese überwinden und läutet somit ein neues Technologie-Zeitalter ein.

Read more

Der Puzzlespieler

Für den Hacker George Hotz sind Regeln Nebensache. Mit seinem kalifornischen Start-up comma.ai werden nun Autofahrer zu Hackern.

Read more

Tee, Earl Grey, heiß

Bei Star Trek produziert der Replikator in Sekundenschnelle, was immer man essen möchte. Dank 3D-Druck ist diese Utopie heute ein wenig näher gerückt.

Read more

Utopie mit Zukunfts-aussichten

Eine Insel, auf der die Menschen ohne Privateigentum in durchorganisierten Groß-WGs zusammenleben und alle Teilzeit arbeiten – was sich wie das Leben in einem postmodernen Ökodorf anhört, ist in Wirklichkeit eine 500 Jahre alte Utopie.

Read more

Träumende Maschinen

Siri träumt von elektrischen Schafen, aber „nur manchmal“. Googles Deepdream halluziniert bunt vor sich hin – und auch Blade Runner Harrison Ford hat unruhige Nächte.

Read more

Durch die Röhre

Ein Transportsystem, das Menschen und Fracht in unterirdischen Kapseln befördert – mit Höchstgeschwindigkeiten bis zu 1.100 km/h. Das Verkehrssystem in der Stadt könnte somit revolutioniert werden. Allzu weit entfernt sind wir davon nicht.

Read more

Ex Machina

Robo Sapiens

Ein Roboter, der fühlt, denkt und interagiert. Das ist das Ziel von Hanson Robotics. In Hongkong forscht man eifrig daran, künstliche Intelligenz (KI) zu erschaffen.

Read more

Big Brother

Staatliche Überwachungssysteme werden nicht erst seit George Orwells „1984“ kontrovers diskutiert. China hebt die Kontrolle nun auf eine neue Stufe.

Read more