• Artificial Intelligence

Roboterethik

Isaac Asimov hat mit „Ich, der Roboter“ schon vor über 60 Jahren die richtigen Fragen gestellt, wenn es darum geht, dass wir uns als Gesellschaft mit intelligenten Robotern auseinandersetzen müssen.

Im Film „I, Robot“ (2004) sind wir im Chicago der 2030er-Jahre. Roboter sind hochintelligent und dienen dem Menschen als Helfer und Arbeiter. Einer neuen Generation von ihnen wurden auch Emotionen eingebaut. Sie verhalten sich nach den drei Robotergesetzen Isaac Asimovs, dessen zusammenhängende Kurzgeschichten in „Ich, der Robot“ als Grundlage für den Film dienten.

In seinen Science-Fiction-Romanen wird deutlich: Asimov lässt die Frage nicht los, ob Maschinen so etwas wie ein Gewissen, eine Moral haben können. Demnach wirft er in seinen Kurzgeschichten einige Fragen auf, über die man lange nachdenken und diskutieren könnte. Womöglich ist das ein Grund, warum seine Werke von weltweiter Bekanntheit und zeitloser Relevanz sind.

Wie sieht es mit emotionalen Bindungen zwischen Robotern und Menschen aus? Dürfen Menschen Roboter lieben? Sind Roboter Gegenstände oder Lebewesen? Wo ist hier die Grenze? Treffen Roboter die richtigen Entscheidungen? Ist der Mensch in der Lage, die Parameter der Entscheidungsfindung so zu setzen, dass der Roboter überhaupt die richtigen treffen kann?

Menschen können nicht die richtigen Fragen stellen

Es zeichnet sich in Asimovs Geschichten folgendes ab: Der Mensch ist nicht imstande jeglichen möglichen Entscheidungsweg, den eine bestimmte Situation erfordert, zu antizipieren und dies entsprechend in eine Software umzusetzen. Roboter kommen zu anderen logischen Schlüssen, interpretieren Anweisungen anders. Solange Roboter kein Bewusstsein für Moral oder Ethik haben, fehlen ihnen aber die notwendigen Instrumente, um die richtigen Entscheidungen treffen zu können. In einer Geschichte etwa wird ein in einem sinkenden Auto ertrinkender Mann von einem Roboter gerettet. Bei einem kleinen Kind versucht er es in derselben Situation nicht einmal, da die von ihm berechnete Überlebenswahrscheinlichkeit des Kindes zu gering ist.

Die logische Schlussfolgerung wäre: Damit so etwas nicht passiert, müssen Maschinen intelligenter werden – sofern Roboter einen (dem Menschen nützlichen) Platz in der Gesellschaft haben und als Arbeiter oder Helfer zum Einsatz kommen sollen. Sogleich drängt sich aber eine unangenehme Befürchtung vor einem Kontrollverlust auf: Was geschieht, wenn die Roboter ihre kognitive Überlegenheit realisieren, weil sie ein Bewusstsein haben? Was, wenn nicht vollständig ausformulierte und in Software übersetzte Befehle wie „Schutz“ aufgrund mangelnder Präzision vom Roboter missinterpretiert werden? Asimov definierte deshalb in weiser Voraussicht bereits 1942 die „Grundregeln des Roboterdienstes“. Sie erschienen in einer der neun Kurzgeschichten, aus denen sein Science-Fiction-Roman „Ich, der Roboter“ besteht.

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen, es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Während die Roboter in Asimovs Geschichten weniger mit künstlicher Intelligenz (KI) zu tun haben, ist das im Film „I, Robot“ anders. Vor allem der Zentralcomputer V.I.K.I ist hochintelligent und kommt zu folgendem Schluss: Man kann jene Gesetze, die den Schutz des Menschen fordern, nur dann einhalten, wenn man die Menschen vor sich selbst schützt. Ansonsten würden sie Kriege führen und den Planeten zerstören. KI, vor allem ihre Funktionsweise und das Erschaffen einer echten (humanoiden) KI, beschäftigt Forscher schon seit Jahren immens. Und die Suche danach lässt die Grenzen zwischen Forschung, Wissenschaft und Science-Fiction verschwimmen. Das Undenkbare zu denken ist, was Asimovs Gesetze erst ermöglicht hatten – gleichzeitig dienen sie immer wieder als Grundlage der Diskussion rund um die Gefahren von KI. Auch Jaan Tallinn vom Future of Life Institute warnt vor einem allzu sorglosen Umgang mit künstlicher Intelligenz. Zu groß sei das Risiko, weil die Konsequenzen unvorhersehbar seien. Was, wenn wir gerade an unserem eigenen Ende arbeiten?

 Gesetze für Roboter

 Ob die intelligenten Roboter, die auch ein Bewusstsein, Moral und Ethik haben, nun eine Dystopie oder eine Utopie sind – in vielerlei Hinsicht sind sie noch sehr weit weg. Es zeichnen sich jedoch schon erste Strömungen ab, die den Finger genau dorthin legen, wo es wehtut. Wie zum Beispiel Sexroboter-Firmen, etwa Real Doll in den USA, die – was die Haptik betrifft – extrem menschenähnliche Sexpuppen bauen. In wenigen Jahren sollen sie auch mit künstlicher Intelligenz ausgestattet sein. Einige von ihnen können schon sprechen, um dann Sätze zu sagen wie: „I am here to please you.“ Berechtigterweise stellt sich die Frage, ob das gut ist, wenn Menschen sich in so einem Umfeld bewegen, in dem sich zudem Menschliches mit Sachlichem vermischt.

Überhaupt wird das Zusammenwirken zwischen Menschen und Robotern immer alltäglicher. Deshalb haben die EU-Parlamentarier dieses Jahr einen Bericht verfasst, in dem sie die EU-Kommission aufgefordert haben, Regeln für Roboter zu definieren. Hier geht es vor allem um Haftungsregeln – wie etwa bei selbstfahrenden Autos im Falle eines Unfalls. Zudem sollen ein ethischer Verhaltenskodex und eine europäische Agentur für Robotik geschaffen werden. Die Ethik ist deshalb so wichtig, da es hier vor allem um Datenschutz und Sicherheitsfragen geht. Zudem solle die Menschenwürde im Design und in der Nutzung von Robotern respektiert werden. Im Endeffekt könne die Agentur den EU-Behörden in diesem Zusammenhang das notwendige technische, regulatorische und ethische Wissen zur Verfügung stellen. Umgesetzt sind diese Forderungen aus dem Februar noch nicht, doch sind diese ein erstes gutes Zeichen. Ob man hier auf das Durchsetzungsvermögen der EU-Parlamentarier hoffen darf, bleibt noch abzuwarten.

Up to Date

Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.

Surprise me

Ungewöhnlicher Utopist

Die Ideen, auf denen die Digitalwährung Bitcoin basiert, erschienen 2009 scheinbar aus dem Nichts. Doch Schriftsteller erdachten das Konzept ansatzweise bereits zuvor. Dennoch wurde ein anderer Wegbereiter zum ungewöhnlichen Star der Szene: Friedrich August von Hayek.

Read more

Für jeden das Gleiche

In Finnland befindet sich das bedingungslose Grundeinkommen in einer Testphase. Im Silicon Valley wird es ebenfalls von mehreren Seiten befürwortet. Doch was wird dadurch wirklich besser?

Read more

Speed it up

Interstellare Flüge zu einem anderen Sternensystem: Das ist die große Vision der internationalen Weltraumgemeinschaft. Die derzeitigen Antriebssysteme sind aber noch zu schwach, um dies zu ermöglichen. Wie lange noch?

Read more

Alles smart

In Smart Cities steht die Nutzung von Daten im Mittelpunkt. Der Bürger hat hier oftmals wenig Einblick. Wie lange noch?

Read more

Riesenschritte

Seine „Star Wars“-Auftritte sind weltberühmt. Frech und schrill macht der Droide R2-D2 auf sich aufmerksam. Dabei übernimmt er auch wichtige Mechaniker- und Reinigungstätigkeiten für die Raumflotte. Wie viele Industrieroboter machen das heutzutage?

Read more

Träumende Maschinen

Siri träumt von elektrischen Schafen, aber „nur manchmal“. Googles Deepdream halluziniert bunt vor sich hin – und auch Blade Runner Harrison Ford hat unruhige Nächte.

Read more

Antworten aus der Vergangenheit

„Digitale“ Visionen von Marx, Keynes und Schumpeter: Jenseits der Zukunft der Arbeit.

Read more

Inequality

Die Kluft zwischen Arm und Reich wird besonders in den USA größer – aber leben die Top-Ein-Prozent der Einkommensverteilung auf Kosten der unteren 99 Prozent?

Read more