Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.
Viele offene Rechtsfragen rund um Künstliche Intelligenz hat der Gesetzgeber bisher nicht beantwortet und wird es aller Vorrausicht nach auch nicht tun.
Künstliche Intelligenz (KI) hatte schon viele Gesichter: Zum Beispiel jenes des Super-Computers HAL 9000, der das Raumschiff Discovery im Science-Fiction-Klassiker „2001: Odyssee im Weltraum“ durch das All leitet oder das des Betriebssystems „Samantha“ im Film „Her“ , das zur Liebhaberin eines einsamen Großstädters wird.
Heute ist Künstliche Intelligenz nicht mehr nur eine Leinwand-Fantasie, sondern Teil unseres Alltags. Sie verändert Prozesse, unsere Arbeitswelt und das Leben im öffentlichen Raum. Viele rechtliche Fragen rund um Künstliche Intelligenz sind aber immer noch ungeklärt. Das ist brisant, denn zumindest die Frage nach der Haftung beim Fehlverhalten selbstlernender Systeme ist spätestens seit einem tödlichen Unfall im März 2018 mit einem selbstfahrenden Auto in unserem Alltag angekommen. Die faire Verteilung der Haftung bei derartigen Vorfällen sowie viele andere Rechtsfragen in Verbindung mit selbstlernenden Systemen sind noch nicht abschließend diskutiert. Ebenso kennen wir heute erst einen kleinen Teil der möglichen Anwendungsfälle.
Fest steht, dass selbstlernende Systeme oder Maschinen nicht Träger von Rechten und Pflichten sein können. Nach österreichischem Rechtsverständnis können dies nur natürliche oder juristische Personen sein. Dementsprechend müssen Fragen nach der Haftung oder den Rechten an „geistigen Schöpfungen“ bzw. einer „erfinderischen Tätigkeit“ zwischen Hersteller und Anwender ausgetragen werden. Aber schon die Frage nach der Herstellerhaftung ist nicht einfach zu beantworten, weil selbstlernende Systeme in der Regel aus einer Vielzahl von Hardware- und Softwarekomponenten bestehen. Den einen Hersteller gibt es also selten. Nur bei bestimmten Anwendungsfällen, vor allem bei selbstfahrenden Autos, können Spezialbestimmungen auch zur Haftung anderer Beteiligter (beispielsweise dem Halter des Autos) führen.
Beim tödlichen Unfall in Arizona kann man die Schuld beim Autofahrer suchen, der eingreifen und den Unfall verhindern hätte können. Dann wäre dieser unter Umständen den Hinterbliebenen des Opfers schadenersatzpflichtig. Oder es liegt im Verschulden des Herstellers, der die Software des selbstfahrenden Autos programmiert hat. Möglicherweise war aber auch der Sensor kausal für den Unfall oder die im Sensor verbaute Software (sogenannte „Firmware“), die diesen steuerte. Dies wird aber in der Regel nur mit sehr hohem technischen und damit finanziellen Aufwand nachweisbar sein.
Autos sind überdies grundsätzlich ein Sonderfall, was die Haftung betrifft: Im Gegensatz zu anderen Systemen mit Künstlicher Intelligenz kommt für sie die sogenannte „Halterhaftung“ in Frage. Hierbei handelt es sich um eine Gefährdungshaftung, die vom Verschulden unabhängig ist. Ihre Grundlage hat sie in der vom Betrieb eines Kraftfahrzeugs ausgehenden Gefahr. Halter ist, wer nach objektiven Gesichtspunkten die Verfügungsgewalt über das Fahrzeug innehat und es auf eigene Rechnung gebraucht, wobei eine gewisse Dauerhaftigkeit zu fordern ist. Eine Gebrauchsüberlassung für wenige Stunden oder Tage reicht für den Wechsel der Halterstellung nicht aus. Es ist davon auszugehen, dass diese Anspruchsgrundlage auch zur Halterhaftung bei selbstfahrenden Autos führen wird. Wie sich das auf die Hersteller letztlich auswirken wird – auch was Regressansprüche von Versicherungsunternehmen betrifft, die Halter versichern – kann aber noch nicht ernsthaft beurteilt werden.
„Alexa, das wollte ich nicht bestellen!“
Weniger drastisch sind Programmierfehler bei Home-Assistenten. Man stelle sich vor, der Sprachassistent Alexa hört beim Hauptabendprogramm im TV mit und legt aufgrund einer Aussage des Talkshow-Gasts ein Produkt in den eigenen Warenkorb. So geschehen 2017 mit Puppenhäusern in den USA. Wer haftet, wenn Alexa automatisch bestellt? Hier wird es in der Praxis darauf ankommen, ob eine Fehlfunktion oder -bedienung vorliegt. Im ersten Fall wird die Haftung primär den Hersteller oder eventuell den Verkäufer treffen, im zweiten Fall eher den Anwender.
Was Künstliche Intelligenz mit Tier-Selfies gemein hat
Unter dem Radar der öffentlichen Diskussion ist bisher die Frage geblieben, wem Arbeitsergebnisse gehören, die selbstlernende Systeme erbringen. Für Unternehmen ist sie aber relevant, was folgendes fiktives Szenario verdeutlicht: Eine Rechtsanwaltskanzlei trainiert ein LegalTech-System und investiert Arbeitszeit und Ressourcen, damit das selbstlernende System dazulernt. Diese Bemühungen zahlen sich aus, denn das System verbessert sich. Das freut auch den System-Hersteller, da er erwägt das LegalTech-System nun als „bessere Version“ des Ursprungssystems zu verkaufen. Darf der Hersteller das oder hat die Rechtsanwaltskanzlei exklusive Rechte, die sie am Arbeitsergebnis geltend machen kann?
Die Frage der rechtlichen Zuordnung von Arbeitsergebnissen fällt wie schon bei der Haftung nicht leicht aus. Diese Problematik ist vergleichbar mit der Frage nach der rechtlichen Zuordnung von Arbeitsergebnissen, die von Tieren geschaffen wurden. Denn Tiere haben nach der Rechtsordnung keine eigene Rechtspersönlichkeit. So ging etwa vor nicht allzu langer Zeit die Diskussion über ein von einem Affen geschossenes Selfie durch die Medien, was sogar zu einem Rechtsstreit zwischen dem Besitzer des Fotoapparats und der Tierschutzorganisation PETA über die Rechteinhaberschaft daran führte. Der Besitzer konnte den Streit letztendlich für sich entscheiden. Ähnlich gelagert ist auch der Fall rund um die malende und fotografierende Orang-Utan Dame Nonja aus dem Tiergarten Schönbrunn.
Rechtsvakuum zwischen Hersteller und Anwender
Zurück zur Frage: Wer ist nun der Urheber oder Erfinder, der in den Genuss der Ausschließungsrechte an den Arbeitsergebnissen kommt, wenn ein selbstlernendes System ein Arbeitsergebnis quasi eigenständig hervorbringt? Zunächst kann man behaupten, dass das durch das vom selbstlernenden System hervorgebrachte Arbeitsergebnis eigentlich bloß Folge der schöpferischen Leistung bzw. erfinderischen Tätigkeit jener Person ist, die die Logik hinter dem selbstlernenden System geschaffen hat. Damit wäre dies dem Hersteller zuzurechnen, der daher auch für das Endergebnis verantwortlich und zu dessen Verwertung bzw. Kommerzialisierung berechtigt sein sollte. Dem gegenüber steht das Argument, dass die Rechte an diesem Arbeitsergebnis viel eher jener Person zustehen sollten, die dem System einen konkreten Anstoß gegeben hat, das Arbeitsergebnis zu schaffen. Dazu gehören etwa die Einspeisung bestimmter Daten, eines bestimmten Fahrverhaltens oder die Konfrontation mit bestimmten Problemstellungen. Somit wäre der Anwender zur Verwertung legitimiert.
Oder sind sogar beide Miturheber/Miterfinder? Oder möglicherweise niemand, wenn der Beitrag dieser Personen zum Endergebnis so gering war, dass darin keine „geistige Schöpfung“ bzw. keine „erfinderische Tätigkeit“ erkannt werden kann – das System also praktisch eigenständig tätig war?
Die meisten der oben angerissenen Fragen hat der Gesetzgeber bisher nicht beantwortet und wird dies aller Voraussicht auch nicht tun. Es ist auch nicht seine Aufgabe, jede neue Technologie per Anlassfallgesetzgebung zu regeln. Vielmehr ist es Aufgabe der JuristInnen, angemessene Lösungsansätze zu entwickeln. In Streitfällen wird die Rechtsprechung korrigierend eingreifen. Es bleibt auf jeden Fall spannend im AI-Universum.
Die Autoren – Wolfgang Tichy und Michael Woller – sind beide Partner bei der Wirtschaftsrechtskanzlei Schönherr und auf den Bereich "new technologies" spezialisiert. Tichys Beratungsfokus liegt im IT-Recht (u.a. Softwareverträge), während Woller Unternehmen in den Bereichen Intellectual Property und Lauterkeitsrecht berät.
Opinions expressed by Forbes Contributors are their own.