Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.
Lernende Maschinen rufen in den Köpfen der Menschen gleichermaßen Traum- wie Horrorszenarien hervor. Auch die Popkultur befeuert diese Vorstellungen. Doch was ist von maschinellem Lernen in Zukunft wirklich zu erwarten?
Es hätte so perfekt sein können. Einen kurzen Zeitraum verbrachten Theodore Twombly und seine Samantha scheinbar auf dem exakt gleichen kognitiven und emotionalen Niveau. Die – zugegeben unkonventionelle – Beziehung der beiden war durchwegs harmonisch. Doch das Glück des im Spielfilm „Her“ von Joaquin Phoenix verkörperten Twombly und der von Scarlett Johansson gesprochenen Samantha sollte nicht andauern.
Denn Twombly ist ein Mensch aus Fleisch und Blut, Samantha hingegen ein künstlich intelligentes Betriebssystem – aus Nullen und Einsen. Und diese künstliche Intelligenz (KI) entwickelt ihre Fähigkeiten im Verlauf des Films so rasant weiter, dass sie den ursprünglichen emotionalen Rückstand gegenüber ihrem Liebhaber im Handumdrehen aufholt. Das Beziehungsende tritt ein, als Twombly erfährt, dass Samantha parallel zur Beziehung zu ihm sage und schreibe 8.316 andere führt – zusätzlich zu zahlreichen „Liebschaften“ mit anderen Betriebssystemen. Und gerade diese Beziehungen zu den Maschinen entwickeln sich ebenfalls weiter – so weit, dass sich Samantha mit ihnen gar in eine andere Seinsebene verabschieden will. Ein Jahr, in dem die Handlung des Dramas stattfindet, wählte Regisseur Spike Jonze nicht – womöglich bewusst. In Handlungsbeschreibungen ist stets nur von der „nahen Zukunft“ die Rede. Doch wie nah ist eine Zukunft, in der Maschinen unser Wissen und unsere Fähigkeiten – auch in Sachen Liebe – übertreffen?
Auch heute scheint sich unsere Gesellschaft nicht im Klaren darüber zu sein, wie wir mit der zunehmenden Lernfähigkeit von Maschinen umgehen sollen. Dabei pendelt die öffentliche Diskussion zwischen utopischen Vorstellungen einer Superintelligenz und Horrorszenarien à la Terminator, die uns auslöschen könnten. Schlagzeilen machte 2015 ein in diesem Zusammenhang verfasster offener Brief, in dem zahlreiche prominente Persönlichkeiten, unter ihnen Apple-Mitgründer Steve Wozniak, Tesla-Chef Elon Musk sowie Astrophysiker Stephen Hawking, eine Warnung aussprachen. Sie warnten – laut einigen Medienberichten – mit Nachdruck davor, dass künstliche Intelligenz mit großer Wahrscheinlichkeit das „Ende der Menschheit“ bedeuten würde. Die Wahrheit ist dann weit weniger spektakulär: Musk, Hawking und Co. hatten in dem Brief nämlich das große Potenzial der künstlichen Intelligenz explizit gelobt, etwa bei der Bekämpfung von Armut oder Krankheiten. Doch sie halten die Forschung auch an, nichts zu erschaffen, „was nicht kontrolliert werden kann“ und fordern eine Auseinandersetzung mit Auswirkungen solcher Technologien auf die Gesellschaft, was ja durchaus plausibel und sinnvoll klingt. Auch der prominente Neurowissenschaftler Sam Harris warnt davor, die Kontrolle über künstliche Intelligenz zu verlieren.
Wovor haben diese kritischen Stimmen Angst? Beginnen wir am Anfang: Lange Zeit trat künstliche Intelligenz öffentlichkeitswirksam vor allem als – bald überlegener – Gegner in (Brett-)Spielen auf. Egal ob Schach, das chinesische Brettspiel Go oder Jeopardy – Computer besiegten Menschen stets bei solchen Spielen. Doch selbst in den komplexesten Spielen sind die Regeln festgelegt, die Abstraktion unserer Realität also stark eingeschränkt. Doch maschinelles Lernen macht auch denkbar, was lange Zeit für unmöglich gehalten wurde: Dass Maschinen Beispiele nicht nur auswendig lernen können, sondern in ihnen Muster und Gesetzmäßigkeiten erkennen und somit aus den Beispielen lernen. Sprich: Die Maschinen lernen aus ihren eigenen Erkenntnissen. Das eröffnet Traumvorstellungen, wonach die Menschen sich kreativen Aufgaben widmen können, während Computer mühselige Basisarbeit übernehmen. Oder, wie oben erwähnt: Horrorszenarien. Doch weshalb? Wie genau funktioniert maschinelles Lernen überhaupt?
Emmanuel Mogenet, Leiter von Google Research Europe in Zürich, erklärt das Vorgehen: „Können Menschen erklären, anhand welches ‚Rezepts‘ sie eine Katze erkennen? Das kann niemand, wir tun dies instinktiv. Alle ‚alten‘ Fähigkeiten, die man programmieren kann, sind gelöst. Alle Fähigkeiten jedoch, die wir Menschen nicht genau beschreiben können, konnten wir bis vor Kurzem noch gar nicht nachbilden. Wie man sich fortbewegt, wie man einen Freund erkennt, oder etwa den Stil von Van Gogh zu imitieren. Durch Deep Learning können wir das nun. Und wir tun das durch Vorzeigen von Beispielen. Wir zeigen der Maschine also Bilder und sagen ihr, ob sich eine Katze auf den Fotos befindet – oder eben nicht. So fängt die Maschine an, zu lernen. Nach einer Zeit spuckt sie die richtigen Antworten aus. Erst nur zu Bildern, die sie bereits kennt – später kann der Computer aber auf ihm zuvor unbekannten Bildern Katzen erkennen.“
Computer werden gefüttert
Dieses Vorgehen nennt sich „überwachtes Lernen“ – was mittlerweile gut funktioniert. Vielmehr ist es das „unüberwachte Lernen“, das die Wissenschaft vor Fragen stellt. Denn Menschen müssen Computer und Algorithmen mit Beispielen „füttern“, um ihnen eine Wissensbasis zu geben. Da die Beispiele, aus denen die Computer lernen, jedoch klarerweise von Menschen produziert werden, sind dem Menschen unmögliche Dinge auch für Maschinen noch nicht durchführbar. Etwa die Diagnose einer dem Menschen heute noch unbekannten Krankheit.
Joachim Buhmann, Leiter des Instituts für Maschinelles Lernen an der ETH Zürich, dazu: „Die Technologie ist sehr gut dort, wo wir dem Algorithmus vormachen können, was er zu tun hat. Wenn der Algorithmus unabhängig ein Programm erfinden muss, das hohe Prädiktivität bezüglich einer Interpretation von Daten hat – sprich, der Algorithmus soll eine Daten- in eine Interpretationswelt abbilden, die unser Problem lösen kann –, dann haben wir große Schwierigkeiten. Und zwar immer dann, wenn der Mensch nicht vormachen kann, wie das auszusehen hat.“
Buhmann warnt auch davor, sich von den zweifellos großen Fortschritten der letzten Zeit hinsichtlich des Potenzials von Maschinen täuschen zu lassen: „Es gibt diese Fantasien von der ‚Superintelligenz‘. Ich bin da aber skeptisch. Denn man tut immer so, als ob die künstliche Intelligenz mit dieser ungeheuren Datenmasse, die sie verarbeiten und mit den sehr komplexen Modellen, die sie aufbauen kann, alle Fragen vernünftig beantwortet. Das ist aber mitnichten klar. Denn es wird immer Situationen geben, in denen kleine Änderungen große Auswirkungen haben.“
Dass wir uns nun Hilfe von Maschinen holen, die auch entscheiden können, halte ich nur für angemessen.
(Joachim Buhmann)
Buhmann nennt als Beispiel die vergangene US-Präsidentschaftswahl, wo scheinbar minimale Einflüsse einen riesigen Unterschied ausmachten. Manche Dinge seien laut dem Forscher schlicht nicht prognostizierbar. Trotz dieser Ansichten erhofft sich Buhmann aber viel von den Fortschritten, die auch an seiner Universität vorangetrieben werden. Laut dem Experten würden die Menschen ihre Hardware, die sich von der unseres Vorfahren – dem Homo sapiens sapiens – auch heute nur unwesentlich unterscheide, ziemlich strapazieren. „Dass wir uns nun Hilfe von Maschinen holen, die auch entscheiden können, halte ich nur für angemessen. Ich setze riesige Hoffnungen in diese Technologie. Und zwar nicht, weil ich glaube, dass ihre Probleme gering sind. Sondern, weil ich denke, dass die Probleme der Menschheit so gigantisch sind, dass das die einzige Hoffnung ist.“
Eine ähnliche Meinung vertreten auch Großkonzerne, Start-ups und Regierungen. Laut einem Bericht von McKinsey investierten 2016 alleine Tech-Giganten wie Google und Baidu rund 30 Milliarden US-$ in künstliche Intelligenz. Davon flossen 90 Prozent in Forschung und Entwicklung, zehn Prozent in den Einsatz der Technologien.
Das zeigt, dass es auf dem Weg zu dem – vielleicht unerreichbaren – Ziel der Superintelligenzen noch einige Zwischenschritte braucht. Denn Maschinen sind in Teilbereichen schlauer als der Mensch. Doch die umfassenden kognitiven Fähigkeiten, die Menschen besitzen, machen es extrem schwierig, Konzepte wie „Common Sense“ in Maschinen umzusetzen.
Maschinen müssen die Welt, in der wir leben, erst verstehen.
(Emmanuel Mogenet)
Salopp gesagt werden Maschinen nicht schlauer, eher weniger dumm. Emmanuel Mogenet will in seiner Zeit bei Google Zürich diese Nuss knacken: „Ich will ‚Common Sense‘ lösen. Wir beide sprechen miteinander, wir verstehen uns. Das können wir, weil wir beide ein bestimmtes Modell der Welt teilen. Maschinen müssen die Welt, in der wir leben, erst verstehen. Ich möchte Computern gesunden Menschenverstand beibringen – einen Assistenten, der unsere Lebensumstände versteht. Das ist ein langfristiges Forschungsprogramm. Wir sprechen hier von fünf bis zehn Jahren, um lediglich an der Oberfläche zu kratzen.“
Von Systemen, die nicht nur die Lebensumstände, sondern auch die Gefühlswelt eines Menschen verstehen und in ihren Fähigkeiten dann sogar übertreffen, sind wir also noch ein gutes Stück weit entfernt. Dass die Geschwindigkeit des Fortschritts unsere Welt aber vor soziale, politische, kulturelle und vor allem auch ethische Fragen stellen wird, ist klar. So spricht Buhmann auch davon, dass die Verbesserung der „Symbiose zwischen Mensch und Maschine“ die Wissenschaft wohl die nächsten Dekaden noch „gut beschäftigen“ wird.
Bis dahin ist es jedoch beruhigend, zu wissen, dass wir uns um „seitenspringende“ Betriebssysteme wie „Samantha“ oder Killermaschinen wie „Terminator“ keine Sorgen machen müssen.