Bild via Pixabay under CC0 Licence
Egal ob Skynets Terminator, Agent Smith aus Matrix, ARIIA aus Eagle Eye oder Hal aus Space Odyssey – sie alle haben zwei Dinge gemeinsam: Es sind künstliche Intelligenzen (kurz: KI) und sie sind durch und durch böse.
Es sieht so aus, als ob sich die Popkultur ein klares Urteil gebildet hat. Die Mikrochips wollen uns an den Kragen. Aber wollen sie das wirklich?
Die Realität ist, dass schon heute KIs vielfältig im Einsatz sind. Die Rückwärtseinparkhilfe unserer Autos, der Autopilot von Flugzeugen, Spam-Filter von E-Mail-Anbietern, die Auto-Vervollständigung von Suchanfragen, Hochfrequenzhandel an der Börse und vor allem unsere Smartphones sind alles Beispiele von sogenannter begrenzter KI.
Künstliche Intelligenz ist unter uns
Eine begrenzte KI kann eine bestimmte Sache genauso gut oder besser, als ein Mensch. Während wir uns zwar bei solchen Anwendungen durchaus fragen, was wohl mit unseren Daten geschehen mag, haben wir doch keine Angst davor, dass sie unser Ende sein werden. Im Gegenteil. Oft fällt uns nicht einmal auf, dass es sich um KI handelt, die uns hilft. Der Erfinder des Begriffs, John McCarthy, sagte mal, dass es niemand mehr KI nennt, sobald es funktioniert und hilfreich ist. Und in der Tat – ganz leugnen lässt sich dieser Fakt nicht.
Grenzen der Künstlichen Intelligenz?
Begrenzte KIs helfen uns in vielen Lebensdingen, sie sind schlichtweg praktisch. Doch wo liegen die Grenzen von begrenzter KI?
AlphaGo, ein Programm, das mit der KI von Google funktioniert, hat erst neulich Lee Sedol, den besten Go-Spieler der Welt geschlagen. Go gilt als das schwierigste Brettspiel der Welt und ist damit ein guter Test, um zu sehen, wie sehr eine Maschine dem logischen Denken von Menschen folgen kann. Experten nahmen an, dass es noch Jahre dauern wird, bis eine Maschine zum ersten Mal einen Menschen schlägt.
Nur wenige Wochen zuvor jedoch hat ein anderes Google-Projekt für Gesprächsstoff versorgt. „Android träumt von elektronischen Schafen“ oder „Computer auf LSD“ titelten viele Medien. Worum ging es? Google hatte erste Ergebnisse einer bizarren Bildinterpretation ihrer KI veröffentlicht. Die KI sollte lernen, Bildelemente, etwa Bananen, zu erkennen. Um zu überprüfen, wie gut das funktioniert, haben die Entwickler dann die KI angewiesen Bilder solcher Objekte zu rekonstruieren, inklusive ihrer Umgebung. Das Ergebnis ist hinlänglich bekannt, der Versuch darf als gescheitert gelten.
Anders ausgedrückt: KI fällt es leicht, in jenen Dingen besser zu sein, die uns schwerfallen – etwa bei Spielen wie Schach, bei denen es ratsam ist viele Züge im Voraus zu denken. Dafür fällt es ihr um so schwerer jene Dinge zu tun, die wir mühelos schaffen, etwa eine Birke vor einem See oder eine Tanne im tiefen Nadelwald jeweils als Bäume zu erkennen.
KIs sind noch keine menschlichen Gehirne
Forscher versuchen dieses Problem auf unterschiedliche Weise zu lösen. Der Ansatz unser Gehirn nachzubauen, ist aktuell noch nicht sehr weit fortgeschritten. Wir sind gerade mal bei dem Gehirn eines Plattwurms. Zum Vergleich: Ein Plattwurmgehirn hat 302 Neuronen. Unseres macht auch bei 100 Milliarden noch nicht ganz Halt.
All das klingt noch nicht so, als ob man sich Sorgen machen müsste. Haben also Elon Musk, Bill Gates und Stephen Hawking unrecht, wenn sie vor den Möglichkeiten von KI warnen? Nein. Der Grund dafür ist unser eigenes Gehirn. Der schnellste Super-Computer der Welt hat gerade kürzlich erst dieselbe RPS-Anzahl (Rechenoperationen pro Sekunde) erreicht, wie unser Gehirn, wenn man dem Zukunftsforscher Ray Kurzweil Glauben schenken darf. Allerdings benötigt er auch 720m² Platz, kostet 390 Millionen Dollar und bedarf ganzer 24 Megawatt. Zum Vergleich: Das Gehirn benötigt gerade mal 20 Watt.
Das bedeutet, dass der menschliche Kopf aktuell immer noch die effizienteste und effektivste Denkmaschine auf Erden ist. Mit diesem Werkzeug haben wir es geschafft technologisch exponentielle Sprünge zu machen. So besagt etwa Moores Gesetz, dass sich die Rechenkraft unserer Computer alle zwei Jahre verdoppelt. Wir sprechen also von exponentiellem Wachstum, was bedeutet, dass wir unserem Ziel um so schneller näher kommen, je näher wir dran sind. Je mehr Rechenkraft wir zur Verfügung haben und je weniger sie uns kosten wird, desto mehr Versuche können wir starten, um herauszufinden, wie wir eine KI bauen müssen, damit sie nicht länger nur limitierte Aufgaben gut erledigen kann. Es ist also bereits so gut wie sicher, dass wir eines Tages eine generelle KI erschaffen können. Das ist eine KI, die durch die Bank weg so klug ist, wie ein Mensch.
Sobald wir das geschafft haben, ist der nächste Schritt eine Super-KI. Eine Super-KI ist eine KI, die intelligenter ist, als wir. Haben wir erst einmal eine generelle KI geschaffen, welche sich selbstständig verbessert, dann ist der Weg zur Super-KI nicht mehr weit. Die Rechenkraft wird weiterhin steigern, der Platzbedarf sinken. Unsere Smartphones sind ein guter Beleg dafür. Sie haben weitaus mehr Rechenkraft als ein alter Atari, sind aber um ein Vielfaches kleiner.
KI hat keinen Überlebensdrang – oder doch?
Die gute und gleichzeitig schlechte Nachricht ist, dass eine Super-KI keine intrinsische Motivation hat. Während wir Menschen etwa einen Überlebenstrieb haben, hat den eine KI nicht. Sie würde also auch gegen ihre eigene Zerlegung nicht viel haben. Das bedeutet auch, dass eine KI nicht von Natur aus böse sein oder hassen kann.
Wir könnten eine Super-KI nutzen, um Krankheiten zu bekämpfen, globale Erwärmung zu stoppen und viele weitere Dinge in Angriff zu nehmen, die uns das Leben leichter machen würden. Allerdings müssen wir sicherstellen, dass unsere Super-KI nicht zu dem Schluss kommt, dass ein bestimmtes Ziel ganz hervorragend zu erreichen ist, indem Menschen verletzt, eingesperrt oder anderweitig zwanghaft eingeschränkt werden. Auf den ersten Blick ist das recht einfach. Doch was machen wir, wenn die so kluge KI auf Ideen kommt, die wir gar nicht in Betracht gezogen haben? Da liegt das Problem, das Hawking und Co. zu recht beschäftigt.
Genau diese Problematik spiegelt auch der 2015 erschienene britische Spielfilm Ex Machina wider, in dem ein Forscher eine menschenähnliche KI namens Ava in einen robotischen Körper einsetzt. In einem einwöchigen Test will er feststellen, ob Ava ein dem Menschen gleichwertiges Denkvermögen hat. Dazu arrangiert er ein Katz- und Mausspiel, in dem Ava einen Menschen dazu überreden soll ihr bei der Flucht aus dem Forschungskomplex zu helfen. Am Ende ist einer der beiden Forscher tot, der andere hoffnungslos eingesperrt und Ava frei. So hatte sich der Forscher das sicherlich nicht vorgestellt.
KI + X als Zukunftsformel?
Allerdings nahm man einst an, daß Autos so viele Unfälle verursachen werden, daß sie den Geschwindigkeitsvorteil nicht wert sind. Telefonen wurde unterstellt, dass sie das Ende von gemeinsamem, menschlichem Austausch im selben Raum darstellen, sodass soziale Beziehungen verkümmern. So gekommen ist es nicht, aber vielleicht nur, weil es diese warnenden Stimmen gab. Fest steht: Das Thema lässt sich nicht mehr ignorieren. Viele erfolgreiche Unternehmen von morgen werden nach dem Prinzip „KI + Thema X“ angelegt sein. Wie wir dann mit den Möglichkeiten umgehen, das wird die große Frage sein.