KI und menschliches Denken – Teil 1

Künstliche Intelligenz macht rasante Fortschritte und es gibt viele verschiedene Ansichten was möglich ist und was nicht. KI wird für spezielle Themen verwendet und hat viele, teilweise phantastisch klingende Anwendungsfelder. Wir wollen uns um die Frage kümmern, wie menschenähnliche KI auszusehen hätte und welche Hindernisse bestehen. Bisher sind ML (Machine Learning) und KI in Gebieten mit klaren Regeln und Strukturen in der Lage bemerkenswerte Resultate zu erzielen. Ein gutes Beispiel dafür ist AlphaGo. AlphaGo ist ein KI-Programm, das Go (ein Chinesisches Brettspiel) spielt. Go ist im Vergleich zu Schach wesentlich schwieriger zu berechnen und daher mit Algorithmen, die sich lediglich auf das Berechnen von Stellungen und Zügen beschränken bisher nicht gut lösbar. Go Programme ohne KI, in denen Handlungen rigide vorprogrammiert sind, unterliegen bisher noch immer guten menschlichen Spielern. AlphaGo hingegen besiegt zuverlässig die besten Spieler, die die Menschheit zu bieten hat. Dies hat es durch extrem viele Spiele „gegen sich selbst“ gelernt. Heißt das, es ist nur noch ein kurzer Weg, bis KI dem Menschen in jeder Hinsicht überlegen ist? Die Antwort ist erst einmal NEIN!

Grenzen von KI

Es stellen sich verschiedene Fragen, deren Antworten keineswegs trivial sind. Wenn wir ML als einen Prozess verstehen, der eine Eingabe in ein Ergebnis transformiert, so stellt sich zunächst die Frage, ob die Realität immer in Form einer Eingabe darstellbar ist. Um in jeder Situation optimal funktionieren zu können muss jede Situation als Eingabe darstellbar sein. Aktuell ist allerdings ein Input immer diskret und mit beschränkter Größe. Dies ist notwendig damit die KI überhaupt die Situation erkennen kann. Diese Annahme ist alles andere als trivial und es ist nicht klar ob sie erfüllt werden kann.

Menschen denken häufig in der Form von Wertigkeit. Die Realität wird nicht bloß als Summe von abstrakten Informationen wahrgenommen ([Dreyfus] Kapitel 7). Ein gutes Beispiel ist dafür das des Tisches. Man könnte sagen alles, was vier Stützen und eine flache Oberfläche hat ist ein Tisch. Ist das korrekt oder ausschöpfend? Egal wie diese Definition ausfällt ist es schwer alle jenes, das für einen Mensch als Tisch funktionieren kann, damit zu beschreiben. Der Punkt ist, dass der Mensch Gegenständen Tischcharakter verleiht. Dies kann kaum als intrinsischer Wert eines Gegenstandes verstanden werden. Maschinen sind allerdings bisher noch nicht zu einer solchen Weltanschauung fähig. Der Maschine müsste eine klare Liste von Eigenschaften gegeben werden, um einen Tisch zu erkennen. Im Endeffekt heißt das, dass die menschliche Realität durch subjektive Wertigkeiten geprägt ist und das Funktionieren und Handeln des Menschen klar davon bedingt ist.

Jedes dieser Probleme birgt wieder neue interessante Fragen. Können wir Maschinen beibringen in diesen Punkten wie Menschen zu denken? Ist es möglich, Wertesysteme zu programmieren, die den menschlichen entsprechen? Welche philosophischen Fragen müssten dafür geklärt werden? Wie könnte man einem Computer beibringen Empathie zu emulieren? Gibt es Betrachtungsweisen, die eine verlustarme Diskretisierung und Beschränkung der Realität zulassen?

Ein anderes Problem ist, dass graduelle Fortschritte nicht immer den richtigen Weg ebnen. In diesem Zusammenhang könnte man sage, dass der erste Mensch, der einen Baum erklimmt, greifbaren Fortschritt in Richtung Mond gemacht hätte ([Dreyfus] s. 100).

Erfahren Sie in Kürze – in Teil 2 dieses Beitrags – wann KI maximalen Nutzen bringen kann, wie es sich mit der KI-Bewusstseinsfrage verhält und was es mit der Singularität auf sich hat.

About Author: Samuel Willingham, broker2clouds

Quellen
[Dreyfus] Dreyfus, Hubert L. What Computers still can’t do: A Critique of Artificial Reason, The MIT Press, 1992

Bildnachweise für diesen Beitrag:
© Mint_Images – elements.envato.com
© LightFieldStudios – elements.envato.com