Facebook und Google als Vorreiter

Künstliche Intelligenz ersetzt den Menschen - oder?

29.08.2016 von Thomas Klauß
Thomas Klauss erörtert in diesem Artikel die Optionen, die der Menschheit durch die Entwicklungen in der Künstlichen Intelligenz (KI) und der Robotik bevorstehen. Er vertritt die Meinung, dass KI bei weitem nicht mit menschlicher gleichzusetzen ist - und vielleicht auf lange Sicht auch nicht sein wird.

Künstliche Intelligenz (KI), insbesondere das Teilgebiet maschinelles Lernen, ist eine der wichtigsten Grundlagen der modernen Robotik. Google beziehungsweise Alphabet und Facebook investieren zusammen Hunderte Millionen von Dollar in die Erforschung und Entwicklung lernender Maschinen. Die Jahre 2012/13 markieren einen entscheidenden Wendepunkt in der vorher etwas aus dem Blickfeld geratenen KI: Mit den ersten mehrschichtigen Neuronalen Netzen gelang ein großer Sprung in der Leistungsfähigkeit von Lernalgorithmen.

Maschinelles Lernen, lernende Maschinen

Der zurzeit wohl leistungsfähigste Lernalgorithmus ist der von Google akquirierte: "deep Q". 2016 gewann mit ihm die erste Maschine gegen den weltbesten Spieler im komplexen asiatischen Spiel Go - und zwar sehr deutlich. Der Großmeister meinte nach der Partie, Deep-Q könnte Go auch gegen sich selber spielen lassen und dabei noch besser werden, als wenn er mit Großmeistern trainiert werden würde. Go gilt als mathematisch-analytisch komplexestes Spiel der Welt (komplexer als Schach), bei dem aber auch Intuition und Kreativität eine Rolle spielen.

Welche KI-Systeme schon im Einsatz sind
Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste.
Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst.
Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde.
SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen.
Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen...
Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor.
Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.

Eine einfache Demo zeigt, wie ein vereinfachtes, auf dem Basisalgorithmus von Deep Q basierendes, lernendes neuronales Netz arbeitet: Ein Agent, beispielsweise die Roboter-Hand, führt eine Aktion in seiner Umwelt aus, wie etwa das Greifen eines Gegenstandes, und bekommt daraufhin eine Rückmeldung in Form des Greifergebnisses (erfolgreich oder daneben?).

Wie funktioniert KI
Foto: Thomas Klauss

Zusammen mit genaueren Zustandsbeschreibungen wie etwa, wo war die Position des Arms beim Greifen, was registrieren die Kameras des Roboters (drüber, links oder rechts daneben?), wird ein neuer Versuch gestartet. Für jede Aktion und Rückmeldung gibt es bestimmte Muster aktivierter Neuronen; Muster verstärken sich durch positive und schwächen sich durch negative Rückkopplungen.

Allgemeine Intelligenz ist nicht simulierbar

Aus Sicht der KI kann der Algorithmus auf beliebige Aufgaben angewandt werden, weil die Analyse der Daten unabhängig von der Art der Daten reagiert. Sie basiert ausschließlich auf deren mathematischer Anordnung. Nichtsdestotrotz müssen auch Maschinen mit State-of-the-art-Verfahren für bestimmte Aufgaben eingerichtet und trainiert werden. Sie können keine dem Menschen vergleichbare, allgemeine, flexible Intelligenz simulieren.

Können Algorithmen Bewusstsein generieren?

Ob solche Algorithmen in Zukunft autonom intelligent agieren könnten und am Ende gar so etwas wie Bewusstsein dabei herauskommt? Einige Ingenieure und ihnen nahestehende Hardliner unter den Naturwissenschaftlern wie Ray Kurzweil glauben das: Sie betrachten Geist und Bewusstsein als etwas, das "irgendwie" aus informationsverarbeitenden Systemen entsteht, wenn sie nur komplex genug sind. Dabei spiele es keine Rolle, ob diese Systeme künstlich von Menschen oder anderen Maschinen entstanden sind. Oder in Jahrmillionen aus der Evolution.

Sicher, Kurzweil hatte mit einigen Prognosen Recht. Die stützten sich aber alle auf eine exponentielle Steigerung von Rechenleistung. Bewusstsein ist jedoch kein Ergebnis von Rechenleistung, Big Data oder intelligenten Algorithmen. "‘Deus ex machina‘" ist ein antiker Mythos." (1)

Auch muss man Prognosen aus Richtung der Transhumanisten, zu denen auch Kurzweil zählt, mit Vorsicht interpretieren. Diese Gruppe betrachtet Geist und Bewusstsein nur als naturwissenschaftlich beschreibbare und somit potenziell simulierbare Phänomene. Mit diesem konstruktiven Ansatz operierende Projekte lassen sich leichter finanzieren. In diesem Sinne sind auch die in den USA zum Kulturgut gehörenden Weltveränderungsphilosophien zu verstehen.

Logisch denkbar? Wohl kaum.

Es spricht weit mehr dagegen, dass Maschinen Bewusstsein entwickeln können, als dafür. Man stelle sich vor, dass ein menschliches Hirn in der Lage sein sollte, eine komplette Kopie von sich selbst zu erstellen - logisch ist das nicht denkbar. Die Frage, ob und wie Maschinen denken lernen können, lässt sich ohne philosophische Grundannahmen nicht beantworten.

Von der künstlichen Intelligenz zum künstlichen Bewußtsein?

Die philosophische Richtung mit der größten Schnittmenge zur KI-Forschung - insbesondere der neuronalen Netze - ist der auch in der Hirnforschung verbreitete Radikale Konstruktivismus. Einer der Vertreter ist der Physiologie-Professor Humberto R. Maturana am Biological Computer Laboratory der Universität Illinois Ende 1970 mit seiner Arbeit "Biology of Cognition".

Demnach ist die sich uns darstellende Wirklichkeit ein rein kognitives Objekt, dem keine erfahrbare äußere Wirklichkeit entspricht. Mit anderen Worten: Wir leben mit und in einem Modell der Welt, das nur in uns und nicht außerhalb von uns zu finden ist. Wahrnehmung ist demnach nicht das Tor, durch das die Welt in uns eintritt, sondern genau anders herum: Unser Denken produziert Wahrnehmungen, die uns als Welt erscheinen. In "Matrix" wurde diese Philosophie verfilmt.

Freeform Dynamics "Intelligent Systems in Action"
Künstliche Intelligenz
Die Studie "Intelligent systems in action" des Marktforschers Freeform Dynamics entstand in Zusammenarbeit mit dem Softwarehersteller Ipswitch und basiert auf Angaben von 521 IT-Führungskräften.
Entscheiderposition
Insgesamt 38 Prozent der Befragten erklären, Initiativen rund um intelligente Systeme gingen grundsätzlich von der IT-Abteilung aus.
Einsatz im Betrieb
Bisher bezieht sich der Einsatz vor allem auf Vernetzung. Dabei stehen digitale Kundensysteme im Vordergrund.
Nutzung
Insgesamt 34 Prozent der Unternehmen sichern Dokumente automatisiert und 32 Prozent arbeiten mit regelbasierender Prozessautomatisierung.
Ängste der ITler
Knapp jeder Zweite fürchtet die Herrschaft der Maschinen, also einen Verlust von Kontrolle über die Systeme. Es könne der Zeitpunkt kommen, an dem niemand mehr die Logik der Systeme versteht. Mancher traut künstlicher Intelligenz „schelmische“ oder auch „schlitzohrige“ Absichten zu, die ins komplette Chaos führen könnten.
Zukunftsszenarien
Die Mehrheit der Befragten glaubt, dass etwa das vollständig selbstfahrende Auto noch bis zu zehn Jahren braucht, um sich durchzusetzen. Dass ein Computerwesen wie HAL 9000 aus dem Film "2001 A Space Odyssey" in zehn Jahren Normalität sein wird, halten die meisten Befragten allerdings nicht für realistisch.

Warum dieser Ansatz generell für die digitale Entwicklung prädestiniert ist, zeigt sich plastisch in den Entwicklungen zur Virtual und Augmented Reality: Erdachte Objekte werden unserer Wahrnehmung als reale vorgegaukelt. Diese Technologie simuliert somit einen Teil unserer Vorstellungs- und Wahrnehmungsfähigkeiten.

In der künstlichen Intelligenz versucht man, Virtualisierung auf bisher dem Menschen und zum Teil auch anderen Lebewesen vorbehaltene Fähigkeiten auszudehnen. Dazu gehören Denken (Kognition) und Lernen.

Ein geeignetes Weltmodell muss her

Um Computern respektive Robotern das Denken beizubringen, muss ihnen ein geeignetes Weltmodell eingegeben werden. Die Maschinen können nur mit einem Modell der Umwelt, in der sie sich bewegen und agieren sollen, funktionieren, dass exakt auf ihre algorithmischen und senso-motorischen Möglichkeiten abgestimmt ist. Die Grenzen des Modells sind die Grenzen ihrer Welt. Nicht nur der radikale Konstruktivismus entwirft ein hiermit vergleichbares Bild der menschlichen Kognition.

So gesehen könnte man bei diesen Systemen mit einiger Berechtigung von maschinellem Lernen und künstlicher Intelligenz sprechen.

Für ein sich selbst bewusstes Denken fehlt künstlichen Systemen gleich welcher Art allerdings etwas Grundsätzliches: Eine verschachtelte Meta-Reflexion über die Selbstwahrnehmung ist genauso wenig modellierbar, wie sich die natürliche Sprache aus künstlichen Metasprachen modellieren lässt. Menschen erreichen eine solche, im Prinzip unendlich verschachtelte, Reflexion unter anderem über die Reflexivität der natürlichen Sprache. Auch die Fähigkeiten, Vorstellungsbilder zu entwickeln ("Visionen") oder Erlebnisse und Erfahrungen im sozialen Kontakt mit anderen Menschen aufzunehmen, auszutauschen und gemeinsam zu verarbeiten, sind exklusive Möglichkeiten von sozialen Lebewesen.

Ohne eine sich selbst bewusste Wahrnehmung und reflektierte, soziale Erfahrung der Außenwelt fehlt die Grundlage für autonomes, zielgerichtetes Handeln. Diese ist jedoch Voraussetzung, um sich schnell und sicher in einem neuen Terrain bewegen zu können.

Stefan Schaal, Forschungsgruppenleiter am Max Planck Institut für Intelligente Systeme, fasst die Problematik für die Roboterentwicklung folgendermaßen zusammen: "Ich kann ein gutes Modell von meinem Roboter hinbekommen, nicht jedoch von einer unbekannten Umgebung. […] Alle Roboter scheitern in ungewohntem Terrain, weil sie im wahrsten Sinne des Wortes zu einfältig sind."

KI fehlen grundsätzliche Fähigkeiten

Künstlichen Intelligenzen fehlen grundlegende Fähigkeiten und Erfahrungen, die uns Menschen ermöglichen, in unbekannten Situationen plausibel zu handeln. Ihnen fehlen auch Millionen Jahre Entwicklungsgeschichte, die Menschen und andere Lebewesen mit angeborenen Kompetenzen ausgestattet hat. Dazu gehören die im Gehirn angelegten Fähigkeiten zu gehen oder unsere Hände flexibel, feinmotorisch und feinfühlig einzusetzen. Auch entwickelt unser Gehirn automatisch Heuristiken, die es uns erst ermöglichen, uns in einer Umgebung, die unzählbar viele Daten bereithält, zu orientieren, Entscheidungen zu treffen und in Sekundenbruchteilen zu handeln - etwa, wenn wir uns durch eine Großstadt bewegen.

Roboter scheitern schon daran, einfache Aufgaben in überschaubaren Umgebungen zu erledigen - etwa auf eine beliebige Tür zuzugehen und diese zu öffnen. Einen aktuellen und unterhaltsamen Einblick in die Leistungsfähigkeit von Robotern - vor allem deren Standfestigkeit - geben die Live Mitschnitte der Darpa Robotics Challange (2).

In der medizinischen Forschung setzt man zwar noch keine KI ein, aber etwa die Unterstützung durch Systeme wie IBMs Watson helfen bei der Diagnose. Foto: Klinikum Augsburg/ Ulrich Wirth
Foto: Klinikum Augsburg/Ulrich Wirth

Auch in den nächsten Jahren werden sich Roboter nicht alleine sicher durch ein Gebäude, geschweige denn durch eine Großstadt bewegen. Sie können nur für sie modellierte Gegenstände erkennen und (im Vergleich zum Menschen) langsam und unbeholfen greifen - allerdings nicht Gegenstände, auf die sie nicht vorbereitet wurden. Sie können sich nicht so mit Menschen unterhalten, wie es andere Menschen ab einem Alter von drei Jahren beherrschen - und vieles andere mehr.

Sinnlose Sichtweise

Computer werden per Definition nicht frei entscheiden können. Dies zumindest so lange nicht, wie sie an irgendeine Form von Programmierung - sei es eine elektronische oder biologische - gebunden sind. Auch wenn die Ergebnisse der Programmierung nicht vorhersehbar sind, darf das nicht mit Entscheidungsfreiheit verwechselt werden. Denn alle rechnerischen Optionen sind durch den Code festgelegt. Wäre der menschliche Geist bereits vollständig im genetischen Code festgelegt, wäre auch der Mensch nicht mehr als eine Biomaschine und damit ohne Verantwortung - eine Sichtweise, die alleine schon aus gesellschaftlichen Gründen keinen Sinn gibt.

Es ist im wahrsten Sinne also nur vernünftig anzunehmen, dass Maschinen in absehbarer Zeit oder überhaupt nicht in der Lage sein werden, wie Menschen zu denken, zu fühlen, zu handeln, zu glauben etc. Ansonsten würde etwa eine auf Verantwortung des Einzelnen basierende Gerichtsbarkeit, eine auf die natürliche Umgebung ausgerichtete Politik, Kunst und Kultur nicht mehr möglich.

Die logische, nicht mathematisch, Unmöglichkeit mit künstlichen Maschinen menschliches Bewusstsein nachzubilden, bedeutet jedoch nicht, dass es keine "starke KI" geben wird!

Maschinen sind auf einigen und werden auf noch vielen weiteren Gebieten leistungsfähiger sein, als Menschen. Im Prinzip können sie uns in allen Tätigkeiten, die sich formell eindeutig beschreiben lassen, überflügeln. Deshalb gibt es Experten, die an eine potenziell höhere Entwicklungsstufe der KI glauben. Das sind diejenigen, die in den mathematischen Gesetzmäßigkeiten, welche die Naturwissenschaft schafft, nicht nur Erklärungsmodelle sehen, sondern wahrhaftige (oder Gott gegebene) Naturgesetze.

Doch selbst wenn dies zutreffen sollte, würde es gesellschaftlich und ökonomisch mehr Sinn ergeben, die Tätigkeiten, für die Maschinen gebraucht werden, nicht genauso wie Menschen auszuführen. Vielmehr sollten sie dann auch weniger fehlerbehaftet, schneller, genauer, günstiger - kurz, einfach besser erledigt werden.

Die Beispiele aus der Mechanik zeigen, dass künstliche Fahr- und Flugapparate den lebendigen zumindest bezüglich Geschwindigkeit und Kraft überlegen sind, weil sie neue Flug- und Fahrmethoden umsetzen. Auf der anderen Seite gibt es noch immer keinen Motor, der die Energieeffizienz natürlicher Muskeln erreicht.

Literaturhinweise:

  1. [[Vgl Karl R. Popper, John C. Eccles: "Das Ich und sein Gehirn", Piper 1977 und Martin Carrier, Jürgen Mittelstraß: "Geist, Gehirn, Verhalten", Walter de Gruyter, 1989]]

  2. [http://www.theroboticschallenge.org/]], siehe [[http://live.curiositystream.com/]