Stephen Hawking über Artificial Intelligence

Hawking: AI ist das Beste für die Menschen - oder das Schlechteste

23.11.2016
Der weltweit bekannte Physiker Stephen Hawking hat sich zu den Potenzialen der Künstlichen Intelligenz (KI) geäußert. Er kommt zu einem zwiespältigen Urteil. Artificial Intelligence (AI) werde entweder "das Beste sein, das der Menschheit passieren kann. Oder das Schlechteste." Wohin das Pendel ausschlagen wird, wisse man heute noch nicht.

Hawking sprach anlässlich der Eröffnung des Leverhulme Centre for the Future of Intelligence (CFI) am 19. Oktober 2016. Neben Hawking hielt auch die AI-Pionierin Professor Maggie Boden eine Rede. Boden sagte, AI sei "extrem aufregend". KI-Anwendungen könnten dabei helfen, wichtige soziale Probleme zu lösen und Aufgaben des alltäglichen Lebens zu bewältigen. Zudem habe AI die Wissenschaften in verschiedener Hinsicht fundamental weiterentwickelt. Aber, warnt Boden, KI habe Limitierungen. Die unkritische Nutzung von künstlicher Intelligenz berge erhebliche Gefahren. Das CFI leiste einen Beitrag, genau diesen Gefährdungen vorzubeugen, indem es die AI-Entwicklungen in menschenfreundlicher Weise befördere.

Wichtig für die Zukunft unserer Zivilisation

Hawking, der schon früher neben Micrsoftgründer Bill Gates, Tesla-Chef Elon Musk und Apple-Mitbegründer Steve Wozniak vor den Folgen unkontrollierter AI-Entwicklung warnte, lobte die Gründung des CFI. Ein akademisches Institut, das sich dezidiert der Forschung über die Zukunft der AI widme, sei "wichtig für die Zukunft unserer Zivilisation und der menschlichen Spezies," zitiert der "Guardian" den theoretischen Physiker.

Stephen Hawking sieht die Potenziale der AI. Er warnt aber auch vor ungewünschten Folgen.
Foto: Danor Aharon - shutterstock.com

Geschichte der Dummheiten

Hawking, nie verlegen um deutliche Ansagen, meinte, die Menschheit beschäftige sich schon lange und intensiv damit, Geschichte zu studieren: "Aber mal ehrlich, allermeistens ist das die Geschichte der Dummheiten." Da sei es doch sehr willkommen, wenn sich Menschen stattdessen einmal mit der Zukunft der Intelligenz befassen würden.

Hawking hatte sich in der Vergangenheit meistens zurückhaltend zu den Potenzialen der AI geäußert. Diese berge potenziell das Risiko, dass die Menschheit sich selbst zerstöre, indem sie eine Superintelligenz mit eigenem Willen schaffe. Anlässlich der Eröffnung des CFI schlug er nun aber auch positive Töne an.

Ganz real im Einsatz sind bereits einige auf KI-Techniken setzende Systeme.
Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste.
Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst.
Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde.
SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen.
Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen...
Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor.
Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.

Kann AI Krankheiten und Armut beseitigen?

Die Potenziale der Artificial Intelligence, so Hawking, seien enorm. Zwar wisse man heute noch nicht, was die Menschheit sich selbst schaffe, wenn sie ihre eigenen geistigen Befähigungen durch künstliche Intelligenz verstärke. Vielleicht könne man mit den Werkzeugen dieser neuen technischen Revolution (Hawking meinte die AI) einige der Schäden wieder beseitigen, die die vorherige industrielle Revolution der Natur angetan habe. Ganz sicher ziele man mit der KI-Entwicklung aber darauf, Krankheiten und Armut zu beseitigen.

Über eins ließ Hawking die Zuhörer nicht im Unklaren: Durch AI "wird sich jeder Aspekt unseres Lebens verändern." Und weiter: "Um es kurz zu machen: Erfolge bei der Entwicklung von AI könnten das größte Ereignis in der Geschichte der Zivilisation sein."

Schon Realität: Roboter Pepper war der Star auf der CeBIT 2016. Er konnte mit Menschen parlieren und Auskünfte geben. In Japan werden solche und ähnliche Systeme bereits in Hotels am Empfang und als Bedienungen in Restaurants eingesetzt.
Foto: Emma Innocenti

Margaret Boden, die Professorin für Kognitive Wissenschaften an der Universität Sussex ist, betonte die Bedeutung, die die öffentliche Diskussion über AI mittlerweile genieße. Noch im Jahr 2009 habe kaum jemand, "nicht einmal AI-Experten", das KI-Thema ernst genommen.

Huw Price, Direktor des CFI und Bertrand-Russell-Professor der Philosophie an der Cambridge University (an der auch Hawking arbeitet) sagte, das CFI sei zumindest teilweise geboren worden aus dem bereits an der Universität bestehenden Centre for Existential Risk (CER). Diese Forschungseinrichtung habe aber bei Yellow-Press-Blättern den Ruf gehabt, "Terminator Studies" anzubieten. Das CER widme sich einem weiter gesteckten Forschungsraum von möglichen Problemen für die Menschheit. Das jetzt aus der Taufe gehobene CFI hingegen habe einen engeren Fokus auf AI.

Wie KI die Politik übernimmt und uns entmündigt

Das Gefährdungspotenzial sehr kritisch sieht auch Yvonne Hofstetter. Sie ist Autorin der Bücher "Sie wissen alles" (über die Big-Data-Industrie) und neu "Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt". In ihrem jünsten Werk diskutiert sie besonders die Auswirkungen der KI-Entwicklung auf Gesellschaften.

Hofstetter ist Geschäftsführerin der Teramark Technologies GmbH (http://www.teramarktechnologies.de/). Bezeichnend für ihr am 26. September 2016 erschienenes Buch "Das Ende der Demokratie" ist der Untertitel: "Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt". Nicht zufällig rekuriert Hofstetter mit ihrer Kritik auf Hannah Arendts Essay "Macht und Gewalt". Hieraus zitiert sie, "wenn wir die Tyrannei als Herrschaft definieren, in der eine Regierung keine Rechenschaft über sich selbst ablegen muss, dann ist die Herrschaft durch Niemanden die tyrannischste aller Regierungsformen, weil es keinen mehr gibt, der eine Antwort auf die Frage geben könnte, was denn überhaupt vorgeht."

Anhand des Beispiels der USA, wo sich die IT-Industrie mittlerweile zunehmend als heimlicher Gesetzgeber für Gesellschaft und Staat geriert, zeichnet Hofstetter das Bild eines Systems, dass sich zunehmend abkoppelt vom Checks-and-Balances-Modell der gegenseitigen Kontrolle von Exekutive, Legislative und Judikative. Demokratische Kontrolle wird da ausgehebelt von der Herrschaft eines Niemand, der sich als Algorithmus darstellt und insofern nicht angreifbar ist.

Hofstetters Ansatz ist auch deshalb so spannend, weil sie nicht irgendwelche Terminator-Szenarien mit wild gewordenen künstlichen, Mensch gewordenen Robotern heraufbeschwört. Sie arbeitet sich an heute bereits real existierenden Gegebenheiten ab.

Yvonne Hofstetter arbeitet sich nicht an Terminator-Szenarien ab, wenn sie trotzdem vor den ganz real existierenden Gefährdungen durch AI/KI warnt. Foto: Shutterstock_408563254_Usa-Pyon 16:9
Foto: Usa-Pyon - shutterstock.com

Hofstetter argumentiert etwa, dass das vollautomatisierte Einreise-Kontrollsystem der USA zwischen 2003 und 2006 über 50 % aller Passagiere als terrorverdächtig einstufte. Grundlage für solche automatisierten Einschätzungen dürften Bots sein, die etwa die Suchabfrage auf Amazon abgreifen, bei denen jemand beispielsweise - weil geschichtsinteressiert - nach der "Geschichte des Islam" sucht. Wenn derselbe auch noch als Hobbygärtner auf Amazon nach Düngemitteln sucht, könnte ein verquerer Syllogismus in Algorithmusform den Schluß nahelegen, dass hier ein Islaminteressierter auch gleich nach Ingredienzien für den Bombenbau sucht.

Ihr Buch "Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt" widmet Yvonne Hofstetter dem Europäischen Parlament. Denn nur über gesetzliche Regelungen ließen sich technische Entwicklungen insbesondere in der KI-Forschung noch in den Griff bekommen.
Foto: Bertelsmann Verlag

Menschliche Intelligenz weit übertroffen

Hofstetter weiß sich ansonsten im Einklang mit Professor Jürgen Schmidhuber, einem Experten aus der KI-Szene, dessen Schüler und Studeten heute bei so bekannten AI-Unternehmen wie Googles DeepMind-Unternehmung arbeiten. Hofstetter wie Schmidhuber argumentieren, dass bereits heute schon AI-Systeme in Arbeitsumfeldern tätig sind, Entscheidungen treffen und dabei menschliche Intelligenz bei weitem übertreffen.

KI-Experte Professor Jürgen Schmidhuber geht davon aus, dass spätestens in 50 Jahren AI-Systeme der menschlichen Intelligenz weit überlegen sein werden.

Während aber Schmidhuber davon ausgeht, dass KI-Systeme innerhalb der kommenden 50 Jahre menschliche Intelligenz weit übertreffen werden, sich dann aber lohnenderen Aufgaben wie die Eroberung anderer Galaxien zuwenden werden, ist Hofstetter skeptischer. Sie sieht die Notwendigkeit, heute schon in die europäische Rechtsprechung Regeln einzupflegen, die dann in Algorithmen implementiert werden müssten. Wenn alles nichts mehr hilft, denkt Hofstetter gar daran, das unter der Kuratel internationaler IT-Konzerne stehende Internet durch Parallelnetze zu ergänzen.

Fachleute wie Nick Bostrom, Leiter des Future Humanity Institute (FHI) in Oxford, glauben, "dass die unregulierte und zwanglose Entwicklung im KI-Sektor eine Reihe signifikanter Gefahren mit sich bringt". Neben Auswirkungen auf die Arbeitsmärkte könnten die AI-Entwicklungen auch leicht von "bösen Buben", etwa verantwortungslosen Regierungen, genutzt werden. In seinem neuesten Buch "Superintelligenz: Szenarien einer kommenden Revolution" schreibt der Oxford-Professor, die Menschheit spiele bei der AI-Entwicklung wie ein Kind mit einer Bombe. (jm)