KI-Fails

So wird Künstliche Intelligenz zur Gefahr

03.05.2017
Von Glenn McDonald und


Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.
Jahrzehnte lang haben wir uns darüber Gedanken gemacht, was passiert, wenn die Künstliche Intelligenz aus dem Ruder läuft. Es ist soweit.

Das Science-Fiction-Filmgenre ist irgendwie nicht wirklich gut darin, Geschichten zu erzählen, in denen die Künstliche Intelligenz (KI) Amok läuft. Natürlich, es gab HAL 9000 ("2001: Odyssee im Weltraum"), Skynet ("Terminator") und im vergangenen Jahr hätte Ultron ("The Avengers") um ein Haar massiv in der Superhelden-Branche gewildert. Davon abgesehen ist auch die TV-Serie "Westworld" derzeit schwer angesagt. Aber so richtig "schmutzig" wird es in Bezug auf KI erst in der echten Welt.

Künstliche Intelligenz: Wenn die Gefahr im artifiziellen Gehirn lauert.
Künstliche Intelligenz: Wenn die Gefahr im artifiziellen Gehirn lauert.
Foto: Venera Salman - vectoric - shutterstock.com

Dort entwickelt sich die Künstliche Intelligenz in viele verschiedene Richtungen und hinterlässt dabei bleibende - überwiegend positive - Eindrücke. Künstliche Intelligenz ist inzwischen gefühlt wirklich überall: Industrielle Kontrollsysteme, smarte Haushaltsgeräte, selbstfahrende Autos und allerhand - mal mehr, mal weniger nützliche - Gadgets setzen auf die Technologie.

An der eigentlichen Definition des Begriffs scheiden sich unterdessen schon seit Jahrzehnten die Geister. Wenn Sie etwas länger Zeit haben, beziehungsweise mit dem ewigen Leben planen, bitten Sie doch einfach mal zwei Computerwissenschaftler zum Thema zu debattieren. Ganz generell und in aller Kürze lässt sich aber sagen: Künstliche Intelligenz bezeichnet einen Rechner, der über menschenähnliche, kognitive Funktionen verfügt. Diese Systeme nutzen Machine Learning (ML) um Probleme einzuschätzen und zu lösen. Und gelegentlich auch, um neue zu schaffen.

Wir zeigen Ihnen zehn ausgewählte KI-Fails: Wildgewordene Chatbots finden sich hier genauso wie eigensinnige Connected Cars, Säbel rasselnde Roboter und gehässige Bilderkennungssoftware. Trotzdem sollte man bei aller menschlichen Schadenfreude Milde walten lassen: Egal ob künstlich oder biologisch - wir alle machen Fehler. Und KI-Systeme zu verärgern, sollte man sich besser zweimal überlegen.

Microsofts KI-Debakel

Im Frühjahr 2016 taumelte MicrosoftMicrosoft einem ausgewachsenen PR-Desaster entgegen. Schuld war der kurz zuvor veröffentlichte Twitter-Chatbot namens Tay. Die KI-Persönlichkeit schmiss nämlich plötzlich mit Ergüssen wie "Hitler was right" oder "9/11 was an inside job" um sich. Alles zu Microsoft auf CIO.de

Zugegebenermaßen war es nicht der Bot selbst, der sich Parolen und Verschwörungstheorien aneignete, sondern böswillige Internet-Trolle. Eigentlich sollte Tay junge Menschen zwischen 18 und 24 Jahren ansprechen und von diesen Nutzern in Sachen Sprache lernen. Anschließend sollte der Chatbot auf mehreren Social-Media-Plattformen ausgerollt werden. Durch Machine Learning, adaptive Algorithmen und die Analyse von Daten sollte Tay Gesprächsinhalte vorhersehen und entsprechende Antworten geben. Stattdessen erging es dem Chatbot ganz ähnlich wie einigen Usern der Zielgruppe: Der Bot hing einfach mit den falschen Leuten rum.

Microsoft bewarb Tay vor dem Release mit den Worten: "The more you chat with Tay, the smarter she gets". Oder nicht. Ganze 16 Stunden war das KI-Experiment online.

Korrigieren und konkurrieren

Bei Wikipedia tobt stellenweise ebenfalls ein Bot-Krieg. Wie viele andere Online-Publikationen, setzt auch Wikipedia eine Armee von automatisierten Crawler-Bots ein, die über die Millionen von Unterseiten rotieren, Verlinkungen auf den neuesten Stand bringen, Schreibfehler korrigieren und "digitalen Vandalismus" bereinigen. Wikipedia hat über die Jahre einige Generationen dieser Bots entwickelt. Und scheinbar verläuft das Zusammenspiel der KI-Kumpanen bei Zeiten alles andere als reibungslos.

Im Rahmen einer Studie haben Wissenschaftler der Universität Oxford über die Jahre 2001 bis 2010 das Verhalten der Wikipedia-Bots in 13 Ländern (respektive Wikipedia-Seiten) analysiert. Dabei ist Erstaunliches zu Tage getreten: Die Wiki-Crawler-Bots liefern sich teilweise jahrelange "Blutfehden". Das passiert zum Beispiel dann, wenn zwei verschiedene Bots gegenläufige Instruktionen erhalten. Dann dreht sich die Künstliche Intelligenz schlicht im Kreis und verbessert sich immer wieder selbst - in einem unendlichen Kreislauf digitaler Aggression.

Die Wissenschaftler suchten sich für ihre Untersuchungen ganz bewusst die Wikipedia-Bots aus, denn bei diesen handelt es sich um die kleinste und "primitivste" Art von Künstlicher Intelligenz im Cyberspace. Und wenn schon Konflikte solcher Mini-Bots für Probleme bei Wikipedia sorgen können, was passiert dann, wenn KI-Systeme von Regierungen oder Militärinstitutionen aneinander geraten?

Uber rote Ampeln mit KI

Der Carsharing-Pionier Uber fährt etliche Initiativen, um Mobilitäts-Titan zu bleiben. Allerdings läuft es in Sachen Reputation momentan alles andere als optimal. Der erste Akt der Rufsuboptimierung war ein investigativer Report der "New York Times".

Demnach hat Uber Ende 2016 in der Gegend um San Francisco verschiedene Tests mit autonomen Fahrzeugen durchgeführt - allerdings ohne die notwendige Genehmigung des Bundesstaates Kalifornien. Bis zu diesem Punkt war es lediglich ein bisschen schlechte Presse. Dann kam heraus, dass die selbstfahrenden Uber-Autos zu allem Überfluss auch noch insgesamt sechs rote Ampeln überfuhren. Das komplexe KI-System, das die Fahrzeuge lenkt, besteht aus vielen verschiedenen Sensoren und einer Mapping-Software. Dennoch sitzt auch bei solchen Tests ein menschlicher Fahrer hinter dem Steuer, um im Notfall eingreifen zu können.

Und wie ging Uber mit den Vorwürfen um? Zunächst schob man die Schuld an den Ampel-Fauxpas einfach den menschlichen Fahrern zu. Dann enthüllten interne Dokumente allerdings, dass mindestens eines der Autos sich selbst steuerte, als es das Rotlicht missachtete. Übrigens an einem stark frequentierten Fußgängerüberweg. Böse KI! Ganz böse! Außerdem nicht gerade ein Best-Practice-Beispiel für autonomes Fahren.

Zur Startseite