KI-Fails

So wird Künstliche Intelligenz zur Gefahr

03.05.2017
Von Glenn McDonald und


Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.

Bilderkennung gone wrong

Eines der beliebtesten Forschungsfelder in Sachen KI - zumindest auf Consumer-Ebene - ist ohne Zweifel die Bilderkennung. Schließlich können uns die Maschinen nur wirklich im Alltag helfen, wenn sie die Dinge sehen, wie wir sie sehen. Allerdings ist es alles andere als ein leichtes Unterfangen, die visuelle Auffassungsgabe der Menschen zu replizieren. Das musste auch Google im Jahr 2015 lernen. Damals debütierte ein neues Bilderkennungs-Feature in der hauseigenen Foto-App. Das KI-System sollte bestimmte Objekte und Personen in Bildern identifizieren.

Wie man die Objekte und Personen unterscheidet, lernt so ein System über die Analyse von Millionen von Bildern. Frei von Fehlern ist aber auch ein solches System nicht. Im Fall von Google Photos wurden zwei dunkelhäutige Menschen auf einem Foto von der Künstlichen Intelligenz als Gorillas identifiziert. Der Social-Media-Shitstorm und eine offizielle Entschuldigung des Google-Konzerns waren die Folge. Inzwischen ist es deshalb sogar in Mode gekommen, die besten KI-Bilderkennungs-Fails zu sammeln, die die artifizielle Intelligenz wie einen rassistischen, sexistischen Südstaaten-Greis wirken lässt.

KI stolpert über IoT

Auch im Boom-Segment Smart Home sind KI-Systeme und die Machine-Learning-Technologie schwer angesagt. Eine aktuelle Initiative der Washington State University nutzt beispielsweise Künstliche Intelligenz, um älteren Menschen wieder zu ermöglichen, alleine zu wohnen. Dazu analysiert das System Bewegungen, Raumtemperatur und wie oft die Türen geöffnet und geschlossen werden. Die KI lernt von ihrer Umgebung und unterstützt nach Bedarf.

Was unter Umständen enorm verlockend klingt, ist auch ziemlich risikobehaftet. Jedenfalls fördert eine kurze Google-Suche bereits Erstaunliches über die Smart-Home-Innovationen zu Tage. Was etwa tun, wenn das schlaue Heim sich gegen seinen Bewohner wendet, die Heizung im Winter abdreht, die Rohrleitungen einfrieren und der Keller geflutet wird? Vor diesem Hintergrund erscheint die Idee, Künstliche Intelligenz mit dem Internet of Things zu koppeln ein wenig apokalyptisch. Passieren wird das natürlich trotzdem.

Allerdings sollten sich die Entwickler dieser Systeme erst noch folgende Geschichte vor ihr inneres Auge holen. Im Feburar 2017 sorgte ein elektrischer Kurzschluss dafür, dass ein neu errichtetes Eigenheim in Pennsylvania bis auf die Grundmauern niederbrannte (keine Angst, niemand wurde verletzt). Zwar sind Kurzschlüsse nichts Unübliches, allerdings handelte es sich bei dem Haus um einen futuristischen Smart-Home-Prototypen, der mit schlauen Gerätschaften und Automatisierungs-Maßnahmen nur so vollgestopft war. Als Brandherd wurde schließlich eine rechnergesteuerte Tür ausgemacht. Und dann gab es ja auch noch die Geschichte vom Computerwissenschaftler Raul Rojas, der mit einer smarten Glühbirne eine Denial-of-Service-Attacke auf sein trautes Heim verursachte.

Realität als KI-Simulation

Wenn es nach einigen Theoretikern geht, sind wir alle von einer riesigen Schurken-KI umgeben. Eine Theorie namens "Simulation Argument" geht nämlich ernsthaft davon aus, dass unsere Realität in Wahrheit eine Computer-Simulation ist. Geschaffen wurde die von einer enorm fortschrittlichen Zivilisation. Oder gar von einem KI-System selbst. Klingt doch schlüssig oder?

Und es geht noch weiter: Nach der Theorie werden künftige Zivilisationen über fortschrittlichere Varianten der Technologien verfügen, die wir gerade entwickeln - Virtual Reality, Gedanken-gesteuerte Computer, Künstliche Intelligenz. Mit der Verfügbarkeit von unvorstellbarer Rechenpower werden die Wissenschaftler der Zukunft in der Lage sein, ganze Universen zu simulieren, die von Abermilliarden digitaler Wesen bevölkert werden. So wird es dann möglich, dass unsere aktuelle Realität einfach nur ein Simulations-Experiment darstellt.

Und weil es Millionen von synthetischen Realitäten geben kann, aber nur ein "Original-Universum", ist es dann auch ziemlich wahrscheinlich, dass wir nur Teil einer Computer-Simulation sind. Einige Beobachter gehen gar davon aus, dass einige - vorher unwahrscheinliche - Ereignisse der letzten Zeit (Trump, Oscars, Brexit) lediglich der Beweis dafür sind, dass unsere Simulation schief läuft. Es könnte natürlich auch sein, dass wir nur Teil eines A/B-Tests der Künstlichen Intelligenz sind. Einfach mal sehen, wie’s läuft quasi. Wir können Sie nur eindringlich davor warnen, länger als nötig über die Theorie nachzudenken. Denn je länger man das tut, umso schlüssiger wird alles.

Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation infoworld.com.

Zur Startseite