Künstliche Intelligenz heute und morgen

Von Machine Learning zu Neuromorphic Computing

11.01.2019 von Jens Dose
Gartner prophezeit, KI werde Unternehmen fundamental beeinflussen, bis dahin dauere es aber noch ein wenig. Erfahren Sie, wie die Analysten den Status quo einschätzen, wo KI bereits zum Einsatz kommt und was es dabei zu beachten gilt.

"Wir stehen an der Schwelle zur zweiten Phase der KI-Entwicklung," bewertet Alan Priestley, Senior Director Analyst bei Gartner, den Stand der Dinge. Die erste bestehe darin, Anwendungen für Bild- und Spracherkennung zu realisieren. Dies sei in Form von Chatbots, Sprachassistenten wie Alexa oder Siri und der Bilderkennung von einschlägigen Suchmaschinen bereits Alltag.

In der zweiten Phase gelte es, Anwendungen zu entwickeln, die Informationen aus den Sprach- und Bild-Applikationen erhalten und wiederum davon lernen. Die dritte bestehe darin, ein breiteres Spektrum an Geschäftsaufgaben durch fortschrittliches Machine Learning zu unterstützen. Priestley spricht hierbei von "unbeaufsichtigtem" und "verstärktem" Lernen - also weitestgehend autonomer KI.

Auf dem Weg zur tatsächlichen "Intelligenz" ist eine andere Art der Datenverarbeitung notwendig: sogenanntes Neuromorphic Computing. Dabei steht das menschliche Gehirn Pate.
Foto: ktsdesign - shutterstock.com

Im Zuge dieser Entwicklung werde KI natürliche, kontextbezogene Schnittstellen zwischen Mensch und Maschine in der Breite salonfähig machen sowie intelligentes Internet of Things (IoT) und eine flüssige Integration von Anwendungen vorantreiben. Zudem sollen sich Computing-Ökosysteme mit KI-fähiger Software verbinden. In der Anwendung werde KI dazu beitragen, Prozesse zu automatisieren, Erkenntnisse aus Daten zu vertiefen und die Kundenerfahrung zu verbessern.

Bis es jedoch soweit ist, gibt es noch einige Herausforderungen zu meistern.

Dezentrale Entscheidungen

Der Trend bei der KI-Verarbeitung bewegt sich aus dem Rechenzentrum oder der Cloud zu den Endgeräten selbst (Edge). Hintergrund ist die Notwendigkeit, am Ort der Datenerfassung unmittelbar Entscheidungen zu treffen. Als Beispiel nennt Priestley das autonome Auto. Würden in einer Gefahrensituation die Sensordaten erst in die Cloud übertragen, dort interpretiert und dann eine Anweisung zurückgeschickt, wäre das Unfallrisiko durch die Latenz oder mögliche Funklöcher zu groß.

Um die nötige Rechenleistung in die Geräte zu bringen, nutzen Hersteller verschiedene technische Ansätze. Manche verwenden vielseitige Grafikprozessoren (GPUs), speziell für eine bestimmte Anwendung entwickelte Chips wie beispielsweise ASIC- oder ASSP-Einheiten oder eine Kombination aus beidem.

Diese Konzepte ermöglichen laut Priestley noch keine echte künstliche Intelligenz, sondern eher eine komplexe Datenverarbeitung auf Basis antrainierter Schemata - also "nur" relativ komplexes maschinelles Lernen. Die Algorithmen für die Geräte werden in der Cloud oder im Rechenzentrum durch Daten angereichert und trainiert, aufgrund derer dann auf dem Gerät angelernte Entscheidungen getroffen werden.

Der Geist in der Maschine

Auf dem Weg zur tatsächlichen "Intelligenz" sei eine andere Art der Datenverarbeitung notwendig: sogenanntes Neuromorphic Computing. Dabei handelt es sich um einen Ansatz, der sich nicht an den Konzepten klassischer Computer orientiert. Vielmehr steht die vernetzte Informationsverarbeitung im menschlichen Gehirn dabei Pate, in der eine Vielzahl von gleichen Einheiten (Neuronen) miteinander verbunden sind (Synapsen) und kollektiv zusammenarbeiten.

So sollen dynamisch Entscheidungen getroffen werden können. Jede Einheit führt ihre Berechnungen anhand des Outputs von einer Vielzahl anderer mit ihr verbundener Einheiten aus und generiert daraus eigenen Output, der wiederum von anderen verarbeitet wird etc. So entstehe tatsächlich autonome künstliche Intelligenz, bei der das Resultat nicht aus den eingegebenen Informationen vorhersagbar ist. Der Entscheidungsprozess wäre dann kein regelbasiertes System mehr.

Um ein solches neuronales KI-Netz wirtschaftlich zu betreiben, ist der Energieverbrauch heute noch zu hoch. Das stellt gerade im Edge-Bereich eine Herausforderung für die Forschung und Entwicklung dar. Die Geräte sind oft auf Batterien angewiesen, deren Lebensdauer durch rechenintensive KI-Module stark beeinträchtigt werden könnte. Gartner ist jedoch der Ansicht, dass neuromorphes Computing circa 2024 relevant für den Markt werden kann.

Können und Dürfen

Jenseits der technischen Hürden stellt sich in diesem Zusammenhang auch die Frage nach dem "ethischen" Einsatz von KI. Ist das Resultat einer Datenverarbeitung nicht mehr vorhersagbar, kann es sein, dass das Ergebnis gegen Gesetze, den Datenschutz oder Ähnliches verstößt. Gerade im Hinblick auf die strengen Vorgaben und Strafen im Rahmen der DSGVO bezüglich der automatischen Verarbeitung personenbezogener Daten könnte das zum Problem werden.

Gartner-Analyst Priestley ist der Meinung, dass der Reifegrad der Technologie noch nicht so hoch ist, dass sich die Industrie jetzt schon darüber Gedanken machen muss. Wenn KI jedoch in ein so hochentwickeltes Stadium übergeht, dass autonome Entscheidungen und konkrete Auswirkungen auf Menschen möglich sind, müsse die Frage danach, was KI können darf, intensiv diskutiert werden.

Es ist allerdings generell fraglich, ob KI jemals absolut eigenständig agieren oder eher als hochentwickelte Hilfestellung in einem Entscheidungsprozess eingesetzt wird, an dessen Ende immer noch ein Mensch steht, der die Entscheidungen letztendlich trifft.

Schon heute künstlich intelligent

Auch wenn "echte" künstliche Intelligenz erst mittelfristig relevant wird, profitieren bereits heute Unternehmen von KI-artigen Technologien. Laut Senior Director Analyst Ilona Hansen ergeben sich bei der Kundenansprache im B2B Potenziale.

Laut Hansen erreichen Marketing-Abteilungen durch KI-Einsatz 30 Prozent mehr qualifizierte Leads. Für den Sales bedeute KI, dass Unternehmen, die datengetriebene Erkenntnisse aus KI-Lösungen einsetzen, schneller wüchsen.

Dies werde erreicht, indem interne Prozesse, wie etwa die Übergabe von Leads aus dem Marketing in den Vertrieb, und manuelle Datenpflege automatisiert würden, so dass sich die Mitarbeiter auf ihre Kernaufgabe der Kundenansprache und -bindung konzentrieren könnten. Im Kundenkontakt selbst helfen KI-Assistenten dabei, interne (aus Datenbank oder CRM) und externe Daten (etwa Nachrichten oder öffentliche Informationen aus sozialen Netzwerken) über einen Kunden automatisiert zu korrelieren und in einer Form bereit zu stellen, dass der Mitarbeiter im Gespräch mit dem Kunden die richtigen Fragen stellen und bessere Angebote unterbreiten kann.

Intelligenter Kundenkontakt

Um KI in der Kundenansprache zielführend zu implementieren, schlägt Hansen ein vierstufiges Framework vor:

  1. Wahrnehmen (Sense) - Bedeutungen in Worten, Sprache und Bildern finden;

  2. Denken (Think) - Ergebnisse vorhersagen, Verbindungen entdecken und Assoziationen herstellen;

  3. Handeln (Do) - Reagieren, Prozesse optimieren und (automatisch oder unterstützt) informiert Handeln;

  4. Lernen (Learn) - Mit jeder Kundeninteraktion den Prozess verfeinern;

Werde dieses Framework auf die einzelnen Abteilungen im Kundenkontakt angewandt, ergeben sich je nach Disziplin verschiedene Mehrwerte:

Im Marketing stehen mehr Daten zu Verfügung, die automatisiert auf Muster untersucht und analysiert werden können. So entsteht eine Basis für Segmentierung und Klassifizierung von Leads und Prospects, worauf aufbauend die individuelle Customer Journey sowie eine passende Marketingstrategie entwickelt werden kann.

Im Vertrieb unterstützt KI den Datenfluss und die Pflege des Bestandes an Kundendaten. Sie ermöglicht durch detaillierte Erkenntnisse über den Kunden einen hohen Grad an Personalisierung bei Angeboten und verkürzt Reaktionszeiten im Austausch.

Auch im Kundenservice kann KI die Personalisierung fördern, indem bei einem Anruf dem Service-Mitarbeiter bereits alle aktuellen Informationen zum Kunden zu Verfügung stehen. Im Gespräch selbst kann der KI-Assistent auf Basis der Anfrage dem Mitarbeiter die korrekten Informationen und Antworten unmittelbar bereitstellen. Standard- und einfache Anfragen können durch die Integration von Natural Language Processing (NLP) teils komplett von Chatbots und ähnlichem übernommen werden. Menschliche Mitarbeiter konzentrieren sich dann auf komplexe oder kritische Anfragen. Zudem können mithilfe von Datenanalysen aus Anfragen, Beschwerden oder Marktanalysen Angebote und Services dynamisch angepasst werden.

Was also tun?

In Bezug auf die Art und Weise, wie KI in den Kundenkontakt integriert werden sollte, hat Gartner-Analystin Hansen ebenfalls Empfehlungen an der Hand für Unternehmen, die KI für sich nutzen wollen.

Das wichtigste ist: Heute anfangen. Es können kleine Projekte sein, aber sie sollten so früh wie möglich angestoßen werden.

Dazu gilt es, die Flaschenhälse in den Geschäftsbereichen mit Kundenkontakt zu identifizieren und zu bewerten. Halten Sie die wichtigsten Punkte in einer Prioritätenliste fest, an der sich das Projekt orientiert.

Die Datengrundlage ist ein entscheidender Faktor für die Wirksamkeit von KI-Lösungen. Daher gilt es, alle relevanten Datensilos aufzubrechen und miteinzubeziehen. Dabei spielen nicht nur die verschiedenen Abteilungen, Datenbanken und Systeme eine Rolle, sondern auch Soziale Netzwerke, Visitenkarten, Channel-Partner etc.

KI-Know-how und die nötigen Tools im Unternehmen aufzubauen ist zeit- und kostenintensiv. Daher sollte auf Lösungen Dritter zurückgegriffen werden. Zum einen ist das meist kostengünstiger und schneller einsetzbar. Zum anderen erhalten Unternehmen Zugriff auf zahlreiche externe Datenquellen zum Training der KI. Des Weiteren kümmert sich der Anbieter um die Weiterentwicklung und das Feintuning der Datenmodelle, sodass keine internen Ressourcen dafür aufgewendet werden müssen. Vollwertiges Outsourcing von KI-Diensten ist dagegen unüblich.

Sollen dennoch KI-Modelle in-house entwickelt werden, bietet sich der Bereich Up- und Cross-Selling an. Hier werden größtenteils Verbindungen zu On-Premise-Systemen und - wenn überhaupt - nur begrenzter Zugriff auf externen Datenpunkte benötigt. Der Trend geht laut Hansen aber auch in diesem Bereich dahin, diese Workloads durch fremde Tools zu bewältigen.