Künstliche Intelligenz

So managen CIOs KI-Risiken

Christiane Pütter ist Journalistin aus München.
Welche Risiken der Einsatz von Künstlicher Intelligenz (KI) birgt, ist wegen der bisher geringen Reife einschlägiger Technologie noch unklar. Die Unternehmensberatung McKinsey formuliert drei Prinzipien, an denen CIOs sich orientieren können.
  • Bankkunden, denen ein Kredit verweigert wird, oder medizinische Algorithmen, die Menschenleben gefährden, sind typische Beispiele für Risiken durch KI
  • Fast 80 Prozent der McKinsey-Kunden, die KI nutzen, beobachten bereits „moderaten“ Wert für das Unternehmen
  • Führt KI zu falschen Entscheidungen, reichen die möglichen Schäden für das Unternehmen von juristischen Strafen bis zu Rufschädigung

Noch stecken Künstliche IntelligenzKünstliche Intelligenz und damit verbundene konkreten Anwendungsmöglichkeiten in den Kinderschuhen, so die Einschätzung der Unternehmensberatung McKinsey. Wirtschaftliche Vorteile zeichnen sich dennoch ab: Fast 80 Prozent der Unternehmen, die KI-Techniken nutzen, registrieren bereits einen "moderaten" wirtschaftlichen Wert. Gleichzeitig diskutieren Unternehmen wie auch die interessierte Öffentlichkeit mögliche Gefahren. In einem Positionspapier gibt McKinsey Entscheidern drei Prinzipien auf den Weg. Alles zu Künstliche Intelligenz auf CIO.de

Der falsche Umgang mit Künstlicher Intelligenz (KI) kann nicht nur Einzelnen und Unternehmen, sondern ganzen Gesellschaften Schaden zufügen.
Der falsche Umgang mit Künstlicher Intelligenz (KI) kann nicht nur Einzelnen und Unternehmen, sondern ganzen Gesellschaften Schaden zufügen.
Foto: McKinsey

Zunächst zu den Risiken von KI: McKinsey geht davon aus, dass Nutzern bei weitem noch nicht alle Gefahren und Risiken bewusst sind - und die möglichen Konsequenzen für Unternehmen auch nicht. Leichter erkennbare Risiken kann man bereits eindämmen. Ein Beispiel ist das Thema DatenschutzDatenschutz, das die Unternehmen im Zusammenhang von Advanced AnalyticsAnalytics bereits auf der Agenda stehen haben. Verstöße führen schnell zu juristischen Konsequenzen. Alles zu Analytics auf CIO.de Alles zu Datenschutz auf CIO.de

Je nach Einsatzgebiet kann KI massive Schäden anrichten. Publikumswirksame Beispiele sind Unfälle selbstfahrender Automobile. In der Medizin können falsche Algorithmen schlimmstenfalls dazu führen, dass Menschen sterben. Weniger dramatisch, aber ebenfalls nicht ohne Folgen sind Algorithmen bei Finanzdienstleistern, die bestimmten Kunden einen Kredit verweigern. So etwas kann auf unbewussten Vorurteilen des Programmierers basieren, die in den Algorithmus eingeflossen sind, und Image-Schäden nach sich ziehen. McKinsey gibt zu Bedenken, dass KI Einfluss auf die wirtschaftliche und politische Stabilität eines ganzen Landes haben kann.

Die Berater sprechen von fünf Schmerzpunkten ("Pain points"). Drei beziehen sich auf die Technologie an sich: erstens die Daten selbst (Vollständigkeit, Genauigkeit und anderes) sowie der Datenschutz, zweitens technologische Schwierigkeiten etwa nach dem Ausfall von Anwendungen und drittens das ganze Thema Sicherheit. Die letzten beiden Schmerzpunkte beziehen sich auf den Umgang mit KI. Dabei geht es zum einen um "Models misbehaving": Das KI-System zieht falsche Schlüsse oder trifft falsche Entscheidungen, weil beispielsweise die Datenbasis aufgrund menschlicher Denkfehler oder menschlicher Vorurteile bestimmte Personengruppen ausgeschlossen hat. Zum anderen spricht McKinsey von "Interaktionsproblemen" zwischen Mensch und Maschine oder auch zwischen Maschinen. Hier greift das Beispiel vom zu Unrecht verweigerten Kredit. Das KI-System muss wissen, in welchen Situationen die Einschätzung eines Menschen nötig ist.

Klarheit, Kommunikation und Kontrollen

McKinsey stellt für den gegenwärtigen Zeitpunkt drei Prinzipien auf, die CIOs und andere Entscheider berücksichtigen könnten:

1. Klarheit durch ein strukturiertes Vorgehen bei der Identifikation von Risiken: Als vorbildhaft nennt McKinsey eine europäische Bank. Deren COO (Chief Operating Officer) holte Entscheider aus Business, IT, Sicherheit und Risikomanagement an einen Tisch, um einen Überblick der Risiken und Gefahren im Zusammenhang mit KI zu erarbeiten. Sie stellten Fragen wie: welche sind die schlimmsten Szenarien? Wo fehlen Kontrollen? Setzen wir Zeit und andere Ressourcen richtig ein? McKinsey geht davon aus, dass hier kein Unternehmen "auf der grünen Wiese" startet - Risikomanagement sollte bereits etabliert sein.

2. Unternehmensweite Kommunikation: Kontrollen haben viel mit Kommunikation zu tun. Jeder Mitarbeiter muss wissen, welche Prinzipien er anzuwenden hat. Eine firmenweite Lückenanalyse kann aufzeigen, wo das bisherige Regelwerk durch den Einsatz von KI löchrig geworden ist. Außerdem braucht jedes Unternehmen einen "Rückfall-Plan": Welche Ereignisse führen dazu, dass das Risiko-Management erneut überarbeitet werden muss? All das muss an die Belegschaft kommuniziert werden.

Die Technologie wandelt sich ständig

3. Kontrollen, die immer wieder auf den neuesten Stand gebracht werden: Die Nutzung von KI verändert Unternehmen ständig, schon deswegen, weil sich die Technologie selbst immer weiterentwickelt. Kriterien dafür sind die Komplexität der Algorithmen, die Anforderungen an Daten, die Art der Mensch-Maschine-Kommunikation, der Grad an Prozess-Automation und die Gefahr, gehackt zu werden. Kontrolle und Monitoring sind ein ständiger Prozess.

McKinsey nennt das Beispiel eines Unternehmens, das den Umgang mit KI aktiv geändert hat. Die Mitarbeiter wollten genau verstehen können, wie das KI-System im Umgang mit dem Kunden zu den Lösungen kommt, die es vorschlägt. Sie monierten, das System nicht durchschauen zu können, und verlangten mehr Transparenz. Also verlagerten die Führungskräfte bestimmte Entscheidungen wieder an die Sachbearbeiter zurück. Damit verzichtet das Unternehmen auf Kostenvorteile. Aber die Sachbearbeiter fühlen sich mit den einfacheren KI-Systemen, die sie ja weiter nutzen, wohler. Das Unternehmen habe hier eine Balance hergestellt, so McKinsey.

Zur Startseite