Künstliche Intelligenz

Wie CIOs KI ethisch korrekt nutzen können

Christiane Pütter ist Journalistin aus München. Sie schreibt über IT, Business und Wissenschaft. Zu ihren Auftraggebern zählen neben CIO und Computerwoche mehrere Corporate-Publishing-Magazine, vor allem im Bereich Banken/Versicherungen.
CIOs sollten für einen transparenten, nachvollziehbaren und fairen Umgang mit künstlicher Intelligenz sorgen, fordert die Unternehmensberatung Capgemini.
  • Transparenz, Erklärbarkeit, Nachvollziehbarkeit, Fairness und Überprüfbarkeit durch externe Auditoren sind die Merkmale ethisch korrekter KI
  • KI wird zum Beispiel als unethisch wahrgenommen, wenn KI-basierte Systeme bei der Gewährung von Krediten bestimmte Käufergruppen (nach Herkunft, Alter, Geschlecht) ausschließen
  • CIOs stehen Tools zur Verfügung, die Vorurteile in Algorithmen aufspüren

Ein ethisch sauberer Umgang mit künstlicher Intelligenz umfasst Zweck, Design, Entwicklung und Nutzung, schreiben die Berater von Capgemini in einer aktuellen Studie. Sie haben dafür 1.500 Manager aus 500 Betrieben und mehr als 4.400 Endverbraucher befragt sowie mit 20 Experten gesprochen. Ethik in der KIKI zeigt sich an fünf Merkmalen: Transparenz, Erklärbarkeit, Nachvollziehbarkeit, Fairness und Überprüfbarkeit, etwa durch externe Auditoren. Alles zu Künstliche Intelligenz auf CIO.de

Capgemini sieht beim Thema ethische KI (Künstliche Intelligenz) drei Interessengruppen in den Firmen gefordert: das Management, die Abteilungen HR und Marketing, die Teams rund um IT, Daten und KI.
Capgemini sieht beim Thema ethische KI (Künstliche Intelligenz) drei Interessengruppen in den Firmen gefordert: das Management, die Abteilungen HR und Marketing, die Teams rund um IT, Daten und KI.
Foto: Capgemini

Die Vorteile ethisch korrekter KI sieht Capgemini zum einen in der Vermeidung von Compliance-Verstößen, finanziellen Risiken und Strafzahlungen oder anderen negativen Sanktionen. Zum anderen erklären Konsumenten, sie würden eher bei einem Unternehmen kaufen, dessen ethische Grundsätze sie kennen und teilen. Sie würden ein solches Unternehmen auch eher ihren Freunden empfehlen und es auf Social Media-Portalen positiv bewerten.

Capgemini sieht drei Interessengruppen in den Unternehmen gefordert: Erstens das Management, die Studienautoren sprechen von CXOs. Dessen Vertreter müssen die Basis für den ethischen KI-Gebrauch schaffen, in dem sie Strategien entwickeln und Policies aufstellen, Bewusstsein schaffen und eine Governance etablieren. Für die Umsetzung sorgen divers besetzte Teams. Zum Zweiten geht es um Human Ressources (HR) sowie Marketing. Deren Aufgabe ist, Vertrauen in KI-basierte Anwendungen zu schaffen und Kontrollen zu etablieren.

Das Problem der Voreingenommenheit von Entwicklern

Drittens geht es um alle Teams rund um IT, Daten und KI. Sie verantworten Transparenz und Verstehbarkeit der KI-Systeme im Unternehmen. Sie leben gutes Daten-Management vor, indem sie Regularien und Compliance einhalten. Technologieseitig stehen ihnen laut Capgemini mittlerweile Tools zur Verfügung, die beispielsweise Vorurteile in Algorithmen aufspüren ("Bias Detection").

Das Thema Vorurteile oder voreingenommenes Denken von Entwicklern spielt eine zentrale Rolle. KI wird als unethisch wahrgenommen, wenn KI-basierte Systeme zum Beispiel bei der Gewährung von Krediten oder Versicherungen bestimmte Käufergruppen (etwa nach Herkunft, Alter, Geschlecht) systematisch ausschließen. Unternehmen müssen sicherstellen, dass so etwas nicht passiert. Wird ein Konsument abgelehnt, muss er das nachvollziehen können.

Weitere Beispiele für den unethischen KI-Gebrauch: In der Personalarbeit lehnt ein KI-basiertes System Bewerber aufgrund bestimmter Eigenschaften (wie Geschlecht oder ethnische Zugehörigkeit) ab. Mitarbeiter werden am Arbeitsplatz überwacht - ohne Wissen und Einverständnis. Daten zur Gesundheit eines Menschen werden gesammelt oder verwendet, ohne dass derjenige sein Einverständnis gegeben hat.

Jeder zweite Konsument beklagt Diskriminierung

Fast neun von zehn befragten Managern sowie fast jeder zweite Endverbraucher geben in der Capgemini-Umfrage an, schon mindestens einmal Probleme mit unethischer KI erlebt zu haben. Insbesondere Manager aus Banken und Versicherungen erklären, sie hätten sich zu stark auf IT-basierte Entscheidungen verlassen. Die Klagen der Verbraucher kreisen vor allem um Diskriminierung nach Geschlecht und ethnischer Zugehörigkeit.

Was uns 2030 erwartet

Die Unternehmensberater haben die Manager nach den Gründen für solche Probleme gefragt. Jeder Dritte sagt, die KI-Systeme in seinem Unternehmen seien unter Zeitdruck eingeführt worden, man habe sich um Fragen der Ethik nicht gekümmert oder keine Ressourcen dafür gehabt. Doch das Thema rückt ins Bewusstsein von Mitarbeitern und Verbrauchern. 76 Prozent der befragten Konsumenten fordern neue Gesetze und Regularien für den Umgang mit KI.

Zur Startseite