Hamburger IT-Strategietage


Hamburger IT-Strategietage

Katharina Zweig: "Künstliche Intelligenz kann diskriminieren"

Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Unternehmen müssten darauf achten, KI nicht überzubewerten, sagt Katharina Zweig auf den Hamburger IT-Strategietagen. Gerade in der Bewertung von Menschen stoße die Technik an Grenzen.
"Kann KI Fairness?" Katharina Zweig, Professorin an der RPTU Kaiserslautern-Landau, auf den Hamburger IT-Strategietagen.
"Kann KI Fairness?" Katharina Zweig, Professorin an der RPTU Kaiserslautern-Landau, auf den Hamburger IT-Strategietagen.
Foto: Frank Erpinar

"Traue nie einer KI, die Du nicht selbst gebaut hast", sagt Katharina Zweig, Professorin an der RPTU Kaiserslautern-Landau. In ihrer Keynote anlässlich der Hamburger Strategietage 2023 ermahnte die Informatik-Professorin die IT-Verantwortlichen, nicht den Lockrufen einer vermeintlich alles wissenden Intelligenz zu erliegen und die Technik kritisch zu hinterfragen.

Der KI-EinsatzKI-Einsatz habe durchaus an der einen oder anderen Stelle seine Tücken, sagt Zweig. Sie macht dies an einem Beispiel aus ihrer Praxiserfahrung fest. Viele Vorstände ließen sich von den KI-Versprechen blenden und glaubten schon, ganze Bereiche wie die Personalabteilung durch KI ersetzen zu können. In diesen Momenten sei es Aufgabe der CIOs, ihre Chefs wieder auf den Boden der Tatsachen zurückzuholen. Alles zu Künstliche Intelligenz auf CIO.de

Es gelte die richtigen Fragen zu stellen und vor allem die richtigen Konsequenzen aus den Antworten zu ziehen, fordert die Wissenschaftlerin, die den Studiengang der Sozioinformatik in Deutschland begründet hat und bereits verschiedene Bundesministerien und die Regierung in Sachen KI beraten hat. "Kann KI Fairness?", fragt Zweig. "Kann KI diskriminierungsfrei?"

Als Generalkritik an KI will Katharina Zweig ihre Einwände nicht verstanden wissen.
Als Generalkritik an KI will Katharina Zweig ihre Einwände nicht verstanden wissen.
Foto: Frank Erpinar

Ihre Antwort ist eindeutig: "Maschinen können diskriminieren." Gerade in der Bewertung von Menschen stoße KI-Technik an ihre Grenzen. Je mehr Variablen mit einbezogen werden müssten, desto komplexer und unübersichtlicher werde das Ganze. Dazu komme, dass eigentlich auch unterschiedliche kulturelle Hintergründe berücksichtigt werden müssten. Zweig spricht von einer "kombinatorischen Explosion", woraus beliebig viele Teilgruppen resultieren könnten.

CIOs zwischen KI und Shitstorm

"Sie müssen Ihrer Firma helfen, Schwierigkeiten aus dem Weg zu gehen", lautet ihr Fazit und die Botschaft an die Teilnehmerinnen und Teilnehmer der Strategietage in Hamburg. "Sie sind die einzigen die zwischen der KI und einem Shitstorm stehen." Es gelte, der KI auf den Zahn zu fühlen und genau zu prüfen, ob die Softwaretechnik zum eigenen Unternehmen passt.

Als Generalkritik will Zweig ihre Einwände allerdings nicht verstanden wissen. "KI ist toll, wenn man sie an der richtigen Stelle verwendet", sagt die Professorin. Am besten fahre man immer, wenn man die Technik als Werkzeug betrachte und nicht als die Intelligenz, an die man alles abgeben könne. Das Resümee der Algorithmus-Erklärerin: "Bei der Bewertung von Menschen ist das eher schwierig."

Zur Startseite