Generative AI

Die größten Fehler beim Einsatz generativer KI



Mary Branscombe beschäftigt sich als freiberufliche Journalistin seit über 20 Jahren mit der IT-Branche. Sie schreibt unter anderem für unsere US-Schwesterpublikation cio.com.
CIOs müssen nicht alle Fehler selbst machen, um zu lernen. Etwa bei Generative AI im Unternehmen. Wir zeigen, an welchen Stellen es schnell haken kann.
Beim Einsatz generativer KI gibt es neben großen Chancen auch eine Menge Risiken und Fallstricke. CIOs sollten sich frühzeitig damit auseinandersetzen.
Beim Einsatz generativer KI gibt es neben großen Chancen auch eine Menge Risiken und Fallstricke. CIOs sollten sich frühzeitig damit auseinandersetzen.
Foto: Lightspring - shutterstock.com

Für Unternehmen ist es im Grunde recht einfach, mit dem Einsatz generativer KIgenerativer KI zu starten. Allerdings ist es manchmal besser, dies nicht spontan zu tun. So haben etliche Beschwerden von Urhebern, Künstlern und Schauspielern die US-Filmindustrie über Monate gelähmt und die Studios zu Zugeständnissen beim Einsatz von KI-Tools gezwungen. Aber auch Unternehmen außerhalb der Kreativbranche müssen beim Einsatz von GenAI vorsichtig sein, denn es kann sehr schnell zu peinlichen Rückschlägen und zu handfesten rechtlichen Problemen kommen. Ein Business-Plan, der aussieht, als sei er von der Konkurrenz kopiert worden, ist dabei nicht das größte Problem. Alles zu Generative AI auf CIO.de

KI-Risiko: Den Ruf ruinieren

Microsoft etwa machte schlechte Erfahrungen mit dem "Guardian", der das Technologieunternehmen beschuldigte, einen "erheblichen Imageschaden" verursacht zu haben. Sein KI-Nachrichtensystem habe automatisch eine unsensible Umfrage generiert und in eine Nachricht eingefügt. Leser seien so aufgefordert worden, über den Tod einer Frau zu spekulieren. Wohl nicht das erste Mal bei Bing: Mit demselben KI-Tool wurden auch andere Umfragen erstellt, die moralisch fragwürdig waren.

Hinzu kommen Links zu Malware, bizarre Vorschläge für den Restaurantbesuch, verfälschte Nachrichten von obskuren Websites über Politiker sowie News mit verdrehten Fakten. Ein Unterschied zu früheren medienwirksamen Fehlern von generativen KI-Modellen besteht darin, dass offenbar auf Microsoft-Websites mit Millionen von Besuchern ein automatisiertes System zum Einsatz kam, für das keine menschliche Kontrolle vorgesehen war.

Microsoft hat die Umfrage als Fehler bezeichnet und versprochen, sie zu untersuchen. In den Hinweisen für Kunden von Azure OpenAI wird übrigens davor gewarnt, "Inhalte zu beliebigen Themen" zu erstellen oder KI in "Szenarien einzusetzen, in denen aktuelle und korrekte Informationen entscheidend sind", was vermutlich Nachrichtenseiten einschließt.

Fehler 1: Die KI für alles einsetzen

Generell wird in den umfassenden Transparenzhinweisen für Azure OpenAI davor gewarnt, dass der Dienst unangemessene oder beleidigende Inhalte sowie Antworten produzieren kann, die irrelevant oder falsch sind oder vertrauenswürdige Daten falsch darstellen. Es werden mehrere Szenarien aufgelistet, die vermieden werden sollten, darunter politische Kampagnen und hochsensible Ereignisse, bei denen die Nutzung oder der Missbrauch Auswirkungen auf Lebenschancen oder den rechtlichen Status haben könnte.

Nicht alle GenAI-Anwender haben diese Botschaft vernommen. Viele Verwirrende und schlecht geschriebene Inhalte, die von generativer KI erstellt wurden, tauchen bereits im Business-Kontext auf: Etwa Konferenzbiographien, Blogbeiträge und Präsentationen, die beeindruckend klingen, aber keinen Sinn ergeben. Sie werden von Managern abgezeichnet, die es besser wissen sollten. Diese unsinnigen Inhalte werden sich vermutlich ausbreiten, und es ist an den Unternehmen, wachsam zu sein, um ihren Ruf zu schützen.

"Generative KI ist in der Regel nicht für Kontexte geeignet, in denen Empathie, moralisches Urteilsvermögen und ein tiefes Verständnis menschlicher Nuancen entscheidend sind", sagt Saurabh Daga, Associate Project Manager of Disruptive Tech bei der Branchen-Informationsplattform GlobalData. Seine Liste der sensiblen Bereiche: "Entscheidungen mit hohem Risiko, bei denen Fehler erhebliche rechtliche, finanzielle oder gesundheitliche Folgen haben könnten, sind tendenziell nicht für KI geeignet."

Fehler 2: Der KI blind vertrauen

So beeindruckend sie auch sein mögen: Generative KI-Tools sind von Natur aus probabilistisch, sie werden sich bisweilen irren. Das Risiko besteht darin, dass ungenaue, unfaire oder beleidigende Aussagen in einer selbstbewussten und überzeugenden Sprache formuliert werden, sodass sie für bare Münze genommen werden. Der Schlüssel liegt darin, kein direkt verwertbares Ergebnis zu erwarten, und aufmerksam zu sein, um zu erkennen, wie sich GenAI irren kann. Betrachten Sie die generative KI eher als eine Brainstorming-Diskussion, die zu neuen Ideen anregt, und nicht als Tool, das die perfekte Idee auf dem Silbertablett präsentiert.

Deshalb setzt Microsoft bei den meisten seiner generativen KI-Tools auf Copilot statt Autopilot. "Es geht darum, den Menschen in den Kreislauf einzubinden und ihn so zu gestalten, dass er immer die Kontrolle hat - mit einem Copiloten, der ihm bei jeder Aufgabe hilft", sagte CEO Satya Nadella auf der Inspire-Konferenz im Sommer 2023. Zu lernen, wie man mit Eingabeaufforderungen experimentiert, um bessere Ergebnisse zu erzielen, ist ein wichtiger Teil der Einführung generativer KI, und Tools wie Copilot Lab könnten den Mitarbeitern helfen, diese Fähigkeiten zu erwerben.

Letztlich geht es darum, eine Kultur zu schaffen, in der generative KI als nützliches Werkzeug betrachtet wird - und nicht als Ersatz für menschliche Kreativität oder Urteilsvermögen. Unternehmen sind für die Folgen ihrer Entscheidungen verantwortlich, und dazu gehört auch der fehlerhafte Einsatz von KI, sagt Andi Mann, Global CTO und Gründer der Beratungsfirma Sageable. "Der Kunde wird Sie nicht vom Haken lassen, nur weil Sie sagen: Die KI war Schuld."

Fehler 3: Die KI verstecken

Ein verantwortungsvoller Umgang mit dem System ist entscheidend, sei es durch Mitarbeiter oder Kunden. Und Transparenz ist ein wichtiger Bestandteil davon. Zwar verwenden viele Publikationen inzwischen KI-generierte Inhalte, die aufgrund ihrer schlechten Qualität leicht zu erkennen sind. Aber man sollte sich darüber im Klaren sein, dass auch qualitativ hochwertige Inhalte von einem KI-System erstellt werden können - egal, ob es sich um eine Zusammenfassung eines internen Meetings, eine Marketing-Nachricht oder eine Chatbot-Antwort handelt. Bieten Sie bei automatisierten Systemen wie Chatbots jedoch immer eine Ausstiegsmöglichkeit, die es Nutzern ermöglicht, ihre Frage an einen Menschen weiterzuleiten. "Kunden sollten die Möglichkeit haben, sich gegen eine Interaktion mit generativer KI zu entscheiden, insbesondere in sensiblen Bereichen", fordert Daga von GlobalData.

Fehler 4: Die KI für jedes Problem nehmen

Mit zunehmendem Einsatz generativer KI in Unternehmen müssen immer häufiger Mitarbeiter beurteilen, was die KI ihnen vorschlägt. Acht von zehn IT-Mitarbeitern gaben dies im State of DevOps Automation Report 2022 an. In der Studie State of DevOps Automation and AI 2023 waren es sogar knapp über 90 Prozent. Hier sei Vorsicht angebracht, warnt Berater Mann - vor allem, wenn die domänenspezifischen Trainingsdaten zur Generierung vorhersagbarer, erwünschter und überprüfbarer Ergebnisse begrenzt sind. Etwa beim IT-Betrieb, der aufgrund unzureichender Trainingsdaten anfällig für ungenaue Ergebnisse ist.

"GenAI wird für jeden Anwendungsfall, der sich mit neuartigen Problemen und unbekannten Ursachen mit fehlendem oder nicht dokumentiertem Wissen befasst, weniger nützlich sein", sagt Mann. "Es ist unmöglich, ein LLM zu trainieren, wenn nicht-dokumentiertes menschliches Wissen der einzige potenzielle Input ist." Allerdings sieht er Chancen für GenAI als Hilfsmittel, etwa als Berater oder aktiver Experte für eine Maschine, die lernt, wie "bekannte gute" IT-Prozesse in bestimmten Disziplinen und Wissensspeichern aussehen. Dazu zählt Mann bekannte Probleme und Ursachen, Ineffizienzen und Abhilfemaßnahmen. "Wir wissen, dass KI fast nie sagt, dass sie etwas nicht weiß. Sie liefert irreführende, falsche und sogar bösartige Ergebnisse, wenn man sie dazu bringen will, 'unbekannte Unbekannte' zu lösen."

Fehler 5: Mit KI mehr Arbeit erzeugen

Von generativer KI erzeugte Inhalte sind relativ einfach zu erstellen. Daher können sie am Ende auch viel mehr Arbeit für diejenigen bedeuten, die sie überprüfen und auf ihrer Grundlage Maßnahmen ergreifen müssen. Belletristik-Magazine berichten, dass sie so viele minderwertige KI-Geschichten erhalten, dass es wie ein Denial-of-Service-Angriff wirkt. Und Verlage haben mit KI experimentiert, um Manuskripte zu korrigieren, aber Autoren und Redakteure berichten gleichermaßen, dass die vorgeschlagenen Korrekturen oft nicht hilfreich, sondern irrelevant oder schlichtweg falsch sind.

Seien Sie ehrlich, wenn Sie beurteilen, in welchen Bereichen generative KI tatsächlich einen Beitrag leisten kann. Wichtig ist ein Prozess für den Umgang mit Fehlern, der über deren individuelle Korrektur hinausgeht. Gehen Sie nicht davon aus, dass die generative KI aus ihren Fehlern lernt oder jedes Mal das gleiche Ergebnis liefert. Wenn dies Voraussetzung ist, müssen Sie die Ergebnisse in den wichtigsten Bereichen durch Prompt-Engineering und Filterung einschränken.

Seien Sie auch darauf vorbereitet, dass generative KI in Bereichen und Prozessen eingesetzt wird, die Sie nicht geplant haben und in denen sie möglicherweise weniger genau arbeitet. Auch hier ist Transparenz das A und O. Mitarbeiterinnen und Mitarbeiter müssen die Unternehmensrichtlinien kennen, in denen festgelegt ist, wann sie generative KI einsetzen dürfen und wie sie dies kommunizieren können. Von 1.000 Unternehmen in den USA, die im Frühjahr 2023 von TECHnalysis Research befragt wurden, setzten 88 Prozent bereits generative KI ein, aber nur sieben Prozent dieser Early Adopters verfügten über formale Richtlinien. Und in einer kürzlich von IDC durchgeführten Studie zu den Möglichkeiten der KI gaben mehr als ein Viertel der Manager an, dass der Mangel an KI-Governance und Risikomanagement eine Herausforderung für die Implementierung und Skalierung der Technologie darstelle.

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation cio.com

Zur Startseite