KI-Praxis

CIOs üben den Umgang mit Generative AI

13.07.2023 von Maria Korolov
Generative KI ist das Thema der Stunde. Doch vor dem praktischen Einsatz sollten sich CIOs sieben kritische Fragen stellen.
Experimentieren und studieren: IT-Chefs sollten jetzt damit beginnen, das Potenzial generativer KI für ihr Unternehmen auszuloten.
Foto: marvent - shutterstock.com

Unternehmen nutzen Generative AI, um Code zu schreiben, Marketingtexte zu erstellen oder Chatbots zu betreiben. Und dann gibt es andere wie den SmileDirectClub, der Bilder generiert, um seine Kunden besser zu bedienen. Das Unternehmen für Telezahnmedizin verwendet generative KI, um Bilder von Gebissen zu erstellen. Genauer gesagt, um Menschen dabei zu helfen, zu verstehen, wie ihre Zähne korrigiert werden können. "Basis ist unsere SmileMaker-Plattform", berichtet CIO Justin Skinner. "Sie machen ein Foto von Ihren Zähnen mit Ihrem Telefon, und wir generieren ein 3D-Modell, um durch KI zu zeigen, wie ein Zahnkorrekturplan aussehen könnte, wie lange es dauert und wie das Gebiss aussehen würde, wenn wir fertig sind."

Populäre Gen-AI-Plattformen wie ChatGPT von OpenAI, Google Bard oder Stable Diffusion sind nicht auf 3D-Bilder von Zähnen trainiert. Als seine Arbeit aufnahm, waren die Plattformen noch nicht einmal verfügbar. Das Unternehmen hat seine eigene generative KI entwickelt, mit einem eigenen Datensatz, auf eigenen Servern. SmileDirectClub startete das Projekt vor drei Jahren mit einem externen Partner. Als das nicht funktionierte, baute man ein eigenes Team auf, um die benötigten proprietären Modelle zu erstellen.

Laut einer aktuellen Umfrage von The Harris Poll im Auftrag von Insight Enterprises haben 39 Prozent der US-Unternehmen bereits Richtlinien oder Strategien für generative KI eingeführt; 42 Prozent sind dabei, sie zu entwickeln. Die folgenden sieben Fragen können CIOs dabei helfen, einen Rahmen für den Einsatz generativer KI in ihrer Organisation zu entwickeln.

Wo liegt der geschäftliche Nutzen?

Laut Harris Poll geben 72 Prozent der Führungskräfte an, dass sie in den nächsten drei Jahren generative KI-Technologien einsetzen wollen, um die Produktivität ihrer Mitarbeiter zu erhöhen. Zwei Drittel planen, KI zur Verbesserung des Kundendienstes zu nutzen. CIOs stehen unter Druck, mit den rasanten KI-Entwicklungen Schritt zu halten, sagt CIO Skinner. IT-Manager müssten vor allem begreifen, welche Möglichkeiten der generativen KI generell auf ihr Unternehmen anwendbar sind: "Verstehe ich diese Punkte wirklich? Und verstehe ich, wie sie sich auf meine Organisation anwenden lassen, um einen Mehrwert zu erzielen?"

Angesichts des raschen Wandels lautet das Gebot der Stunde, mit generativer KI zu experimentieren, und zwar in großem Maßstab. Diesen Ansatz verfolgt Insight Enterprises. Der Dienstleister hat derzeit 10.000 Mitarbeiter, die generative KI-Tools nutzen und ihre Erfahrungen austauschen. "Es ist eine der größten Implementierungen von generativer KI, die ich kenne", erläutert David McCurdy, Chief Enterprise Architect und CTO von Insight. "Wir wollen verstehen, was das Modell gut und was es nicht gut macht."

Die Neuartigkeit der generativen KI möge zwar cool sein, aber das allein sei nicht besonders nützlich. "Also haben wir sie mit Verträgen gefüttert und ihr differenzierte Fragen dazu gestellt: Wo sind die Verbindlichkeiten, wo die Risiken", berichtet er. "Das Zerpflücken der Verträge war zu 100 Prozent effektiv, das ist ein Anwendungsfall für die ganze Welt." Die wichtigste Frage, die sich jeder CIO stellen sollte, sei die nach dem Einsatz generativer KI in den nächsten ein bis zwei Jahren. "Diejenigen, die sagen, dass es nicht in Frage kommt oder die erstmal abwarten wollen, machen einen großen Fehler", fügt McCurdy hinzu. Sie würden an Produktivität verlieren und müssten kritische Fragen ihrer Vorstände zu KI beantworten.

Was ist unsere Deployment-Strategie?

Unternehmen, die in die generative KI einsteigen wollen, haben eine Vielzahl von Möglichkeiten. Sie können etwa ihre eigenen Modelle entwickeln oder kommerzielle Alternativen nutzen, die on-Premises oder in privaten Clouds ausgeführt werden. Traditionelle SaaS-Anbieter wie Salesforce, Microsoft und Google binden generative KI in ihre Dienste ein. Diese Modelle werden für bestimmte Geschäftsfälle angepasst und von Anbietern betrieben. Schließlich gibt es noch öffentliche Modelle wie ChatGPT, auf die über Schnittstellen zugegriffen wird oder die in gesicherten privaten Clouds laufen. Eine weitere Option besteht darin, eine KI wie ChatGPT zu verwenden und ihr über eine Vektordatenbank Zugriff auf Unternehmensdaten zu geben.

"Der Wert liegt in der Verwendung bestehender Modelle und dem Bereitstellen eigener Daten", sagt CTO McCurdy. "Darin besteht die eigentliche Innovation und Produktivität." Der Ansatz sei funktional gleichbedeutend mit dem Einfügen von Dokumenten in ChatGPT, damit es diese analysiert, bevor es Fragen beantwortet - mit dem Unterschied, dass die Dokumente nicht jedes Mal neu eingefügt werden müssen. Insight hat zum Beispiel alle jemals geschriebenen Whitepaper und alle Transkripte von Interviews in eine Vektordatenbank geladen, auf die sich die generative KI beziehen kann.

Wie sichern wir Daten, Kunden und Mitarbeiter ab?

Einem PWC-Bericht zufolge geben fast alle Führungskräfte an, dass ihr Unternehmen in nächster Zeit mindestens eine Initiative im Zusammenhang mit KI-Systemen priorisiert. Aber nur 35 Prozent der Manager stimmen zu, dass sich ihr Unternehmen in den nächsten zwölf Monaten auf die Verbesserung der Governance von KI-Systemen konzentrieren wird, und lediglich jeder Dritte Risikoexperte ist derzeit in der Planungs- und Strategiephase von Anwendungen generativer KI beteiligt.

CIO Skinner von SmileDirectClub beispielsweise schaut sich Plattformen wie ChatGPT wegen der potenziellen Produktivitätsvorteile an, zeigt sich aber besorgt über die Risiken in Bezug auf Daten und Datenschutz. "Es ist wichtig zu verstehen, wie die Daten geschützt werden, bevor man sich darauf einlässt", sagt er. Das Unternehmen wird demnächst eine interne Kommunikations- und Aufklärungskampagne für die Mitarbeiter starten. "Sie müssen in Ihrem Unternehmen Sicherheitsrichtlinien aufstellen, die ihre Teammitglieder kennen", sagt er. "Im Moment lautet unsere Richtlinie, dass man keine Kundendaten auf diese Plattformen hochladen darf."

Laut Matt Barrington, Leiter für Emerging Technologies bei Ernst & Young Americas, ist etwa die Hälfte seiner Gesprächspartner aus Unternehmen angesichts potenzieller Risiken besorgt. Sie blockierten ChatGPT und ähnliche Plattformen komplett, "solange sie sie nicht verstehen können". In diesen Organisationen würde ChatGPT von vielen Menschen jedoch immer noch genutzt, fügt er hinzu. "Der Zug ist abgefahren - die Macht dieser KI-Tools ist so groß, dass sie schwer zu kontrollieren ist. Es ist wie in den frühen Tagen des Cloud Computing."

Wie können wir uns vor Verzerrungen schützen?

Der Umgang mit Voreingenommenheit ("Bias") ist in herkömmlichen maschinellen Lernsystemen, bei denen ein Unternehmen mit einem klar definierten Datensatz arbeitet, schwierig genug. Bei großen Basismodellen, wie sie für die Code-, Text- oder Bilderzeugung verwendet werden, kann der Trainingsdatensatz jedoch völlig unbekannt sein. Darüber hinaus ist die Art und Weise, wie die Modelle lernen, meist intransparent - selbst Forscher, die sie entwickelt haben, verstehen nicht vollständig, wie das Ganze abläuft. Dies bereitet vor allem den Regulierungsbehörden große Sorgen.

"Die Europäische Union ist Vorreiter", sagt Barrington von EY. "Sie hat ein KI-Gesetz vorgeschlagen, und Sam Altman von OpenAI fordert strenge Vorschriften. Da kommt noch viel auf uns zu." Und Altman ist nicht der Einzige. Laut einer Umfrage der Boston Consulting Group befürworten 79 Prozent der befragten Führungskräfte eine Regulierung von KI. Je sensibler die gesammelten Daten sind, so Barrington, desto vorsichtiger müssten die Unternehmen sein. "Wir sind optimistisch bei den Auswirkungen von KI auf die Wirtschaft, aber ebenso vorsichtig, was eine verantwortungsvolle und ethische Implementierung angeht", sagt er. Der verantwortungsvolle Einsatz von KI sei künftig ein erfolgsentscheidender Faktor.

Mit wem können wir zusammenarbeiten?

Für die meisten Unternehmen werde der effektivste Einsatz generativer KI über vertrauenswürdige Partner laufen, prognostiziert Michele Goetz, Analystin bei Forrester Research. Es dauere wahrscheinlich noch mindestens drei Jahre, bis Unternehmen ihre eigenen generativen KI-Fähigkeiten praktisch nutzen. Bis dahin würden sie in sicheren Zonen mit der Technologie spielen und experimentieren, während sie sich im Fall einer sofortigen Bereitstellung auf Partner verlassen.

Trotzdem müssten Unternehmen ihre Sorgfaltspflicht erfüllen, warnt Goetz. "Die Anbieter geben an, dass sie die KI als Service betreiben und dass diese abgeschottet ist. Aber möglicherweise wird das Modell noch weiter trainiert, und es kann immer noch Wissen und geistiges Eigentum in das Basismodell einfließen." Wenn beispielsweise ein Mitarbeiter ein sensibles Dokument zum Korrekturlesen hochlädt und die KI dann damit trainiert wird, könnte sie dieses Wissen nutzen, um Fragen von Anwendern in anderen Unternehmen zu beantworten, wodurch sensible Informationen durchsickern können.

Es gibt noch weitere Fragen, die CIOs ihren Anbietern stellen sollten, so Goetz, etwa woher die ursprünglichen Trainingsdaten stammen, wie sie validiert und verwaltet werden, wie das Modell aktualisiert wird und wie die Datenquellen im Laufe der Zeit verwaltet werden. "CIOs müssen darauf vertrauen, dass der Anbieter das Richtige tut", so Goetz. "Aus diesem Grund sind viele Unternehmen noch nicht bereit, die neue generative KI in Bereichen zuzulassen, die sie nicht effektiv kontrollieren können." Das sei vor allem in stark regulierten Branchen der Fall.

Wieviel wird es kosten?

Die Kosten für eingebettete KI von Softwareanbieten sind relativ überschaubar und transparent. Fangen Unternehmen jedoch an, ihre eigene generative KI zu entwickeln, wird es wesentlich komplizierter. Denn in der ganzen Aufregung um Generative AI können Unternehmen manchmal die Tatsache aus den Augen verlieren, dass große Sprachmodelle sehr hohe Rechenanforderungen haben.

"Viele wollen sofort loslegen und Ergebnisse sehen, haben aber nicht über die Auswirkungen nachgedacht, die eine Umsetzung in großem Maßstab mit sich bringt", warnt Ruben Schaubroeck, Senior Partner bei McKinsey. "Sie wollen aus Gründen des Datenschutzes und der Sicherheit kein öffentliches ChatGPT nutzen, ihre eigenen Daten verwenden und sie über ChatGPT-ähnliche Schnittstellen abrufbar machen. Wir beobachten, dass Unternehmen große Sprachmodelle mit ihren eigenen Daten entwickeln." Begonnen werde oft mit Proof-of-Concepts, das Thema TCO sei da noch gar nicht auf dem Tisch, sagt Schaubroeck. "Die Frage hören wir nur selten, aber man sollte in dieser Hinsicht nicht naiv sein."

Ist Ihre Daten-Infrastruktur bereit für Generative AI?

Eingebettete generative KI ist für Unternehmen einfach zu implementieren, da der Anbieter die KI direkt neben Daten platziert, die benötigt werden. So fügt Adobe beispielsweise generative KI in Photoshop ein - das Quellbild, mit dem gearbeitet werden soll, befindet sich direkt dort. Wenn Google generative KI in Gmail oder Microsoft in Office 365 einbaut, werden alle benötigten Dokumente sofort verfügbar sein. Komplexere Implementierungen erfordern aber eine solide Datengrundlage. Doch daran arbeiten viele Unternehmen noch.

"Wenige Unternehmen sind tatsächlich so weit", berichtet Nick Amabile, CEO von DAS42, einem Beratungsunternehmen für Daten und Analytik. Die Daten müssten zentralisiert und für KI-Anwendungen optimiert werden, sagt er. Ein Unternehmen könne beispielsweise über Daten verfügen, die auf verschiedene Backend-Systeme verteilt sind. Um den größten Nutzen aus KI zu ziehen, müssten diese Daten zusammengeführt werden. "Der große Vorteil von KI ist, dass sie Daten in einem Umfang analysieren oder synthetisieren kann, zu dem Menschen nicht in der Lage sind", so Amabile.

Wenn es um KI geht, sind Daten der Treibstoff, bestätigt Sreekanth Menon, VP und Global Leader für KI/ML Services bei Genpact. Daher müssten Unternehmen für KI ertüchtigt werden - mit den richtigen und bereinigten Daten, Tools, Data Governance und Leitplanken. Notwendig seien auch Plattformen zur Kontrolle, die für große Sprachmodelle jedoch gerade erst entstehen. Hier geht es um Themen wie die Genauigkeit der Ergebnisse, Kosten, Latenzzeit, Transparenz, Verzerrungen, Sicherheit und die zeitnahe Überwachung. "In dieser Phase müssen Sie Leitplanken aufstellen und Prinzipien definieren", rät Menon. Erst dann könnten Unternehmen beginnen, generative KI zu entwickeln und im gesamten Unternehmen auszurollen.

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation cio.com