EU AI Act

Scheitert generative KI an der Regulierung?



Sebastian Bluhm ist Managing Partner bei PLAN D. Er ist ein Tech-Optimist, der Impulse gibt, wo strategische Vision und Data Science aufeinandertreffen. Die Entwicklung datengetriebener Geschäftsmodelle und Produkte ist sein Spezialgebiet. Besonders interessiert ihn dabei die nachhaltige Implementierung: Technologie und Strategie müssen langfristig Sinn ergeben. Der studierte Informatiker vereint technologische und strategische Expertise und hat jahrelange Erfahrung in der Leitung und Umsetzung von Technologieprojekten – vom Mittelständler bis zum multinationalen Konzern.

Ein zentraler Kritikpunkt der Studie an allen Sprachmodellen ist ihr Umgang mit urheberrechtlich geschützten Daten. So werden aktuell viele Modelle mit Daten aus dem Internet trainiert, von denen ein nennenswerter Teil höchstwahrscheinlich urheberrechtlich geschützt ist. Aber: Kaum ein Anbieter veröffentlicht Informationen über den Copyright-Status der eingesetzten Trainingsdaten.

Unternehmen schwanken zwischen Skepsis und Verlockung

Droht diese mangelnde Transparenz also zum Stolperstein für die Anbieter der großen Foundation Models zu werden? Erwartet uns nach Inkrafttreten des EU AI Acts ein europaweites Verbot der Systeme? Oder ein Rückbau ihrer Funktionen?

Das ist noch nicht gesagt. Zwar haben bereits einige Staaten damit begonnen, führende Sprachmodelle kritisch zu prüfen, und deren Nutzung teilweise eingeschränkt. In Italien wurde ChatGPT aber beispielsweise nach wenigen Wochen (und der Umsetzung überschaubarer Auflagen) wieder erlaubt.

Ein ähnliches Phänomen zeigt sich auch bei vielen unserer Kunden. Nach anfänglicher Skepsis aufgrund von Datenschutzbedenken schwenken einige Unternehmen nach wenigen Wochen um. Zu attraktiv sind die Fähigkeiten der großen Sprachmodelle. Und zu unwahrscheinlich die Möglichkeit, in absehbarer Zeit eine ebenbürtige Anwendung entwickeln zu können, die allen Anforderungen an Transparenz und Datenschutz genügt. Open AI, Google und Co. haben ihren Job gut gemacht. Die Verlockung ist zu groß.

Der genaue Gesetzestext steht noch nicht fest

Der europäische Gesetzgeber steht derweil vor der Herausforderung, dass sich die Foundation Models nur schwer in die definierten Risikokategorien einordnen lassen. Auf den ersten Blick handelt es sich bei generativer KI um Systeme mit begrenztem Risiko. Doch die neuesten Modelle sind so vielfältig anwendbar, dass sie selbstverständlich auch in Hochrisiko-Anwendungen zum Einsatz kommen können und werden. Es macht eben einen Unterschied, ob ich mir von ChatGPT einen LinkedIn-Post vorbereiten lasse, oder ob in einer Behörde die Anträge auf Sozialleistungen automatisiert beantwortet werden (nicht, dass das jemand vorhätte). Die Festlegung der Technologie auf eine spezifische Risikoklasse greift jedenfalls zu kurz.

Das Europäische Parlament hat darauf reagiert, indem es eine zusätzliche Regelung für Foundation Models eingebracht hat. Der entsprechende Artikel enthält neun Verpflichtungen für die Entwickler generativer KI, darunter Risikobewertung und Transparenz.

Noch wird in den europäischen Institutionen also um den genauen Gesetzestext gerungen. Dass in dieser Situation die großen Tech-Konzerne ihre Lobbyismus-Maschinen anschmeißen, um die Regulierung in ihrem Sinne zu beeinflussen, versteht sich von selbst. Und auch Organisationen wie der KI-Bundesverband, dessen Mitglied ich bin, versuchen, noch letzte Änderungen durchzusetzen - darunter eine engere Definition von künstlicher Intelligenz sowie begleitende Maßnahmen zur Förderung von Startups und KMU in Europa.

Eins ist klar: Die Lage ist unklar

Hinzu kommt, dass es weitere Gesetzgebungsverfahren gibt, die die Nutzung der amerikanischen Systeme innerhalb von Europa erschweren könnten - zumindest wenn personenbezogene Daten im Spiel sind. Nach aktuellem Stand kann durch das Privacy Shield 2.0 bald wieder eine Verarbeitung von personenbezogenen Daten auf Servern von US-Unternehmen und damit auch von KI-Modellen stattfinden. Doch der Datenschutzaktivist Max Schrems hat die nächste EuGH-Klage schon in der Schublade. Es ist also nicht sicher, wann und in welcher Form das geplante Abkommen zu den Datentransfers zwischen der EU und den USA zustande kommt oder wie lange es halten wird.

Somit ist eigentlich nur eines klar: Nämlich, dass die Lage unübersichtlich bleibt. Für Unternehmen ist das eine herausfordernde Situation. Wie sollen Sie in Bezug auf die Nutzung großer Sprachmodelle strategische Entscheidungen treffen, während noch völlig unklar ist, wie es weitergeht?

Das Thema künstliche Intelligenzkünstliche Intelligenz verfrüht abzutun oder auch nur die Verabschiedung der Regulierung abzuwarten, ist jedoch keine Option. Zu groß ist der ökonomische Zugzwang, die neue Technologie gewinnbringend im eigenen Geschäft einzusetzen. Ob im dynamischen Wettbewerb, als Gegenmittel gegen den grassierenden Fachkräftemangel oder um den Verlust von Wissen durch den Weggang erfahrener Mitarbeiter aufzufangen: Die Bereiche, in denen generative KIgenerative KI zu einer enormen Entlastung führen kann, sind zahlreich. Alles zu Generative AI auf CIO.de Alles zu Künstliche Intelligenz auf CIO.de

Zur Startseite