AI Act

EU vereinbart Regeln für Künstliche Intelligenz

11.12.2023
Die EU hat jetzt Regeln für den Einsatz Künstlicher Intelligenz vorgelegt, die die Gefahren beherrschbar machen sollen. Manchen geht das zu weit, andere beklagen zu starke Einschränkungen.
Die EU ist die erste Region weltweit, die verbindliche Regeln zum Einsatz der sogenannten "Künstlichen Intelligenz" (KI) vorgibt. Die Reaktionen darauf fallen sehr unterschiedlich aus.
Foto: artjazz - shutterstock.com

Die Europäische Union (EU) hat sich auf Regeln für die Nutzung Künstlicher Intelligenz (KI) verständigt. Das Europaparlament und die EU-Staaten stellten heraus: Es sind weltweit die ersten Regeln für KI. Jedoch kommt von zwei Seiten Kritik. Die einen halten die Regeln für zu streng, die anderen für zu lasch. Die Wirtschaft befürchtet, die künftige EU-Verordnung werde Innovationen hemmen. Aus Sicht von Verbraucherschützern werden die Risiken mancher Anwendungen nicht ernst genug genommen.

Europa droht nach Ansicht des Bundesverbands der Deutschen Industrie (BDI) bei der Schlüsseltechnologie KI nun ins Hintertreffen zu geraten. "Mit der umfassenden Regulierung von KI-Basismodellen und KI-Anwendungen gefährdet der AI Act die Wettbewerbs- und Innovationsfähigkeit sowohl auf Hersteller- als auch auf Anwenderseite", sagte BDI-Geschäftsführungsmitglied Iris Plöger. Die Regulierung basiere auf unausgereiften Kriterien, die den Unternehmen weniger statt mehr Rechtssicherheit brächten.

Der Technikbranchenverband Bitkom sprach von einem "politischen Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft". Der erzielte Kompromiss greife tief in die Technologie ein."Die EU bindet damit den Unternehmen einen regulatorischen Klotz ans Bein. Das Risiko ist groß, dass europäische Unternehmen durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können", sagte Bitkom-Hauptgeschäftsführer Bernhard Rohleder.

Die europäische Verbraucherschutzorganisation Beuc kritisierte dagegen, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse. "So werden beispielsweise virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken erhalten, damit die Verbraucher ihnen vertrauen können", hieß es.

Die deutsche Verbraucherschutzministerin Steffi Lemke (Grüne) sieht in der KI-Verordnung hingegen einen Schutz für Verbraucher vor den Risiken der neuen Technologie. "In den Verhandlungen haben wir uns besonders dafür eingesetzt, dass KI-Systeme transparent, nachvollziehbar und überprüfbar gestaltet werden. So müssen nun künftig Unternehmen, die den Einsatz von KI-Technologien anbieten, Informationen über die Funktionsweise ihrer Systeme bereitstellen und KI-gestützte Entscheidungen erläutern", sagte Lemke. Bei Verstößen könnten Verbraucherverbände mit Verbandsklagen gerichtlich dagegen vorgehen.

Erhebliches Schadenspotenzial

Die vorgelegten Vorschriften legen Verpflichtungen für KI auf Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als besonders riskant werde KI eingestuft, die ein erhebliches Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit haben.

Bestimmte Anwendungen werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein. Allerdings wird es Ausnahmen für biometrische Identifizierungen im öffentlichen Raum in Echtzeit geben, etwa bei der Gefahr eines Terroranschlags oder bei der gezielten Suche von Opfern von Menschenhandel. Um diesen Punkt wurde intensiv gerungen, das EU-Parlament wollte eigentlich ein komplettes Verbot.

Ein weiterer Streitpunkt war die Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählt etwa GPT. Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basis-Technologie an sich. Nun einigten sich die Unterhändler auf bestimmte Transparenzpflichten für diese Modelle.

Der Bundesminister für Digitales, Volker Wissing (FDP), enthielt sich einer endgültigen Bewertung. Einerseits sei verhindert worden, dass bestimmte Systeme in den Hochrisikobereich fallen, andererseits müsse das Regelwerk Innovationen ermöglichen und verhältnismäßig sein, sagte er. "Ob dies gelungen ist, werden wir uns in den nächsten Tagen sehr genau anschauen." (dpa/rs/rw)