Datenschutzbehörde

Italien sperrt ChatGPT

03.04.2023
In Italien muss der Chatroboter ChatGPT eine Pause einlegen. Die dortige Datenschutzbehörde sieht gravierende Mängel und verfügte eine Sperre.
Der Betreiber OpenAI hat nun knapp drei Wochen Zeit für eine Antwort.
Der Betreiber OpenAI hat nun knapp drei Wochen Zeit für eine Antwort.
Foto: Ascannio - shutterstock.com

Italiens Datenschutzbehörde hat den populären Text-Automaten ChatGPT im Land vorläufig gesperrt. Sie verwies am Freitag unter anderem darauf, das der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere. Auch gebe es keine Filter, die verhinderten, dass Kinder im Alter unter 13 Jahren für sie "absolut unangebrachte" Informationen angezeigt bekämen. Es seien Ermittlungen eingeleitet worden.

Die Behörde verbot zugleich vorsorglich die Verarbeitung von Daten von Nutzern aus Italien - ChatGPT ist damit in dem Land nicht mehr anwendbar. OpenAI bekam 20 Tage Zeit, Maßnahmen gegen die Vorwürfe zu präsentieren. Danach droht eine Strafe bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.

Die Datenschutzbehörde verwies auch auf eine jüngst bekanntgewordene Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurück.

Fakten halluzinieren

ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasste. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software "Fakten halluziniert", wie OpenAI es nennt - falsche Informationen als korrekt wiedergibt.

Die italienischen DatenschützerDatenschützer sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde. Es gebe keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen. Alles zu Datenschutz auf CIO.de

Die Behörde war im Februar bereits auf ähnliche Weise gegen einen anderen ChatbotChatbot mit dem Namen Replika vorgegangen. Dabei ging es vor allem darum, dass Kinder im Alter unter 13 Jahren ungenügend geschützt würden. Alles zu Chatbot auf CIO.de

ChatGPT hatte in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenzkünstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte. (dpa/rs) Alles zu Künstliche Intelligenz auf CIO.de

Zur Startseite