Angst x ChatGPT & Co.

10 Gründe, Generative AI zu fürchten

Peter Wayner schreibt unter anderem für unsere US-Schwesterpublikation InfoWorld.com und ist Autor verschiedener Bücher - unter anderem zu den Themen Open Source Software, autonomes Fahren und digitale Transaktionen.
Künstliche Intelligenz ist endlich im Mainstream angekommen. Die Leistungsfähigkeit von ChatGPT und Konsorten ist beeindruckend – und in mancher Hinsicht beängstigend.
Bei allem Hype um Tools wie ChatGPT sollten die Schattenseiten generativer KI-Modelle nicht unter den Tisch fallen.
Bei allem Hype um Tools wie ChatGPT sollten die Schattenseiten generativer KI-Modelle nicht unter den Tisch fallen.
Foto: Rmedia7 - shutterstock.com

Generative KI-Modelle wie ChatGPT sind in den Augen mancher so schockierend gut, dass sie dem Glauben erliegen, sie seien dem Menschen längst überlegen. Dabei fangen wir alle gerade erst an zu entdecken, was Generative AIGenerative AI leisten kann. Alles zu Generative AI auf CIO.de

Allerdings gilt das auch für diejenigen unter uns, die entweder nichts Gutes im Sinn haben (beispielsweise kriminelle Hacker) oder es ganz gezielt darauf anlegen, ChatGPT und Co. an ihre Grenzen zu bringen, beziehungsweise den Bots gezielt falsche, moralisch bedenkliche oder beleidigende Informationen zu entlocken. Dieser Artikel beleuchtet zehn - mitunter beängstigende - Schattenseiten von Generative AI.

1. Plagiatskultur

Wenn generative KI-Modelle wie DALL-E und ChatGPT etwas erschaffen, erstellen sie eigentlich nur neue Muster aus den Millionen von Beispielen in ihren Trainingssätzen. Das Ergebnis ist eine Copy-Paste-Synthese der Inhalte verschiedenster Quellen. Ein Mensch, der sich dieser Vorgehensweise bedient, macht sich des Plagiarismus schuldig.

Im Fall der Generative-AI-Tools sind die Quellen dabei manchmal klar erkennbar, andere Male aber so stark vermischt, dass das fast unmöglich ist. Was den KI-generierten Inhalten dabei in jedem Fall fehlt, ist die Einzigartigkeit. So toll ChatGPT, DALL-E und wie sie alle heißen auch scheinen mögen - sie sind nicht in der Lage, etwas wirklich Neues zu produzieren.

2. Urheberrechtsprobleme

Während Plagiate in der Praxis wohl vor allem ein Thema für (manche) Bildungseinrichtungen sein dürften, sieht es beim Urheberrecht schon anders aus. Klaut ein Mensch das geistige Eigentum eines anderen, riskiert er, vor ein Gericht gestellt zu werden. Aber wie sieht das im Fall von künstlicher Intelligenz aus? Gelten für Maschinen die gleichen Regeln?

Es wird noch Jahre dauern, bis Fragen wie diese - und der Status von Generative AI im Allgemeinen - abschließend rechtlich geklärt werden können.

3. Unentgeltliche Nutzerbeiträge

Plagiatskultur und urheberrechtliches Unheil sind nicht die einzigen rechtlichen Unwägbarkeiten, die durch generative KI-Modelle aufgeworfen werden. Und zahlreiche Juristen auf der ganzen Welt beschäftigen sich bereits mit diversen ethischen Fragen in Zusammenhang mit künstlicher Intelligenz, die künftig zu Rechtsstreitigkeiten führen werden.

Dazu könnte beispielsweise die Frage gehören, ob Unternehmen die (kreativen) Daten ihrer menschlichen Nutzer dazu verwenden dürfen, KI-Modelle zu trainieren. Sollten die Nutzer in so einem Fall für ihren Beitrag bezahlt werden? Der Erfolg der aktuellen Generative-AI-Generation fußt im Wesentlichen auf dem Zugang zu Daten. Dass die Menschen, die diese generieren, künftig ein Stück vom Kuchen abhaben wollen, ist nicht unwahrscheinlich.

4. Informationen ungleich Wissen

KI-Instanzen sind besonders gut darin, die Art von Intelligenz zu imitieren, für deren Entwicklung Menschen Jahre brauchen. Wenn ein Mensch in der Lage ist, einen detaillierten Vortrag über einen obskuren Künstler aus dem 17. Jahrhundert zu halten oder neue Musik in einer fast vergessenen Tonstruktur der Renaissance zu schreiben, sind wir aus gutem Grund beeindruckt: Uns ist bewusst, dass es Jahre bedurfte, um das dafür notwendige Knowhow zu entwickeln. Wenn eine künstliche Intelligenzkünstliche Intelligenz nach wenigen Monaten des Trainings dieselben Dinge erledigt, sind die Ergebnisse möglicherweise verblüffend präzise und korrekt - aber es fehlt etwas. Alles zu Künstliche Intelligenz auf CIO.de

KI mag den Anschein erwecken, die spielerische und unvorhersehbare Seite der menschlichen Kreativität zu imitieren, ist dazu aber nicht wirklich in der Lage. Das Unvorhersehbare ist jedoch der Motor für kreative Innovation. Manche Branchen - etwa Fashion - werden durch kontinuierliche, unvorhersehbare Veränderungen definiert. Künstliche Intelligenz hat ihren Platz - ebenso wie die menschliche.

5. Intellektuelle Stagnation

Apropos Intelligenz: KIs funktionieren von Natur aus mechanisch und regelbasiert: Sobald eine Instanz einen Satz von Trainingsdaten durchforstet hat, erstellt sie ein Modell - das sich anschließend nicht mehr wirklich verändert. Einige Ingenieure und Datenwissenschaftler erliegen zwar der Vorstellung, KI-Modelle im Laufe der Zeit schrittweise "umtrainieren" zu können, damit die Maschinen lernen, sich anzupassen. In der Praxis geht es in den meisten Fällen jedoch darum, spezifisches Wissen fest einzukodieren. Diese Beständigkeit kann für bestimmte Zwecke beziehungsweise Branchen sinnvoll sein und hat insofern auch ihre Berechtigung. Die Gefahr mit Blick auf die KI: Sie könnte dauerhaft im Zeitgeist ihrer Trainingsdaten verharren.

Die große Frage ist: Was passiert, wenn wir so abhängig von Generative AI werden, dass wir kein neues Material mehr für die Trainingsmodelle produzieren können?

Zur Startseite