Generative AI braucht Ethik

Ein hybrider Ansatz zur KI-Entwicklung

02.10.2023
Joe Xavier ist Chief Technology Officer beim KI-Unternehmen Grammarly.
Ein verantwortungsvoller Umgang mit KI erfordert einen hybriden Ansatz, der die Vorteile großer Sprachmodelle und ML-Verfahren mit “Human-in-the-Loop” kombiniert.
Die verantwortungsbewusste Entwicklung KI-basierter Produkte erfolgt am besten durch einen hybriden Ansatz, der die Leistungsfähigkeit großer sprachmodellierender KI-Systeme mit der Präzision anderer maschineller Lernverfahren verbindet.
Die verantwortungsbewusste Entwicklung KI-basierter Produkte erfolgt am besten durch einen hybriden Ansatz, der die Leistungsfähigkeit großer sprachmodellierender KI-Systeme mit der Präzision anderer maschineller Lernverfahren verbindet.
Foto: whiteMocca - shutterstock.com

Technologien auf Basis generativer KIgenerativer KI sind auf dem Vormarsch und werden immer stärker in unser Leben integriert. Laut einer aktuellen Studie des ifo Instituts setzen derzeit 13 Prozent der deutschen Unternehmen künstliche Intelligenzkünstliche Intelligenz ein, während neun Prozent vorhaben, sie in Zukunft zu verwenden. Zusätzlich prüfen fast 37 Prozent aller befragten Unternehmen verschiedene Anwendungsmöglichkeiten. Aber wie jede Technologie birgt auch die KI Unbekanntes. Alles zu Generative AI auf CIO.de Alles zu Künstliche Intelligenz auf CIO.de

Zu den größten Herausforderungen, mit denen die KI heute konfrontiert ist, gehört das Bedürfnis nach mehr Rechenschaftspflicht und Transparenz hinsichtlich der Art und Weise, wie diese Technologie ihre Outputs erzeugt. Bedenken in Bezug auf Voreingenommenheit, der sogenannte Bias, Fairness und Sicherheit stehen ganz oben auf der Liste. In einer Zeit, in der Ethik und die Regulierung von KI stark in den Fokus rücken, benötigen Tech-Unternehmen Echtzeitlösungen, um diese Bedenken auszuräumen. Eine der Optionen ist ein hybrider Ansatz zur KI-Entwicklung.

LLMs und Machine Learning: Die Kraft der Kombination

Dieser aufkommende Ansatz kombiniert das Beste aus beiden Welten: die Leistungsfähigkeit und Skalierbarkeit großer Sprachmodelle (Large Language Models, LLMs) mit der Präzision und Erklärbarkeit traditioneller maschineller Lernverfahren. Hybride Technologien mit einem "Human-in-the-Loop", bei denen der Mensch eng in die Entwicklung eingebunden ist, haben das Potenzial, die Art und Weise, wie wir Innovationen hervorbringen, zu revolutionieren und KI-Werkzeuge zu erschaffen, die verantwortungsvoller und nutzerorientierter sind als heute.

Im Mittelpunkt dieses Ansatzes steht die Idee, die Stärken der LLMs zusammen mit dem traditionellen maschinellen Lernen zu nutzen, um robustere und zuverlässigere KI-Systeme zu schaffen. Große Sprachmodelle wie GPT-4 verwenden einige der fortschrittlichsten Deep-Learning-Algorithmen, die je entwickelt wurden, um geschriebene Sprache zu verstehen und authentischen Text zu erzeugen.

Beim herkömmlichen maschinellen Lernen trainiert man Modelle auf großen Datensätzen und verwendet statistische Methoden, um Vorhersagen zu treffen. Durch Kombination oder Schichtung dieser Ansätze können KI-Produktentwickler Systeme schaffen, die sowohl nützlich als auch transparent sind. LLMs bieten dabei die notwendige Skalierbarkeit und Flexibilität, um große Datenmengen zu verarbeiten und menschenähnliche Texte zu erzeugen.

Gleichzeitig bieten herkömmliche maschinelle Lernverfahren mehr Fairness und Transparenz durch interpretierbare Modelle, erklärbare "Feature Importance" und die Möglichkeit, Bias durch sorgfältiges Feature-Engineering, Algorithmen-Design und Datenannotation abzuschwächen.

Obwohl LLMs Verzerrungen und Fairnessprobleme möglicherweise mit der Zeit durch Real-World-Tests beheben werden, wird es noch dauern, bis sie richtig funktionieren. Bei skalierten Produkten, die Millionen von Nutzern erreichen, ermöglicht ein hybrider Ansatz schnelle Korrekturen innerhalb von Stunden oder Tagen, wobei das Vertrauen der Nutzer im Vordergrund steht.

Verbesserung GPT-generierter Inhalte mit hybriden KI-Systemen

Aber wie genau funktioniert ein hybrider Ansatz bei der Entwicklung von Kundenanwendungen? Beim KI-Unternehmen Grammarly wurden beispielsweise bei der Einführung von LLMs Untersuchungen durchgeführt, um die Hypothese zu bestätigen, dass mehrschichtige Techniken zu zuverlässigeren sowie kontextuell relevanteren Gesamtergebnissen führen. Zu diesem Zweck wurde der generierte Beitrag jeder Technologie im System quantitativ bewertet. Eigentlich sollte ein von GPT erzeugter Text weitgehend fehlerfrei sein. Quantitative Forschungen ergaben, dass eklatante grammatikalische Fehler in den Ausgaben tatsächlich selten sind.

Auch die im Test von Grammarly erhaltenen Ergebnisse bestätigten das: Texte, die mit generativer KI erstellt wurden, wiesen erwartungsgemäß relativ wenige Grammatik- und Rechtschreibfehler auf. Als der Text jedoch anschließend durch die hauseigenen KI- und Machine-Learning-Systeme lief, zeigten die Untersuchungen, dass zusätzliche stilistische und sicherheitsrelevante Verbesserungen möglich sind (zum Beispiel eine inklusivere oder aktivere Sprache).

Im Wesentlichen bietet die hybride KI also die Möglichkeit, die Gesamtqualität der GPT-Ausgaben zu verbessern. Auch wenn eine genauere Analyse erforderlich ist, um zu sehen, ob die KI dabei Vorschläge macht, die möglicherweise nicht korrekt sind, oder ob es sich um falsch-positive oder negative Vorschläge handelt, entspricht die Fülle der aufgedeckten stilistischen Probleme den oft geäußerten Bedenken hinsichtlich der Qualität der von GPT erzeugten Texte.

Verantwortungsbewusste KI-Entwicklung braucht "Human-in-the-Loop"

Aber es geht nicht nur um die Technologie, sondern auch um die Menschen dahinter. Verantwortungsvolle KI ist ein multidisziplinäres Unterfangen, an dem funktionsübergreifende Teams von Datenwissenschaftlern, Linguisten und Softwareentwicklern bis hin zu Produktmanagern und Designern beteiligt sind. Im Mittelpunkt dieser Bemühungen steht die Notwendigkeit, Bias zu bewerten und abzuschwächen und die Fairness sowohl bei den Daten, mit denen KI-Modelle trainiert werden, als auch beim Design der KI-Systeme selbst zu verbessern. Dies erfordert ein tiefes Verständnis der ethischen Implikationen von KI und ein Engagement für die Entwicklung von Technologien, die sicher, zuverlässig und nutzerorientiert sind.

Es ist wichtig, interne Experten und Forschungsteams in jede Phase der Entwicklung von KI-Produkten einzubeziehen, um einen verantwortungsvollen Ansatz zu gewährleisten, der die Interessen der Nutzer und der Gesellschaft berücksichtigt.

Unternehmen aller Branchen beginnen, diesen hybriden Ansatz für die KI zu übernehmen. Vom Gesundheitswesen über die Finanzbranche bis hin zum Verkehrssektor erkennen Unternehmen das Potenzial dieses Ansatzes für die Entwicklung nutzerorientierter Technologien. Je mehr Unternehmen diesen Ansatz übernehmen, desto mehr Innovationen und Fortschritte sind im Bereich der KI zu erwarten.

Ein Blick in die Zukunft der KI

Beim Blick in die Zukunft der künstlichen Intelligenz wird eines klar: Die verantwortungsbewusste und anwendungsorientierte Entwicklung KI-basierter Produkte erfolgt am besten durch einen hybriden Ansatz, der die Leistungsfähigkeit großer sprachmodellierender KI-Systeme mit der Präzision anderer maschineller Lernverfahren verbindet. Wenn wir die Vorteile beider Ansätze nutzen, können wir KI-Systeme schaffen, die leistungsfähig, transparent und inklusiv sind. Darüber hinaus können gemeinsame Anstrengungen, Bias zu bewerten und abzuschwächen sowie mehr Fairness herzustellen dazu beitragen, dass KI auf verantwortungsvolle und ethische Weise eingesetzt wird. (wh)

Zur Startseite