KI in der Industrie

So testen Sie, ob Ihre KI vertrauenswürdig ist

Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Die Nachfrage nach KI in der Industrie ist groß. Doch ist die KI vertrauenswürdig genug für die Serienproduktion? Fraunhofer hat Ansätze entwickelt, um dies zu testen.
KI-Prüftools helfen dabei, die Schwächen von KI-Modellen ausfindig zu machen.
KI-Prüftools helfen dabei, die Schwächen von KI-Modellen ausfindig zu machen.
Foto: Fraunhofer IAIS

KI besitzt großes Potenzial für die industrielle Produktion, sei es in der Automatisierung, der Qualitätsprüfung oder der Prozessoptimierung. Doch viele Unternehmen stehen vor der Frage, so Maximilian Poretschkin, Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS, ob der selbst entwickelte KI-Prototyp vertrauenswürdig genug ist, um ihn in der Serienproduktion einsetzen zu können.

KI skalieren

Damit diese Skalierung gelingt, müssen Poretschkin zufolge, "diese KI-Lösungen systematisch getestet werden, um auch Schwachstellen erkennen zu können, die im Prototypen nicht zu Tage getreten sind". Auf der Hannover Messe 2024 präsentieren das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und die Institute der Fraunhofer-Allianz Big Data AI verschiedene Ansätze rund um vertrauenswürdige KI-Lösungen.

KI-Modelle prüfen

Ein Beispiel, wie vertrauenswürdige KI sicher in Betriebsabläufe integriert werden kann, ist ein Prüfwerkzeug für KI-Modelle. Es kann in der Produktion sowie im Maschinen- und Anlagenbau eingesetzt werden.

Systematisch Schwachstellen suchen

Das Tool ermöglicht die systematische Schwachstellensuche von KI-Systemen, um so deren Zuverlässigkeit und Robustheit sicherzustellen. Wie Poretschkin erklärt, beruht die Methodik beruht darauf, den Anwendungsbereich des KI-Systems genau zu spezifizieren.

Viele Unternehmen stehen vor der Frage, ob der selbst entwickelte KI-Prototyp vertrauenswürdig genug ist, um ihn in der Serienproduktion einsetzen zu können.
Viele Unternehmen stehen vor der Frage, ob der selbst entwickelte KI-Prototyp vertrauenswürdig genug ist, um ihn in der Serienproduktion einsetzen zu können.
Foto: BMW Group

Konkret geht es darum, den Raum der möglichen Eingaben, die das KI-System verarbeitet, zu parametrisieren und mit einer semantischen Struktur zu versehen. "Mit den KI-Prüfwerkzeugen, die wir unter anderem im KI.NRW-Flagships-Projekt "Zertifizierte KI" entwickelt haben", so Poretschkin, "lassen sich dann Fehler der KI-Systeme erkennen."

Was darf KI entscheiden?

Der Frage, was KI entscheiden kann und was noch nicht, geht die Fraunhofer-Allianz Big Data AI unter dem Titel "Who's deciding here?!" nach. Dabei greift die Big-Data-AI-Allianz - ein Zusammenschluss aus über 30 Fraunhofer-Instituten - verschiedene Fragen auf: Wie beeinflussen Technologien wie Künstliche IntelligenzKünstliche Intelligenz die Entscheidungsfreiheit? Wie vertrauenswürdig sind die KI-Systeme, die in immer mehr sensiblen Anwendungen wie beispielsweise Kreditwürdigkeitsprüfungen zum Einsatz kommen sollen? Alles zu Künstliche Intelligenz auf CIO.de

Hierzu präsentiert die Allianz mehrere Uses Cases aus verschiedenen Anwendungsbereichen. Dabei steht bei allen Anwendungsbeispielen laut Fraunhofer eine Frage im Vordergrund: Wie lässt sich KI kontrolliert und sicher einsetzen?

Sicheres Autofahren: Uncertainty Wrapper

Der verlässliche Umgang mit Unsicherheiten stellt bei der Nutzung von KI-Vorhersagen in vielen Anwendungsbereichen einen entscheidenden Faktor dar. Der Uncertainty Wrapper des Fraunhofer-Instituts für Experimentelles Software Engineering IESE prüft, wie sicher oder unsicher die Aussage einer KI ist - etwa am Beispiel der Objekterkennung von Straßenschildern.

Fake News erkennen: DisCo

Fake News verbreiten sich über Social Media in rasender Geschwindigkeit. Mithilfe textforensischer Methoden des Fraunhofer-Instituts für Sichere Informationstechnologie SIT werden im Zuge von DisCo Texte für Journalistinnen und Journalisten so aufbereitet, dass prüfwürdige Textpassagen farbig hervorgehoben werden.

Große KI-LLMs für Unternehmen: OpenGPT-X

Das Whitepaper "Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln" erläutert, wie sich spezielle Risiken der generativen Künstlichen Intelligenz auf die KI-Anwendung auswirken können.
Das Whitepaper "Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln" erläutert, wie sich spezielle Risiken der generativen Künstlichen Intelligenz auf die KI-Anwendung auswirken können.
Foto: Fraunhofer IAIS

Im Rahmen des Projekts OpenGPT-X trainieren Expertinnen und Experten aus Forschungsorganisationen und Wirtschaftsunternehmen LLMs mit bis zu 24 europäischen Sprachen. Sie sollen Unternehmen künftig als Open Source zur Verfügung stehen. Auf diese Basis sollen sie dann generative KI-Anwendungen entwickeln und Prozesse optimieren können. Ein Whitepaper zum Thema "Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln" ist hier zu finden.

Vertrauenswürdigkeit sensibler Produktionsdaten: DigiWeld

Das Fraunhofer IPA hat mit DigiWeld eine Lösung entwickelt, die es Maschinen- und Anlagenbauern ermöglicht, die Vorteile Künstlicher Intelligenz zu nutzen, ohne sensible Produktionsdaten der Kunden erfassen zu müssen.

KI-Akzeptanz: ADA Lovelace Center

Der Frage, warum Menschen KI akzeptieren oder auch nicht und welche Folgen die Nutzung für den Einzelnen mit sich bringt, geht das ADA Lovelace Center for Analytics, Data and Applications des Fraunhofer IIS nach. Durch einen sozial- und verhaltenswissenschaftlichen Zugang wollen die Forscher diese Frage klären.

Beitrag zum AI Act

Bei Fraunhofer betrachtet man in diese Lösungen auch als einen Beitrag dazu, Unternehmen zu helfen, die Vorgaben des EU AI Act einzuhalten. Denn die europäische KI-Verordnung sieht auch eine Durchführung von KI-Prüfungen vor. Bei der Umsetzung dieser Anforderung könnten, so Fraunhofer, die entsprechenden Prüf-Tools hilfreich sein.

Zur Startseite