KI als größtes globales Risiko

So reagiert die Branche auf die WEF-Warnung

Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Desinformation durch KI im Superwahljahr 2024 – das Weltwirtschaftsforum sieht in KI das größte globale Risiko. Und die Reaktion? Keiner widerspricht.
Das Weltwirtschaftsforum warnt vor KI als globalem Risiko. Wie reagiert die Tech-Branche?
Das Weltwirtschaftsforum warnt vor KI als globalem Risiko. Wie reagiert die Tech-Branche?
Foto: World Economic Forum/Ciaran McCrickard

Dass KI nach den Erfolgen in 2023 auf dem Weltwirtschaftsforum (WEF) im Schweizer Davos zu einem der Hauptthemen gehören wird, war zu erwarten. Eher überraschend ist dagegen, dass das WEF, wie berichtet, in seinem Global Risks Report 2024 in der Fehl- und Desinformation durch KI das größte globale Risiko der nächsten zwei Jahre sieht - noch vor extremem Wetterereignissen, gesellschaftlicher Polarisierung und Cyberrisiken.

Gerade vor dem Hintergrund, dass 2024 ein Superwahljahr ist, eine beängstigende Prognose. In diesem Jahr werden Milliarden Menschen zum Urnengang aufgerufen, etwa in den USA, Indien Großbritannien oder der EU, nicht zu vergessen die anstehenden Landtagswahlen in Deutschland. Und die Reaktion? Öffentliche Empörung? Mitnichten, die Tech-Branche stimmt zu und flüchtet sich in die Suche nach neuen Hilfsmitteln zu Eindämmung des Risikos.

So reagiert OpenAI

Bei OpenAI arbeitet man etwa abteilungsübergreifend dran, ChatGPT besser gegen den Missbrauch für Wahlmanipulationen zu schützen. So sollen etwa die Leitplanken von Dall-E Anfragen ablehnen, bei denen es um die Erstellung von Bildern realer Personen, einschließlich Wahlkandidaten, geht.

Vorgaben für Chatbots

OpenAi will Chatbot-Entwickler an die Kandare nehmen, um Fake News in Zusammenhang mit Wahlen zu vermeiden.
OpenAi will Chatbot-Entwickler an die Kandare nehmen, um Fake News in Zusammenhang mit Wahlen zu vermeiden.
Foto: r.classen - shutterstock.com

Weiter heißt es in dem Blog-Beitrag "How OpenAI is approaching 2024 worldwide elections", dass Menschen wissen und darauf vertrauen wollen, dass sie mit einer echten Person, einem Unternehmen oder einer Regierung interagieren. Aus diesem Grund will man es Entwicklern nicht erlauben, Chatbots zu erstellen, die vorgeben, echte Personen (wie Kandidaten) oder Institutionen (etwa eine lokale Regierung) zu sein.

Ferner will OpenAI keine Anwendungen erlauben, die Menschen davon abhalten, sich an demokratischen Prozessen zu beteiligen. Etwa, indem sie Wahlverfahren und Qualifikationen falsch darstellen oder von der Stimmabgabe abhalten.

Zweifel an der Politik

Auch Jutta Jahnel, Expertin vom Institut für Technikfolgenabschätzung in Karlsruhe, kann die Bewertung des Global Risk Reports nachvollziehen. Es sei so einfach wie nie, falsche Behauptungen, Bilder, Audio und Videos in wenigen Minuten herzustellen und zu verbreiten.

Gegenüber MDR-Aktuell äußerte sie, dass es unrealistisch sei, zu glauben, dass die Politik mit Gesetzen bis zu den Wahlen schon Fake News auf Social Media effektiv eingedämmt habe. Und die KI-VerordnungKI-Verordnung der Europäischen Union, die im Dezember 2023 beschlossen wurde, könne voraussichtlich erst 2026 in Kraft treten - wenn sich die Mitgliedsstaaten bis zur Europawahl einig werden. Alles zu Künstliche Intelligenz auf CIO.de

KI als Achillesferse der Demokratie?

Der TÜV fordert ein europäisches Ökosystem, um sichere KI-Apps zu entwickeln. Selbst hat er das TÜV AI.LAB gegründet.
Der TÜV fordert ein europäisches Ökosystem, um sichere KI-Apps zu entwickeln. Selbst hat er das TÜV AI.LAB gegründet.
Foto: cono0430 - shutterstock.com

Die Gefahr, dass KI die Verbreitung von Desinformationen und Fake Newsb eschleunigt, sieht auch Joachim Bühler, Geschäftsführer des TÜV-Verbands. Er meint: "KI-Systeme können dafür genutzt werden, Desinformation zu verbreiten und die Polarisierung der Gesellschaft weiter zu verstärken. Im Superwahljahr 2024 stehen in den USA und auch in Europa wichtige Wahlen an. KI darf dabei nicht zur Achillesferse der Demokratie werden."

Seine Aussagen untermauert Bühler mit einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.008 Personen ab 16 Jahren. Danach ist eine relative Mehrheit der deutschen Bevölkerung der Meinung, dass KI eine Gefahr für die Demokratie darstellt: 46 Prozent der Bundesbürger stimmen dieser Aussage zu. Auf der anderen Seite sehen 43 Prozent diese Gefahr derzeit nicht und 11 Prozent antworten mit "weiß nicht".

Europa braucht KI-Ökosystem

Mit der Einigung auf den AI Act hat die EU aus Sicht von Bühler bei der KI-Regulierung vorgelegt. Allerdings glaubt auch er, "bis die Regelungen wirksam werden, wird es noch einige Jahre dauern". Bis dahin müsse Europa ein Ökosystem schaffen, in dem sichere innovative KI-Anwendungen entwickelt werden können. Dazu gehören für den Manager auch entsprechende Test- und Prüfverfahren für KI-Systeme.

Und an letzterem wollen die TÜV-Unternehmen natürlich mitverdienen. So haben sie zu diesem Zweck das "TÜV AI.Lab" gegründet, das mit Forschungseinrichtungen, Verbänden und Normungsinstituten zusammenarbeitet. Das TÜV AI.Lab ist während des World Economic Forums im "AI House Davos" vertreten.

AI House Davos

Im AI House Davos kommen Vertreter aus Unternehmen, Forschungseinrichtungen, Verbänden, Medien und anderen Institutionen zusammen, um sich über das Thema vertrauenswürdige KI auszutauschen. Franziska Weindauer, Geschäftsführerin des TÜV AI.Labs, will hier zeigen, wie man KI testet und zertifiziert und welche Herausforderungen damit verbunden sind.

Für James Fisher, Chief Strategy Officer bei Qlik, bleibt der Mensch im KI-Prozess von entscheidender Bedeutung.
Für James Fisher, Chief Strategy Officer bei Qlik, bleibt der Mensch im KI-Prozess von entscheidender Bedeutung.
Foto: Qlik

Mit James Fisher, Chief Strategy Officer bei Qlik, hat ein weiterer Manager der Branche auf den Risk Report des WEF reagiert. Für ihn ist die KI-Einstufung durch das WEF "besorgniserregend, aber nicht unbedingt überraschend". Fisher zufolge bergen die derzeitigen Halluzinationen und Irreführungen durch die generative KI die Gefahr, dass das Vertrauen in die Technologie gänzlich verloren geht.

Der Mensch bleibt von entscheidender Bedeutung

Deshalb werden in seinen Augen "Leitplanken für die Datenqualität und -verwaltung benötigt und es sind Datenschutzvorgaben einzuhalten". Selbst wenn dies geschehe, sollte die Technologie mit Vorsicht angewendet werden.

Schließlich könnten sich immer noch Vorurteile einschleichen und Halluzinationen auftreten. Deshalb bleiben für den Chefstrategen die Menschen in diesem Prozess von entscheidender Bedeutung, um das Risiko von Fehlinformationen zu vermeiden.

Zur Startseite