Deepfake-Gefahr im US-Wahlkampf

Gefälschter Biden-Anruf löst neue Sorge um KI-Fakes aus

23.01.2024
Fingierte Wahlkampf-Anrufe von US-Präsident Joe Biden schüren die Angst vor Manipulationen mithilfe Künstlicher Intelligenz im Rennen ums Weiße Haus.
Robocalls: Im Hinblick auf den US-Wahlkampf wurde die Stimme von Präsident Joe Biden nachgeahmt, um Demokraten von der Teilnahme an den Vorwahlen abzuhalten.
Robocalls: Im Hinblick auf den US-Wahlkampf wurde die Stimme von Präsident Joe Biden nachgeahmt, um Demokraten von der Teilnahme an den Vorwahlen abzuhalten.
Foto: Evan El-Amin - shutterstock.com

In den automatisierten Anrufen rief eine Stimme, die der von Biden zum Verwechseln ähnlich klang, Demokraten in New Hampshire auf, nicht an den Vorwahlen in dem US-Bundesstaat teilzunehmen. Solche sogenannten Robocalls sind ein gängiges Wahlkampf-Instrument in den USA. Die Absender-Informationen bei den Anrufen wurden ebenfalls gefälscht, so dass sie von einem politischen Komitee von Bidens Demokratischer Partei zu kommen schienen, wie die Generalstaatsanwaltschaft von New Hampshire am Montag mitteilte.

Software auf Basis Künstlicher IntelligenzKünstlicher Intelligenz kann mithilfe von Tonaufnahmen darauf trainiert werden, beliebige Sätze mit Stimmen bestimmter Personen auszusprechen. Robocalls seien ein attraktives Ziel für solche Manipulationen, da sie schwer zu überwachen seien, sagte der amerikanische Politikexperte Ian Bremmer am Montag im US-Sender CNBC. Auch online sei es relative einfach, mit Hilfe einer "Armee aus Bots" falsche Informationen an viele Leute zu verteilen, warnte er. Alles zu Künstliche Intelligenz auf CIO.de

Befürchtungen gibt es auch rund um die Möglichkeit, mithilfe von Software gezielt Bilder - und inzwischen auch kurze Videos - mit beliebigen Inhalten zu erzeugen. Bisher sieht man den künstlich generierten Aufnahmen oft Fehler an, doch die Technologie wird schnell immer besser. (dpa/jm/rs)

Zur Startseite