Chinas KI-Propaganda und Schlumpfe: Politik im digitalen Zeitalter
In einer Ära digitaler Manipulation beeinflusst nicht nur Chinas KI-Propaganda die Politik. KI und soziale Medien verwischen Realität und Fiktion und gefährden die Demokratie.
In einer Ära zunehmender digitaler Manipulation prägt nicht nur Chinas KI-Propaganda die politische Landschaft. Die rasante Entwicklung von KI-Technologien und die Ausnutzung sozialer Medien haben neue Wege für politische Einflussnahme eröffnet. Vor diesem Hintergrund werden die Grenzen zwischen Realität und digitaler Fiktion zunehmend verwischt, wodurch die öffentliche Meinung und der gesellschaftliche Diskurs stark beeinflusst werden. Gerade anti-demokratische Kräfte versuchen, diese Entwicklungen auszunutzen und die Demokratie zu untergraben.
Generiert durch KI (Unterstützt durch DALL-E3)
Chinas KI-Serie 'A Fractured America'
In dieser Woche startete CGTN, ein staatlicher Sender, eine englischsprachige animierte Serie namens "A Fractured America". Die Serie wurde komplett mit künstlicher Intelligenz produziert, einschließlich des Schreibens, der Sprachaufnahmen und der Animation.[1] Ihr Hauptthema dreht sich um die Vorstellung, dass die USA sich im Endstadium des Niedergangs befinden, wobei dystopische Szenarien wie amerikanische Arbeiter in Turbulenzen und der militärisch-industrielle Komplex des Landes dargestellt werden. Obwohl die visuellen Effekte eindeutig von KI generiert werden und die Stimme merkwürdig klingt, besteht das Potenzial für erhebliche Verbesserungen in nur wenigen Jahren, was dieses Werk zu einem potenziell wichtigen Instrument im Arsenal Pekings macht.
Früher wurde die anti-westliche Rhetorik Chinas oft wegen ihrer Peinlichkeit und schlechten Qualität kritisiert. Doch mit KI-generierten Inhalten hat sich die Qualität solcher Kampagnen deutlich verbessert. Die Serie "A Fractured America" verdeutlicht, wie KI die Content-Erstellung für Peking erleichtert und kostengünstiger gestaltet hat, wie Henry Eder, ein Experte für generative KI mit Sitz in Großbritannien, erklärt.
Microsoft: Chinas KI-Propaganda und globale Einflussnahme
Ein Bericht des Threat Analysis Center von Microsoft im letzten Jahr ergab, dass KI die Produktion viraler Inhalte erleichtert und die Identifizierung staatlich produzierter Materialien erschwert hat.[2] Staatlich unterstützte Akteure in der Volksrepublik China (VR China) haben seit mindestens März 2023 KI-generierte Inhalte entwickelt, die ein hohes Engagement von authentischen Social-Media-Nutzern erzielen. China hat die Fähigkeit entwickelt, automatisch Bilder für Einflussoperationen auf US-Wähler zu generieren, um Kontroversen entlang rassischer, wirtschaftlicher und ideologischer Linien zu schüren.
Das Ausmaß dieser Operationen ist enorm, mit über 230 Staatsmedienmitarbeitern, die sich als Social-Media-Influencer ausgeben und 103 Millionen Menschen in mindestens 40 Sprachen erreichen können. Gemeinsame Themen sind der Aufstieg Chinas und der Zusammenbruch der USA. Auch andere Demokratien sind betroffen, wie sich an mehr als 100 Deepfake-Videos zeigt, die dem Ministerium für Staatssicherheit Beijings in der Zeit vor den taiwanischen Wahlen im Januar zugeschrieben werden und die die amtierende Präsidentin Tsai Ing-wen angreifen.
Mit der neuen Kampagne zeigt sich, wie Chinas Propagandisten die Möglichkeiten der KI immer professioneller nutzen. Letztes Jahr hatte das Australian Strategic Policy Institute (ASP) von einer Kampagne berichtet, in der auf YouTube mit Videoessays kombiniert mit KI-generierten voice-overs auftauchten, die eine enorme Reichweite von 120 Millionen aufrufen erzielten.[3]
Interessant wird es bei den Wahlen um den US-Präsidenten im Herbst dieses Jahres. Sowohl Russland als auch China setzen auf einen Präsidenten Trump. Beide Staaten werden mit ihren Bot-Armeen und KI-generierten Inhalten versuchen, den Wahlkampf in ihrem Sinne zu beeinflussen.
Wenn dir dieser Artikel gefällt, würde ich mich über Deine Unterstützung freuen. Du kannst diesen Blog abonieren:
Order mich mit einem Kaffee unterstützen:
KI und Bots in AfD-nahen Kampagnen
Auch in Deutschland gewinnt das Zusammenspiel von KI-generierten Inhalten und Bots an Bedeutung. Vor allem die AfD und ihr Umfeld machen, höchstwahrscheinlich gewollt oder ungewollt von russischen Trollfabriken Gebrauch davon. In den letzten Wochen fielen zwei Beispiele besonders auf: Zum einen das sogenannte "Schlumpfgate" und eine KI-generierte Doktorin.
Im ersten Fall wurde das Geschehen um eine Schülerin in Mecklenburg-Vorpommern für eine Fake-Kampagne genutzt. Die Schülerin hatte diverse Posts mit rechten und zum Teil ausländerfeindlichen Inhalten veröffentlicht. Der Schulleiter informierte die Polizei, die ein Gespräch mit der Schülerin führte. Die AfD und AfD-nahe Accounts auf den Social-Media-Kanälen machten daraus, dass die Schülerin wegen eines relativ harmlosen Posts "Deutschland ist Heimat" von der Polizei aus dem Unterricht geholt wurde. Innerhalb von Stunden verbreiteten sich KI-generierte Posts von blauen Schlümpfen. Auf die Spitze getrieben hat es der Satiriker Willy Kramer, der mehrere Deepfake-Videos erstellte.[4] Dort ist aus dem einst idyllischen Schlumpfhausen eine Art Reichsbürgerkommune geworden. Eine Erzählerstimme beginnt: "In einem Land, das vor kurzem noch eine starke Wirtschaft und genug Wohlstand für alle hatte, ist plötzlich der Wurm drin." Obwohl dieser Satz normalerweise nicht zu einer Schlumpf-Episode gehört, stammt die Stimme vom Originalsprecher Jochen Striebeck – oder besser gesagt: Die Stimme Jochen Striebecks, die durch eine KI geklont wurde. Die Erzählung ist typisch für die AfD: Die "Schlandpfe" leiden unter angeblicher "Komplettüberwachung, Bevölkerungsaustausch und Gendersprache. Der Spuk der "Schlandpfe" war so schnell vorbei, wie er gekommen war, als der Rechteinhaber der Schlümpfe ankündigte, gegen den Missbrauch seiner Geschöpfe vorzugehen.
Denn dies war das zweite interessante Merkmal: Die "Schlandpfe": Die Geschwindigkeit, mit der die "Schlandpfe" durch die sozialen Medien rauschten – und praktisch gleichzeitig verschwanden. In den letzten Jahren sind verschiedene Recherchen zu dem Thema durchgeführt worden, die alle zu dem Schluss kommen, dass russische Bots hinter solchen AfD-nahen Kampagnen stehen, zuletzt von t-online,[5] die dies im Zusammenhang mit den Bauernprotesten aufzeigten.
KI-Bilder: Die „Plagiatorische Outputs“
Ein anderes Beispiel ist eine Doktorin, der die Worte in den Mund gelegt werden, dass sie nun AfD wählen würde. Die Doktorin existiert nicht, sie ist ein KI-generiertes Bild. Nun kann sicher darüber gestritten werden, was nun inhaltlich der Unterschied zwischen einem Testimonial, das aus einer Bilddatenbank gekauft oder ein Modell, das für das Foto bezahlt wurde, sei. Allerdings könnte die AfD mit dem Bild einige rechtliche Probleme bekommen. Denn wie eine Klage der New York Times aufzeigt, verwenden KI-Sprachmodelle (sogenannte LLMs), wie in diesem Fall OpenAI zu Trainingszwecken mit Daten gefüttert werden, ohne dass dafür eine Erlaubnis vorliegen würde. Schlimmer noch, die LLMs memorieren diese Texte und geben sie praktisch wortwörtlich aus, allerdings ohne Quellenangabe. Solche "plagiatorischen Outputs" können auch als Bilddateien ausgegeben werden. In einem Artikel der Website "IEE Spectrum" werden zahlreiche Beispiele gezeigt, wie Midjourney und DALL-E3 praktisch identische Bilder wie aus urheberrechtlichen Filmen und Cartoons generiert werden – ohne dass der Nutzer dies im Prompt, also der Eingabe, beabsichtigt zu haben.[6] Die Spanne der Beispiele reicht von "The Simpson", "Super Mario", "Star Wars" über Szenen diverser Marvel-Filme bis hin zu Motiven aus den "Hunger Games". Es kann also durchaus sein, dass das Bild der besagten Doktorin ein "plagiatorischer Output" ist, ohne dass die beabsichtigt war.
Als dritte Komponente kommt noch die Rolle der sozialen Medien, insbesondere „X“ und Facebook, die sich um europäische oder deutsche Gesetze nicht wirklich kümmern, wie der Prozess von Renate Künast gegen Facebook exemplarisch gezeigt hat. Hier hatte Frau Künast von Facebook, Memes von sich aus dem Netz zu nehmen. Facebook hatte sich bisher auf den Standpunkt gestellt, dass der Betroffene selber Rechteverletzungen zu suchen und zu melden. Das Urteil verpflichtet nun Facebook dazu, alle gleiche und ähnliche Bilder, die die Rechte einer Person verletzen, zu löschen.[7]
Bei X findet man mittlerweile unter dem Deckmantel der „Meinungsfreiheit“ massenhaft Tweets, die offen rechtsradikal und rechtsverletzend sind und nach Maßgabe der DSGVO von X selbstständig gelöscht werden müssten.
Insgesamt stellt diese falsch verstandene Meinungsfreiheit, staatlicher oder vom Staat unterstützte Akteure, sowie antidemokratische Gruppierungen und Parteien stellt eine erhebliche Gefahr dar. Es wird zunehmend klar, dass diese Entwicklungen nicht nur die Integrität demokratischer Prozesse gefährden, sondern auch die öffentliche Meinung und den gesellschaftlichen Diskurs beeinflussen. Das Toleranz-Paradoxon wird dabei offensichtlich: Wenn die Gesellschaft zu tolerant gegenüber Intoleranz ist, kann dies dazu führen, dass demokratische Werte und Prinzipien untergraben werden.