Springe zum Inhalt

Propaganda mit KI: Die Gefahr von Desinformation und Doppelgänger-Kampagnen

Schon seit vielen Jahren gibt es internationale Akteure, die über Botnetzwerke und Sockenpuppen-Accounts die öffentliche Meinung durch Falschmeldungen beeinflussen. Je intensiver die globalpolitischen Konflikte werden, desto gefährlicher wird das Ausmaß dieser Manipulationen für demokratische Staaten.

Gerade das Wahljahr 2024, in dem Bürger aus rund 70 Ländern an die Wahlurnen treten, scheint für Propaganda, Manipulation der öffentlichen Meinung und Verleumdung geradezu ein Leckerbissen zu sein. Natürlich ist das Problem bekannt, doch eine Bekämpfung ist sehr schwierig. Strafverfolger sind insbesondere auf die professionelle Mitwirkung der sozialen Netzwerke angewiesen, derartige Botnetze auszuheben und die Accounts abzuschalten. Doch nicht alle kommerziellen Großgewichte aus diesem Sektor unterstützen die Bekämpfung von Falschmeldungen aktiv.

Noch perfider als Falschmeldungen sind Doppelgänger-Kampagnen. Dabei werden bekannte Medienwebsites, unter anderem Spiegel Online, täuschend echt nachgebaut und mit Falschinformationen gefüttert. Anschließend muss man nur noch „empörte“ Beiträge mit Link in sozialen Medien und Messengers viral gehen lassen. Viele Internetnutzer verfügen ohnehin über wenig Medienkompetenz und erkennen diese Fälschungen nicht. Gerade auch, wenn sie sich von der „Empörung“ sofort anstecken lassen. So gerät man dann auf die täuschend echt gestalteten Nachbauten und kann sich beim Lesen weiter empören über die „Staatspresse“, die „Lügenpresse“ und das „Establishment“.

Durch derartige Kampagnen versuchen Gruppierungen und Staaten, international das Vertrauen der Öffentlichkeit in seriöse Medien zu zerstören oder zumindest Zweifel zu sehen. Wer ohnehin schon Zweifel hat oder vor beeinflusst ist, kann die Manipulation gar nicht mehr erkennen. Man müsste sich und seine Auffassung ja dann selbst infrage stellen. Auch die gesellschaftliche Spaltung wird durch solche Kampagnen vorangetrieben. Typische Themen sind etwa der Klimawandel, die Migrationspolitik oder der Ukrainekrieg.

Diese oft mithilfe von KI gefälschten Artikel und Videos erreichen auf diese Weise – und durch unbedachtes Teilen und Weiterleiten – ein Millionenpublikum. Die europäische gemeinnützige Organisation „AI Forensics“ hat einen Bericht veröffentlicht, wonach eine prorussische Doppelgänger-Kampagne allein auf Facebook zwischen August 2023 und März 2024 von rund 38 Millionen Menschen in Deutschland und Frankreich gesehen wurde.

Auch die Plattformen X und der Messanger Telegram werden gern zur Verbreitung von Desinformation genutzt. Bereits mehrfach haben Datenwissenschaftler und Security-Spezialisten koordinierte Kampagnen mit Falschnachrichten aufgedeckt.

KI kann jedoch nicht nur Texte und Videos fälschen, sie kann auch bei der Suche und Aufdeckung von Botnetzwerken helfen. Mit maschinellem Lernen kann KI unfassbar große Datenmengen rasch verarbeiten und darin Muster erkennen. Hat man die Möglichkeit, aus sozialen Netzwerken Daten wie Beitragstexte, Zeitstempel, Accountname, Follower-Accounts und -Anzahl, Like- und Teilaktivitäten usw. zu ermittelt, kann man die Kommunikation dort auf typisches Botnetz-Verhalten durchleuchten. Und das wird auch von Behörden, Sicherheitsexperten und Datenwissenschaftlern gemacht.

Ganz unabhängig vom globalen Wettkampf zwischen Propagandafabriken und Sicherheitsbehörden sollte jeder Internetnutzer über ein gehöriges Maß an Misstrauen bei reißerischen Nachrichten verfügen. Zumindest jeder, der sich nicht beliebig manipulieren lassen möchte. Gute Medienkompetenz kann dabei helfen, die typischen Anzeichen gefälschter Inhalte zu erkennen. Und das Erlernen dieser Fähigkeiten sollte unbedingt bereits in der Schule beginnen. Je früher Kinder und Jugendliche über die manipulativen Gefahren im Internet Bescheid wissen und sich wehren können, desto besser.

Mehr dazu:

👉 Auf Mastodon kommentieren