Die Verbreitung von Fehlinformationen über den Klimawandel hat jahrzehntelange Praxis, mit entsprechend weitreichend negativen Folgen. Am augenscheinlichsten ist die dadurch hervorgerufene lebensgefährliche Verzögerung für dringliche Klimaschutzmaßnahmen. Ebenso wird die effektive Kommunikation wissenschaftlicher Erkenntnisse an die Bevölkerung behindert.
Besonders gefährlich für die Verbreitung von Desinformation und Falschmeldungen sind „soziale“ Medien. Auffällig sind hier seit Jahren Plattformen wie (ex-)Twitter und Facebook. Ihr algorithmisch gesteuerter Fokus auf maximale Interaktionen und lang anhaltende Aufmerksamkeit (und folglich Werbeeinnahmen) sorgen dafür, dass sich „Aufreger“ und Polemik schnell verbreiten. Der Algorithmus springt auf alles mit vielen Likes und Interaktionen an, meist hervorgerufen durch polemische, „skandalöse“, emotionale oder kontroverse Inhalte – also klassisches Clickbait, Sensationsmeldungen und Verschwörungstheorien.
Erschwerend kommt hinzu, dass die Plattformen gesetzliche Vorschriften zur Eindämmung von Hassbeiträgen, Falschinformationen u. Ä. erschweren, verzögern oder ignorieren. Viele Male mussten bisher Anwälte und Gerichte eingeschaltet werden, um gesetzliche Ansprüche durchzusetzen. Und dabei handelte es sich vorwiegend um schwerwiegendere Angelegenheiten als Klimaleugnung.
Klimaleugnung ist weitverbreitet
Insbesondere das Thema Klimawandel ist seit langem Ziel von Desinformationskampagnen. Studien zeigten, dass skeptische oder leugnende Tweets rund um die jährlichen Weltklimakonferenzen deutlich zugenommen haben. Diese Beiträge sind oft professionell aufgemacht sowie emotional und aggressiv formuliert. Dadurch sollten Menschen getriggert werden, die Beiträge möglichst schnell und unreflektiert zu teilen.
Das Problem hat sich verschlimmert, seit Klimaleugner und Verschwörungstheoretiker generative KI zur Erstellung von Beiträgen nutzen können. Dadurch steigt die Belastung von Wissenschaftlern, Forschungsinstituten (Pressestelle), Journalisten, NGOs und Regulierungsbehörden deutlich. Sie müssen sich wehren und geeignete Mittel zur Bekämpfung der Desinformation finden – oder es zumindest versuchen. Das hat bereits in der Vergangenheit kaum funktioniert.
Gegenwehr mit KI?
Eine mögliche Gegenstrategie ist ebenfalls der Einsatz von KI. Sich viral verbreitende Desinformationskampagnen verursachen Massendaten und solche Daten können von KI-Modellen gut verarbeitet werden. In diesem Umfeld gibt es bereits das CARDS-Modell (Augmented Computer Assisted Recognition of Denial and Skepticism), das zur Klassifizierung von Klimabehauptungen auf Twitter trainiert wurde.
In einer Studie wurde nun das ursprüngliche CARDS-Modell derart erweitert, dass es zwischen wissenschaftlich fundierten und klimaskeptischen Tweets unterscheiden können soll. Das alte Modell war dazu nicht in der Lage. Hierzu wurden Daten aus dem bereits verfügbaren Climate Change Twitter Dataset der Universität Waterloo integriert. Dieser Datenbestand besteht etwa aus 90 % verifizierten und 10 % irreführenden Tweets.
Zur Bewertung der Modellleistung wurde ein von Klimaexperten annotiertes Testset mit 2607 Tweets erstellt. Diese Tweets stammten aus der zweiten Jahreshälfte 2022 und wurden nach der in der Studie vorgegebenen Taxonomie kategorisiert.
Ergebnisse des neuen KI-Modells
Das verbesserte CARDS-Modell wurde hinsichtlich der Erkennung klimaskeptischer Aussagen getestet und mit dem ursprünglichen CARDS-Modell verglichen. Das ursprüngliche Modell schnitt besonders gut bei Daten ab, die ähnliche sprachliche Merkmale wie seine Trainingsdaten aufwiesen. Seine Trainingsdaten stammten ursprünglich aus Artikeln von konservativen Think-Tanks oder klimaskeptischen Blogs.
Das verbesserte CARDS-Modell jedoch zeigte bei der Klassifizierung klimaskeptischer Tweets deutlich bessere Resultate. Das KI-Modell war gegenüber Textvarianten anpassungsfähiger. Das System wurde testweise mit über fünf Millionen Tweets zum Thema Klimawandel aus der zweiten Jahreshälfte 2022 gefüttert. Die Analyse konnte zeigen, dass sich die Anzahl von Falschinformationen insbesondere zu Naturkatastrophen oder politischen Entscheidungen gesteigert hat.
Es konnte auch gezeigt werden, dass sich nach wie vor viele klimaskeptische Aussagen auf Twitter gegen die Glaubwürdigkeit von Klimawissenschaftlern richteten. Forscher wurden also nach wie vor persönlich angegriffen. Auch Verschwörungstheorien wurden stark verbreitet. In den Testdaten bestanden unfassbare 60 % der klimaskeptischen Tweets nur aus diesen beiden Stoßrichtungen. Kein Wunder also, dass viele Wissenschaftler die Belastung aus den Social Media nicht mehr aushalten.
Die Studie konnte zeigen, dass das verbesserte KI-Modell genauer zwischen wissenschaftlich fundierten und klimaskeptischen Aussagen unterscheiden konnte. Damit kann das neue CARDS-Modell auch mit allgemeineren, aber kontroversen Klimadiskussionen besser umgehen.
Einschränkungen der Studie
Eine Einschränkung der Studie ist der Fokus auf Twitter-Kommentare. Die Verbreitung von Desinformationen ist auf Twitter, heute X, durchaus aggressiv, doch die Kampagnen bedienen sich auch intensiv anderer Plattformen und insbesondere Messengerdiensten. Es müsste also noch untersucht werden, wie gut das neue KI-Modell Texte aus diesen Umgebungen klassifizieren kann.
Auch hat die Studie weder gezielt Beiträge aus unterschiedlichen Ländern (Kulturen) noch nicht-englischsprachige Texte analysiert. Für ein international gut funktionierendes KI-Modell sind also noch einige Schritte zu tun.
Aktuelle technische Möglichkeiten
Nach Ansicht der Studienautoren könnte das verbesserte CARDS-Modell dazu verwendet werden, um manuelle Faktenchecks auf Twitter/X zu unterstützen. Dazu könnte man die KI zur automatisierten Kategorisierung von Tweets in die Plattform integrieren. Das könnte die Effizienz bei der Erkennung und Bekämpfung falscher Behauptungen steigern, wenn sich Twitter/X denn überhaupt einmal darum kümmern würde. Momentan allerdings wird eher beobachtet, dass sich die Plattform eher wenig um Fehlinformationen zum Klimawandel kümmert.
Für eine automatische Gegenargumentation sehen die Forscher die Zeit bis jetzt nicht gekommen. Um Falschaussagen direkt widerlegen zu können, müsste eine KI die zugrunde liegenden Gedankengänge, etwa eine Verschwörungstheorie, und die irreführende Argumentation kennen.
Mehr dazu:
- Rojas, C., Algra-Maschio, F., Andrejevic, M. et al. Hierarchical machine learning models can identify stimuli of climate change misinformation on social media. Commun Earth Environ 5, 436 (2024). https://doi.org/10.1038/s43247-024-01573-7
- Brüggemann, M. & Sadikni, R. Online media monitor on climate change (omm): analysis of global tweets and online media coverage. https://ogy.de/OMM (2023).