Verschwörungstheorien erfreuen sich nach wie vor großer Beliebtheit, obwohl es dafür keine wissenschaftliche Grundlage gibt. Die benötigen Verschwörungstheoretiker allerdings auch nicht. Eine Studie von US-Forschern hat sich damit beschäftigt, wie gut Künstliche Intelligenz (KI) Menschen von der Unhaltbarkeit solcher Theorien überzeugen kann.
Große Foundation-Modelle dürften normalerweise die Kenntnis besitzen, dass an Verschwörungstheorien nichts dran ist. Und tatsächlich zeigte die Untersuchung, dass selbst stark verfestigte Verschwörungsglauben widerlegt werden können. Verschwörungstheorien sind meist emotional oder psychisch verankert. Menschen versuchen sich damit, Unsicherheiten oder beängstigende Ereignisse zu erklären. Mit Fakten kommt man dann schwer gegen solche Erzählungen an.
Was macht die KI anders?
Sprachmodell, wie ChatGPT können unermüdlich und emotionslos auf Argumente und Erzählungen von Menschen reagieren. Das können sie auch recht sprachgewandt und ausgewogen tun, ohne vorwurfsvoll zu klingen. Einer KI fällt es leicht, auf alle möglichen Argumente eines Verschwörungstheoretikers einzugehen. Menschen können in derartigen Gesprächen erschöpfen oder besitzen nicht die Detailargumente.
In der Studie wurden über 2100 Amerikaner*innen gebeten, in eigenen Worten ihre Verschwörungstheorie darzustellen und die „Beweise“ dafür zu benennen. Anschließend führten sie eine dreirundige Diskussion mit GPT-4 Turbo. Diese ging gezielt auf die vorgebrachten Argumente ein und versuchte, die Verschwörungsglauben zu widerlegen. Eine Kontrollgruppe sprach mit dem Chatbot über ein unabhängiges Thema.
Glaube an Verschwörungstheorie reduziert
Die Forscher waren vom Ergebnis überrascht. Im Durchschnitt sank der Glaube an die angegebene Verschwörungstheorie um 20 Prozent. Der Argumentationseffekt hielt sogar noch zwei Monate nach dem Experiment an. Offenbar hatte sich bei den Teilnehmern ein Teil der Antworten verfangen und hatte den Verschwörungstheorien ihre angebliche Glaubwürdigkeit genommen.
Zur Sicherheit überprüfte das Forscherteam eine Stichprobe der KI-Antworten per Faktencheck. Keine der KI-Antworten an die Teilnehmer war falsch. 99,2 Prozent der von der KI gemachten Aussagen waren korrekt und nur 0,8 Prozent waren irreführend. Die KI hat also nicht mit Fantasiegespinsten argumentiert.
Was lernen wir daraus?
Oft ist zu hören, dass man Verschwörungstheoretiker von ihrem Glauben mit Fakten nicht abbringen kann. Doch anscheinend besteht Hoffnung, festgefahrene Überzeugungen durchzurütteln und zum Überdenken anzuregen. Die passenden Argumente müssen dazu auf die richtige Weise präsentiert werden. Der Schlüssel liegt also in einer sehr guten Argumentation. Dabei können die Fähigkeiten einer KI anscheinend helfen.
In der Studie wurden nicht zusätzlich noch mit einer weiteren Gruppe Diskussionen mit Menschen geführt, also zum Beispiel geschulten Faktenchecken. Die Studie konzentrierte sich auf die Evaluierung eines Dialogs mit einer KI.
Mehr dazu:
- Thomas H. Costello et al., Durably reducing conspiracy beliefs through dialogues with AI. Science 385, eadq1814(2024). DOI: 10.1126/science.adq1814