Springe zum Inhalt

Deepfakes: Warum Warnhinweise nicht ausreichen, um Fälschungen zu erkennen

In den letzten Jahren sind Deepfakes zu einem ernst zu nehmenden Problem geworden. Mit solchen täuschend echt aussehenden, aber gefälschten Videos lassen sich Falschinformationen gezielt verbreiten. Typische Angriffsziele sind dabei kontrovers diskutierte Themen. Dies hat dazu geführt, dass sowohl das FBI als auch Europol vor der Gefahr dieser Technologie warnen.

Problematisch ist dabei nicht nur, dass Deepfakes das Vertrauen in authentische Videoinhalte untergraben können, sondern auch, dass für die Erkennung der Fälschung ein einfacher Faktencheck eventuell nicht hilft. Die gefälschten Videos haben teilweise bereits eine so hohe Qualität, dass man sie nicht mehr ohne Weiteres als Fälschung erkennen kann. Das bedeutet, dass die klassische Medienkompetenz, mit der man sich gegen textuelle Meldungen schützen kann, bei Videos vielleicht nicht mehr funktioniert.

Was bei einem Faktencheck die klassische Internetrecherche nach ähnlichen Texten oder Bildern ist, sind bei Videos unter anderem Diagnosetools. Diese Software soll erkennen, ob ein Video KI-generiert ist. Doch leider schaffen das die Tools anscheinend oft nicht, wie Untersuchungen zeigen. Das bedeutet, dass viele Menschen durch solche Deepfakes direkt getäuscht werden könnten.

Funktionieren Warnhinweise?

Um dieses Problem zu entschärfen, haben einige Social-Media-Plattformen wie Facebook und Twitter begonnen, Deepfakes und andere irreführende Inhalte mit Warnhinweisen zu versehen. In den Nutzungsbedingungen mag sich das gut lesen, doch ob die Beiträge wirklich zuverlässig entfernt, nur gekennzeichnet oder Warnungen ausgesprochen werden, ist ein großer Unterschied.

Bisher gibt es zur Wirkung von Deepfake-Warnungen keine einheitliche Studienlage. Das ist wohl auch darauf zurückzuführen, dass die Studiendesigns unterschiedlich sind. So gab es etwa eine Studie von Vaccari und Chadwick (2020), in der nur etwa die Hälfte der Zuschauer erkannte, dass ein Deepfake von Ex-Präsident Obama eine „höchst unwahrscheinliche“ Aussage enthielt. Eine Täuschung gelingt auch besser, wenn der Deepfake die eigene politische Ansicht beinhaltet.

Studiendesign einer neuen Studie

Eine neue Studie hat nun untersucht, ob solche Warnungen das Bewusstsein und die Erkennungsfähigkeit von Nutzern verbessern können. In der Untersuchung wurden zwei Szenarien getestet: Zum einen wurden den Teilnehmern verschiedene Videos – darunter auch ein Deepfake – ohne jegliche Vorwarnung gezeigt. Zum anderen wurden sie im Vorfeld darüber informiert, dass mindestens eines der Videos gefälscht sei. Das Ziel war herauszufinden, ob Menschen unter diesen Bedingungen besser in der Lage sind, zwischen echten und manipulierten Videos zu unterscheiden.

Es geht also um Folgendes:

  1. Sind Menschen in der Lage, Auffälligkeiten zu bemerken, wenn sie ein Deepfake in einem natürlichen Umfeld sehen?
  2. Sind Menschen durch eine direkte Warnung über das Vorhandensein eines Deepfakes besser in der Lage, echte von gefälschten Videos zu unterscheiden?

Als Deepfake-Video in dem Experiment wurde eines vom Schauspieler Tom Cruise verwendet. Um eine Vergleichsbasis zu schaffen, wurde dieses Video zusammen mit authentischen Clips von Tom Cruise gezeigt, die auf YouTube verfügbar waren. Zusätzlich sahen alle Teilnehmer einen kurzen Ausschnitt aus einem Interview mit Tom Cruise, um eine Grundvertrautheit mit seinem Erscheinungsbild und seiner Art zu sprechen herzustellen.

An der Untersuchung nahmen etwa 2000 britische Personen über 18 Jahre teil. Sie wurden zufällig einer von drei Versuchsgruppen zugewiesen.

Ergebnisse der Untersuchung

Nun ja, die Ergebnisse sind etwas desillusionierend, wenn auch erwartbar. Die Studienteilnehmer haben in der natürlichen Browsing-Umgebung nur selten bemerkt, wenn sie auf ein Deepfake stießen. Dies bestätigt frühere Studien, die belegen, dass es den meisten schwerfällt, qualitativ hochwertige Deepfakes zu erkennen.

Ebenso konnte die Mehrheit der Teilnehmer einen Deepfake auch dann nicht von einem echten Video unterscheiden, wenn sie vorab informiert wurden, dass mindestens eines der Videos manipuliert ist. Nur etwa 21,6 % der Teilnehmer erkannten die Fälschung.

Das bedeutet dann allerdings auch, dass Content-Moderatoren nicht in der Lage wären, einen Deepfake zu erkennen. Das sind ja auch nur Menschen. In der Konsequenz bräuchte man zuverlässig funktionierende Software, die gefälschte Videos detektieren könnte.

Fazit?

Deepfakes stellen nicht nur eine technische Herausforderung bei der Erkennung dar, sondern könnten auch langfristig das Vertrauen in digitale Inhalte untergraben. Warnhinweise allein scheinen nicht auszureichen, um Menschen in die Lage zu versetzen, echte von gefälschten Videos zu unterscheiden. Es wird zunehmend wichtiger, dass Technologiekonzerne und Regierungen effektive Erkennungstools entwickeln und gleichzeitig das Vertrauen der Nutzer in die Richtigkeit solcher Tools stärken. Sollte bei der Videoberichterstattung ein allgemeines Misstrauen beim Zuschauer einziehen – vielleicht auch durch den einen oder anderen Skandal – könnte das auch das Vertrauen in Nachrichtensender untergraben. Ein Fressen für Verschwörungstheoretiker.

Mehr dazu:

  • Lewis Andrew, Vu Patrick, Duch Raymond M. and Chowdhury Areeq 2023, Deepfake detection with and without content warnings. R. Soc. Open Sci.10231214, http://doi.org/10.1098/rsos.231214
  • Vaccari C, Chadwick A. 2020 Deepfakes and disinformation: exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Soc. Media+Soc. 6, 2056305120903408, https://doi.org/10.1177/2056305120903408

👉 Auf Mastodon kommentieren