Springe zum Inhalt

In den letzten Jahren sind Deepfakes zu einem ernst zu nehmenden Problem geworden. Mit solchen täuschend echt aussehenden, aber gefälschten Videos lassen sich Falschinformationen gezielt verbreiten. Typische Angriffsziele sind dabei kontrovers diskutierte Themen. Dies hat dazu geführt, dass sowohl das FBI als auch Europol vor der Gefahr dieser Technologie warnen.

...weiterlesen "Deepfakes: Warum Warnhinweise nicht ausreichen, um Fälschungen zu erkennen"

Die Verbreitung von Fehlinformationen über den Klimawandel hat jahrzehntelange Praxis, mit entsprechend weitreichend negativen Folgen. Am augenscheinlichsten ist die dadurch hervorgerufene lebensgefährliche Verzögerung für dringliche Klimaschutzmaßnahmen. Ebenso wird die effektive Kommunikation wissenschaftlicher Erkenntnisse an die Bevölkerung behindert.

...weiterlesen "KI-Modell zur Erkennung von Fehlinformationen zum Klimawandel"

Bereits vor mehreren Monaten hatte ich Studienbeispiele auf Mastodon getrötet, bei denen ChatGPT verwendet wurde. Die Autoren waren bei ihrer Arbeit so schlampig, dass typische KI-Antworten in den Dokumenten leicht auffindbar waren. Für seriöse Studien sollte so etwas unmöglich sein, denn der Review-Prozess sollte solchen Unfug aufdecken.

...weiterlesen "Wachsende Gefahr durch KI-generierte Fake-Studien in der Wissenschaft"