Bereits vor mehreren Monaten hatte ich Studienbeispiele auf Mastodon getrötet, bei denen ChatGPT verwendet wurde. Die Autoren waren bei ihrer Arbeit so schlampig, dass typische KI-Antworten in den Dokumenten leicht auffindbar waren. Für seriöse Studien sollte so etwas unmöglich sein, denn der Review-Prozess sollte solchen Unfug aufdecken.
...weiterlesen "Wachsende Gefahr durch KI-generierte Fake-Studien in der Wissenschaft"