Bereits seit mehreren Jahren wird KI für Deepfakes benutzt, um verschiedene Betrügereien durchzuführen. Sehr beliebt ist der sogenannte CEO-Fraud, bei dem versucht wird, Angestellte eines Unternehmens zur Überweisung hoher Geldsummen auf Anweisung eines gefälschten hohen Vorgesetzten zu verleiten.
...weiterlesen "Deepfake-Betrug: Wie gut erkennen Menschen Sprach-Deepfakes?"Schlagwort: CEO-Fraud
Ferrari entging knapp einem Deepfake-Betrug
Ferrari ist knapp einem versuchten Identitätsbetrug entkommen. Ziel des Angriffs war ein Topmanager des Unternehmens. Per Messenger-Nachrichten von einem gefälschten Profil und Deepfake-Telefonanruf wurde der Ferrari-Chef Benedetto Vigna erstaunlich professionell imitiert. Die KI-Stimmensynthese ist inzwischen so gut, dass auch Dialekte oder Akzente täuschend echt nachgeahmt werden können.
...weiterlesen "Ferrari entging knapp einem Deepfake-Betrug"KI-Klon-Betrug in Hongkong: Videokonferenz mit Deepfakes bringt Millionenbeute
In Hongkong ist Betrügern ein großer Coup mit KI-Clonen gelungen. Dieses Mal handelte es sich um mehrere Video-Clone, mit denen unfassbarer Weise eine komplette Videokonferenz vorgetäuscht wurde. Die einzig echte Person im Call war das Opfer. Alle anderen Personen wirkten im Aussehen und Stimme wie bekannte Kolleg*innen. Offenbar wurde als Vorlage aufgezeichnetes Videomaterial von echten Telefonkonferenzen verwendet. Das spekulierte zumindest der stellvertretende Polizeichef der Cybersicherheitsabteilung.
...weiterlesen "KI-Klon-Betrug in Hongkong: Videokonferenz mit Deepfakes bringt Millionenbeute"