Springe zum Inhalt

Bereits seit mehreren Jahren wird KI für Deepfakes benutzt, um verschiedene Betrügereien durchzuführen. Sehr beliebt ist der sogenannte CEO-Fraud, bei dem versucht wird, Angestellte eines Unternehmens zur Überweisung hoher Geldsummen auf Anweisung eines gefälschten hohen Vorgesetzten zu verleiten.

...weiterlesen "Deepfake-Betrug: Wie gut erkennen Menschen Sprach-Deepfakes?"

Es gibt einen weiteren öffentlich gewordenen Fall Betrugsversuch mit einem KI-Doppelgänger. Der Anwalt und Politiker Jay Shooster tweetete auf X, dass sein Vater einen betrügerischen Anruf erhalten habe. Dieser erhielt einen Anrufer mit der Stimme von Jay Shooster. Der Anrufer behauptete, er hätte einen schweren Unfall gehabt und sei wegen Fahrens unter Alkoholeinfluss verhaftet worden.

...weiterlesen "Betrugsversuch mit KI-Stimmklon bei Vater von US-Anwalt und Politiker"

In den letzten Jahren sind Deepfakes zu einem ernst zu nehmenden Problem geworden. Mit solchen täuschend echt aussehenden, aber gefälschten Videos lassen sich Falschinformationen gezielt verbreiten. Typische Angriffsziele sind dabei kontrovers diskutierte Themen. Dies hat dazu geführt, dass sowohl das FBI als auch Europol vor der Gefahr dieser Technologie warnen.

...weiterlesen "Deepfakes: Warum Warnhinweise nicht ausreichen, um Fälschungen zu erkennen"

KI kann nicht nur Bilder erzeugen, sondern auch Bilder manipulieren. Kommerzielle Bildbearbeitungsprogramme haben derartige Features bereits zum Retuschieren oder für Freistellungen oder Ähnliches eingebaut. Eine miesere Variante sind sogenannte „Undress“-Dienste. Auf derartigen Websites kann man ein Foto einer Person hochladen und diese anschließend virtuell mithilfe der KI „entkleiden“.

...weiterlesen "Deepfake-Bedrohung wächst: San Francisco geht gegen Webseiten mit KI-Bildmanipulation vor"

Deepfakes machen mal wieder Negativschlagzeilen. Jetzt hat es auch Moderatoren vom öffentlich-rechtlichen Rundfunk erwischt, die angeblich für irgendwelche Dinge werben. Für Betrüger ist es leicht, an entsprechendes Bild- und Video-Rohmaterial zu kommen, denn Nachrichtensprecher sind stundenlang live. In letzter Zeit scheinen angeblich lukrative Geldanlagen auf betrügerischen Investment-Plattformen mit gefälschten Videos beworben zu werden.

...weiterlesen "Achtung: Promis und Öffis durch Deepfake-Welle heimgesucht."

Ferrari ist knapp einem versuchten Identitätsbetrug entkommen. Ziel des Angriffs war ein Topmanager des Unternehmens. Per Messenger-Nachrichten von einem gefälschten Profil und Deepfake-Telefonanruf wurde der Ferrari-Chef Benedetto Vigna erstaunlich professionell imitiert. Die KI-Stimmensynthese ist inzwischen so gut, dass auch Dialekte oder Akzente täuschend echt nachgeahmt werden können.

...weiterlesen "Ferrari entging knapp einem Deepfake-Betrug"

In Hongkong ist Betrügern ein großer Coup mit KI-Clonen gelungen. Dieses Mal handelte es sich um mehrere Video-Clone, mit denen unfassbarer Weise eine komplette Videokonferenz vorgetäuscht wurde. Die einzig echte Person im Call war das Opfer. Alle anderen Personen wirkten im Aussehen und Stimme wie bekannte Kolleg*innen. Offenbar wurde als Vorlage aufgezeichnetes Videomaterial von echten Telefonkonferenzen verwendet. Das spekulierte zumindest der stellvertretende Polizeichef der Cybersicherheitsabteilung.

...weiterlesen "KI-Klon-Betrug in Hongkong: Videokonferenz mit Deepfakes bringt Millionenbeute"