Springe zum Inhalt

Es gibt einen weiteren öffentlich gewordenen Fall Betrugsversuch mit einem KI-Doppelgänger. Der Anwalt und Politiker Jay Shooster tweetete auf X, dass sein Vater einen betrügerischen Anruf erhalten habe. Dieser erhielt einen Anrufer mit der Stimme von Jay Shooster. Der Anrufer behauptete, er hätte einen schweren Unfall gehabt und sei wegen Fahrens unter Alkoholeinfluss verhaftet worden.

...weiterlesen "Betrugsversuch mit KI-Stimmklon bei Vater von US-Anwalt und Politiker"

Ferrari ist knapp einem versuchten Identitätsbetrug entkommen. Ziel des Angriffs war ein Topmanager des Unternehmens. Per Messenger-Nachrichten von einem gefälschten Profil und Deepfake-Telefonanruf wurde der Ferrari-Chef Benedetto Vigna erstaunlich professionell imitiert. Die KI-Stimmensynthese ist inzwischen so gut, dass auch Dialekte oder Akzente täuschend echt nachgeahmt werden können.

...weiterlesen "Ferrari entging knapp einem Deepfake-Betrug"