📱 Neue gefährliche Mittel

Klon-Stimmen, Deepfakes, perfekte E-Mails: Wie Betrüger ihre Attacken mit KI veredeln

Innsbruck – Die Chefin ruft an und bittet die Buchhalterin, einem Geschäftspartner einen hohen Geldbetrag zu überweisen. Gesagt, erledigt – und das Geld ist futsch. Wie das geht? Ins Handy gesprochen hat nicht die Vorgesetzte, sondern ein Betrüger, der die Stimme mittels Künstlicher Intelligenz (KI) erschaffen hat. Szenarien wie diese sind angesichts des rasanten Fortschritts bei der KI keine Zukunftsmusik mehr. Forbes berichtete kürzlich, dass Kriminelle mithilfe von Deepfake-Technik die Stimme eines Firmendirektors imitiert und damit einen Bankmanager am Telefon dazu gebracht haben sollen, 35 Mio. Dollar an eine Person zu überweisen.

Aktion erforderlich

Ihr Gerät scheint nicht mit dem Internet verbunden zu sein. Bitte überprüfen Sie Ihre Internetverbindung und versuchen Sie dann erneut, die Seite zu laden.

Verwandte Themen