Home Tecnologia Deepfake audio: attenzione alla nuova trappola preferita dei truffatori: Business AM

Deepfake audio: attenzione alla nuova trappola preferita dei truffatori: Business AM

0
Deepfake audio: attenzione alla nuova trappola preferita dei truffatori: Business AM

I truffatori sono sempre un passo avanti e spesso hanno una certa affinità per le tecnologie più innovative. Dopo la foto o il video deepfake, ecco le telefonate finte di persone di cui sarete certi di riconoscere la voce. È quasi introvabile e può costarti caro.

È una tecnologia vecchia quanto il web o anche la scrittura: ricevi un messaggio da una persona cara che si trova in una situazione difficile, che si tratti di problemi di salute, di un problema amministrativo con uno straniero, o un po’ di tutto questo insieme tempo. Per risolvere il problema, ti chiede di inviargli dei soldi. Ovviamente sarai risarcito molto rapidamente, lo promettiamo. In ogni caso ti fidi di questa persona.

E, naturalmente, non rivedrai mai più i tuoi soldi: era una truffa di furto di identità. Certo, truffe di questo tipo via e-mail o tramite social network sono ormai ben note. Ma possiamo essere ingannati se questo tipo di scenario si verifica al telefono e riconosci la voce della persona amata.

Al telefono con un bot simulato

È uno scenario completamente credibile secondo compagnia veloce. Dopo le riprese e la videoregistrazione, il deepfake viene perfezionato in modo da poter imitare in modo convincente le voci. E questo grazie alla convergenza di alcune tecnologie avanzate che, prese separatamente, hanno davvero un potente potenziale brillante. Innanzitutto, generatori di suoni sintetici, sempre più convincenti nelle mani di un buon tecnico del suono. Ma anche chat box simili a ChatGPT, che stanno iniziando a creare script realistici con risposte adattive in tempo reale. È sufficiente condurre in modo convincente una conversazione telefonica con un essere umano e fargli credere che sta effettivamente parlando con una persona vicina.

READ  Il videogioco “Black Myth: Wukong” è stato appena pubblicato ed era già un successo commerciale

Ogni anno, migliaia di persone cadono vittime di truffe vocali, e sono necessariamente più difficili da rintracciare rispetto a un messaggio scritto, di cui possiamo almeno fare degli screenshot. È molto difficile rintracciare le chiamate, identificare i truffatori – che potrebbero operare dall’estero – e recuperare denaro.

Simula la voce del boss per raggiungere il jackpot

Le somme così estorte sono state stimate in totale $ 11 milioni Nel 2022, secondo Ars Technica. Una somma distribuita a più di 5.000 vittime conosciute, solo negli Stati Uniti. Tuttavia, non c’è dubbio che molte di queste truffe passino sotto il radar Commissione federale del commercio.

E queste truffe possono essere ancora più creative delle “semplici” finte richieste di aiuto che hanno preceduto il panico e la solidarietà delle vittime. Nel 2019, una società energetica è stata defraudata di $ 243.000 quando i criminali hanno falsificato la voce del presidente della società madre per ordinare a un dipendente di trasferire denaro a un fornitore. Teoricamente, nessuna azienda è immune da questo tipo di furto audace. E anche se ciò significa investire nell’attrezzatura audio necessaria, il tuo obiettivo potrebbe essere troppo.

Benvenuto in un mondo in cui nulla è certo e in cui tutti i fatti e le interazioni possono mascherare le frodi. Abbastanza per eccitare anche il più pessimista degli autori e altri sceneggiatori distopici. L’unico modo per proteggerci è fare appello alla nostra intelligenza umana: mantenere la calma, richiamare i nostri cari attraverso un altro canale, o addirittura imporre che ogni chiamata debba essere preceduta da un SMS. Ma non è stato vinto.

READ  Glorie di un pianeta extrasolare - Pieuvre.ca

LEAVE A REPLY

Please enter your comment!
Please enter your name here