Home Tecnologia ChatGPT e Google Bard fanno ora parte dei nuovi strumenti per i criminali informatici, in quanto possono creare file dannosi e indurre gli utenti a scaricarli, secondo Veriti.

ChatGPT e Google Bard fanno ora parte dei nuovi strumenti per i criminali informatici, in quanto possono creare file dannosi e indurre gli utenti a scaricarli, secondo Veriti.

0
Secondo l’ultimo rapporto di ricerca pubblicato dalla società di sicurezza informatica Veriti, i criminali informatici utilizzano anche piattaforme di intelligenza artificiale generativa, tra cui ChatGPT, nonostante una serie di applicazioni positive.

Il team di ricerca ha avvertito che queste piattaforme sono in grado di creare nuovi contenuti come immagini o testi. Allo stesso tempo, possono anche essere utilizzati per creare file dannosi che inducono gli utenti a scaricarli. Anche le persone che non hanno familiarità con queste piattaforme possono essere vittime di questi file dannosi.

Una volta scaricato il file, gli hacker possono mettere le mani su dati sensibili, inclusi i dettagli bancari, o interrompere l’infrastruttura critica. Gli hacker possono persino acquisire account di social media con un gran numero di follower e utilizzarli per ottenere più download per altri file, come Google Bard e altri file dannosi generati dall’intelligenza artificiale.

L’immagine condivisa dal team di ricerca mostra come sono stati pubblicati diversi profili su ChatGPT e Google Bard, il software AI del motore di ricerca stesso. Alla fine del messaggio sono allegati dei link che potrebbero sembrare offrire una prova gratuita, ma in realtà sono l’opposto.

Veriti afferma inoltre che questi messaggi sembrano reali e potrebbero finire per sollecitare vittime. Una volta che la vittima inizia a estrarre il file, viene attivato anche RedLine Stealer e può impossessarsi delle credenziali. Il software può essere facilmente ottenuto sul dark web. Le informazioni vengono vendute ad altri hacker, che possono utilizzarle per eseguire le proprie campagne dannose, come le truffe online.

La società aggiunge che la piattaforma di messaggistica istantanea Telegram, nota per la sua crittografia end-to-end, potrebbe fornire una piattaforma sicura per consentire agli aggressori di condividere dati o acquistare software pericoloso. Un servizio crittografato ti consente di mantenere riservata la tua identità.

Finora, numerosi profili Facebook sono già stati violati negli Stati Uniti, in India e in molti altri paesi e ora vengono utilizzati dagli hacker per indurre altre vittime a scaricare file dannosi. Di conseguenza, il numero di vittime continua ad aumentare con sempre più utenti che perdono i propri dati a causa di questi autori di minacce.

fonte : Paura

E tu?

Cosa ne pensi? Trovate pertinenti le conclusioni di questo rapporto?

Secondo te, i chatbot IA possono aiutare a rimodellare il panorama delle minacce?

Vedi oltre

Gli esperti di sicurezza sono stati in grado di creare malware polimorfico “altamente invasivo” utilizzando ChatGPT e il malware sarà in grado di eludere i prodotti di sicurezza

Europol lancia l’allarme sull’uso criminale del chatbot ChatGPT e vede prospettive fosche

I criminali informatici stanno testando il chatbot ChatGPT per creare malware e riaccendere i timori di un futuro in cui l’intelligenza artificiale può superare l’umanità.

I nuovi attacchi di ingegneria sociale sono aumentati del 135% grazie all’IA generativa, secondo una nuova ricerca della società di sicurezza informatica Darktrace.

LEAVE A REPLY

Please enter your comment!
Please enter your name here