Identity Threat Defense

Quattro modi in cui l’IA generativa trasforma il social engineering

Share with your network!

L'email è il principale vettore delle minacce. Ma sempre più, sentiamo la necessità di includere social media, SMS e chiamate vocali nella formazione sulla sicurezza informatica. Perché? Perché l’IA generativa (GenAI) trasforma il social engineering e i criminali informatici la utilizzano per rubare l’identità di persone o celebrità.  

I criminali informatici possono utilizzare l’IA generativa per creare immagini, testi, contenuti audio e video e elaborare truffe efficaci per rubare dati personali, finanziari o sensibili. Possono automatizzare le loro operazioni e aumentare le probabilità di successo. Possono anche scalare e distribuire gli attacchi attraverso diversi canali, come le app di messaggistica, i social media, le telefonate e, naturalmente, le email. 

Secondo le ricerche condotte da Proofpoint per l’ultima edizione del report State of the Phish, il 58% delle persone che ha intrapreso un’azione pericolosa nel 2023 sapeva che il proprio comportamento li metteva in pericolo. Ciò ci porta a porci una domanda fondamentale: Quando ricevi un messaggio (messaggio istantaneo, diretto, vocale o email) puoi essere sicuro al 100% che il mittente è chi dice di essere? Non in un mondo dove i criminali informatici si avvalgono dell’IA generativa. 

In questo articolo, analizziamo quattro modi in cui i criminali informatici utilizzano questa potente tecnologia per raggirare le loro vittime. 

  1. Truffe conversazionali convincenti 
  2. Deepfake realistici 
  3. Attacchi BEC personalizzati 
  4. Profili e post fasulli automatizzati  

1: Truffe conversazionali convincenti 

I criminali informatici utilizzano l’IA generativa per creare truffe conversazionali estremamente convincenti che imitano le interazioni umane. I modelli di elaborazione del linguaggio naturale li aiutano nella generazione di messaggi personalizzati. Tra i modelli più comuni, ci sono le reti neurali ricorrenti i modelli trasformatori (come GPT-3) e i modelli sequenza a sequenza. 

Se le esche utilizzate dai criminali informatici variano, hanno tutti l’obiettivo di avviare una conversazione con il destinatario e guadagnare la sua fiducia. I criminali informatici possono interagire con un obiettivo per settimane o mesi per creare una relazione con l’obiettivo di convincerlo a inviare denaro, investire in una piattaforma fasulla di criptovalute, condividere informazioni finanziarie o effettuare qualche altra azione.    

Come funzionano queste truffe?  

I criminali informatici acquisiscono ampie serie di dati di conversazioni testuali da fonti come i social media, le app di messaggistica, i registri delle chat, le violazioni di dati e le interazioni con il servizio clienti. Queste serie di dati gli consentono di addestrare i modelli di elaborazione del linguaggio naturale a comprendere e generare testi basati sui prompt inseriti simili a quelli redatti dall’uomo. I modelli apprendono a riconoscere gli schemi, comprendere il contesto e generare risposte che sembrano naturali.  

Una volta addestrato un modello di elaborazione del linguaggio naturale, i criminali informatici possono utilizzarlo per generare messaggi testuali per raggirare le loro vittime. Le conversazioni possono imitare persone o strutture linguistiche specifiche o generare risposte adeguate a scenari di truffa comuni. Diventa così difficile per le persone distinguere tra comunicazioni legittime e messaggi fasulli sulle piattaforme social come Instagram, nelle app di messaggistica come WhatsApp e sui siti web di incontri come Tinder. 

Come Proofpoint può aiutarti a ridurre questi rischi 

Proofpoint Security Awareness offre contenuti formativi tempestivi sulle tendenze delle minacce, tra cui una campagna di due settimane con formazione come il nostro “Attack Spotlight: truffe conversazionali”, che aiuta gli utenti a imparare a riconoscere e evitare queste truffe. 

2: Deepfake realistici 

I criminali informatici possono utilizzare l’IA generativa per creare deepfake che ritraggono persone che dicono o fanno cose a loro piacimento. I criminali informatici utilizzano modelli avanzati di machine learning (ML) per creare contenuti fraudolenti estremamente realistici che imitano l’aspetto, la voce o i comportamenti di una persona.  

Come funzionano questi deepfake?  

I criminali informatici raccolgono un insieme di immagini, registrazioni audio o video che mostrano la persona che vogliono imitare. Utilizzano quindi questo insieme di dati per addestrare il modello di IA generativa per creare contenuti fasulli come immagini e video. Il modello è in grado di valutare l’autenticità dei suoi stessi contenuti.  

Le reti antagoniste generative (GAN, Generative Adversarial Network) sono uno dei modelli più diffusi. Possono produrre gradualmente deepfake più convincenti affidando e ottimizzando i loro metodi. Per esempio, possono adattare i parametri dei modelli, rafforzare la serie di dati per l'addestramento o affinare il processo di addestramento. Per migliorare ulteriormente il realismo dei loro deepfake, i criminali informatici possono utilizzare tecniche di post-elaborazione come l’adattamento di illuminazione e colori o l’aggiunta di lievi imperfezioni.  

I deepfake possono essere potenti strumenti all’interno di scenari dannosi. Per esempio, i criminali informatici possono utilizzare deepfake vocali per impersonare i partenti delle vittime. Un esempio è la famosa truffa telefonica in cui un criminale informatica si finge il figlio o il nipote della sua vittima e richiede denaro per un’emergenza.  

Proprio come un’impronta digitale, l’impronta vocale è unica per ogni persona. I criminali informatici possono estrarre i dati biometrici da un piccolo campione di contenuto multimediale, come un messaggio vocale, una registrazione video o un podcast, per imitare la voce di una persona con l’IA generativa.  

Come Proofpoint può aiutarti a ridurre questi rischi 

Offriamo una campagna completa di sensibilizzazione alla sicurezza informatica relativa alle tendenze dei deepfake, inclusi brevi video di formazione, un gioco interattivo e un articolo sui tre principali punti da ricordare. Inoltre rilasciamo avvisi sulle minacce in tempo reale quando gli analisti Proofpoint rilevano un attacco deepfake preoccupante, come nel caso di una recente truffa finanziaria avvenuta nel primo trimestre a Hong Kong.  

3: Attacchi BEC personalizzati 

Nel nostro report State of the Phish 2024, abbiamo rilevato che l’IA generativa probabilmente aiuta i criminali informatici con gli attacchi BEC, in particolare nei Paesi non anglofoni. Gli attacchi BEC sono in aumento in Paesi come Giappone, Corea e Emirati Arabi Uniti, che i criminali informatici hanno evitato in passato a causa delle barriere linguistiche, delle differenze culturali o della mancanza di visibilità.  

Le truffe BEC solitamente implicano tattiche di furto d’identità. I criminali informatici fingono di essere persone di fiducia, come i dirigenti dell'azienda. Cercano di incitare i collaboratori a compiere azioni pericolose come trasferire denaro o divulgare dati sensibili.  

Oggi, i criminali informatici possono utilizzare l’IA generativa per migliorare questi attacchi. Possono, per esempio, scrivere in molte lingue in modo convincente. Possono anche migliorare la qualità dei messaggi creandoli più velocemente.  

Come funzionano questi deepfake? 

L’IA generativa apprende modelli e relazioni in una serie di contenuti creati dall’uomo e etichette corrispondenti. Utilizza poi i modelli appresi per generare nuovi contenuti. L’IA generativa permette ai criminali informatici di accelerare e automatizzare la creazione di messaggi di social engineering personalizzati per ogni destinatario e estremamente convincenti.  

Per esempio, i criminali informatici possono utilizzare l’IA generativa per scrivere email fasulle e SMS che imitano lo stilo, il tono e la firma di una persona di cui hanno rubato l’identità. Possono utilizzare il modello d’IA per automatizzare la creazione di questi messaggi di phishing e generare rapidamente un grande volume di messaggi personalizzati in funzione dei destinatari presi di mira, Complicando la valutazione dell’autenticità dei messaggi.  

Anche i deepfake possono avere un ruolo in questi attacchi. I criminali informatici possono rafforzare la credibilità delle loro richieste fraudolente facendole seguire da messaggi vocali, chiamate vocali o messaggi video contraffatti in cui un dirigente aziendale dà istruzioni o autorizza transazioni. 

Come Proofpoint può aiutarti a ridurre questi rischi 

Ci focalizziamo sulla sensibilizzazione alla sicurezza contro gli attacchi BEC e offriamo centinaia di contenuti (video interattivi, video umoristici, animazioni di un minuto, ecc.). I nostri analisti delle minacce creano degli avvisi settimanali sugli attacchi BEC in circolazione, come il dirottamento delle buste paga e le fatture fraudolente.  

4: Profili e post fasulli automatizzati  

Abbiamo parlato di come l’IA generativa genera immagini, contenuti audio e video realistici di persone reali. I criminali informatici possono anche utilizzare modelli di IA per creare false identità destinate a essere utilizzate sui social media e sulle piattaforme d’informazione. Possono anche utilizzare dei modelli di IA per automatizzare la creazione di grandi volumi di account, articoli, immagini, commenti e post fasulli.  

Come funzionano questi deepfake?  

Con un addestramento minimo, i modelli di IA generativa possono analizzare dati e profili dei social media pubblici e adattare tali informazioni a casi d’uso mirati. Questi modelli possono: 

  • replicare lo stile e il tono di comunicazioni legittime provenienti da fonti affidabili; 
  • tradurre e localizzare i testi in diverse lingue; 
  • gestire attività ripetitive, come rispondere ai messaggi.  

I criminali informatici possono utilizzare false identità per essere in linea con gli interessi delle persone prese di mira. Per esempio, possono automatizzare il processo di creazione di profili su piattaforme come Facebook, Instagram, forum e app di incontri. Possono anche utilizzare i modelli di IA per elaborare rapidamente i dati nelle conversazioni sui social media e scrivere automaticamente risposte convincenti. Il loro obiettivo è instaurare un’ampia gamma di relazioni attraverso le quali poter sfruttare le vulnerabilità e la fiducia degli utenti.  

L’IA permette ai criminali informatici di eseguire queste azioni dannose su larga scala. Ciò aumenta le loro probabilità di diffondere false informazioni e influenzare le discussioni online. 

Come Proofpoint può aiutarti a ridurre questi rischi 

Proofpoint Security Awareness offre formazione continua sul social engineering e avvisi in tempo reale in caso di sospetto di furto d’identità sui social media. I nostri materiali includono articoli e video permanenti su come evitare e giocare d’astuzia contro i criminali informatici nonché avvisi settimanali sui recenti attacchi GitHub, LinkedIn e X.  

Scarica il nostro kit gratuito! L’IA generativa richiede una formazione su più fronti 

In tutti questi scenari, i criminali informatici utilizzano l’IA generativa per fingersi, in modo realistico e convincente, qualcun altro. Manipolano la psicologia umana grazie al social engineering Incitando le persone a compiere azioni pericolose come fare clic su link dannosi, divulgare informazioni personali o trasferire denaro.  

È fondamentale approcciare la formazione sulla sicurezza con uno spirito critico e mantenersi informati sulle minacce emergenti e le misure di difesa. Per formare gli utenti sui rischi dell’IA generativa è necessario un approccio su più fronti alla sensibilizzazione alla sicurezza informatica. La formazione è particolarmente importante per i collaboratori che gestiscono le transazioni finanziarie o i dati sensibili. 

Proofpoint utilizza la sua threat intelligence avanzata per creare formazione sulla sicurezza, materiali e simulazioni di attacchi di phishing relativi alle minacce reali. Offriamo formazione attraverso un framework di apprendimento adattivo, su scala costante e progressiva, dalle abitudini di base a concetti avanzati. Questo approccio aiuta a garantire che gli argomenti e il livello di difficoltà della formazione siano adattati alle esigenze degli utenti. 

Parliamo degli argomenti prediletti dei deepfake e delle truffe conversazionali nel nostro kit gratuito del mese di sensibilizzazione alla sicurezza informatica 2024: non dimenticarti di consultarlo.