Identity Threat Defense

Quatre façons dont l'IA générative transforme l'ingénierie sociale

Share with your network!

La messagerie électronique est le principal vecteur de menaces. Mais de plus en plus, nous comprenons qu'il est nécessaire d'inclure les réseaux sociaux, les SMS et les appels vocaux dans les formations de cybersécurité. Pourquoi ? Parce que l'IA générative (GenAI) transforme l'ingénierie sociale et que les cybercriminels l'utilisent pour usurper l'identité de personnes ou de personnalités.  

Les cyberpirates peuvent avoir recours à l'IA générative pour créer des images, du texte, des contenus audio et des vidéos, et ainsi élaborer des escroqueries convaincantes pour voler des données personnelles, financières ou sensibles. Ils peuvent automatiser leurs opérations et accroître leurs chances de réussite. Ils peuvent également mettre à l'échelle et distribuer des attaques via un large éventail de canaux, tels que les applications de messagerie, les réseaux sociaux, les appels téléphoniques et, bien entendu, les emails. 

D'après les recherches menées par Proofpoint pour les besoins du rapport State of the Phish, 58 % des personnes qui ont effectué une action dangereuse en 2023 pensaient que leur comportement les mettait en péril. Cela soulève une question essentielle : quand vous recevez un message (message instantané, direct, vocal ou email), pouvez-vous être 100 % certain que l'expéditeur est qui il prétend être ? Pas dans un monde où les cybercriminels tirent parti de l'IA générative. 

Dans cet article, nous nous intéressons à quatre façons dont les cyberpirates utilisent cette technologie puissante pour piéger leurs victimes. 

  1. Escroqueries conversationnelles convaincantes 
  2. Deepfakes réalistes 
  3. Attaques BEC personnalisées 
  4. Faux profils et publications bidons automatisés  

1. Escroqueries conversationnelles convaincantes 

Les cybercriminels ont recours à l'IA générative pour créer des escroqueries conversationnelles extrêmement convaincantes qui imitent des interactions humaines. Les modèles de traitement du langage naturel les aident à générer des messages personnalisés. Parmi les plus populaires, on retrouve les réseaux neuronaux récurrents, les modèles transformers (comme GPT-3) et les modèles séquence à séquence. 

Bien que les leurres employés par les cyberpirates varient, ils ont tous pour objectif d'entamer une conversation avec le destinataire et de gagner sa confiance. Les cybercriminels peuvent interagir avec une cible pendant des semaines ou des mois afin de nouer une relation avec elle dans le but de la convaincre d'envoyer de l'argent, d'investir dans une fausse plate-forme de cryptomonnaie, de partager des informations financières ou d'effectuer d'autres tâches.    

Comment fonctionnent ces escroqueries ?  

Les cyberpirates collectent d'importants ensembles de données de conversations textuelles à partir de sources telles que des réseaux sociaux, des applications de messagerie, des journaux de discussion, des compromissions de données et des interactions avec un service client. Ces ensembles de données leur permettent d'entraîner des modèles de traitement du langage naturel à comprendre et à générer du texte basé sur des invites d'entrée qui paraît avoir été rédigé par un humain. Les modèles apprennent à reconnaître des schémas, à comprendre le contexte et à générer des réponses qui semblent naturelles.  

Une fois qu'ils ont entraîné un modèle de traitement du langage naturel, les cybercriminels peuvent s'en servir pour générer des messages textuels afin d'escroquer leurs cibles. Les conversations peuvent imiter des personnes ou des structures linguistiques spécifiques, ou générer des réponses adaptées à des scénarios d'escroquerie courants. Il est donc difficile pour les gens de faire la différence entre des communications légitimes et de faux messages sur des réseaux sociaux comme Instagram, dans des applications de messagerie telles que WhatsApp et sur des sites Web de rencontre comme Tinder. 

Comment Proofpoint peut vous aider à réduire ces risques 

Proofpoint Security Awareness propose des contenus éducatifs pertinents sur les tendances en matière de menaces, dont une campagne de deux semaines avec des formations telles que « Attack Spotlight : escroqueries conversationnelles », qui aide les utilisateurs à reconnaître et à éviter ces escroqueries. 

2. Deepfakes réalistes 

Les cybercriminels peuvent utiliser l'IA générative pour créer des deepfakes qui font dire ou faire n'importe quoi aux personnes de leur choix. Les cyberpirates ont recours à des modèles avancés d'apprentissage automatique pour créer des contenus frauduleux extrêmement réalistes qui imitent l'apparence, la voix ou les manières d'une personne.  

Comment fonctionnent ces deepfakes ?  

Les cybercriminels collectent un ensemble d'images, d'enregistrements audio ou de vidéos qui représentent la personne qu'ils souhaitent imiter. Ils utilisent cet ensemble de données pour entraîner le modèle d'IA générative afin de créer de faux contenus, comme des images ou des vidéos. Le modèle peut évaluer l'authenticité de ses propres contenus.  

Les réseaux antagonistes génératifs (GAN, Generative Adversarial Network) font partie des modèles les plus populaires. Ils peuvent progressivement produire des deepfakes plus convaincants en affinant et en optimisant leurs méthodes. Par exemple, ils peuvent ajuster les paramètres des modèles, renforcer l'ensemble de données d'entraînement ou affiner le processus d'entraînement. Pour améliorer davantage le réalisme de leurs deepfakes, les cyberpirates peuvent employer des techniques de post-traitement comme l'ajustement de l'éclairage et des couleurs ou l'ajout d'imperfections subtiles.  

Les deepfakes peuvent être des outils puissants dans des scénarios malveillants. Par exemple, les cybercriminels peuvent utiliser des deepfakes vocaux pour usurper l'identité de proches de leurs victimes. À titre d'exemple, citons la célèbre escroquerie téléphonique où un cybercriminel se fait passer pour l'enfant ou le petit-enfant de sa cible et lui demande de l'argent pour une urgence.  

À l'instar des empreintes digitales, les empreintes vocales sont propres à chaque individu. Les cybercriminels peuvent récupérer des données biométriques à partir d'un petit échantillon de contenu multimédia, tel qu'un message vocal, un enregistrement vidéo ou un podcast, pour imiter la voix d'une personne avec l'IA générative.  

Comment Proofpoint peut vous aider à réduire ces risques 

Nous proposons une campagne complète de sensibilisation à la sécurité informatique concernant les tendances en matière de deepfakes, y compris de courtes vidéos de formation, un jeu interactif et un article sur les trois principaux points à retenir. Nous générons également des alertes sur les menaces en temps réel lorsque les analystes de Proofpoint détectent une attaque de deepfake préoccupante, comme cela a été le cas lors d'une récente escroquerie financière survenue au 1er trimestre à Hong Kong

3. Attaques BEC personnalisées 

Dans notre rapport State of the Phish 2024, nous indiquions que l'IA générative aide probablement les cybercriminels à lancer des attaques BEC, en particulier dans les pays non anglophones. Les attaques BEC se multiplient dans des pays comme le Japon, la Corée et les Émirats arabes unis, que les cyberpirates évitaient jusqu'à présent en raison des obstacles linguistiques, des différences culturelles ou du manque de visibilité.  

Les escroqueries BEC ont généralement recours à des tactiques d'usurpation d'identité. Les cybercriminels se font passer pour des individus de confiance, comme des cadres de l'entreprise. Ils cherchent à inciter des collaborateurs à effectuer des actions dangereuses, telles que transférer de l'argent ou divulguer des données sensibles.  

Aujourd'hui, les cybercriminels peuvent utiliser l'IA générative pour optimiser ces attaques. Ils peuvent notamment écrire dans de nombreuses langues de manière convaincante. Ils peuvent aussi améliorer la qualité des messages tout en accélérant leur création.  

Comment fonctionnent ces attaques ? 

L'IA générative apprend des modèles et des relations dans un ensemble de contenus créés par des humains et d'étiquettes correspondantes. Elle s'appuie ensuite sur les modèles appris pour générer de nouveaux contenus. L'IA générative permet aux cybercriminels d'accélérer et d'automatiser la création de messages d'ingénierie sociale personnalisés pour chaque destinataire — et extrêmement convaincants.  

Par exemple, les cyberpirates peuvent y avoir recours pour rédiger de faux emails et SMS qui imitent le style, le ton et la signature d'une personne dont ils ont usurpé l'identité. Ils peuvent utiliser le modèle d'IA pour automatiser la création de ces messages de phishing et générer rapidement un important volume de messages personnalisés en fonction des destinataires ciblés, ce qui complique l'évaluation de l'authenticité des messages.  

Les deepfakes peuvent également jouer un rôle dans ces attaques. Les cybercriminels peuvent renforcer la crédibilité de leurs demandes frauduleuses en les faisant suivre de messages vocaux, d'appels vocaux ou de messages vidéo bidons dans lesquels un cadre de l'entreprise donne des instructions ou autorise des transactions. 

Comment Proofpoint peut vous aider à réduire ces risques 

Nous nous concentrons sur la sensibilisation à la protection contre les attaques BEC et proposons des centaines de contenus (vidéos interactives, vidéos humoristiques en live action, animations d'une minute, etc.). Nos analystes des menaces créent des alertes hebdomadaires sur les attaques BEC en circulation, comme le détournement de salaires et les factures frauduleuses.  

4. Faux profils et publications bidons automatisés  

Nous avons évoqué la façon dont l'IA générative génère des images, des contenus audio et des vidéos réalistes de vraies personnes. Les cybercriminels peuvent également utiliser des modèles d'IA pour créer de fausses identités destinées à être utilisées sur les réseaux sociaux et les plates-formes d'information. De même, ils peuvent utiliser des modèles d'IA pour automatiser la création d'importants volumes de comptes, d'articles, d'éléments graphiques, de commentaires et de publications bidon.  

Comment fonctionnent ces profils et publications ?  

Avec peu d'entraînement, les modèles d'IA générative peuvent analyser des données et des profils de réseau social publics et adapter ces informations à des cas d'utilisation ciblés. Ces modèles peuvent : 

  • imiter le style et le ton de communications légitimes provenant de sources de confiance ; 
  • traduire et localiser du texte dans de nombreuses langues ; 
  • gérer des tâches répétitives comme répondre à des messages.  

Les cybercriminels peuvent utiliser de fausses identités pour être en phase avec les centres d'intérêt de leur cible. Par exemple, ils peuvent automatiser le processus de création de profils sur des plates-formes telles que Facebook, Instagram, des forums et des applications de rencontre. Ils peuvent également utiliser des modèles d'IA pour traiter rapidement des données dans des conversations sur les réseaux sociaux et rédiger automatiquement des réponses convaincantes. Leur objectif est d'établir un large éventail de relations grâce auxquelles ils peuvent exploiter les vulnérabilités et la confiance des utilisateurs.  

L'IA permet aux cybercriminels d'exécuter ces activités malveillantes à grande échelle. Ils augmentent ainsi leurs chances de propager de fausses informations et d'influencer des discussions en ligne. 

Comment Proofpoint peut vous aider à réduire ces risques 

Proofpoint Security Awareness propose une formation continue sur l'ingénierie sociale ainsi que des avertissements en temps réel en cas de suspicion d'usurpation d'identité sur les réseaux sociaux. Nos supports incluent des vidéos et des articles permanents sur la façon d'éviter et de déjouer les attaques des cybercriminels ainsi que des alertes hebdomadaires sur les récentes attaques GitHub, LinkedIn et X.  

Téléchargez notre kit gratuit ! L'IA générative requiert une formation multidimensionnelle 

Dans tous ces scénarios, les cybercriminels utilisent l'IA générative pour se faire passer, de manière réaliste et convaincante, pour quelqu'un qu'ils ne sont pas. Ils manipulent la psychologie humaine grâce à l'ingénierie sociale. Et cela incite les utilisateurs à effectuer des actions dangereuses comme cliquer sur des liens malveillants, divulguer des informations personnelles ou transférer des fonds.  

Il est essentiel d'appréhender les formations de sécurité avec un esprit critique et de se tenir informé des menaces émergentes et des mesures de défense. Pour éduquer les utilisateurs aux risques de l'IA générative, une approche multidimensionnelle de la sensibilisation à la sécurité informatique s'impose. Les formations sont particulièrement importantes pour les collaborateurs qui gèrent des transactions financières ou des données sensibles. 

Chez Proofpoint, nous utilisons notre threat intelligence de pointe pour créer des formations de sécurité, des supports et des simulations de phishing autour de menaces réelles. Nous proposons des formations par le biais d'un cadre d'apprentissage adaptatif, qui est une échelle continue et progressive partant des habitudes de base pour arriver à des concepts avancés. Cette approche permet de s'assurer que les sujets et le niveau de difficulté des formations sont adaptés aux besoins des utilisateurs. 

Nous abordons les thèmes de prédilection des deepfakes et des escroqueries conversationnelles dans notre kit gratuit du mois de sensibilisation à la cybersécurité 2024. N'oubliez donc pas d'y jeter un œil !