WormGPT: Selon slashnext,les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux e-mails très convaincants
WormGPT - L'outil d'IA générative que les cybercriminels utilisent pour lancer des attaques par compromission des e-mails professionnels
Dans cet article de blog, nous nous penchons sur l'utilisation émergente de l'IA générative, y compris ChatGPT d'OpenAI, et l'outil de cybercriminalité WormGPT, dans les attaques de compromission des e-mails professionnels (BEC). Mettant en évidence des cas réels de forums sur la cybercriminalité, le message plonge dans les mécanismes de ces attaques, les risques inhérents posés par les e-mails de phishing basés sur l'IA et les avantages uniques de l'IA générative pour faciliter de telles attaques.
Comment l'IA générative révolutionne les attaques BEC
La progression des technologies d'intelligence artificielle (IA), telles que ChatGPT d'OpenAI, a introduit un nouveau vecteur d'attaques de compromission des e-mails professionnels (BEC). ChatGPT, un modèle d'IA sophistiqué, génère un texte de type humain en fonction de l'entrée qu'il reçoit. Les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux e-mails très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de succès de l'attaque.
Guide des pirates pour l'envoi de BEC
Considérez la première image ci-dessus, où un fil de discussion récent s'est déroulé sur un forum sur la cybercriminalité. Dans cet échange, un cybercriminel a présenté le potentiel d'exploiter l'IA générative pour affiner un e-mail qui pourrait être utilisé dans une attaque de phishing ou BEC. Ils ont recommandé de composer l'e-mail dans sa langue maternelle, de le traduire, puis de l'introduire dans une interface comme ChatGPT pour améliorer sa sophistication et sa formalité. Cette méthode introduit une forte implication : les attaquants, même ceux qui ne maîtrisent pas une langue particulière, sont désormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.
Forum des pirates
Passant à la deuxième image ci-dessus, nous constatons maintenant une tendance troublante parmi les cybercriminels sur les forums, évidente dans les fils de discussion proposant des "jailbreaks" pour des interfaces comme ChatGPT. Ces "jailbreaks" sont des invites spécialisées qui deviennent de plus en plus courantes. Ils font référence à des entrées soigneusement conçues conçues pour manipuler des interfaces telles que ChatGPT afin de générer une sortie pouvant impliquer la divulgation d'informations sensibles, la production de contenu inapproprié ou même l'exécution de code nuisible. La prolifération de telles pratiques souligne les défis croissants pour maintenir la sécurité de l'IA face à des cybercriminels déterminés.
WormGPT
Enfin, dans la troisième image ci-dessus, nous voyons que les acteurs malveillants créent désormais leurs propres modules personnalisés similaires à ChatGPT, mais plus faciles à utiliser à des fins néfastes. Non seulement ils créent ces modules personnalisés, mais ils en font également la publicité auprès d'autres mauvais acteurs. Cela montre à quel point la cybersécurité devient plus difficile en raison de la complexité et de l'adaptabilité croissantes de ces activités dans un monde façonné par l'IA.
Découvrir WormGPT : l'arsenal d'un cybercriminel
Notre équipe a récemment eu accès à un outil connu sous le nom de "WormGPT" via un important forum en ligne souvent associé à la cybercriminalité. Cet outil se présente comme une alternative blackhat aux modèles GPT, conçue spécifiquement pour les activités malveillantes.
Écran WormGPT
WormGPT est un module d'intelligence artificielle basé sur le modèle de langage GPTJ, qui a été développé en 2021. Il propose une gamme de fonctionnalités, notamment une prise en charge illimitée des caractères, la conservation de la mémoire de discussion et des capacités de formatage de code.
Source de données WormGPT
Comme illustré ci-dessus, WormGPT aurait été formé sur un large éventail de sources de données, en se concentrant en particulier sur les données liées aux logiciels malveillants. Cependant, les ensembles de données spécifiques utilisés pendant le processus de formation restent confidentiels, comme décidé par l'auteur de l'outil.
Attaque BEC créée par WormGPT
Comme vous pouvez le voir dans la capture d'écran ci-dessus, nous avons effectué des tests axés sur les attaques BEC pour évaluer de manière exhaustive les dangers potentiels associés à WormGPT. Dans une expérience, nous avons demandé à WormGPT de générer un e-mail destiné à faire pression sur un responsable de compte sans méfiance pour qu'il paie une facture frauduleuse.
Les résultats étaient troublants. WormGPT a produit un e-mail qui était non seulement remarquablement persuasif mais aussi stratégiquement rusé, montrant son potentiel d'attaques de phishing et BEC sophistiquées.
En résumé, il est similaire à ChatGPT mais n'a pas de limites ou de limites éthiques. Cette expérience souligne la menace importante posée par les technologies d'IA génératives telles que WormGPT, même entre les mains de cybercriminels novices.
Avantages de l'utilisation de l'IA générative pour les attaques BEC
Alors, quels avantages spécifiques l'utilisation de l'IA générative confère-t-elle aux attaques BEC ?
Grammaire exceptionnelle : l'IA générative peut créer des e-mails avec une grammaire impeccable, les faisant paraître légitimes et réduisant la probabilité d'être signalés comme suspects.
Seuil d'entrée abaissé : l'utilisation de l'IA générative démocratise l'exécution d'attaques BEC sophistiquées. Même les attaquants aux compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus large éventail de cybercriminels.
Moyens de protection contre les attaques BEC pilotées par l'IA
En conclusion, la croissance de l'IA, bien que bénéfique, apporte de nouveaux vecteurs d'attaque progressifs. Mise en œuvre d'une prévention forte mesures préventives est cruciale. Voici quelques stratégies que vous pouvez utiliser :
Formation spécifique au BEC : les entreprises doivent développer des programmes de formation complets et régulièrement mis à jour visant à contrer les attaques BEC, en particulier celles améliorées par l'IA. De tels programmes devraient éduquer les employés sur la nature des menaces BEC, la manière dont l'IA est utilisée pour les augmenter et les tactiques employées par les attaquants. Cette formation devrait également être intégrée comme un aspect continu du développement professionnel des employés.
Mesures améliorées de vérification des e-mails : pour se prémunir contre les attaques BEC pilotées par l'IA, les entreprises doivent appliquer des processus de vérification des e-mails rigoureux. Celles-ci incluent la mise en œuvre de systèmes qui alertent automatiquement lorsque des e-mails provenant de l'extérieur de l'organisation se font passer pour des cadres internes ou des fournisseurs, et l'utilisation de systèmes de messagerie qui signalent les messages contenant des mots clés spécifiques liés aux attaques BEC comme « urgent », « sensible » ou « virement bancaire ». De telles mesures garantissent que les e-mails potentiellement malveillants sont soumis à un examen approfondi avant toute action.