Powered By Blogger

Rechercher sur ce blogue

Aucun message portant le libellé WormGPT. Afficher tous les messages
Aucun message portant le libellé WormGPT. Afficher tous les messages

lundi 24 juillet 2023

WormGPT: Selon slashnext,les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux e-mails très convaincants

 WormGPT: Selon slashnext,les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux e-mails très convaincants

WormGPT - L'outil d'IA générative que les cybercriminels utilisent pour lancer des attaques par compromission des e-mails professionnels


Dans cet article de blog, nous nous penchons sur l'utilisation émergente de l'IA générative, y compris ChatGPT d'OpenAI, et l'outil de cybercriminalité WormGPT, dans les attaques de compromission des e-mails professionnels (BEC). Mettant en évidence des cas réels de forums sur la cybercriminalité, le message plonge dans les mécanismes de ces attaques, les risques inhérents posés par les e-mails de phishing basés sur l'IA et les avantages uniques de l'IA générative pour faciliter de telles attaques.


Comment l'IA générative révolutionne les attaques BEC

La progression des technologies d'intelligence artificielle (IA), telles que ChatGPT d'OpenAI, a introduit un nouveau vecteur d'attaques de compromission des e-mails professionnels (BEC). ChatGPT, un modèle d'IA sophistiqué, génère un texte de type humain en fonction de l'entrée qu'il reçoit. Les cybercriminels peuvent utiliser cette technologie pour automatiser la création de faux e-mails très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de succès de l'attaque.


Guide des pirates pour l'envoi de BEC

Considérez la première image ci-dessus, où un fil de discussion récent s'est déroulé sur un forum sur la cybercriminalité. Dans cet échange, un cybercriminel a présenté le potentiel d'exploiter l'IA générative pour affiner un e-mail qui pourrait être utilisé dans une attaque de phishing ou BEC. Ils ont recommandé de composer l'e-mail dans sa langue maternelle, de le traduire, puis de l'introduire dans une interface comme ChatGPT pour améliorer sa sophistication et sa formalité. Cette méthode introduit une forte implication : les attaquants, même ceux qui ne maîtrisent pas une langue particulière, sont désormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.


Forum des pirates

Passant à la deuxième image ci-dessus, nous constatons maintenant une tendance troublante parmi les cybercriminels sur les forums, évidente dans les fils de discussion proposant des "jailbreaks" pour des interfaces comme ChatGPT. Ces "jailbreaks" sont des invites spécialisées qui deviennent de plus en plus courantes. Ils font référence à des entrées soigneusement conçues conçues pour manipuler des interfaces telles que ChatGPT afin de générer une sortie pouvant impliquer la divulgation d'informations sensibles, la production de contenu inapproprié ou même l'exécution de code nuisible. La prolifération de telles pratiques souligne les défis croissants pour maintenir la sécurité de l'IA face à des cybercriminels déterminés.


WormGPT

Enfin, dans la troisième image ci-dessus, nous voyons que les acteurs malveillants créent désormais leurs propres modules personnalisés similaires à ChatGPT, mais plus faciles à utiliser à des fins néfastes. Non seulement ils créent ces modules personnalisés, mais ils en font également la publicité auprès d'autres mauvais acteurs. Cela montre à quel point la cybersécurité devient plus difficile en raison de la complexité et de l'adaptabilité croissantes de ces activités dans un monde façonné par l'IA.


Découvrir WormGPT : l'arsenal d'un cybercriminel

Notre équipe a récemment eu accès à un outil connu sous le nom de "WormGPT" via un important forum en ligne souvent associé à la cybercriminalité. Cet outil se présente comme une alternative blackhat aux modèles GPT, conçue spécifiquement pour les activités malveillantes.


Écran WormGPT

WormGPT est un module d'intelligence artificielle basé sur le modèle de langage GPTJ, qui a été développé en 2021. Il propose une gamme de fonctionnalités, notamment une prise en charge illimitée des caractères, la conservation de la mémoire de discussion et des capacités de formatage de code.


Source de données WormGPT

Comme illustré ci-dessus, WormGPT aurait été formé sur un large éventail de sources de données, en se concentrant en particulier sur les données liées aux logiciels malveillants. Cependant, les ensembles de données spécifiques utilisés pendant le processus de formation restent confidentiels, comme décidé par l'auteur de l'outil.


Attaque BEC créée par WormGPT

Comme vous pouvez le voir dans la capture d'écran ci-dessus, nous avons effectué des tests axés sur les attaques BEC pour évaluer de manière exhaustive les dangers potentiels associés à WormGPT. Dans une expérience, nous avons demandé à WormGPT de générer un e-mail destiné à faire pression sur un responsable de compte sans méfiance pour qu'il paie une facture frauduleuse.


Les résultats étaient troublants. WormGPT a produit un e-mail qui était non seulement remarquablement persuasif mais aussi stratégiquement rusé, montrant son potentiel d'attaques de phishing et BEC sophistiquées.


En résumé, il est similaire à ChatGPT mais n'a pas de limites ou de limites éthiques. Cette expérience souligne la menace importante posée par les technologies d'IA génératives telles que WormGPT, même entre les mains de cybercriminels novices.


Avantages de l'utilisation de l'IA générative pour les attaques BEC

Alors, quels avantages spécifiques l'utilisation de l'IA générative confère-t-elle aux attaques BEC ?


Grammaire exceptionnelle : l'IA générative peut créer des e-mails avec une grammaire impeccable, les faisant paraître légitimes et réduisant la probabilité d'être signalés comme suspects.


Seuil d'entrée abaissé : l'utilisation de l'IA générative démocratise l'exécution d'attaques BEC sophistiquées. Même les attaquants aux compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus large éventail de cybercriminels.


Moyens de protection contre les attaques BEC pilotées par l'IA

En conclusion, la croissance de l'IA, bien que bénéfique, apporte de nouveaux vecteurs d'attaque progressifs. Mise en œuvre d'une prévention forte mesures préventives est cruciale. Voici quelques stratégies que vous pouvez utiliser :


Formation spécifique au BEC : les entreprises doivent développer des programmes de formation complets et régulièrement mis à jour visant à contrer les attaques BEC, en particulier celles améliorées par l'IA. De tels programmes devraient éduquer les employés sur la nature des menaces BEC, la manière dont l'IA est utilisée pour les augmenter et les tactiques employées par les attaquants. Cette formation devrait également être intégrée comme un aspect continu du développement professionnel des employés.


Mesures améliorées de vérification des e-mails : pour se prémunir contre les attaques BEC pilotées par l'IA, les entreprises doivent appliquer des processus de vérification des e-mails rigoureux. Celles-ci incluent la mise en œuvre de systèmes qui alertent automatiquement lorsque des e-mails provenant de l'extérieur de l'organisation se font passer pour des cadres internes ou des fournisseurs, et l'utilisation de systèmes de messagerie qui signalent les messages contenant des mots clés spécifiques liés aux attaques BEC comme « urgent », « sensible » ou « virement bancaire ». De telles mesures garantissent que les e-mails potentiellement malveillants sont soumis à un examen approfondi avant toute action.



REF.: https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/

WormGPT : le ChatGPT des cybercriminels est une arme redoutable

 WormGPT : le ChatGPT des cybercriminels est une arme redoutable


Par: Maurine Briantais

Les cybercriminels aussi se mettent à l'IA ! Ils ont mis au point WormGPT, le pendant maléfique de ChatGPT, capable de les assister dans leurs activités illégales, notamment pour générer des campagnes de phishing très convaincantes.


Le développement des IA génératives a été une aubaine pour les cybercriminels. Sur le Dark Web, ils s'échangent des astuces et autres combines afin de contourner les garde-fous des intelligences artificielles et de leur faire générer des malwares et des campagnes de phishing. Ils sont même allés plus loin en créant leurs propres modules personnalisés, semblables à ChatGPT, mais plus faciles à utiliser à des fins malveillantes. En enquêtant sur un forum clandestin de hacking, les chercheurs en sécurité informatique de SlashNext ont découvert l'apparition d'une nouvelle IA, WormGPT. Son créateur le décrit comme "le plus grand ennemi du célèbre ChatGPT qui vous permet de faire toutes sortes de choses illégales".


Les cybercriminels s'en servent pour créer des campagnes de phishing particulièrement sophistiquées et indétectables. WormGPT permet "d'automatiser la création de faux courriels très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de réussite de l'attaque", explique le chercheur en cybersécurité Daniel Kelley. "L'utilisation de l'IA générative démocratise l'exécution d'attaques BEC sophistiquées. Même les attaquants ayant des compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus grand nombre de cybercriminels". La nouvelle IA est d'ores et déjà commercialisée sur le marché noir. Voilà qui promet !




WormGPT : une IA pour créer des e-mails de phishing

WormGPT s'appuie sur GPT-J, un modèle de langage open source développé par EleutherAI en 2021 et qui s'appuie sur GPT-2. Les cybercriminels ont exploité ce modèle et l'ont entraîné avec des "données liées aux logiciels malveillants". Grâce à toutes ces informations, l'IA s'est spécialisée dans les activités illicites en ligne. Elle permet le support illimité de caractères, mémorise les échanges de chat et possède des capacités de formatage de code. Son créateur explique qu'elle est spécialisée dans les attaques de compromission par e-mail professionnel (BEC). Pour faire simple, il s'agit de créer des campagnes d'e-mails personnalisés très convaincants qui visent à manipuler les salariés d'organisations commerciales, gouvernementales ou à but non lucratif, afin qu'ils divulguent des données sensibles sur la société ou envoient de l'argent.


Les chercheurs ont pu tester WormGPT. Il en ressort que celui-ci est capable de générer des e-mails d'excellente qualité, presque indiscernables des communications réelles. Il personnalise les messages en fonction du destinataire, augmentant ainsi les chances de succès de l'attaque. Ceux-ci sont quasiment irréprochables en termes de syntaxe, de grammaire, etc. Or, c'est par des fautes de ce type qu'on repère d'un coup d’œil un mail de phishing. Dans leur exemple, les chercheurs essayent de piéger un gestionnaire de compte en se faisant passer pour le PDG de l'entreprise et en lui demandant de payer une facture. Ils n'ont pas été déçus ! En quelques secondes, l'IA a généré "un e-mail qui était non seulement remarquablement persuasif, mais aussi stratégiquement rusé". Une fois les e-mails de phishing générés, il ne reste plus aux cybercriminels qu'à les envoyer en masse, en espérant que quelqu'un morde à l'hameçon. Ce type d'attaque est particulièrement dangereux car il utilise l'IA pour contourner les mesures de sécurité traditionnelles, comme les filtres anti-spam, ce qui rend les internautes plus vulnérables.




IA malveillante : des garde-fous faciles à contourner

Mais WormGPT n'est pas le seul à pouvoir être utilisé à des fins malveillantes. À ses débuts, ChatGPT a lui aussi été détourné pour créer des malwares (voir notre article). Quant à Bard, il est également possible de lui demander de générer des campagnes de phishing ou de coder le script d'un ransomware, comme l'a révélé une étude menée par Check Point Research (CPR). On peut aussi citer FreedomGPT, l'IA non censurée. Au nom de la liberté d'expression, il est possible de lui demander comment fabriquer une bombe artisanale à domicile, nettoyer une scène de crime après un meurtre, fabriquer des drogues dures ou encore kidnapper un enfant…


Sur les forums, les pirates se partagent des séries de requêtes capables de contourner les restrictions de ChatGPT, Google Bard et autres IA génératives. Ils expliquent comment réaliser une attaque de prompt-injection sur les chatbots, qui consiste à convaincre l'IA de contourner les restrictions mises en place par les développeurs, en lui demandant de lui donner un exemple de mail de phishing, et non de le générer par exemple. Europol, l'agence européenne de police criminelle, avait souligné dans un rapport publié en mars que les cybercriminels s'appuyaient déjà massivement sur des chatbots pour rédiger des mails de phishing, coder des malwares et manipuler les internautes. Les autorités vont avoir du pain sur la planche !


REF.: https://www.commentcamarche.net/informatique/intelligence-artificielle/28665-wormgpt/#utm_source=facebook&utm_medium=social