Powered By Blogger

Rechercher sur ce blogue

mardi 23 avril 2024

Hackers: ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

 Hackers: ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

@KORBEN  —  18 AVRIL 2024


Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.



C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.


Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !


Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.


Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.



Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :


Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod

Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques

Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu

Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »

Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum

Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.


Source: https://korben.info/ia-malefiques-quand-llm-menacent-cybersecurite.html?fbclid=IwZXh0bgNhZW0CMTEAAR1zKqtIIY8zR_xVove97bXHBXGk58y2iWLVPD9oZvXfbDa7rFNcyoa9gAM_aem_AfMHfnYov3d0C2fPmtPRU398Tj-laL0TQkD_URzvaiCRaXq4pdwXgpStKhc7GixUeH52-xoRoRRYfp5yVV3dhym8

Aucun commentaire: