WormGPT : la dangereuse intelligence artificielle au service des cybercriminels

WormGPT : la dangereuse intelligence artificielle au service des cybercriminels

août 25, 2023 0 Par Le pouce

Les arnaqueurs aussi s’adaptent d’une manière ou d’une autre à l’évolution technologique. A l’instar ChatGPT, les cybercriminels ont créé leur modèle propre à eux. Leur prototype est intitulé WormGPT. Cette intelligence artificielle est capable de les aider dans leurs activités illicites. Elle est spécialisée dans le phishing .

Bien que le déploiement des intelligences artificielles soit un signe de progrès et de joie, elles paraîssent très nuisibles et menaçantes dans les mains des cybercriminels.
Sur le Dark Web, ces fraudeurs, s’échangent des méthodes et artifices pour hacker les pare-chocs de sécurité des IA.
A travers, ces intelligences artificielles, ils créent des malwares et des campagnes de phishing sophistiquées et indétectables.

Sur la base des enquêtes effectuées sur un forum clandestin de piratage informatique, les spécialistes en sécurité informatique de SlashNext ont remarqué la présence d’une nouvelle IA, WormGPT. Son créateur le présente comme « le plus grand ennemi du célèbre ChatGPT qui vous permet de faire toutes sortes de choses illégales ».

Le chercheur en cybersécurité Daniel Kelley explique : WormGPT permet « d’automatiser la création de faux courriels très convaincants, personnalisés en fonction du destinataire, augmentant ainsi les chances de réussite de l’attaque ».
Il ajoute aussi : « l’utilisation de l’IA générative démocratise l’exécution d’attaques BEC sophistiquées. Même les attaquants ayant des compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus grand nombre de cybercriminels ».
La nouvelle IA est d’ores et déjà commercialisée sur le marché noir. Voilà qui promet !

« WormGPT : une IA pour créer des e-mails de phishing »

WormGPT repose sur GPT-J, un modèle de langage open source développé par EleutherAI en 2021, qui s’est construit à partir de GPT-2. Les criminels informatiques ont exploité ce modèle en le formant avec des données malveillantes. En conséquence, l’IA s’est spécialisée dans les activités illégales en ligne, notamment dans les attaques d’hameçonnage par e-mail professionnel (BEC). Cette technique vise à convaincre les employés d’organisations commerciales, gouvernementales ou à but non lucratif de divulguer des informations sensibles ou d’effectuer des transferts d’argent.

WormGPT est capable de générer des e-mails de grande qualité, difficiles à distinguer des communications authentiques. Il personnalise les messages en fonction du destinataire, augmentant ainsi les chances de succès de l’attaque. Les chercheurs ont constaté que les e-mails générés par WormGPT étaient presque impeccables en termes de syntaxe et de grammaire. Cela présente un risque car ces erreurs de syntaxe sont souvent des signes révélateurs d’un e-mail d’hameçonnage. Dans un exemple de test, les chercheurs ont demandé à WormGPT de créer un e-mail imitant le PDG de l’entreprise pour piéger un gestionnaire de compte et l’amener à payer une fausse facture. L’IA a rapidement produit un e-mail à la fois convaincant et astucieux.

Cependant, ce type d’attaque est dangereux, car il exploite l’IA pour contourner les mesures de sécurité traditionnelles, rendant ainsi les internautes plus vulnérables. Il est important de noter que d’autres modèles de langage tels que ChatGPT et Bard ont également été détournés à des fins malveillantes pour créer des malwares et générer des campagnes de phishing. Les pirates partagent des astuces pour contourner les limitations de ces IA, ce qui représente un défi pour les autorités chargées de la sécurité en ligne.

Fernandez Gobessou (Stag)

Facebook Comments Box