ChatGPT et malware – L’explosion des exploits IA camouflés

  • Auteur/autrice de la publication :
  • Post category:Non classé

 

En 2025, les cybercriminels exploitent la popularité des outils d’intelligence artificielle, comme ChatGPT, pour propager des malwares sous couvert d’applications réputées. Kaspersky recense une hausse de 115% des attaques déguisées, ciblant notamment les PME.

 

La démocratisation d’outils IA sur le web représente aujourd’hui à la fois une innovation énorme pour les utilisateurs et une opportunité pour les hackers. En se faisant passer pour de faux ChatGPT ou DeepSeek (nouveau modèle de langage), les malwares embarquent des fonctionnalités de vol de données, d’injection de scripts malicieux ou d’installation de portes dérobées dès que l’utilisateur télécharge le faux outil sur son poste.

Près de 8 500 PME ont été touchées par ce type d’attaque depuis le début de l’année. Les pirates créent des sites trompeurs imitant à la perfection l’interface des IA connues et proposent des versions “premium” attractives, souvent relayées sur les réseaux sociaux ou par email. Ces malwares se montrent difficile à détecter : leurs signatures varient constamment, et certains savent neutraliser les antivirus classiques dès leur installation.

La cybercriminalité se “démocratise” : des plateformes comme Evil-GPT permettent à des internautes non experts de générer, pour moins de 10€, du code malveillant sur mesure, optimisé pour contourner les barrières de sécurité. L’analyse de Barracuda montre que les logiciels déguisés en IA ciblent tout autant Windows que Mac, les navigateurs que les outils collaboratifs, et leur sophistication croît à chaque nouvelle version.

La réponse appropriée passe par la vigilance : inventaire précis des applications approuvées dans l’entreprise, formation des collaborateurs à vérifier l’authenticité des téléchargements, et adoption de solutions endpoint capables de détecter ces menaces polymorphes.

Sources

Kaspersky, Barracuda, The Hacker News
Lien : Voir l’article original