Attaques de phishing générées par IA – Une explosion inédite (+1265 % en un an)

  • Auteur/autrice de la publication :
  • Post category:Non classé

 

Depuis 2024, la cybersécurité fait face à une transformation radicale du phishing, dopée par l’essor des IA génératives. Plus de 80 % des emails d’hameçonnage sont désormais produits par des modèles tels que ChatGPT ou Gemini, offrant aux cybercriminels une capacité de personnalisation et de volume jamais atteinte.

 

Le phishing classique reposait autrefois sur des textes approximatifs, truffés d’erreurs et de schémas répétitifs détectables par les filtres traditionnels. Mais avec l’arrivée des LLM (Large Language Models), les campagnes sont devenues ultra-personnalisées et indiscernables des communications authentiques : chaque cible reçoit un message adapté à son profil LinkedIn, à son rôle dans l’entreprise ou à ses habitudes professionnelles, sans faute et rédigé dans un style crédible.

Des chercheurs tels que ceux de DeepStrike et KnowBe4 montrent que les groupes cybercriminels industrialisent désormais la génération de contenu : des milliers d’emails sont créés en quelques minutes, puis ajustés automatiquement selon les réactions des victimes (ou l’inactivité des filtres anti-spam). Un cas emblématique : en 2024, un collaborateur d’Arup a été piégé lors d’une visioconférence deepfake où chacun des participants, jusqu’au directeur financier, était une simulation IA, causant une perte directe de 25 millions de dollars.

Le FBI et les professionnels du secteur alertent sur l’arrivée massive de campagnes multi-vectorielles mêlant voice phishing (deepfake vocal), SMS d’usurpation, faux sites web, et même manipulations via réseaux sociaux. L’IA permet aussi de s’adapter en direct : si une cible hésite ou demande des précisions, un chatbot malicieux (fausse hotline) lui répond en temps réel pour lever les derniers doutes.

Pour contrer ces attaques, les solutions classiques ne suffisent plus. Les recommandations : développement de l’analyse et de la détection comportementale (basée sur l’apprentissage IA), formations renforcées pour apprendre à vérifier les demandes via un autre canal (téléphone/collègue), outils biométriques pour détecter les contenus synthétiques, et protocoles de validation hors bande sur les transactions sensibles.

Sources

DeepStrike, KnowBe4, FBI, SentinelOne
Lien : Voir l’article original