Acronis enregistre une hausse de… 464 pour cent du nombre d’attaques d’hameçonnage
Dans son rapport semestriel sur les menaces, la firme de cybersécurité Acronis mentionne une énorme augmentation du nombre d’attaques de phishing. L’entreprise helvétique observe en outre que les cybercriminels utilisent de plus en plus des systèmes d’IA générative, comme ChatGPT, pour créer du contenu nuisible et exécuter des attaques sophistiquées.
Selon le rapport d’Acronis sur les menaces, le ransomware (rançongiciel) représente le risque majeur pour les petites et moyennes entreprises. Même si le nombre de nouvelles variantes décroît, les attaques au ransomware n’en demeurent pas moins un sérieux problème. La hausse des vols d’informations est tout aussi inquiétante, car les données de connexion dérobées sont exploitées pour accéder de manière non-autorisée à des renseignements sensibles.
Business E-mail Compromise
Selon les chercheurs, le phishing/hameçonnage constitue avec ses 73 pour cent la principale méthode utilisée par les criminels pour mettre la main sur des données de connexion (login). Rien qu’au premier semestre de 2023, le nombre d’attaques de phishing par e-mail a crû de pas moins de 464 pour cent par rapport à 2022. Durant la même période, on enregistra aussi une hausse de 24 pour cent du nombre des attaques au niveau des organisations. Business E-mail Compromise ou BEC en abrégé (la mise en danger du courrier électronique professionnel) occupe la deuxième place avec 15 pour cent.
Durant les six premiers mois de cette année, Acronis a enregistré une progression de 15 pour cent du nombre de fichiers et d’URL par courriel scanné aux terminaux contrôlés. Au cours du premier trimestre de 2023, plus de 30 pour cent de l’ensemble des courriels reçus se composaient de spam, alors qu’1,3 pour cent d’entre eux contenait du malware ou des liens d’hameçonnage.
Des complices dont on ne se méfie pas
Selon la firme de sécurité, les cybercriminels se sont également lancés sur le marché de l’IA sur base de vastes modèles linguistiques (large language models ou LLM). Pour ce faire, ils utilisent des plates-formes pour créer, automatiser et étendre de nouvelles attaques. Les modèles d’IA publics semblent être des complices dont on ne se méfie pas, tout profit pour les criminels qui recherchent des points faibles dans le code-source. Ils aident aussi à contourner la prévention de la fraude, par exemple au moyen d’hyper-trucages (‘deep fakes’). Le malware IA est dès lors de plus en plus capable de contourner les modèles antivirus traditionnels.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici