Au troisième trimestre 2025, Check Point Research a recensé en moyenne 1 249 cyberattaques par semaine et par organisation belge, soit près du double en cinq ans. Parallèlement, ces attaques deviennent plus rapides et plus complexes, et sont de plus en plus souvent pilotées par l’IA Générative et Agentique. Cette évolution met la pression sur les équipes de sécurité traditionnelles, qui prennent encore beaucoup de décisions manuellement. La question n’est donc pas de savoir si l’IA jouera un rôle dans la cybersécurité, mais comment le rôle de l’humain évoluera dans un environnement de plus en plus rapide et automatisé.
Les organisations belges sont de plus en plus ciblées par les hackers. Ainsi, selon Microsoft, pas moins de 5 % des cyberattaques russes détectées en 2025 visaient la Belgique, avec des incidents récents notamment chez Proximus, Scarlet et l’UZ Gent. Les problèmes ne se limitent pas à nos frontières. Pensez au récent vol au Louvre, où le mot de passe du système de caméras de sécurité était simplement « Louvre ». Les voleurs sont entrés et sortis sans aucune résistance numérique, un exemple de la façon dont des erreurs basiques peuvent avoir de grandes conséquences.
La nature des cyberattaques évolue rapidement. Alors que le phishing dominait autrefois, on observe aujourd’hui un écosystème criminel organisé avec du « ransomware-as-a-service » et des malwares pilotés par l’IA. Par exemple, Anthropic a affirmé en septembre avoir été victime de la première cyberattaque entièrement pilotée par l’IA. Les hackers auraient utilisé leur chatbot Claude pour mener des attaques automatisées contre 30 organisations mondiales.
À mesure que la complexité et le volume des attaques augmentent, la pression sur les équipes de sécurité s’intensifie. Cela soulève une question importante : l’humain est-il encore assez rapide et vigilant pour suivre le rythme de ces attaques ?
Les attaques évoluent plus rapidement et plus intelligemment que notre capacité de réaction
La réalité est que les attaquants, tout comme les défenseurs, utilisent l’IA. Mais les criminels adoptent souvent ces technologies plus rapidement. Ils utilisent l’IA pour construire des attaques à une vitesse fulgurante et les modifier en continu. Dès qu’un système de sécurité reconnaît un modèle, leur logiciel génère en quelques secondes de nouvelles variantes pour le contourner. Ainsi, une attaque change constamment de forme, obligeant les analystes à traiter un flot de signaux. Il devient de plus en plus difficile d’évaluer ou d’analyser manuellement chaque élément suspect.
Aujourd’hui, il existe déjà de nombreuses solutions basées sur l’IA qui peuvent intervenir de manière autonome face à des menaces ou attaques évidentes. Mais dans les situations complexes, c’est encore le professionnel de la sécurité qui décide quand intervenir. À mesure que l’IA devient plus avancée, les attaques évoluent à un rythme que les contrôles et interventions manuelles ne peuvent plus suivre. Le risque qu’un analyste voie une attaque mais ne puisse pas réagir assez vite pour limiter les dégâts augmente. L’humain est-il devenu trop lent pour les cyberattaques modernes ? Peut-être. Faut-il alors supprimer l’humain de la chaîne de cybersécurité ? Non, bien au contraire.
Quelles tâches disparaissent, et lesquelles apparaissent?
Aujourd’hui, beaucoup de temps est encore consacré à des tâches répétitives : trier les notifications, rechercher dans les logs, exécuter des scripts et suivre les alertes. Une grande partie de ce travail peut être parfaitement automatisée. C’est déjà le cas dans les solutions EDR, XDR et NDR. L’utilisation de l’IA agentique va accélérer cette automatisation. Les professionnels de la sécurité pourront travailler plus efficacement et se concentrer sur des tâches plus complexes et stratégiques. Ce n’est donc pas le métier qui disparaît, mais le travail opérationnel.
La vraie évolution concerne ce que feront les professionnels de la sécurité ensuite. Comme les développeurs de logiciels sont passés de la programmation à l’architecture et au design, la cybersécurité évolue vers la stratégie, la prévention, la gestion des risques et la supervision. Les collaborateurs dans le secteur de la sécurité vont occuper un rôle où ils décident quelles tâches automatiser, surveillent les systèmes d’IA, évaluent les risques comme les biais et interviennent là où la nuance humaine reste nécessaire. L’analyste d’aujourd’hui ne devient pas inutile, il devient l’architecte de demain.
Vers une équipe de sécurité prête pour l’avenir
Ce changement de tâches n’est pas un futur lointain. Les équipes de sécurité qui continuent à travailler comme aujourd’hui risquent d’être dépassées. C’est pourquoi les organisations doivent dès maintenant préparer leurs équipes aux nouvelles technologies et menaces liées à l’IA. Les professionnels de la sécurité doivent évoluer vers un rôle où ils exécutent moins eux-mêmes, mais conçoivent, évaluent et ajustent davantage. Cela nécessite une formation continue et ciblée, une automatisation là où c’est pertinent et une stratégie claire où l’humain et l’IA se renforcent mutuellement. Ce n’est qu’ainsi que les organisations pourront construire une résilience numérique qui évolue au rythme et à la complexité des cybermenaces modernes.