
Des GenAI-bots bombardent des sites web de requêtes, jusqu’à un demi-million par jour

Des sites web sont assaillis par un flux constant de demandes de ‘scraping’ provenant d’IA-bots génératifs. Des chercheurs de Barracuda ont découvert que certaines applications reçoivent jusqu’à un demi-million de requêtes par jour. Le phénomène a également reçu un nom: ‘gray bots’.
Les ‘gray robots’ sont des programmes automatisés qui ne sont pas malveillants en soi, mais qui collectent jour et nuit des données précieuses sur les sites web. Entre décembre 2024 et fin février 2025, la firme de cybersécurité Barracuda a ainsi enregistré des millions de requêtes de scraping provenant de GenAI-bots, tels que ClaudeBot et Bytespider de TikTok, ciblant des applications web.
24 heures sur 24
L’une des applications surveillées a reçu 9,7 millions de requêtes de ce type en à peine 30 jours. Une autre a été approchée un demi-million de fois en une seule journée. Une analyse plus approfondie a révélé qu’une même application était continuellement bombardée par une moyenne de dix-sept mille requêtes ‘gray robots’ par heure et ce, 24 heures sur 24.
‘Les gray robots brouillent les frontières des activités légitimes’, déclare Rahul Gupta, Senior Principal Software Engineer chez Barracuda. ‘Ils collectent des informations sensibles, exclusives ou commerciales, ce qui risque de surcharger et perturber les applications web. Le ‘scraping’ continu exerce une pression sur les performances des applications web et affecte la fiabilité des analyses web, ce qui génère des informations erronées et compromet la qualité de la prise de décision.’
Robots.txt
Les gestionnaires de sites web peuvent essayer d’empêcher le ‘scraping’ au moyen d’un fichier appelé robots.txt, qui demande aux robots, par une simple instruction, de ne pas collecter de données. Mais le bot doit être explicitement nommé, et comme il n’est légalement pas permis de contraindre de suivre les instructions d’un fichier robots.txt, de nombreux gestionnaires d’AI-bots génératifs n’y prêtent que peu d’attention.
Pour résister efficacement aux requêtes croissantes des ‘gray robots’, les organisations devraient utiliser des solutions avancées de protection contre les robots. Ces systèmes peuvent détecter et bloquer le comportement des scrapers en se basant sur une analyse comportementale, un apprentissage machine adaptatif et une protection en temps réel.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici