‘La moitié du trafic web à mettre sur le compte des bots’

© Reuters
Pieterjan Van Leemputten

Quasiment la moitié de tout le trafic web est due à des robots à la recherche automatique de sites. Mais cela coûte pas mal d’argent et de moyens aux gestionnaires de sites web.

43,83 pour cent de l’ensemble du trafic web serait à mettre sur le compte d’utilisateurs non humains, selon DeviceAtlas dans son Mobile Web Intelligence Report du premier trimestre. 48,59 pour cent serait du trafic mobile et 6,38 pour cent du trafic de desktops, complétés par 1,2 pour cent de trafic ‘autre’. DeviceAtlas ne dresse évidemment pas ce constat par sympathie, puisque l’entreprise vend du software de contrôle des appareils qui visitent les sites.

Ce trafic non humain serait l’apanage de moteurs de recherche qui indexent les sites, mais aussi de scrapers automatiques, qui demandent des infos à intervalles réguliers, et de bots d’auteurs de spam (pourriels) et de personnes qui veulent se livrer à de la fraude aux clics. Ils peuvent également être utilisés pour acheter des tickets et ainsi influencer les prix.

CIO.com indique que les bots tentent d’imiter autant que possible le trafic humain et ce, même s’il existe aussi des possibilités de limiter l’impact du trafic des robots. Quiconque parvient à les identifier, peut par exemple aussi les orienter vers des serveurs plus lents. Et si vous avez maille à partir avec des scrapers, vous pouvez envisager de prévoir des API de partage direct de ces informations avec d’autres.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire