43,83 pour cent de l'ensemble du trafic web serait à mettre sur le compte d'utilisateurs non humains, selon DeviceAtlas dans son Mobile Web Intelligence Report du premier trimestre. 48,59 pour cent serait du trafic mobile et 6,38 pour cent du trafic de desktops, complétés par 1,2 pour cent de trafic 'autre'. DeviceAtlas ne dresse évidemment pas ce constat par sympathie, puisque l'entreprise vend du software de contrôle des appareils qui visitent les sites.

Ce trafic non humain serait l'apanage de moteurs de recherche qui indexent les sites, mais aussi de scrapers automatiques, qui demandent des infos à intervalles réguliers, et de bots d'auteurs de spam (pourriels) et de personnes qui veulent se livrer à de la fraude aux clics. Ils peuvent également être utilisés pour acheter des tickets et ainsi influencer les prix.

CIO.com indique que les bots tentent d'imiter autant que possible le trafic humain et ce, même s'il existe aussi des possibilités de limiter l'impact du trafic des robots. Quiconque parvient à les identifier, peut par exemple aussi les orienter vers des serveurs plus lents. Et si vous avez maille à partir avec des scrapers, vous pouvez envisager de prévoir des API de partage direct de ces informations avec d'autres.

43,83 pour cent de l'ensemble du trafic web serait à mettre sur le compte d'utilisateurs non humains, selon DeviceAtlas dans son Mobile Web Intelligence Report du premier trimestre. 48,59 pour cent serait du trafic mobile et 6,38 pour cent du trafic de desktops, complétés par 1,2 pour cent de trafic 'autre'. DeviceAtlas ne dresse évidemment pas ce constat par sympathie, puisque l'entreprise vend du software de contrôle des appareils qui visitent les sites.Ce trafic non humain serait l'apanage de moteurs de recherche qui indexent les sites, mais aussi de scrapers automatiques, qui demandent des infos à intervalles réguliers, et de bots d'auteurs de spam (pourriels) et de personnes qui veulent se livrer à de la fraude aux clics. Ils peuvent également être utilisés pour acheter des tickets et ainsi influencer les prix. CIO.com indique que les bots tentent d'imiter autant que possible le trafic humain et ce, même s'il existe aussi des possibilités de limiter l'impact du trafic des robots. Quiconque parvient à les identifier, peut par exemple aussi les orienter vers des serveurs plus lents. Et si vous avez maille à partir avec des scrapers, vous pouvez envisager de prévoir des API de partage direct de ces informations avec d'autres.