Apidae Tourisme, le blog

Les actualités du réseau !

En savoir plus sur les bots ou robots…

datadome-200

datadome

Cet article est proposé par la start up DATADOME qui vient de lancer une offre pouvant intéresser les membres du réseau Apidae.

Les robots volent-ils les données de votre site ?

La plus grande force d’un site d’e-tourisme réside dans ses inventaires : les produits, les prix et la communauté d’acheteurs. La capacité de proposer les catalogues les plus fournis aux tarifs les plus adaptés aux besoins des voyageurs est la clé du succès.

Mais les efforts demandés pour créer ces inventaires, les exploiter et les tenir à jour ne sont pas au goût de tous. Et pour certains, tous les moyens sont bons pour mettre la main sur des données créées par d’autres — c’est à dire par vous.

C’est pourquoi votre site d’e-tourisme est très probablement la cible d’une armée de visiteurs insidieux, rusés et en grande partie invisibles : les robots.

Les robots, c’est quoi ?

Les robots ou « bots » sont des applications logicielles qui effectuent des tâches automatisées sur internet. Ces tâches sont souvent simples et répétitives (cliquer, copier, cliquer, copier …), mais elles sont exécutées à une échelle ou à une vitesse qu’un être humain ne pourrait jamais atteindre.

Beaucoup de bots sont éminemment utiles. C’est le cas, par exemple, des robots d’indexation des moteurs de recherche, qui vous apportent visibilité et visiteurs humains. C’est aussi le cas des bots venant des réseaux sociaux, qui facilitent la diffusion de votre contenu.

D’autres, en revanche, ne vous veulent pas du bien. Les « bad bots » génèrent des clics frauduleux et compromettent les campagnes publicitaires ; ils tentent d’accéder à vos données confidentielles ; ils cherchent des failles de sécurité pour vous hacker ; et ils essaient de propager des logiciels malveillants par le biais de votre site.

Le vol de données

Mais les bots qui ont le plus grand impact négatif sur les sites d’e-tourisme sont les web scrapers.

Beaucoup d’entreprises utilisent des bots conçus pour parcourir régulièrement vos pages, copier et agréger les informations pertinentes pour leur activité, et exploiter vos données à leurs propres fins.

Par exemple, si votre site propose des descriptions détaillées d’hôtels, de restaurants ou de musées, les bots peuvent aspirer ce contenu dans le but de le republier et le monétiser ailleurs.

D’autres s’intéressent surtout à vos tarifs, afin d’offrir à leurs clients (vos concurrents) des informations toujours plus fines et actualisées. De quoi leur donner un avantage pas très honnête, surtout sur des secteurs en pleine guerre de prix …

Une menace souvent invisible

Les bots sont très nombreux : le trafic automatisé représente actuellement la moitié du trafic total sur internet dans le monde. Cela signifie que pour chaque hit sur votre site provenant d’un visiteur humain, il y a en moyenne un hit généré par un bot.

En réalité, le ratio des sites e-commerce est souvent encore plus impressionnant : sur le site priceminister.com, par exemple, il a été révélé que 75 % du trafic réel était généré par les bots ! Si votre site à une forte composante e-commerce, il aura probablement un niveau équivalent de trafic automatisé.

Vous êtes sceptique ? C’est normal, car le trafic des robots est souvent indétectable avec les outils d’analyse les plus courants.
Certains bots imitent avec beaucoup d’adresse le comportement de vos visiteurs humains, et leur activité passe sous le radar. D’autres n’exécutent pas du JavaScript (comme le script qui permet de lancer Google Analytics, par exemple), et leur trafic n’est pas repéré tout court.

En moyenne, entre 35 et 50 % du trafic réel des sites internet est invisible pour les administrateurs de site. Cette surcharge d’activité réduit les performances et dégrade l’expérience des visiteurs humains. Elle génère également des coûts d’infrastructure importants, qui ne correspondent à aucune ligne de revenu.

Quelles solutions pour contrôler l’activité des bots ?

Comment réagir contre cette menace ? Comment contrôler l’activité des bots sur votre site pour minimiser les risques et optimiser vos revenus ?

Depuis peu, une solution existe. La start-up francilienne DataDome propose une offre SaaS qui vous permet d’analyser la qualité de votre trafic en temps réel, et de prendre les mesures nécessaires.

Le module DataDome s’installe facilement sur votre site, et vous permet d’empêcher les mauvais robots d’accéder à vos pages tout en laissant passer les robots utiles. Ainsi, vous pouvez faire respecter le copyright et vos CGU, et alléger le poids du trafic automatisé sur vos infrastructures — voire monétiser vous-même votre contenu auprès de certains développeurs de robots.

Vous pouvez essayer le module DataDome gratuitement et sans engagement pendant 30 jours.
Pour souscrire, rendez-vous sur https://datadome.co/fr/commencer-gratuitement/.

Laisser un commentaire

Votre adresse email ne sera pas publiée. *

Vous pouvez utiliser ces balises HTML <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>