Une question concernant les données enregistrées dans la table GEOLOCATION

  • Posts: 305
  • Thank you received: 51
  • Hikashop Business
1 week 6 days ago #366972

Bonjour Nicolas,

je reviens vers vous après 3 jours de tests.

Votre solution est la bonne. Mon site web ne consomme plus 15000 crédits par jour. Je descendu à 3000 crédits. C'est encore beaucoup. C'est trois fois le nombre de visites quotidiennes.
J'ai ajouté à mon robots.txt les directives pour demander aux crawlers IA de ne plus venir. J'ai l'impression que c'est peine perdue.

Comme MATOMO me donne 3 fois moins de vistes que le nombre de crédits consommés, pensez-vous pouvoir ajusté quelques variables pour diminuer le nombre de requêtes à IP2location.io. J'ai lu dans nos échanges que vous avez mis en place une solution plus légère que MATOMO. Pensez-vous pouvoir plus robuste?

Je vous ai attaché la courbe de consommation des crédits?

Merci par avance pour votre aide,

A. Guillen

Attachments:

Please Log in or Create an account to join the conversation.

  • Posts: 83799
  • Thank you received: 13570
  • MODERATOR
1 week 5 days ago #366974

Bonjour,

La solution mise en place se base sur le "user agent" fourni par le client.
La librairie Matomo fait la même chose. Elle est beaucoup plus grosse non pas car elle fait mieux, mais parce qu'elle inclut beaucoup d'autres choses qui n'ont rien à voir. Ce n'est pas parce que c'est plus gros que c'est mieux.
De plus, Matomo utilise d'autres mécanismes que le "user agent" pour savoir si un utilisateur est réel ou un robot. Par exemple, Matomo utilise du javascript côté client, et peut tracker le cheminement de l'utilisateur sur le site. Ces méthodes ne sont pas viables dans le cas présent. La géolocalisation doit être faite sur la première page à laquelle accède l'utilisateur ou le robot, avant que l'utilisateur ou le robot ait pu utilisé le javascript, ou qu'il soit possible de tracker le cheminement de l'utilisateur.
Donc il est normal que Matomo, a postériori arrive à mieux séparer les utilisateurs réels des robots car il peut se baser sur d'autres techniques qui ne sont pas possible dans le cas de la géolocalisation.
Le filtrage en fonction du "user agent" est grosso modo aussi efficace avec ce que j'ai rajouté au plugin que si j'aoutais le filtrage par "user agent" de Matomo.

Outre le user-agent, une autre solution pour savoir si un utilisateur arrivant sur un site est un robot ou non, c'est d'utiliser un service qui permette de savoir cela en fonction de l'adresse IP, comme par exemple:
ipdetective.io/
Mais bon, cela veut dire payer pour ce service pour moins payer pour IP2location. Pas sûr que ce soit rentable.
De plus, IP2location dispose aussi de cette capacité. C'est juste que dans notre situation c'est inutile. Que nous consommions un crédit pour récupérer le pays ou pour savoir si l'IP est un robot, c'est le même coût. Cela engendre juste du développement supplémentaire.

Donc je ne pense pas pouvoir améliorer les choses.

Please Log in or Create an account to join the conversation.

  • Posts: 305
  • Thank you received: 51
  • Hikashop Business
1 week 4 days ago #366993

Bonjour Nicolas,

je vous remercie pour cette réponse précise.

Je viens de découvrir que choisir un service comme Cloudfare permet de filtrer les connexions des bots indésirables.

Qu'en pensez-vous? Pourrait-il y avoir des impacts sur Hikashop?

Merci par avance pour votre réponse,
Sincèrement,
A. Guillen

Please Log in or Create an account to join the conversation.

  • Posts: 83799
  • Thank you received: 13570
  • MODERATOR
1 week 4 days ago #366994

Bonjour,

CloudFlare peut en effet être une option intéressante pour améliorer les choses et pas que sur ce point là, mais aussi sur la performance du site web.
A ma connaissance, il n'y a pas d'impact négatif sur HikaShop.

Please Log in or Create an account to join the conversation.

  • Posts: 305
  • Thank you received: 51
  • Hikashop Business
1 week 3 days ago #367034

Bonjour Nicolas,

après deux jours de mise en place et de tatonnements, je pense avoir réussi à intégrer Cloudflare à mon site web.
Je reconnais que c'est un sujet très complexe et très technique. Je n'ai pas tout compris mais tout à l'air de fonctionner.

Je vais maintenant surveiller les statisques de IP2location.io car les crédits sont passés maintenant à 4 500 par jour. Le consommatio augmente un peu tous les jours. Ce n'est pas bon signe.

J'ai activé la protection contre les crawlers AI dans Cloudflare. J'espère que ce sera efficace.

Je vous tiens au courant de l'évolution de la situation

Sincèrement,
A. Guillen

The following user(s) said Thank You: nicolas

Please Log in or Create an account to join the conversation.

  • Posts: 305
  • Thank you received: 51
  • Hikashop Business
1 week 2 days ago #367055

Bonjour Nicolas,

puis-je installer la version 5.1.6 de Hikashop Business?

Intègre-t-elle la modification concernant les crawlers AI?

Merci par avance pour votre réponse

Sincèrement,
A. Guillen

Please Log in or Create an account to join the conversation.

  • Posts: 83799
  • Thank you received: 13570
  • MODERATOR
1 week 1 day ago #367056

Bonjour,

Je viens de rajouté les modifications dans la 5.1.6.
Donc vous pouvez faire la mise à jour, oui.

Please Log in or Create an account to join the conversation.

  • Posts: 305
  • Thank you received: 51
  • Hikashop Business
1 week 23 hours ago #367066

Bonjour Nicolas,

je vous remercie. Je viens d'effectuer la mise à jour.

Je reviendrai vers vous dans 2 ou 3 jours car j'ai mis en place Cloudflare. J'ai dû appliqué une méthode un peu "dure". Cela a l'air de fonctionner. Il faut que je vérifie que les robots d'indexation de contenus ne sont pas pénalisés.

Sincèrement,
A. Guillen

The following user(s) said Thank You: nicolas

Please Log in or Create an account to join the conversation.

  • Posts: 305
  • Thank you received: 51
  • Hikashop Business
1 week 59 minutes ago #367067

Bonjour Nicolas,

je reviens vers vous after quelques jours de tests avec Cloudflare mis en place sur mon site.

J'ai essayé de mettre en place des rules mais le résultat n'a pas été du tout probant.
J'ai activé les deux protections pour les protections pour les AI crawlers. Même résultat.

Finalement, j'ai activé l'option Under Attack. Mes problèmes ont été résolus. Les AI crawlers sont bien bloqués. je ne consomme qu'entre 1 000 et 1 500 crédits par jour. ce qui est normal.

Maintenant je dois attendre pour voir quel sera l'impact sur l'indexation de mes 10 000 pages.

Je vous tiendrai au courant.

Sincèrement,
A. Guillen

Please Log in or Create an account to join the conversation.

Time to create page: 0.059 seconds
Powered by Kunena Forum