Oui, je connaissais la discussion en question. Intéressante.
A noter qu’il n’existe aucun script anti-aspirateur efficace à 100% puisque certains aspirateurs permettent entre autres de choisir la fréquence de crawling/minute (ce qui permet d’éviter le bannissement via adresse IP) et de modifier l’user agent (bannissement par user agent).
En effet. Je suis complètement d’acccord avec ça. Je pense d’ailleurs qu’il n’est pas souhaitable de bloquer les aspirateurs de sites par principe. Certains en ont peut être l’utilité.
En revanche je voudrais en limiter l’impact lorsque ceux ci sont mal configurés et possèdent une fréquence trop élevée. C’est cet aspect là que je voudrais limiter.
Si l’on voulait éliminer tous les robots, ce qui serait stupide à mon sens, puisque les moteurs de recherches en font partie, la solution serait tout simplement d’ajouter un captcha en tête du site. Si certains veulent procéder ainsi, c’est leur problème, chacun est libre de faire ce qu’il veut. Mais personnellement, la seul aspect qui m’intéresse dans mon cas personnel est de tempérer l’ardeur de certains systèmes automatiques. Et dans ce cas, l’ajout d’un script tel qu’il en est question dans la discussion dont vous parlez peut être utile sous forme d’option dans le panneau de configuration.