« Les virus informatiques et l'InternetJavascript ou pas ? »

01/06/2011

Protéger son site des spammeurs

  15:51:00, par Jac Lou   , 2454 mots  
Catégories: Informartique

Précédente •  Sommaire •  Suivante

1 - Le codage en HTML des adresses

  C'est très simple à mettre oeuvre mais également trop facile à décoder par les robots. Il suffit de remplacer le texte par son équivalent en codes HTML à l'intérieur du fichier de la page à traiter. Par exemple au lieu de "j" on écrira "j". La valeur 106 est le numéro du caractère "j" dans la liste des codes de caractères. Pour vous aider à mettre en oeuvre cette technique, voilà un outil qui vous permet de convertir n'importe quelle chaîne de caractères en code html:

Entrer l'adresse à coder ci-dessous:
 
le code apparaît dans le cadre ci-dessous (vous pouvez le copier)

  Comment ça marche ? Eh bien le code html est automatiquement traduit en clair par votre navigateur ou explorateur Internet lors de l'affichage.

  Par exemple : "jacques" est codé en html dans le fichier de cette page et est affiché en clair par votre Explorateur ou Navigateur Internet. Mais les robots ne lisent pas la page affichée, ils ne font que consulter le fichier stocké dans votre site et ne voient que : jacques. Toutefois, il suffit d'ajouter une fonction de lecture des codes html aux robots pour qu'ils contournent aussi cette tentative de protection. Alors, efficace ou pas cette technique ? À vous de voir...

Précédente •  Sommaire •  Suivante

Pages: 1· 2· · 4· · 6· 7· 8

 PermalienLaisser un commentaire » Partagez » Partagez cet article sur Facebook Partagez cet article sur Google+

Aucun commentaire pour le moment


Formulaire en cours de chargement...