Voici un article du Journal du net sur les méthodes pas très réglos pour se placer en première place des pages de résultats des outils de recherche. Je vous le livre brut puisque tout est dit.
Etre en première position sur les moteurs peut faire tourner la tête. Certains sites abusent de stratagèmes pour gagner des places face aux concurrents. Explications sur cette technique répandue.
Qu’est-ce que le spamdexing ?
Le principe consiste à tromper les moteurs de recherche pour arriver dans les premières positions. Pour ce faire, les spammeurs ne manquent pas d’imagination pour pousser une page en tête des moteurs : générer des contenus différents pour les robots, cacher des pages ou encore dupliquer son contenu, ils ne reculent devant rien.
Les moteurs restent volontairement flous autour de la définition du spamdexing, ce qui complique le travail des référenceurs, une technique pouvant être admise jusqu’à ce qu’un moteur la conteste.
Quelles sont les différentes formes de spamdexing ?
Depuis le lancement des moteurs de recherche, le spam n’a cessé d’évoluer. Une évolution qui se fait au gré des modifications des algorithmes, les moteurs adaptent leurs critères en permanence.
L’une des première techniques ayant vue le jour : les pages satellites. Ces dernières, généralement utilisées dans le cadre de sites trop complexes à optimiser, servent de passerelle entre les moteurs et les pages du site. Complètement dédiées à l’optimisation, ces pages sont sur-optimisées et renvoient l’internaute vers le véritable contenu.
Deuxième méthode, le cloaking, ou l’art du camouflage. Une technique qui a connu son heure de gloire avant de devenir la pratique la plus condamnée par les moteurs. Le procédé consiste à présenter aux moteurs de recherche un contenu différent de celui fourni aux visiteurs.
Autre technique répandue : les link farms - ou la ferme de liens en français, méthode exploitant le critère de popularité recherché par les moteurs de recherche. L’astuce conduit à pousser à l’extrême les liens hypertextes autour d’un site, grâce à un système d’échanges automatiques de backlink.
Dernière invention en matière de spamdexing, le splog, qui vise à améliorer artificiellement le positionnement d’un site au moyen de blogs factices. Ces blogs reprennent automatiquement le contenu d’autres sites sans apporter de valeur ajoutée et créent des liens vers un site tiers, pour gonfler sa popularité.
Enfin depuis peu, la vente de backlinks est également classée comme spam pour le moteur de recherche Google.
Quelles limites au spamdexing ?
Les techniques de dissimulation d’informations ou encore de répétitions de mots clés desservent le Web. Elles décrédibilisent le travail des moteurs, gênent les internautes pour leur recherche et importunent les sites dans le classement.
Depuis deux ans, les moteurs ont déclaré ouvertement la guerre au spam. Ils arrivent aujourd’hui à détecter automatiquement le spamdexing ou au mieux, ils se servent des formulaires de rapport de spam, utilisés par les utilisateurs du moteur.
Conséquences pour les titulaires de site ne respectant pas leurs conditions générales d’utilisation : une descente dans le tréfonds du classement dans le meilleur des cas, ou bien la suppression temporaire ou définitive de l’index.
Juridiquement, les moteurs peuvent même se retourner contre les titulaires de sites ayant mis en place du spam et réclamer des dommages et intérêts pour avoir volontairement refuser de répondre à leurs critères éditoriaux ou encore pour avoir entravé le fonctionnement d’un système de traitement automatisé.
Article tiré du Journal du net