Dans un moment où je travaille au plan de lancement et où, pour cela, je rencontre les principaux acteurs de l'acquisition de prospects ou de clients, il m'a paru opportun d'entamer une série sur cette question existentielle sur Internet : comment créer du trafic sur son site ?
Je n'ai pas pour objectif de rédiger des tutoriels - ils sont légion - mais plutôt de présenter les leviers que j'ai utilisés par le passé et de prodiguer un retour d'expérience. Je prévois de traiter les leviers suivants (pas nécessairement dans cet ordre) : référencement naturel, référencement payant, comparateurs d'achat, affiliation, publicité, e-mailing, cash back, ventes privées et partenariats.
L'insigne honneur de commencer cette série revient au référencement naturel.
Le référencement naturel, c'est l'ensemble des méthodes et des techniques permettant d'être placé dans les premiers résultats des principaux moteurs de recherche selon des mots-clés qui importent à vos objectifs. Si votre activité est la vente de fleurs en ligne, sortir en tête des résultats prodigués par Google pour la requête "achat de fleurs" ne devrait pas être défavorable à vos affaires.
Le trafic naturel peut peser plus de 25% du trafic total de votre site. Il est possible de distinguer trois dimensions au référencement naturel.
La première est technique. Il s'agit de paramétrer le fichier robots.txt, d'optimiser l'arborescence des répertoires de fichiers ainsi que leur nomenclature, d'optimiser également la nomenclature des fichiers (pages, images, sons, etc.) comme des urls, de s'assurer que la hiérarchisation des contenus éditoriaux se traduit par l'emploi des balises HTML adéquates (par exemple, que le titre des pages soit mis en forme au moyen de la balise H1), etc.
La deuxième est éditoriale. Il faut écrire pour ses lecteurs… tout en gardant à l'esprit que les moteurs vous "lisent" aussi. (On retrouve ici aussi deux messagers.) Il s'agit d'optimiser les contenus de votre site, les textes surtout, selon les mots-clés qui vous importent. Par optimisation, il faut notamment entendre répétition raisonnée des termes, placement près de la balise BODY, placement dans les titres, mise en relief, etc.
La dernière dimension est la notoriété. Sur Internet, elle se mesure par les liens vers votre page. En simplifiant, si ces liens proviennent de pages réputées dans le domaine dont traite votre page, celle-ci bénéficiera d'un coup de pouce dans la compétition pour les premières place. (Notons également que les liens faits vers d'autres pages pèsent, quoique dans une moindre mesure.)
On le voit, les paramètres sont nombreux - plus de deux cents chez Google - et leur poids inconnu et variable. En effet, les moteurs de recherche modifient leur algorithme à mesure que le Web évolue. Aussi, même s'il y a de persistantes bonnes pratiques, n'a-t-on jamais optimisé son site une fois pour toutes.
En premier lieu, faire appel à des freelances : moins coûteux que les agences et plus compétents. Dans tous les cas, je m'enquerrais de leurs clients et vérifierais les résultats obtenus.
Si vous êtes en phase de conception, il n'est pas de meilleur moment pour optimiser son site. À ce stade les points techniques sont aisés à implémenter ; ultérieurement, cela devient une affaire.
Si ce n'est pas le cas, la première chose à mon sens est de définir la liste des mots-clés cruciaux pour votre activité et de mesurer ses performances. Ensuite, je négocierais avec les professionnels un engagement de résultat. Je trouve aberrant que la profession fonctionne entièrement à la prestation. Un élément de performance devrait être introduit, où les critères pourraient être la page de résultat et la persistance des positions. Il n'y a rien de plus facile à mesurer. Des outils comme AgentWebRanking le font depuis des années. Par la suite, je m'assurerais grâce à un outil de Web Analytics que les visites suscitées par ces mots-clés conduisent aux performances escomptées.
En conclusion, si aujourd'hui les moteurs de recherche sont une force dominante, ils ont plusieurs défis à relever. Ainsi, les réseaux sociaux comme Facebook ou MySpace qu'ils ne peuvent indexer alors que les personnes y passent un temps croissant ; les technologies du Web 2.0 (Ajax…) qui remettent en cause la notion de page Web ; la montée en puissance du "Web en direct" (dont Twitter est la figure de proue) et qui rend la logique d'indexation différée souvent impertinente ; etc.
Ce sont autant d'éléments qui invitent à ne pas se reposer uniquement sur les moteurs de rercherche pour la promotion de ses services.