Titre emprunté à la conclusion de ce billet
:
2 jaunes = 1 rouge. Même si vous modifiez votre robots.txt. Adieu.
Sans appel ! Heureusement que sur une saison un championnat est fait de plusieurs parties et que le carton rouge ne vaut que pour deux matchs.
Un reverse buzz est donc en train de monter en puissance derrière un certain nombre de blogueurs, suite au billet de Thomas intitulé Pourquoi je n'aime pas wikio ?
Donc après un ternissement de l'image de Wikio lié à deux précédents épisodes :
- celui des mauvaises redirections, où, comme l'expliquait le Chauffeur, la redirection 301 est interprétée par les moteurs comme une page web déplacée de façon permanente, et comme déplacement temporaire en cas de redirection 302, auquel cas la redirection 302 entraine que la page du site qui fait la redirection - Wikio - remplace la page d'origine aux yeux des moteurs de recherche.
- celui du framing de contenu, où, comme l'expliquait Sergi, en cliquant sur un lien depuis Wikio, vous n'arrivez pas sur le site publiant l'article, mais vous restez sur Wikio qui 'recopie' votre page à l'intérieur de la sienne, quelque chose tellement 'web 1.0' dont on pensait être débarrassé (voir également ici).
En voici un troisième qui ajoute à la perception négative d'un nombre grandissant de blogueurs.
De quoi s'agit-il ? Comme le dit Thomas dans son billet, la ligne Disallow: /webinfo placée dans le fichier robots.txt de Wikio (elle n'y est plus, correction effectuée dans la journée), empêchait les moteurs de suivre les liens vers les articles / billets originaux.
En clair, pour reprendre les explications de Jérôme :
Lorsqu'on clique sur une actu Wikio, pour se rendre sur le site d'origine on passe par une page intermédiaire de wikio (plutôt qu'un lien direct) :
http://www.wikio.fr/webinfo?id="identifiant_de_la_news"
C'est tout à fait légitime, car cela permet à wikio de tracker les clics sortant et donc de faire des stats pour utilisation interne (mais aussi certainement calculer le top des blogs). Cependant, avec le Disallow: /webinfo dans le robots.txt, les moteurs ne suivent pas ce lien => le site source ne bénéficie pas du PageRank de wikio.
Mieux vaudrait faire un lien standard vers la news d'origine (il sera ainsi suivi par les moteurs et donc les bloggeurs bénéficieront de la propagation du PageRank), et de rajouter un code javascript sur le onclick du lien pour pouvoir continuer à tracker les clics.
En résumé, ce que les blogueurs attendent de Wikio, ce serait surtout des liens directs vers les sources. En toute transparence.
Car tant que Wikio sera perçu comme un scrapper par une partie des internautes, qui assimilent ça purement et simplement à du pillage de contenu, il sera difficile - sinon impossible - pour Pierre Chappaz et son équipe de prouver la valeur ajoutée de Wikio.
Et selon moi, la valeur ajoutée de l'outil Wikio est grande, pour plusieurs raisons : l'outil est unique, et ses nombreux potentiels encore inexploités. Ou pas suffisamment. Ou mal. Ce n'est pas un jugement, c'est une critique que j'espère constructive. Et tant l'arrivée de Jean dans l'aventure que la création des Wikio Labs autorisent tous les espoirs que de grandes choses puissent être réalisées.
Pour conclure, le mot clé dans toutes ces affaires est le suivant : TRANSPARENCE.
En jouant à fond la transparence, Pierre a tout à gagner. Mais tout à perdre dans le cas contraire. Or lorsque l'on reproche à Wikio de ne jouer ni le jeu ni la transparence, comme dans les trois épisodes précédents, il me semble qu'à chaque fois Wikio a su réagir, vite, et corriger dans la foulée. Ce qui indique - indépendamment de ce que peuvent en dire ses détracteurs - une forte réactivité, et implique d'être à l'écoute de ses utilisateurs.
Mieux vaudrait ne pas prêter le flanc aux critiques, certes, mais que ceux qui n'ont jamais pêché en matière de SEO jettent la première ... pierre. :-)
Jean-Marie Le Ray