Lilzeon aka L.Francois / Daily Dust / a photoblog in Paris
Citoyens !
On lit à outrance que l’infobésité – notion née en 2006 avec le haut débit accessible par tous- de notre monde de flux détruirait in fine la qualité de l’information. Pour Nicolas Voisin, “l’information vit l’instant qui suit celui de la destruction de valeur“. Pour Wired et Anderson, “Google perd la main, lui dont la force est de connecter et d’organiser les contenus créés par d’autres. Et comment Facebook ou iTunes gagnent du terrain, eux qui choisissent de garder le contrôle sur leurs outils (Steve Jobs est d’ailleurs un fervent partisan de ce système). Une économie “à l’ancienne”, selon Wolff, qui conclut son article en écrivant “après un long voyage, nous sommes de retour à la maison”.”
Pourtant, il semblerait que l’on confonde symptômes et syndrome :
- les symptômes : une perte de sens relative, une crise de la presse, parfois même des nouvelles pathologies (nervous breakdown avec injonction de lâcher le blackberry)…
- le syndrome : et c’est là que le bas blesse; il s’agit d’un changement d’usages côté utilisateurs / lecteurs / audiences / contributeurs, de nécessaire glissement de vision côté presse (un jour, la rédaction .com devra aussi faire de la télé) et d’une guerre économique qui vise soit à éduquer (ex : NY Times) soit à simplifier (ex : Apple désengagé des réseaux sociaux et son monde d’applications en push).
Louis Morales-Chanard précise le scope du débat :
“Car s’il s’agit d’un phénomène souvent associé à Internet (qu’on accuse de démultiplier les sources et de fragmenter la légitimité à produire de la connaissance), la saturation d’informations est avant tout un effet pervers de la société d’information dans sa globalité -y compris les trivia sur les emballages de produits ménagers”.
En clair : le problème n’est pas le volume de données, mais son traitement, l’accessibilité auprès des publics du produit raffiné, et son historicité.
- au sujet du traitement de l’information : dès 1934, Paul Otlet expliquait que “le travail de documentation se présente sous un triple aspect : il importe tout d’abord de collectionner et de classer méthodiquement tous les titres de ce qui a été écrit et publié dans les différents pays et aux diverses époques ; puis, l’oeuvre s’élargissant, il y a lieu de réduire en leurs éléments toutes les publications et tous les écrits et de les redistribuer pour en former des dossiers conçus comme les chapitres et les paragraphes d’un unique livre universel ; enfin, devant l’abondance des documents, le besoin s’impose de les résumer et d’en coordonner les matériaux en une Encyclopédie universelle et perpétuelle”.
- accessibilité auprès des publics du produit raffiné : 2 éléments
- l’accessibilité a peu à voir avec un moyen purement technique (tout le monde sait installer un plugin…) mais bien avec la capacité à répondre à un objectif qui se base sur l’expression d’un besoin d’un utilisateur. En clair : “Tom Glocer ajoute un second enseignement : le traitement de l’information doit être adapté en fonction d’un objectif précis. C’est cette utilisation de la ressource, vers une transformation pour un usage final, qui donne la valeur de l’information“. Valeur qui peut bien sûr être diffusé par un schéma d’influenceurs ou de caisses de résonance afin de toucher le public final
- produit raffiné : il existe une myriade de traitement de la matière informative, de la data. Tout comme le pétrole qui peut ensuite servir à l’industrie pharmaceutique (soigner un cancer du poumon) ou à produire du super sans plomb (qui augmente les chances d’avoir un cancer du poumon…), il importe d’avoir une notion de l’input et de l’output. J’ai presque envie de dire que produire un simple article est insuffisant : y a-t-il matière à l’événementialiser ? A faire écho à un dossier affinitaire ? A appeler les internautes à participer par le biais d’un sondage ? A pourquoi pas le soumettre à des marques pour nourrir leur positionnement ou améliorer leurs services ? - historicité : depuis que les journalistes sont supposés avoir perdu la main afin d’être les premiers à sortir l’info (ce bon vieux mythe auquel je ne crois qu’à 3% : seuls les journalistes sont payés pour produire de l’info et éventuellement investiguer, donc avoir accès à ce qui est rare, donc cher…), il importe de mettre un sens à l’histoire. Il est vrai qu’aujourd’hui, le premier rapport qu’on entretient avec une page d’accueil de média est une rivière de news qui bâtonne à tout va, un peu comme les flashs radios. La vraie guerre sera bien sûr dans la capacité à continuer à sortir par coups (des accélérateurs de bouche-à-oreille) l’info que personne n’avait…Coup qui rapidement est rattrapé par la concurrence, qui perd donc dans le temps de sa valeur…mais qui peut retrouver une seconde jeunesse via des dossiers qui s’appuient sur les dizaines d’années d’archive des médias, sur une optimisation de ce dossier via l’intervention de nouveaux interlocuteurs. Si le cinéma gagne toujours de l’argent via les sorties en salle, les marges naissent surtout dans les goodies, dans les DVD, dans les partenariats avec des marques, via des RP…Bref par une extension du cycle de vie du produit
En guise de conclusion, on peut en fait être rassuré par les milliards de données, par le volume croissant de conversations ou de sujets :
- parce que cette extension ne “finit” pas le monde mais permet au contraire de multiplier les opportunités de création de valeur dans le temps. Des opportunités de curation et de co-création.
- parce que ce n’est pas parce que le bruit est incessant qu’il n’est pas possible de le faire taire et de l’orchestrer. Ex : dans un concert, le brouhaha est au début suffocant, puis l’artiste prend d’une certaine manière l’agenda et le lead, entrecoupé par des applaudissements : un “bruit qui pense” comme dirait Victor Hugo.
L’enjeu est finalement d’arriver à produire du silence et de la distance : pas à réduire le volume de données ou d’informations.