« Big data » a été un terme très à la mode en 2013, mais il n’a pas toujours été accompagné d’une véritable définition. Selon IBM, il s’agit d’une masse volumineuse de données que nous produisons en permanence. Avec la numérisation de la société, le phénomène s’est accéléré et 90% des données existantes ont été produites au cours des deux dernières années. Evidemment, la social TV génère elle aussi beaucoup de données et les enjeux autour de cette question sont importants. De la création de programmes personnalisés à la mise en place de campagnes publicitaires spécialisées, la maîtrise des données tend à devenir une carte importante pour les acteurs.
La social TV produit un nombre important de données. Au-delà des audiences créées par une émission, les dispositifs second écran génèrent des informations volumineuses sur le comportement des internautes devant un programme. Les commentaires, les discussions, l’utilisation d’un hashtag sont autant d’indicateurs sur la bonne réception d’un programme audiovisuel.
Dans un monde connecté, où l’abondance de l’offre favorise la fragmentation de l’audience, les chaînes de télévision ont besoin de recueillir et d’analyser ces données pour séduire et fidéliser le téléspectateur, mais aussi l’internaute. Les informations récoltées et traitées peuvent en effet permettre de développer des programmes calibrés pour un certain type de public, en fonction de l’historique de consommation et du comportement devant les programmes regardés.
Les métadonnées plus que les données
L’analyse de toutes ces informations est aujourd’hui facilitée par l’apparition d’outils de plus en plus performants en terme d’analyse statistique. En France, Médiamétrie, Mesagraph ou encore Seevibes jauge la résonance des programme sur les réseaux sociaux, pour permettre aux acteurs de redéfinir leur stratégie ou de l’adapter en temps réel. Ces stratégies de datatainment poussent les producteurs et les annonceurs à développer des mécanismes en amont de la diffusion de leurs produits. Les données ne servent pas seulement à analyser ou non la réussite d’un produit, mais permettent la fabrication d’une émission ou d’une publicité se rapprochant de l’idéal. En quelque sorte, l’intuition laisse la place à la prédiction.
Un potentiel publicitaire important
Des audience exactes impossibles
Malgré toutes les opportunités que peut représenter le big data, rassembler de manière précise ces données est une tâche compliquée. Il est même pour l’instant impossible de récolter l’ensemble des informations générées par les réseaux sociaux autour d’une émission. Deux grands problèmes illustrent cela. Le premier réside dans le comportement des internautes lorsqu’ils commentent. Une part importante des conversations autour d’un programme échappe à la récolte et à l’analyse car le hashtag officiel de l’émission n’est pas utilisé de manière systématique par les utilisateurs. Par conséquent, la plupart des chiffres des études de données relatifs à un programme sont erronés, comme l’expliquait Paul Guyot, co-fondateur de Sémiocast, dans le cadre des conférences Webullition.
Le second apparaît avec les différences de chiffres d’audience sociale produits par deux acteurs différents et illustré par les résultats des derniers NRJ Music Awards. Si bien sûr une partie de ce problème est en lien avec le précédent, une autre difficulté réside aussi en l’absence de standard entre l’ensemble des mesures d’audience sociale, comme le rappelait Audrey Fleury à la fin de l’année 2013.
Les données volumineuses représentent indéniablement des opportunités pour l’ensemble des acteurs de la social TV. Le développement actuel d’outils précis de mesures d’audience devraient favoriser l’apparition de contenus de plus en plus personnalisés et l’assise d’un véritable modèle économique. Mais si ces outils existent déjà en partie, il reste encore un problème à régler : la création d’un standard adopté par tous en matière de monitoring.