« Big data » a été un terme très à la mode en 2013, mais il n’a pas toujours été accompagné d’une véritable définition. Selon IBM, il s’agit d’une masse volumineuse de données que nous produisons en permanence. Avec la numérisation de la société, le phénomène s’est accéléré et 90% des données existantes ont été produites au cours des deux dernières années. Evidemment, la social TV génère elle aussi beaucoup de données et les enjeux autour de cette question sont importants. De la création de programmes personnalisés à la mise en place de campagnes publicitaires spécialisées, la maîtrise des données tend à devenir une carte importante pour les acteurs.
La social TV produit un nombre important de données. Au-delà des audiences créées par une émission, les dispositifs second écran génèrent des informations volumineuses sur le comportement des internautes devant un programme. Les commentaires, les discussions, l’utilisation d’un hashtag sont autant d’indicateurs sur la bonne réception d’un programme audiovisuel.
Dans un monde connecté, où l’abondance de l’offre favorise la fragmentation de l’audience, les chaînes de télévision ont besoin de recueillir et d’analyser ces données pour séduire et fidéliser le téléspectateur, mais aussi l’internaute. Les informations récoltées et traitées peuvent en effet permettre de développer des programmes calibrés pour un certain type de public, en fonction de l’historique de consommation et du comportement devant les programmes regardés.
Les métadonnées plus que les données
Les annonceurs sont eux aussi intéressés par l’utilisation du big data. Pour ajuster leurs campagnes multicanaux, ils ont besoin de connaître certains détails sur l’audience d’un programme (qui regarde ? De quelle manière ? Comment ? etc…) aussi bien après le temps de consommation de l’émission qu’en temps réel. Ce qui importe ici n’est pas l’utilisation des données brutes d’audience mais bien les métadonnées. Les internautes laissent un grand nombre d’informations lorsqu’ils commentent une émission. Ces données générées de manière inconsciente peuvent renseigner différents paramètres comme la localisation, les habitudes de connexion, l’utilisation de tel ou tel support etc… Reste ensuite aux annonceurs et aux producteurs à tirer le meilleur de ces données, et ce n’est pas forcément une chose aisée.L’analyse de toutes ces informations est aujourd’hui facilitée par l’apparition d’outils de plus en plus performants en terme d’analyse statistique. En France, Médiamétrie, Mesagraph ou encore Seevibes jauge la résonance des programme sur les réseaux sociaux, pour permettre aux acteurs de redéfinir leur stratégie ou de l’adapter en temps réel. Ces stratégies de datatainment poussent les producteurs et les annonceurs à développer des mécanismes en amont de la diffusion de leurs produits. Les données ne servent pas seulement à analyser ou non la réussite d’un produit, mais permettent la fabrication d’une émission ou d’une publicité se rapprochant de l’idéal. En quelque sorte, l’intuition laisse la place à la prédiction.
Un potentiel publicitaire important
Les réseaux sociaux ont eux aussi compris l’intérêt d’analyser toutes les informations produites par l’audience sociale. Conscient du potentiel en terme de publicité que représentent ces données, Twitter a racheté au cours de l’année 2013 différentes start-up spécialisées dans l’analyse et le traitement de données (Trendrr, Bluefin Labs, Lucky Sort). Cette volonté d’offrir un détail précis des données de ses utilisateurs aux chaînes de TV, associée au partenariat réalisé avec Nielsen, démontre que la monétisation du réseau social passe par la maîtrise des données. Si Facebook se fait plus discret sur cette question, l’entreprise de Mark Zuckerberg reste malgré tout attentive. Facebook vient en effet de racheter la start-up indienne Little Eye Labs, spécialisée dans l’analyse de performances d’applications mobiles sous Android. S’il n’y a pas de lien direct à la social TV, Facebook pourra désormais récolter les données des mobinautes utilisant son application ou celles dédiées à des programmes de télévision.Des audience exactes impossibles
Malgré toutes les opportunités que peut représenter le big data, rassembler de manière précise ces données est une tâche compliquée. Il est même pour l’instant impossible de récolter l’ensemble des informations générées par les réseaux sociaux autour d’une émission. Deux grands problèmes illustrent cela. Le premier réside dans le comportement des internautes lorsqu’ils commentent. Une part importante des conversations autour d’un programme échappe à la récolte et à l’analyse car le hashtag officiel de l’émission n’est pas utilisé de manière systématique par les utilisateurs. Par conséquent, la plupart des chiffres des études de données relatifs à un programme sont erronés, comme l’expliquait Paul Guyot, co-fondateur de Sémiocast, dans le cadre des conférences Webullition.
Le second apparaît avec les différences de chiffres d’audience sociale produits par deux acteurs différents et illustré par les résultats des derniers NRJ Music Awards. Si bien sûr une partie de ce problème est en lien avec le précédent, une autre difficulté réside aussi en l’absence de standard entre l’ensemble des mesures d’audience sociale, comme le rappelait Audrey Fleury à la fin de l’année 2013.
Les données volumineuses représentent indéniablement des opportunités pour l’ensemble des acteurs de la social TV. Le développement actuel d’outils précis de mesures d’audience devraient favoriser l’apparition de contenus de plus en plus personnalisés et l’assise d’un véritable modèle économique. Mais si ces outils existent déjà en partie, il reste encore un problème à régler : la création d’un standard adopté par tous en matière de monitoring.