L’avènement du Quantified Self rend possible la surveillance au quotidien des indicateurs de santé personnelle. Mais le big data bouleversent aussi les pratiques de recherche et la mise au point de nouveaux traitements.
Explosion des indicateurs mesurés
Dans le passé, le seul indicateur mesuré régulièrement par les individus était le poids. Mais depuis deux ans, on assiste à une véritable explosion du nombre de dispositifs connectés qui nous permettent de mesurer notre rythme cardiaque, notre niveau de stress, les calories brulées, la distance parcourue lors d’un jogging, etc. Combinée à des applications mobiles qui collectent ces données et les présentent de manière conviviale, ces dispositifs offrent une image précise de notre état de santé. Et grâce aux big data, tout un chacun est en mesure de comparer ses propres données avec celles d’autres utilisateurs, afin de se situer par rapport au reste de la population.
Au-delà de la quantification de soi : les pathologies et la recherche
Si la vague du Quantified Self s’adresse en premier lieu aux personnes en bonne santé, les big data n’oublient pas ceux qui souffrent de pathologies, notamment le diabète ou les problèmes cardiaques. Dans ce domaine également, les progrès récents sont spectaculaires. L’objectif étant d’améliorer le confort de vie des patients, ainsi que le suivi de la pathologie et de la qualité du traitement. Par exemple, il existe aujourd’hui trois types de stimulateurs cardiaques (« pacemakers ») : si le dispositif de base régule l’activité cardiaque, d’autres plus évolués récupèrent des données, consultables par le cardiologue lors des consultations.La dernière génération de pacemakers est même connectée : ils envoient en temps réel à l’hôpital ou au médecin des données qui permettent de réagir rapidement en cas d’anomalie ou tout au moins de contrôler à distance l’état de santé du malade. Même si le service n’existe pas encore, on peut imaginer aisément que dans un avenir proche, le médecin sera en mesure d’envoyer une ambulance s’il détecte un problème en temps réel. Dans le même esprit, les nouveaux lecteurs de glycémie utilisés dans le cadre des traitements contre le diabète permettent bien sûr de mesurer le taux de glucose du patient, mais également de réguler les injections d’insuline via un contrôle régulier supervisé par le médecin.
Là encore, les dispositifs permettent de collecter des données, de les analyser et de les présenter de manière intelligible, et en croisant ces informations avec d’autres, de détecter d’éventuelles anomalies, tout en améliorant les modèles et les algorithmes d’analyse au fil de l’eau. De son côté, la recherche médicale a de tous temps été basée sur l’analyse d’importants volumes de données. Les tests cliniques sont des études scientifiques permettant de mesurer l’efficacité et la tolérance d’un médicament en conditions réelles, en comparant la réaction des patients soumis ou non au traitement.
Faire de ces masses données une véritable connaissance
Mais avec la multiplication des dispositifs de Quantified Self, il est aujourd’hui possible de réaliser ces tests sans obliger le « cobaye » à s’enfermer trois jours dans un hôpital : la mesure du rythme cardiaque, de la température du corps, etc. peut être réalisée à distance, ce qui forme un plus pour le confort des patients et rend même l’étude plus réaliste puisque les patients peuvent vaquer à leurs occupations habituelles. Enfin, on a beaucoup parlé récemment des limites du système mis en place par Google pour détecter des pandémies (« Google Flu »). Un article du Guardian a jeté un pavé dans la mare des big data en démontrant les limites d’un système basé uniquement sur les recherches des internautes. Si l’idée était intéressante, la réalisation du projet s’est révélée quelque peu simpliste.En revanche, d’autres initiatives comme celles du CDC (Center for Disease Control) aux Etats-Unis ou le Réseau Sentinelles en France sont basées sur la réalité du terrain et tirent parti d’informations remontées par les professionnels de santé. Elles prouvent surtout que la collecte des données est une chose et leur analyse en est une autre. Ceci traduit l’un des plus importants débats concernant l’analytique : bien que les machines soient très utiles pour traiter des volumes de données qui ne cessent de croître, toute la valeur ajoutée de l’analyse provient principalement du travail des experts métiers, qui, maîtrisant toutes les subtilités d’un domaine particulier, sont les seuls capables de dégager de ces masses innombrables de données une véritable connaissance. L’élément humain a encore de beaux jours devant lui, surtout s’il est en bonne santé !
A propos de l'auteur : Yves de Montcheuil est VP marketing de Talend, société fournissant des solutions d’intégration optimisées pour les environnements de Big Data.