Mon rôle est avant tout informel et sans rattachement avec la France, à la différence du rôle de David. L'idée initiale consistait à permettre à la commission de disposer d'un canal indépendant des Etats pour comprendre ce qui se passe dans les pays de l'Union. Nous avons en gros deux fonctions. L'une que nous décrivons comme "stratégique" qui consiste à aider la Commission à structurer une vision stratégique à l'égard du Digital en Europe. Comme chacun sait, il y a actuellement des arbitrages fondamentaux sur la façon dont sera utilisé le stimulus de 315 milliards d'Euros mis en place par la Commission Juncker. Nous défendons l'idée qu'une large part de ces montants doivent être affectés à la révolution numérique ; et au-delà l'idée que ces montants soient affectés de façon pertinente dans les sujets les plus propices. L'autre, que nous qualifions de "opérationnelle" consiste à relayer les initiatives de la Commission auprès de nos pays respectifs. Parfois il s'agit d'en parler avec un ministère, parfois avec d'autres institutions. Cette seconde mission est assez lié à l'agenda réglementaire.
2. Quelles évolutions voyez-vous se dessiner dans les 2 prochaines années pour le big data ? Yseulys Costes parle du passage du big data au huge data, qu'en pensez-vous ? Et pourriez-vous nous dire un mot de votre prochain ouvrage qui est paru le 19 février chez Le Passeur, Big Data, penser l'homme et le monde autrementJe n'ai pas entendu parler du Huge Data et malheureusement, je n'ai pas lu cette déclaration d'Yseulys. La dimension "taille" dans la big data est importante, mais ce n'est pas la seule. Personnellement, je suis plus impressionné par la capacité à faire ce que l'on appelle du traitement massivement multi-signal ; chercher des corrélations dans des centaines, voire des milliers de jeux de données différents. L'exemple de Prepol, ce logiciel qui permet de diminuer de 30 % les délits dans certaines villes américaines, simplement en positionnant de façon optimale les forces de police est très emblématique de ce type d'approche. Prepol traite des jeux très différents : la vitesse des voitures, le temps qu'il fait, la taille des maisons, les vacances scolaires, la fréquence des métros, etc. Au moins 150 données différentes. Cela permet d'en déduire des choses que le sens commun validerait, mais ne serait pas capable d'organiser de façon aussi systématique que le ferait Prepol.
A mon sens, le big data devrait connaître plusieurs évolutions à court et moyen terme. La principale devrait être sa " productisation ". C'est-à-dire sa mise en oeuvre dans des produits de différentes formes. Aujourd'hui, les solutions big data nécessitent des expertises très spécialisées ; réunissant statisticiens, programmeurs, etc. le big data nécessite en conséquence des investissements significatifs.
A terme, il me semble que les offres SaaS devraient de plus en plus souvent faire appel à des solutions de big data sans même que nous nous rendions compte. Qu'il s'agisse de santé, d'agriculture, de sécurité, de marketing, le big data devrait donc progressivement rentrer dans nos vies de façon " encapsulée ".
L'autre grande évolution sera celle des " learning machines " le fait que les systèmes prennent des décisions automatique, à partir d'algorithmes complexes, à base de grands nombres. Cela va prendre encore quelques années, et donc plus que deux ans, car nous ne sommes qu'au début de cette tendance nécessitant d'importants développement et qui va nécessairement soulever des questions éthiques, mais la tendance semble inéluctable.
Comme je l'explique dans le propos introductif, la genèse de cet ouvrage provient d'une polémique - depuis devenue assez populaire - avec la CNIL où j'accusais celle-ci d'être "un ennemi de la nation".
Au-delà de la vague d'émoi que cette affirmation avait créée, je me suis mis à réfléchir sur le potentiel réel du big data ainsi que sur les risques de déviance qu'il portait. Mon ouvrage est donc distribué en trois parties : une présentation générale de son potentiel comprenant autant d'exemples que j'ai pu en trouver, suivi d'une seconde partie sur les moyens de leur mise en oeuvre ; la troisième partie est, elle, consacrée aux enjeux éthiques et aux risques de déviance.
J'ai souvent dit que la révolution digitale repose sur deux jambes : l'une est la multitude, cette idée qu'Internet ne serait rien sans les données que nous produisons tous les jours, qui font Wikipédia, Facebook mais aussi la confiance qui existe dans les e-commerçants. L'autre c'est... justement la donnée ; que l'on ne savait pas exploiter jusqu'à il y a peu, mais qui recèle un potentiel d'opportunité qu'à prime abord, on a du mal à imaginer. C'est le propos de mon livre. Expliquer que l'analogie avec Minority Report est tout sauf pertinent car le big data repose sur des principes scientifiques que tout un chacun peut facilement comprendre, et nous sur une pensée magique que je ne juge en rien mais qui n'est pas le propos du big data.
Le big data finalement n'est qu'une forme d'expression de cette révolution digitale. Elle n'en reste pas moins très emblématique, car elle synthétise plusieurs tendances fortes de la révolution digitale (i) la gestion unifiée des données et l'émergence des plateformes digitales au sens où les ont mis en oeuvre les GAFA (ii) la possibilité de donner beaucoup de pouvoir aux équipes de type agiles, qui peuvent donc facilement développer des projets très élaborés.
Ces notions ne sont pas outrageusement complexes, mais elles sont très différentes des processus existants actuellement au sein des entreprises : c'est pourquoi j'avais apprécié l' ouvrage co-écrit par David Fayon, qui en fait une analyse pertinente.
12 mars 2015
Gilles Babinet, est Digital champion auprès de la Commission européenne après avoir été le premier président du Conseil National du Numérique, PD-G fondateur de Captain Dash et de nombreuses autres entreprises