Depuis très longtemps - et c'est l'un des facteurs de succès de la Silicon Valley -, les laboratoires de recherche sont impliqués dans le développement des entreprises technologiques. Ceci permet des portes de sortie vers des applications très rapidement. Les professeurs d'universités sont impliqués dans la création de ces start-up. Les entreprises créées ont une vocation business et ils ont tout intérêt de faire en sorte qu'elles marchent. Et ce indépendamment de toute question liée à des propriétés intellectuelles, des papiers de recherche, etc. Nous disposons dans la Silicon Valley notamment de Stanford, Berkeley, du SRI ( Stanford Research Institute) détaché de Stanford. Il s'agit d'un labo qui a ses propres fonds d'investissement pour des investissements très précoces ( early stage) dans la création de société. Même s'ils ont une probabilité de 90 % d'échouer, ils ont a contrario 10 % de chance de réussir. Et compte tenu de l'ampleur des investissements et de leur variété, ils sont globalement gagnants. En résumé, les fonds d'amorçage sont très importants pour ces labos et ces actions leur permettent de rester en relation avec le monde de l'entreprise.
Compte tenu de la diversité des profils que l'on trouve à Stanford par exemple, certaines personnes peuvent continuer dans la recherche fondamentale, d'autres partir dans des vraies entreprises. Des royalties de tout ce qui a pu être marketées sont perçues et avec ces belles distributions entre les entités, les laboratoires ne se vident pas de leurs talents.
Voici 25 ans, j'avais constaté que l'INRIA essayait de construire un modèle un peu similaire. Mais j'avais aussi pu observer aucune volonté de valoriser des recherches même si elles étaient mûres pour être mises dans les mains du public. Le modèle où, a priori, des profs peuvent investir dans les compagnies est intéressant a contrario des labos comme le CNRS. Et c'est une des raisons pour laquelle je suis parti aux Etats-Unis dans les années 1990.
J'observe désormais que des personnes qui sont dans des structures dorées de la recherche française en sortent pour créer leur propre boîte. C'est le cas par exemple de Frédéric Mazzella, issu de l'ENS, qui a racheté covoiturage.fr pour en faire BlaBlaCar. Les mentalités ont changé. Et la volonté d'aller dans le monde des start-up en venant du monde de la recherche est plus fort.
La Silicon Valley est en quelque sorte une anomalie, une bulle dans laquelle tout le monde est trop payé avec des corrections fortes tous les 10 ans en moyenne : en 1993 (récession), 2000 (bulle Internet), 2007 (crise financière). L'écosystème est ainsi nettoyé et redémarre. La Covid a permis d'opérer certains nettoyage mais la Silicon Valley est peu impactée, le business peut continuer hormis peut-être pour les industries hardware. Les résultats des GAFA sont exceptionnels pendant la crise avec le télétravail qui ne constitue pas un frein. Ce n'est pas de la Covid que viendra l'explosion de la prochaine bulle mais plus de l'évaluation trop importante (salaire, immobilier, etc.) avec des cycles.
2. En rebond à votre ouvrage L'intelligence artificielle n'existe pas, que pensez-vous de la singularité et n'allons-nous pas assister à des singularités partielles dans la mesure où dans certains domaines l'homme pourra conserver une spécificité/supériorité par rapport à la machine et aux algorithmes ? Dans quels domaines le machine learning ne peut s'appliquer ? Quelles similitudes et différences voyez-vous entre blockchain et IA ?La singularité n'existera jamais et l'homme aura toujours la main. Les algorithmes sont rendus humains car on fait des erreurs, des bogues, de mauvaises données peuvent être chargées dans les bases, etc. La singularité n'existera pas tant que l'on utilisera les schémas actuels : méthodes mathématiques, méthodes " artificielles " qui sortent du cerveau, modélisations. Si on parle d'informatique quantique, d'ordinateurs biologiques, il s'agit au contraire d'un autre paradigme mais ce ne sera pas avant une centaine d'années. La singularité est là pour faire parler les gens et se faire peur.
La logique de l'IA est d'abord celle des systèmes experts qui ont prévalu de 1970 à 2000. Ils reposent sur des règles logiques du type SI <condition> ALORS <décision> car on n'a pas su utiliser les statistiques. Et un premier hiver de l'IA suivit avec des désillusions.
Dans les années 2000-2010 on a pu faire des statistiques et est réapparu le machine learning. La famille des statistiques est basée sur le big data. Elle s'est transformée petit à petit en deep learning depuis le début des années 2010. Il s'agit d'une sous-composante du machine learning qui utilise encore plus de data et de puissance de calcul pour trouver d'autres chemins statistiques dans les données. En 2020, quand on parle d'IA on parle de machine learning voire de deep learning. Cela ne veut pas dire qu'il faut utiliser le machine learning pour tout, certains cas peuvent marcher avec des systèmes experts tout simples.
Le problème que l'on a avec l'IA est, à mes yeux, le fait que l'on ne se pose pas assez la question du combien cela coûte, par exemple le coût du cloud et au final on ne voit pas le coût écologique. On peut dans de nombreux cas utiliser des méthodes hybrides avec en partie de l'IA car les gens préfèrent prendre sur étagère. Or, on fait du machine learning plus coûteux d'un point de vue puissance de calcul et énergétique par mimétisme, ce qui est problématique surtout en ce qui concerne les ressources de la Terre.
La blockchain est d'une certaine façon cousine de l'IA : beaucoup de calcul, énergivore mais beaucoup de sécurité aussi. Elle est souvent privée et pas contrôlable par la communauté. Il n'y a pas d'intérêt d'utiliser la blockchain pour faire de l'IA mais d'utiliser la blockchain pour sécuriser des étapes de réflexion de l'IA pour les comprendre et les expliquer. Les gens considèrent que l'IA est inexplicable - avec beaucoup d'opérations de calcul par seconde. On pourrait utiliser la blockchain pour comprendre les moments clés et avoir davantage d'explicabilité et de traçabilité et non pour faire de l'IA pure et produire des statistiques.
La blockchain publique est une aberration écologique. Ainsi pour une transaction bancaire, cela peut consommer des KW/h alors qu'avec le système Visa (ou Mastercard), cela va prendre une fraction énergétique et temporelle. La blockchain a une utilité dans des champs très précis et très étroits. Il serait pertinent d'avoir une instance régulatrice supranationale (à l'image des données avec le RGPD) pour l'utilisation de l'IA. Ceci permettrait d'éviter de prendre un marteau pour écraser une mouche dans la résolution de problème. Et il faudrait aussi que face aux Etats-Unis et à la Chine, l'Europe et d'autres aient leur mot à dire.
3. Vous avez développé Siri pour la reconnaissance vocale qui a été acquis par Apple. Vous avez déposé par ailleurs de nombreux brevets. Est-ce qu'il y aurait une entreprise que vous auriez aimé créer et si oui dans quel domaine et pourquoi ? Et enfin comment voyez-vous la société où les données règnent ?En 1997, j'ai déposé un premier brevet avec pour nom initial " The Assistant ", ancêtre de l'assistant vocal. La compagnie Siri a été créée en 2007 et rachetée par Apple en 2010, tout en gardant le nom Siri pour l'assistant.
Je suis très content et fier d'avoir participé à la création de Siri car elle a donné naissance à un nouveau type d'assistant, les assistants vocaux. Amazon Echo et Google Home en sont les héritiers. Pour autant, l'utilisation de ces assistants et leur utilité relève d'un débat.
Par rapport à ce que j'ai déjà fait. Hmmm... Je crois qu'il serait intéressant de créer dans l'environnement. Il existe des logiciels qui permettent de diminuer la consommation des ressources. Mais au-delà de la technologie, il convient de se poser la question de la façon dont on les utilise, par exemple pourquoi faire un selfie ? On en fait 1 milliard par jour dans le monde.
Comprendre la philosophie d'une action avec le numérique est important. A quoi cela me sert de m'exposer, de prendre un morceau de la Terre ? Et ensuite viennent les techniques au service pour optimiser pour les ressources. Les datacenters sont une aberration par eux-mêmes. Ils sont localisés en Sibérie ou en Islande, par exemple où le climat est plus propice. Ainsi 60 % de l'énergie est utilisée pour refroidir les machines car elles sont tellement proches les unes des autres que la chaleur générée est très forte. Une des idées fortes est de décentraliser. Cela rejoint l'Edge computing. Cela va amener à des réflexions sur le partage des données : je contrôle mes données, mes ressources. 50 % de l'énergie pourrait être sauvée en faisant de la décentralisation.
Or les systèmes avec le deep learning marchent s'ils disposent de beaucoup de données et s'ils sont centralisés. Il conviendrait d'utiliser moins de données tout en étant tout aussi efficace en matière de résultats produits.
On n'utilise pas forcément les bonnes données et il peut exister des biais. Il est intéressant de se plonger dans les données et de ne pas faire confiance aux données. Avec les modèles produits, la vérité vient du passé et ils ne savent pas évaluer les ruptures dans les comportements. Par exemple, s'agissant des cartes de crédit, le problème récent de l'algorithme d'Apple Card attribue systématiquement un crédit plus élevé aux hommes qu'aux femmes à revenu/richesse équivalents. Ce ne sont que des statistiques passées. Et pour être provocateur, quitte à biaiser les données, autant ne pas les utiliser.
Il n'est certes pas facile de faire quelque chose de nouveau car cela reviendrait à réaliser une disruption de ceux qui ont disrupté. Mais c'est aussi le cycle normal de l'innovation où l'on casse les règles en permanence. Entre ceux qui conçoivent les technologies et ceux qui les utilisent, nous avons le problème de l'éducation tout le temps comme je l'ai illustré avec l'exemple du selfie mais c'est également vrai pour le discernement face aux fake news. Ce peut être aussi pour avoir une bonne perception de la réalité. Les personnes et la société doivent s'éduquer pour pouvoir avoir un sens critique et faire des choix informés et empêcher les autres de décider pour eux comme dans une bonne dictature...
28 août 2020
Scientifique français installé dans la Silicon Valley depuis près de 30 ans, Dr Luc Julia a passé 10 ans dans les labos de recherche (Télécom Paris, Stanford Research), 10 ans à créer des start-up (Soliloquy, Orb, etc.) et 10 ans chez les géants de la tech (HP, Apple et Samsung). Titulaire de plusieurs dizaines de brevets et reconnu comme l'un des 100 développeurs français les plus influents du monde numérique, il est aussi aujourd'hui membre de l'Académie Française des Technologies. Il est l'auteur de L'intelligence artificielle n'existe pas