#Sommaire-
Microprocessor Report, une revue à lire
Si vous vous intéressez à l'informatique et que vous voulez savoir où elle va, vous devez lire Microprocessor Report. Sinon il ne vous restera qu'à lire des articles de journalistes qui ne comprennnent pas complètement ce dont ils parlent. Malheureusement c'est un journal assez onéreux : $895 l'abonnement annuel pour un accès Web, $1 595 pour l'accès Web plus la revue papier.
Comme son nom l'indique, ce journal parle des aspects matériels de l'informatique, les « couches basses ». Mais la technologie des couches basses commande l'économie de cette industrie, qui à son tour conditionne l'évolution des « couches hautes », les logiciels.
Comme, je crois, pour tout journal, au bout de quelque temps sa lecture lasse, on a l'impression de revoir toujours la même chose. Plusieurs fois j'ai arrêté, quelquefois aussi parce que mon employeur (bien-aimé, toujours) avait décidé de faire des économies et m'avait coupé l'abonnement. Au bout d'un an ou deux de sevrage, je faisais une triste constatation : j'étais largué, je ne savais plus ce qui se passait dans ce monde, et je voyais bien que les articles de la presse informatique racontaient surtout ce que leurs auteurs avaient lu dans les dossiers de presse des industriels.
L'article de Max Baron dont le compte-rendu suit est paru dans le numéro de novembre 2008 de Microprocessor Report.
Rappel de la loi de Moore
Nommée d'après son auteur, Gordon Moore, fondateur en 1968 d'Intel, qui en a donné une première formulation relative aux circuits intégrés en 1965, puis une seconde en 1975 après l'invention du microprocesseur, la loi de Moore, qu'il faudrait plutôt nommer « les conjectures de Moore », énonce que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Bien que totalement empirique, cette conjecture s'est révélée étonnament robuste, puisque de 1971 à 2001 la densité des circuits a doublé chaque 1,96 année, selon l'article de Wikipédia. On trouvera les documents originaux de la publication sur le site de la société Intel indiqué par le lien ci-dessus.
La richesse des fonctions procurées par un processeur varie comme le nombre de ses transistors. La vitesse des traitements qu'il peut effectuer varie en fonction inverse de la taille des transistors : plus le motif élémentaire du dessin du processeur est petit (45 nanomètres aujourd'hui), moins il faut de temps aux signaux électroniques pour circuler dans les circuits, plus la fréquence du processeur pourra être élevée, de l'ordre de 3GHz aujourd'hui (pour des éclaircissements sur le fonctionnement des circuits logiques qui constituent un processeur, on pourra se reporter à l'annexe B de mon livre sur les systèmes d'exploitation, disponible en ligne sur ce site).
La taille physique d'une puce ne peut guère descendre au-dessous d'une certaine limite, imposée par la nécessité de « brancher » le processeur aux autres éléments de l'ordinateur, du téléphone portable ou de l'appareil photo numérique qu'il anime. Cette taille minimum est de l'ordre du cm2, elle autorise les quelques centaines de connexions indispensables à un processeur actuel.
Il résulte de ces différents paramètres que depuis plus de trente ans apparaissent des processeurs de plus en plus perfectionnés et rapides, qui ont permis l'essor prodigieux de l'informatique et de ses applications.
Cette industrie micro-électronique est à coûts fixes : l'essentiel du coût de production est dépensé avant la sortie de l'usine du premier processeur, il s'agit des coûts de R&D;, estimés de l'ordre de 1 000 années-homme pour concevoir un processeur d'architecture novatrice, et du coût de l'unité de production, de l'ordre de 4 milliards de dollars en 2009. La loi de Rock, aussi empirique que celle de Moore, prédit que le coût de l'unité de production double tous les quatre ans. La machine de base d'une telle unité se nomme un stepper, comptez quelques millions de dollars pour en avoir un dans votre garage.
Dans ce contexte, le coût marginal du processeur est voisin de zéro, son coût moyen dépend de la quantité vendue, inconnue bien sûr lors de la production. Les industriels fixent le prix d'un nouveau modèle à un niveau élevé parce qu'il offre un gain de performance important, puis font décroître son prix au fil du temps. Un processeur innovant typique peut commencer sa carrière à 1 500 dollars, tarif au catalogue Intel en mars 2009 du Core 2 Extreme Quad-Core, un processeur au dessin de 45 nanomètres avec une fréquence de 3,2 GHz et 12 mégaoctets de mémoire-cache de niveau 2 à bord. Des modèles lancés à des prix comparables deux ou trois ans plus tôt sont toujours sur le marché, à des prix de l'ordre d'une centaine de dollars, et si vous vous contentez d'un vieux Celeron à 1,6 GHz et en 90 nm, parfaitement suffisant pour le traitement de texte, le Web et le courrier électronique, vous l'aurez à 34 dollars.
Les revenus cumulés des différentes gammes doivent financer la construction des nouvelles unités de production, puisque chaque nouvelle génération, par exemple lors du passage des dessins en 65 nm aux dessins en 45 nm, demande la construction d'une nouvelle unité de production.
Les revenus de l'industrie ne suivent plus la droite de Moore
Comme l'écrit Max Baron, la courbe des revenus de l'industrie micro-électronique ne donne pas une estimation exacte des effets de la loi de Moore, parce qu'à un instant donné chaque industriel produit plusieurs gammes de processeurs, de générations différentes, mais l'évolution des revenus donne quand même une idée assez bonne des tendances technologiques, parce que les anticipations des industriels sont influencées par la loi de Moore.
La loi de Moore prédit une croissance exponentielle du nombre de transistors par puce, la courbe de cette évolution selon une échelle logarithmique en ordonnée devrait donc être une droite, ce que l'observation vérifie. La courbe des revenus de l'industrie, au prix d'un ajustement convenable de l'échelle logarithmique, devrait suivre la droite de la densité des composants.
Baron reproduit quelques courbes extraites des publications de la Semiconductor Industry Association (SIA) et de World Semiconductors Trade Statistics (données non publiques, abonnements en dizaines de milliers de dollars :-( ) qui montrent que la courbe des revenus, après s'être sagement ajustée pendant des années à celle de la croissance de la densité électronique, a commencé à en décrocher en 1998. Cet aplatissement de la courbe se retrouve aussi pour le chiffre d'affaires des mémoires, qui sont des produits moins complexes que les processeurs, mais soumis à des évolutions technologiques comparables.
L'explication à laquelle Baron aboutit et qu'il vérifie par des analyses dont je ne puis reproduire le détail ici, c'est que les nouveaux modèles de processeurs ne comportent pas d'innovations radicales qui procureraient des avantages décisifs par rapport aux gammes précédentes, et que dans ces conditions le prix du processeur tend à devenir tout simplement proportionnel à la surface de silicium occupée. Ceci correspondrait à une banalisation des produits de cette industrie, qui atteindrait ainsi à ce que les économistes appellent la maturité.
Le processeur Atom : symptôme de maturité ?
En fait, l'écriture de l'article de Baron suivait le lancement par Intel en 2008 du processeur Atom ; ce processeur au dessin de 45 nm, 1,6 GHz, disponible à partir de 20 dolars, a permis aux fabricants d'ordinateurs de sortir toute une série de petits portables (les Netbooks) et d'ordinateurs de bureau minuscules comme l'EeeBox d'Asus à des tarifs sans précédents, entre 200 et 300 €. La modicité de ces prix suscite la mauvaise humeur des revendeurs, qui traînent les pieds pour les inscrire à leur catalogue à côté de leurs portables traditionnels à 1 500 ou 2 000 €, certes mieux pourvus en gadgets, mais pas forcément indispensables.
L'Atom est-il un processeur techniquement révolutionnaire ? Que nenni : c'est le dessin du Pentium de 1993 (lancé en 800 nm et 60 MHz sous un capot de 25 cm2 !), réalisé avec les moyens actuels, ce qui permet d'augmenter la fréquence et de réduire la surface, la consommation électrique et la dissipation thermique.
On comprend la mélancolie des revendeurs devant cette irruption de modèles bon marché ; comme eux, les vendeurs des appareils photo et des chaînes haute-fidélité des années 1960 ont dû se résoudre à la dilution de leur clientèle fortunée dans la foule des acheteurs de matériels bon marché dont les taux de marge n'étaient plus du tout les mêmes.
En ce qui me concerne, j'ai acheté un Netbook et remplacé mon ordinateur de la maison, encombrant et bruyant, par une EeeBOX silencieuse et discrète que je peux laisser allumée 24 h sur 24. Et j'ai conseillé à mes étudiants d'en faire autant.