Je vous propose de retrouver l'année 1976, non pas pour évoquer « All by
myself » ou « Daddy Cool », deux des tubes de l'été, mais plutôt
quelques lignes de prospectives concernant les prochains développements de
l'informatique. Alors revêtez vos costumes marrons et vos grosses lunettes et
suivez-moi à l'époque où le rôle de Big Brother était tenu par IBM et où
l'informatique était une chose sérieuse aux mains des professionnels.
Les lignes qui suivent ont été écrites par Jean-Pierre Meinadier, (alors
directeur de Ingénierie informatique SA), pour l'ouvrage collectif
L'informatique, Larousse, 1976 (Encyclopoche Larousse).
Un quart de siècle après l'apparition du premier ordinateur commercialisé,
l'évolution de l'architecture des systèmes informatiques reste extrêmement
rapide sous l'impulsion des progrès techniques, malgré un certain
ralentissement. Celui-ci est dû, d'une part à la réticence des utilisateurs à
toute nouveauté qui impliquerait la reconversion de leurs programmes, d'autre
part aux politiques commerciales prudentes des constructeurs dans un marché qui
reste dominé par le groupe IBM.
S'il est difficile de décrire aujourd'hui le système informatique des années
80, on peut imaginer les composantes majeures de l'évolution qui y
conduira.
Dans la lancée de la miniaturisation de l'électronique, l'apparition vers 1974
des microprocesseurs (petites unités centrales d'ordinateurs tenant sur un seul
circuit intégré), et de mémoires à semi-conducteurs a permis ou permettra de
réduire considérablement d'abord le coût des calculatrices de bureau, puis
celui-des mini-ordinateurs et par la suite celui des gros ordinateurs dans la
mesure où on saura les construire par assemblage de tels composants. En ce qui
concerne les grands ordinateurs, cette réduction de prix s'accompagnera
principalement d'une augmentation des performances par le développement de
techniques de parallélisme et d'accroissement de disponibilité par application
de techniques de redondance et de tolérance aux fautes. Pour les petits
systèmes, la base (baisse ?) de prix aura pour principale conséquence qu'on ne
sera plus tenté de les utiliser en machines universelles pour mieux les
rentabiliser. On verra donc apparaître des machines consacrées à une
application unique, le logiciel pouvant alors être « durci » sous
forme de microprogramme figé dès lors qu'il répondra à un large marché.
Les techniques de télécommunication numérique et la définition de protocoles
d'échange entre ordinateurs favoriseront la réalisation de grands réseaux
publics ou privés répondant notamment aux besoins de répartition d'applications
sur plusieurs ordinateurs de marque, de taille et de localisation différentes,
ou de partage de données entre plusieurs applications.
Outre l'adaptation aux nouvelles architectures où les différentes fonctions du
système seront prises en charge par des processeurs spécialisés, les systèmes
d'exploitation fourniront de meilleurs services :
- en matière de disponibilité, où ils permettront des reconfigurations
automatiques avec élimination des éléments en panne et sans interruption des
traitements en cours ;
- en matière d'aide à l'exploitation, qui nécessitera de moins en moins de
connaissances informatiques, la complexité croissante du système restant
transparente à l'exploitant ;
- en matière de gestion de bases de données et de support de réseaux
d'ordinateurs ;
- en matière de virtualité, l'utilisateur n'ayant plus à se préoccuper des
limitations de la machine, notamment de la gestion de la hiérarchie de
mémoires.
L'informatique de demain sera ainsi plus répartie. La plupart des
applications seront traitées localement à partir de petits ordinateurs souvent
spécialisés qui seront généralement connectés à des réseaux afin d'y trouver
puissance de calcul supplémentaire et accès à des banques d'information.
Pas mal de tendances lourdes sont déjà en place : les réseaux, la virtualisation et l'informatique répartie, les microprogrammes, la complexité de plus en plus transparente, la réticence des utilisateurs pour renouveler leur équipement... Bien qu'on puisse en retrouver certains prémices notamment au travers des allusions à la miniaturisation, la grande absente est la micro-informatique. Nous nous situons au milieu des années soixante-dix, et si le Micral est apparu dès 1973 en France, il faut bien reconnaître que ce pan de l'informatique est encore embryonnaire. Question subsidiaire : de quand date la première apparition du terme « micro-informatique » ?