RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

Chapitre VI : Informatique

(extrait de Michel Volle, e-conomie, Economica 2000)

 L'informatique se trouve au centre de la synergie propre au STC. Les ordinateurs tirent parti des progrès de la microélectronique ; ils facilitent l'automatisation ; ils sont programmables, et leurs logiciels peuvent être adaptés aux missions les plus diverses. C'est autour des techniques informatiques, qu'il s'agisse du matériel, du logiciel ou des usages, que s'articule la dynamique du STC.

C'est à dessein que nous mentionnons les " usages " dans la liste des " techniques " informatiques. C'est dans la couche des usages en effet que se trouve le point critique, lorsque l'innovation modifie rapidement et continuellement le domaine du possible : c'est là que résident les blocages, les obstacles qui s'opposent à la pleine mise en valeur de la synergie. Nous y reviendrons dans la partie III.

Ici nous considérerons les couches " matériel " et " logiciel " de l'informatique, les usages n'étant évoqués que dans la mesure où ils jouent un rôle dans l'élargissement du marché et le jeu de l'économie d'échelle.

La fonction de production de l'informatique est à coût fixe. C'est évident pour le logiciel, dont le coût est un coût de pure conception : une fois qu'il est écrit, le multiplier en le copiant sur des disquette ou des CD-Rom ne coûte (pratiquement) rien. Pour le matériel, la fonction de production à coût fixe concerne les composants les plus nobles (processeur et mémoire vive), le reste étant constitué d'une carcasse et d'un câblage ainsi que de quelques équipements (disques, écrans) dont la conception a été très difficile et coûteuse, mais qui sont produits eux aussi selon des techniques fortement automatisées.

La fonction de coût de l'informatique se retrouve, par contagion, dans les matériels qui utilisent les mêmes composants que l'ordinateur : le logiciel représente 80 % du coût des commutateurs des télécommunications ; il représente, associé à la microélectronique, une part croissante du coût de production des avions, des automobiles etc. La transmission et le traitement de l'information, naguère assurés par les engrenages, arbres à cames, chaînes etc. de la mécanique, sont de plus en plus confiés à des réseaux, mémoires et processeurs qui libèrent l'information de ses métaphores mécaniques. Il en résulte une simplification des parties mécaniques des machines et une croissance de leurs performances. Ainsi la fonction de production à coût fixe caractéristique du STC s'étend à tous les autres types de produits.

Le micro-ordinateur constitue le phénomène économique le plus important de notre époque, comme le firent en d'autres temps la machine à vapeur, le moteur électrique ou le moteur à explosion. C'est la machine emblématique du STC, celle où se condensent les synergies caractérisant ce système, celle dont la qualité et le prix tirent au mieux parti de ces synergies, celle qui a le plus d'effets sur les usages, celle dont le marché obéit le mieux à notre modèle.

1. Matériel

50 ans séparent le premier ordinateur (50 tonnes, 25 kW, quelques milliers de positions de mémoire, cent instructions par seconde) du microprocesseur Pentium (quelques grammes, 25 watts, 8 à 32 Megaoctets de mémoire, 100 Mips). L'évolution n'est pas terminée : la loi de Moore (doublement de la complexité des circuits intégrés tous les deux ans, soit une croissance de 41 % par an) se vérifie depuis les années 50. Les chercheurs pensent qu'elle jouera jusque vers 2010 (cf. annexe de ce chapitre).

Regardons comment les choses ont évolué depuis dix ans, et prolongeons la tendance " pour voir " :

  • le PC banal de 1990 a un processeur Intel 80386 ; sa vitesse d’horloge est de 16 MHz, son disque dur stocke 80 Mo, sa mémoire vive est de 2 Mo ; équipé des logiciels classiques du moment, il coûte 31 000 francs hors taxes (soit 39 000 francs hors taxes en prix 2000).
  • Le PC banal de 2000 a un processeur Pentium II MMX ; sa vitesse d’horloge est de 400 MHz, son disque dur stocke 10 Go, sa mémoire vive est de 128 Mo, il a des cartes son et vidéo ; équipé des logiciels classiques du moment, il coûte 7 000 francs hors taxes, soit une baisse de prix de 80 % en 10 ans compte non tenu de l’effet qualité.
  • extrapolons en nous appuyant sur la loi de Moore et sans aucune précaution. Le PC banal de 2010 aurait alors, par simple extrapolation tendancielle, une vitesse d’horloge de 10 GHz, un disque dur de 300 To, une mémoire vive de 2 Go ; il coûterait 1 300 francs aux prix de 2000.

Technologies de base

Les techniques de production des circuits intégrés, qui sont à la base des microprocesseurs et des mémoires vives, sont fortement automatisées. Le coût d’une usine de microprocesseurs a été de 3 milliards de $, puis de 6 milliards, il est maintenant de 12 milliards de $. Elle doit être installée dans une zone sans risque sismique, et avoir une durée de vie de trois ans pendant laquelle elle produira 50 millions de puces par an.

 Étapes de la production d’un microprocesseur

La production des cristaux de silicium, matière première de base, suit un processus chimique dont le coût de revient est minime.

A partir d'un germe de cristal, la silice hautement purifiée croît en un long cylindre à l'intérieur d'un creuset à haute température. Puis ce cylindre est découpé en tranches fines par une scie au diamant.

Les tranches de silicium sont ensuite soumises à des manipulations de type photographique qui gravent les couches incorporant la logique et la physique du circuit intégré. Le coût de production des circuits intégré est donc essentiellement composé (a) du coût de conception des " masques " qui permettent le dessin des circuits, (b) du coût des équipements automatiques et hautement protégés (notamment contre les poussières) qui assurent la production.

Chaque tranche est nettoyée à l'acide, puis placée dans un four à haute température où sa surface est oxydée.

La tranche est recouverte d'un produit photosensible, et le dessin du premier niveau du circuit est projeté à travers un masque par un faisceau de rayons ultraviolets. Puis les surfaces impressionnées par ce faisceau sont enlevées par de l'acide. Le processus est répété pour chaque niveau du circuit. La tranche est traitée avec des impuretés chimiques positives ou négatives qui créent les zones conductrices. Finalement, elle est revêtue d'un enduit qui protège sa surface et empêche les fuites de charges électriques.

Les puces comportant des fautes sont repérées sur la tranche par inspection visuelle et test informatique. Puis les puces sont découpées, collées sur un support, de minuscules fils sont soudés pour connecter le support aux points de contact de la puce, un couvercle est placé sur la puce et scellé pour la protéger.

Le microprocesseur est mis pendant plusieurs jours dans un four à basse température pour simuler son utilisation à long terme. Il est ensuite testé et les microprocesseurs à basse performance sont éliminés.

Après 2010 environ, les limites du possible en microélectronique seront atteintes et la poursuite des gains de performance nécessitera le passage à une autre technologie. Ce sera peut-être la photonique qui a déjà permis des progrès dans télécommunications (utilisation de la fibre optique pour la transmission à haut débit sur longue distance) et les mémoires de masse (CD-Rom).

Ce passage demandera du temps et le progrès des performances sera vraisemblablement ralenti pendant une période de transition. Il ne faut pas s'en inquiéter : l'assimilation des apports du STC par les entreprises est lente et la pause des performances permettra de faire mûrir les usages. Cette maturation occupera les premières décennies du XXIe siècle.

Mémoires de masse

L'évolution des mémoires de masse est aussi déterminante que celle des mémoires vives et processeurs. Sur les supports magnétiques, le coût du stockage de 10 000 caractères est passé de 150 000 francs en 1955 à 100 francs en 1980 et à 1 centime en 1995. La densité des enregistrements magnétiques est de plusieurs millions de caractères par cm2. L'augmentation de la densité accroît le volume des mémoires ainsi que la vitesse de lecture des données. Cependant elle réduit l'intensité du champ magnétique utilisable et les limites de cette technique seront bientôt atteintes.

L'enregistrement optique prend le relais. L'énergie nécessaire à la lecture n'est plus stockée dans le support. La capacité d'un CD-Rom est de 600 millions de caractères. Les industriels se sont mis d'accord en 1995 sur un standard qui la porte à 6,4 milliards de caractères.

Concurrence entre mainframe et micro-ordinateur

Par sa puissance et sa mémoire, et grâce à sa " scalabilité ", le micro-ordinateur en réseau concurrence le gros ordinateur : il est devenu le support d'une performance analogue à celle des supercalculateurs.

 

Evolution des performances (en MIPS)

Coût comparé des micro-ordinateurs et " mainframes "

La fabrication d'un ordinateur étant une industrie à coût fixe, le prix de vente dépend de la taille du marché. Ceci explique la déséconomie d'échelle qui caractérise le marché des ordinateurs : plus un ordinateur est gros, plus l'unité d'œuvre coûte cher.

Comparaison des prix des matériels

 

IBM 3090

Serveur Unix

PC

MIPS

300 000 F

2 500 F

50 F

Mo disque

50 F

10 F

1 F

Mo RAM

30 000 F

700 F

150 F

Source

Ovum Ltd

Sun

PC direct

La taille du marché des PC est gigantesque : à la pénétration permise par la baisse de leur prix s’ajoute un fort marché de renouvellement, car le progrès technique provoque l’obsolescence rapide du parc installé. La durée de vie utile d’un PC en usage professionnel étant de deux à trois ans, il se vend chaque année un nombre de PC proche du tiers du nombre de PC installés, auxquels s’ajoutent les PC des personnes nouvellement équipées. Si l’on estime le parc de PC à 200 millions, cela représente un marché annuel de plus de 50 millions de PC.

Le parc des gros ordinateurs se mesure par contre en milliers, et en outre leur durée de vie est plus longue que celle des PC. Comme le coût de leur conception et de leur mise en production s'équilibre sur un plus petit nombre d'unités, leur prix unitaire est à performance équivalente plus élevé que celui du PC.

L'utilisation des ressources est certes physiquement plus efficace si elles sont concentrées sur une seule machine sécurisée utilisée à temps complet. Mais l'utilisation économiquement efficace des ressources est celle que l'on obtient en disséminant processeurs et mémoires et en les reliant par un réseau, même si chaque PC n'est utilisé que quelques pour cent du temps. Le coût unitaire des ressources physiques est en effet alors beaucoup plus bas.

 La Loi de Grosch

Herbert Grosch a énoncé dans les années 50 une loi empirique : la puissance d’un ordinateur est fonction quadratique de sa taille ; il est donc plus efficace d’utiliser une seule machine que deux machines ayant une taille moitié moindre. Cette loi suggère une économie d’échelle. Elle a été contredite dès la fin des années 60 avec le succès des mini-ordinateurs, et plus encore dans les années 80 avec les PC.

Elle n’est pas fausse sur le plan physique, mais elle est fausse sur le plan économique : la taille du marché des PC permet de les vendre à un prix tellement bas que cela compense l’inefficacité physique suscitée par la dispersion de puissance.

La déséconomie d'échelle explique la tendance irrésistible à la décentralisation de la puissance et de la mémoire (architectures client / serveur, " downsizing " etc.). Les recherches sur le multiordinateur visent même à faire remplacer complètement le mainframe par des PC en réseau.

2. Évolution du prix

Il suffit d'un coup d'œil sur l'indice des prix des micro-ordinateurs pour voir qu'il se passe quelque chose d'important : il baisse depuis 1990 de plus de 30 % par an. L'indice INSEE du prix de vente industriel des micro-ordinateurs est établi, conformément aux méthodes classiques en matière d'indice de prix, à qualité constante. Il décrit donc non l'évolution du prix moyen des micro-ordinateurs (puisque la qualité du micro-ordinateur standard croît continûment), mais l'évolution du prix qu'aurait un micro-ordinateur de qualité constante si celui-ci était offert sur le marché durant la période couverte par l'indice. Il s'agit donc de l'évolution du rapport " prix moyen constaté sur le marché / qualité standard sur le marché ".

Source : INSEE, indice trimestriel du prix de vente industriel des micro-ordinateurs

La baisse, continue, accélère en 1990. La courbe prend alors la forme d'une exponentielle au taux de baisse à peu près constant. Pour mieux comprendre cette série, observons son taux de variation en équivalent annuel (le niveau " - 30 % " sur le graphique ci-dessous signifie que l'indice a évolué ce trimestre-là à un taux qui, sur un an, correspondrait à une baisse de 30 %):

Cette courbe montre que la baisse annuelle se situe entre 30 et 40 %. Les études prospectives indiquent que ce rythme va se maintenir pendant au moins dix ans encore.

Nous n'avons pas connaissance d'évolutions aussi fortes et aussi prolongées d'un autre prix industriel. Ce phénomène a eu des conséquences : nombre de vendeurs de PC, prospères au début des années 1990, ont été ruinés par la dévalorisation rapide des stocks. Ceux qui ont survécu ont comme Dell appris à " tourner " avec un stock très faible et à vendre par correspondance. Une telle baisse est de nature à briser toutes les résistances, à franchir tous les " prix de réservation " que directeurs financiers et ménages peuvent avoir en tête. Celui qui ne " veut pas en entendre parler " oubliera inévitablement ses réticences dans quelques années, et alors il " s'y mettra ".

Le prix moyen de l'ordinateur baisse moins vite que l'indice de prix, puisque la qualité augmente. Cependant il diminue: il était de 35 000 francs en 1990, 17 000 francs en 1994, il est aux alentours de 5 500 francs en 2000, soit une baisse de 17 % par an. Il est donc erroné de dire que la baisse de l'indice est compensée par l'effet qualité, le prix restant constant parce que les machines se compliquent : la baisse de l'indice s'explique pour moitié par la hausse de la qualité et pour moitié par la baisse du prix moyen.

Évolution du prix moyen des micro-ordinateurs (en milliers de francs ).

Si l'on combine l'évolution dans le temps du prix du PC et la déséconomie d'échelle, on obtient un effondrement du prix à performance égale :

  • au début des années 1980, le superordinateur Cray 1, capable de traiter 100 Mips, était vendu 60 millions de francs. Il nécessitait une grande salle machine et des équipements de climatisation ;
  • en 2000, la machine multimédia de base pour le grand public était un microordinateur de même puissance doté de la même capacité mémoire. On pouvait le faire fonctionner sur un bureau, sans prendre de précautions particulières. Son prix était d'environ 4 000 francs, soit en francs constants 40 000 fois moins que le Cray 1.

3. Logiciel

Les progrès du logiciel sont déterminants pour la pénétration des ordinateurs dans toutes les activités industrielles ou intellectuelles. Ils concernent les langages de programmation, les systèmes d'exploitation, les interfaces utilisateur, les outils de développement.

Le coût de production du logiciel diminue, mais plus lentement que celui du matériel (4 % par an pour le logiciel contre 35 % par an pour le matériel). L'enjeu du coût du logiciel, jugé mineur aux débuts de l'informatique, est donc maintenant primordial.

Langages

Les progrès des langages peuvent être décrits suivant le modèle en couches de l'informatique. Initialement les programmeurs devaient écrire dans le langage machine de l'ordinateur, dont le vocabulaire consiste en nombres binaires représentant les adresses mémoire et les codes des opérations. Mais ce langage est très pénible pour des êtres humains.

Le langage " assembleur ", plus commode, code les opérations avec des caractères alphabétiques (ADD pour l'addition, SUB pour la soustraction etc.). Néanmoins il était nécessaire de définir des langages encore plus proches du langage humain.

Le premier langage " de haut niveau " fut FORTRAN (" Formula Translation ") conçu par John Backus à IBM en 1954. Ses instructions ressemblaient à des formules mathématiques et il était bien adapté aux besoins des scientifiques. Mais il n'était pas commode pour les travaux peu mathématiques, notamment les applications de gestion. COBOL (" Common Business-Oriented Language ", développé en 1959 par un consortium qui comprenait le Department of Defense) répond à ce dernier besoin. Il emploie des mots et une syntaxe proches de l'anglais courant. ALGOL a été développé par un consortium européen en 1958 pour concurrencer FORTRAN, qu’IBM considérait comme un langage " propriétaire " fonctionnant uniquement sur ses machines.

D'autres langages encore plus commodes furent introduits ensuite : BASIC (" Beginner's All-Purpose Symbolic Instruction Code ", 1964) peut être rapidement maîtrisé par le profane ; il est utilisé dans les écoles, entreprises et ménages. C (1972), langage de haut niveau, peut fonctionner comme un assembleur : beaucoup de logiciels pour les entreprises sont écrits dans ce langage souple. Pascal (1970), langage " structuré " conçu de façon à éviter les erreurs de programmation, est largement utilisé pour les PC et les mini-ordinateurs.

D'autres langages de haut niveau sont adaptés à des applications précises : APT (" Automatically Programmed Tools ") pour le contrôle des machines outils numériques, GPSS (" General-Purpose Simulation System ") pour la construction des modèles de simulation, LISP (" List Processing ", créé par John MacCarthy au MIT en 1959) pour manipuler des symboles et des listes plutôt que des données; il est souvent utilisé en intelligence artificielle. Perl (créé par Larry Wall en 1987) est un langage de commande commode dans le monde Unix et pour les serveurs Web.

Les langages de quatrième génération (4GL), utilisés principalement pour la gestion et l'interrogation des bases de données, se rapprochent encore du langage humain. On peut citer FOCUS, SQL (" Structured Query Language "), et dBASE.

Les langages orientés-objet comme Simula (1969), Smalltalk (créé par Alan Kay au PARC de Xerox, 1980), C++ (créé par Bjarne Stroustrup aux Bell Labs, 1983) ou Java (créé par Scott McNealy chez Sun en 1995) permettent d'écrire des programmes fondés sur des objets réutilisables, modules rassemblant un petit nombre de données et de traitements et communiquant entre eux par messages : la logique des langages orientés objets est proche de celle de la simulation.

Pour les systèmes d'exploitation, les fonctions offertes à un programme développé en 1966 sous l'OS des IBM 360 étaient pratiquement les mêmes que celles disponibles sous la dernière version OS/390. La première version d'Unix a été développée en 1969, les bases de données relationnelles sont nées en 1970.

 Classification des langages de programmation

On peut classer les langages de programmation selon les trois approches qui se sont succédées dans le temps, et dont chacune a réclamé un effort intellectuel intense :

  • les langages " impératifs " comme Fortran, Cobol ou C visent à piloter le processeur en obéissant à sa définition logique et physique ;
  • les langages " structurés " comme Pascal ou Turbo Pascal visent à piloter la pensée du programmeur, ou tout au moins à la renforcer en l’incitant à documenter sa démarche et à éclater la programmation en petits modules lisibles et intellectuellement maîtrisables ;
  • les langages " orientés objet " comme Smalltalk, C++ ou Java, visent à simuler le fonctionnement de la " chose " concernée par le programme - qu’il s’agisse de clients dans une file d’attente, de relations commerciales dont on suit le " cycle de vie " entre commande et réception de la livraison, de dossiers administratifs parcourant un " workflow " le long duquel ils doivent rester " traçables ".

Chacune de ces approches correspond à une étape dans la maîtrise de la complexité des programmes.

Selon la thèse de Church-Turing, " tout langage de programmation non trivial imaginable est capable de calculer ni plus ni moins de fonctions qu'un autre langage de programmation non trivial ". Tous les langages non triviaux sont donc équivalents à une machine de Turing. Cependant il ne faut pas surestimer la portée de cette équivalence : un simple câble, un pont de lianes et le Pont de la Concorde permettent tous de traverser la Seine - mais pour utiliser le premier il faut être un équilibriste, le second exige une bonne forme physique, seul le troisième est vraiment commode. Dans le domaine des langages, la qualité et la commodité résident dans les structures de contrôle de programmes, les environnements et les outils de programmation.

On voit venir maintenant une quatrième approche : celle qui pilote le processus de travail des utilisateurs eux-mêmes en mettant au centre de la conception du système d’information le couple " utilisateurs + PC en réseau " associé à la maîtrise de la qualité des données, et qui associe typiquement :

  • un langage de modélisation du métier comme UML,
  • un langage de programmation orienté objet comme Java,
  • un " middleware " conforme à l’architecture Corba,
  • une base de données comme Oracle,
  • une organisation des processus en " workflows " .

Interface homme-machine

Si le programme transforme l'ordinateur en un outil adapté à un usage particulier, l'interface utilisateur est l'intermédiaire entre l'utilisateur et le programme. Robert Barton disait dès les années 60 que " le centre de l’ordinateur réside non dans le processeur, mais dans l’écran ". Ce changement de priorité à suscité des recherches et conduit à l’invention de la souris par Douglas Engelbart, puis des fenêtres par Xerox en 1973, a donné naissance à Star en 1978, à Lisa en 1982, puis en 1984 au Macintosh d'Apple, premier produit avec interface graphique ayant connu la réussite sur le marché. Il a été suivi en 1990 dans le monde du PC par Windows 3.0 de Microsoft.

Le principe le plus important de l'interface graphique est le Wysiwyg (" What You See Is What You Get ") : chaque manipulation de l'image sur l'écran entraîne une modification prévisible de l'état du système. Les éléments de cette métaphore sont les fenêtres (Windows), menus, icônes, boutons, onglets et le pointeur. Les fenêtres permettent la représentation simultanée de plusieurs activités sur l'écran. Les menus permettent de choisir les prochaines actions. Les icônes, boutons, onglets etc. attribuent une forme concrète aux objets informatiques. L'outil de pointage, souris ou track-ball, sélectionne fenêtres, menus, icônes etc.

Évolution

Au début de l'informatique, le coût de la programmation n'était pas jugé critique. Si une machine coûtait 10 millions de francs, son logiciel pouvait bien coûter 1 million de francs ! Si la durée de vie du matériel était de dix ans, le développement du logiciel pouvait bien prendre deux à cinq ans. Mais la baisse rapide du coût des matériels a rendu critique le coût des logiciels.

Si on utilise pour mesurer la productivité du logiciel la méthode des points de fonction, on trouve la courbe suivante sur les cinquante dernières années. Elle montre que le coût du logiciel a baissé depuis cinquante ans d'environ 20 % tous les cinq ans, soit 4 % par an :

Coût moyen du logiciel en Francs par point de fonction 

Le Cobol représente 80 % du logiciel produit depuis 1960, et il existe encore au moins un million de programmeurs Cobol dans le monde. Ils sont trop occupés à maintenir les programmes écrits en Cobol pour innover.

Des progrès sont toutefois prévisibles : ils viendront de la minorité de programmeurs qui n'utilisent pas le Cobol, mais des langages orientés objet. Si ces langages n'augmentent pas sensiblement la productivité des développeurs (ils accroissent plutôt le coût de la conception initiale), ils facilitent l'évolution des logiciels et permettent de réduire les coûts de maintenance. On estime que le coût annuel de maintenance du logiciel traditionnel est dans les premières années de l'ordre de 10 à 15 % du coût du développement, et tend ensuite à croître ; il convient de refaire le logiciel à neuf lorsque le coût de maintenance atteint 30 % du coût de réfection. Avec l'orienté-objet, la maintenance est moins coûteuse (son coût annuel est de quelques pour cent du coût de développement) et l'évolution, plus aisée, permet d'éviter les réfections.

Chronologie des coûts de développement en mode traditionnel et en mode orienté objet

Par ailleurs les outils de développement visuels (interfaces graphiques, générateurs de programmes) accroissent la productivité dans un rapport de 1 à 5. Ces outils, d'abord dédaignés par les " vrais programmeurs " adeptes de C ou C++, permettent de produire les lignes de code en manipulant des icônes et menus. Grâce à une plus grande facilité de création ou de modification, la programmation " à la souris " gagne du terrain, comme en atteste la percée de Visual Basic, même pour les applications professionnelles.

Le programmeur du futur s'appuiera sur des outils visuels, des techniques objets et des bibliothèques de composants. Ainsi, et en rupture avec les tendances antérieures, il se peut que la baisse du coût des logiciels accélère dans les prochaines années.

Les orientations du marché sont d’ores et déjà bien lisibles. Voici l’évolution des offres d’emploi pour les programmeurs aux Etats-Unis, classées par langage demandé ; elle montre la croissance rapide des langages orientés objet (C++ et Java), et la montée de Perl, ainsi que la perte d’importance du COBOL.

4. Marché

La vivacité de la concurrence entre fournisseurs contribue à expliquer la baisse du prix des ordinateurs. On trouvera en annexe de ce chapitre les dates qui ont marqué l'histoire de cette concurrence. Rappelons que l'Altair, le premier micro-ordinateur qui ait connu le succès commercial, commercialisé en 1974, était vendu en kit et peu utilisable ; IBM sort le PC standard en 1981 et se fait " doubler " par Compaq sur le marché des portables en 1982 ; Microsoft, fournisseur du système d'exploitation du PC, et Intel, fournisseur du microprocesseur, trouvent des clients chez les fabricants de " clones " qui raflent à IBM la plus grosse part du marché : Apple sort le Macintosh en 1984.

Par la suite, les progrès des systèmes d'exploitation, des applications, des processeurs et des mémoires sont autant d'occasions pour relancer la concurrence, différencier les produits (tout en restant compatible avec le standard PC) et tailler de nouvelles niches de marché. On dénombre aujourd'hui 200 millions d'ordinateurs ; depuis 1995 il se vend dans le monde plus de PC que de téléviseurs.

Partenariats pour la conception des ordinateurs

" La commodité d’utilisation des ordinateurs varie comme la racine carrée du coût de développement. Pour concevoir un ordinateur dix fois plus commode que l’Apple II, il fallait donc dépenser cent fois plus que ce qu’il avait coûté. L’Apple II a coûté 500 000 $. Le coût du Lisa devait donc tourner autour de 50 millions de $, et c’est bien ce qui s’est passé.

" Si vous souhaitez acheter un ordinateur dix fois plus commode que le Macintosh, cela coûtera 5 milliards de $ environ. Le budget de R&D d’Apple étant d’environ 500 millions de $, cet ordinateur ne pourra pas sortir de Cupertino. Le budget de R&D d’IBM tourne autour de 3 milliards de $, mais il est réparti sur plusieurs lignes d’ordinateurs : donc votre machine idéale ne pourra pas venir non plus d’IBM.

La seule possibilité pour concevoir l’ordinateur du futur, c’est une alliance entre fabricants d’ordinateurs et fabricants de circuits intégrés. C’est pourquoi tout le monde parle de systèmes ouverts : la seule façon de progresser vers le futur, c’est de construire des matériels et des logiciels compatibles à travers les lignes de produits et budgets de R&D de centaines d’entreprises. Ces partenariats seront la tendance du siècle prochain. "

Le marché s'emballe, l'amélioration continue des technologies alimentant une baisse du prix qui induit un élargissement du marché, élargissement qui provoque une nouvelle baisse de prix etc. L’offre se diversifie : du " desktop " au " laptop " portable, puis au " palmtop " qui tient dans le creux de la main et qui, muni d'une antenne, apporte toutes les facilités du PC en réseau. Toute machine qui comporte un microprocesseur et une mémoire vive est d’ailleurs un ordinateur en puissance (il suffit de lui connecter une interface utilisateur) : ce sera bientôt le cas de la plupart des équipements ménagers, automobiles etc.

Le micro-ordinateur équipe aujourd'hui le poste de travail typique du salarié dans les activités de service, qui représentent 70 % de l'emploi et dont l'importance va croissant. Pour mettre ce salarié au travail, il faut lui fournir quelques m2 d'espace bien éclairé et bien aéré, un siège, un bureau, un espace de rangement - et un micro-ordinateur relié au réseau de l'entreprise. Le coût total de l'équipement informatique d'un salarié (micro-ordinateur, quote-part des serveurs et du réseau, coût des logiciels) est d'environ 20 000 francs, soit 6 000 francs par an si l'on tient compte de la durée de vie du PC. Ce coût, qui baisse rapidement, est déjà plus faible que le loyer des m2 de bureau. Au coût d'équipement, il faut ajouter toutefois un coût d'exploitation du même ordre de grandeur, couvrant l'assistance aux utilisateurs, la maintenance, l'administration des droits d'accès, l'animation des services de travail coopératif (messagerie, forums, workflow etc.).

Travail et communication s'organisent autour de cet outil. Celui qui ne l'utilise pas (c'est encore le cas de certains managers) est en dehors du réseau de l'entreprise, en prenant le mot " réseau " non seulement au sens physique, mais au sens symbolique de lieu de communication. La pénétration du micro-ordinateur est irrésistible, car l'effet d'avalanche propre à la logique du réseau est renforcé par une baisse de prix rapide, prolongée, qui traverse toutes les réticences des directeurs financiers, contrôleurs de gestion et autres directeurs généraux en mal d’économies.

Restructuration de l'offre

Le micro-ordinateur a provoqué dans les années 80 une transformation radicale du marché de l'informatique. Au début de cette décennie, des entreprises comme IBM, DEC, Wang, Univac étaient organisées verticalement, chaque compagnie étant active dans toutes les couches (puces, ordinateurs, systèmes d'exploitation, applications, vente et distribution). L'industrie informatique était caractérisée par le mot " propriétaire ", qui désigne un système entier produit par un seul fournisseur.

L'avantage de cette intégration, c'est que l'offre d'un fournisseur constitue un ensemble cohérent. Son inconvénient, c'est qu'une fois le fournisseur choisi le client est obligé de lui rester fidèle. En cas de problème important il doit changer tout son système informatique d'un coup. La compétition pour la première vente à un client est féroce.

En 1995, tout a changé : la baisse des prix a fait entrer l'informatique dans l'ère de la production de masse. Le client peut intégrer des éléments (puce, système d'exploitation, applications) fournis par des entreprises différentes. Ceci a modifié la structure du marché. De nouvelles compagnies se sont créées (Intel, Microsoft, Compaq etc.), spécialisées chacune sur une seule couche où elles sont en concurrence avec d'autres entreprises spécialisées. Ainsi durant les années 80, l'organisation de l'offre a changé sans que l'on puisse assigner de date précise au changement. Le marché s'est restructuré de façon horizontale. IBM, entreprise phare du début des années 80, a subi une crise profonde ; la première place a été prise par des entreprises comme Microsoft, Intel, Compaq, Dell, Novell.

Il est instructif de regarder quelques capitalisations boursières pour voir place prise sur le marché par des entreprises qui n’existaient pas ou étaient pratiquement inconnues en 1980 (valeurs le 2 avril 2000 en milliards de dollars) :

Microsoft

553

Sun

164

Compaq

46

Intel

441

Dell

138

Amazon

23

IBM

212

Hewlett Packard

133

Novell

9

France Telecom

181

Motorola

105

Évolution du marché du logiciel pour PC

Les " hackers " des années 60 (" hackers " au sens positif du mot qui signifie " débrouillard ", et non au sens de " pirate " qu'il a pris depuis) ont transformé l’ordinateur. Avant eux, c’était une grosse machine sans écran, sans carte sonore, sans traitement de texte, sans tableur, sans réseau etc. Ils ont tout inventé. Leur passion, c'était de créer, non de vendre. Ils copiaient sans vergogne les programmes, les modifiaient, etc. L' " open source " (ou " logiciel ouvert "), dont le programme source est fourni et modifiable à volonté, allait alors de soi.

La transition entre ces habitudes et le marché du logiciel compilé, donc utilisable mais illisible pour l’utilisateur, est très précisément datée : c'est la " Open Letter to Hobbyists " publiée par Bill Gates en 1976 dans la " Altair Users' Newsletter " ; Gates y accusait de vol les " hobbyistes " qui avaient copié son interpréteur BASIC ; il disait que le développement, étant un travail, devait avoir un propriétaire, être payé et protégé contre le vol.

Bill Gates avait alors 20 ans. Ce jeune homme avait un fort potentiel, comme on l'a vu par la suite : d'une part sa compétence en informatique faisait de lui un bon hacker, d'autre part - et contrairement aux autres hackers - son milieu social l’avait initié aux affaires. Son père était le plus grand avocat d'affaires de Seattle ; sa mère siégeait au conseil d'administration de plusieurs grandes entreprises. Il était sans doute mieux préparé que d’autres pour percevoir le potentiel marketing de la vente en boîte de logiciel compilé, et aussi la nécessité d’une telle organisation du marché pour fournir la diversité des logiciels applicatifs dont les PC allaient avoir besoin.

Les hackers sont restés sans voix devant son attaque. Ils étaient en effet coincés par deux cultures américaines entre lesquelles ils ne surent comment arbitrer : celle du pionnier qui va de l'avant dans des territoires vierges et se sert de l'" open source " pour se débrouiller ; celle de la libre entreprise, qui ne peut se concevoir sans un droit de propriété protégé.

Gates a défini ainsi le modèle économique qui s'imposera sur le marché des logiciels pour PC, et créé une industrie du logiciel dont il est devenu le plus grand dirigeant. Le modèle qu’il a inventé était alors le seul possible et sa fécondité mérite l’admiration.

Cependant ce modèle a une limite qui se révèle avec le temps, qui suscite la complexification des logiciels. Cette complexification est due d’abord aux exigences de la " compatibilité ascendante " : la version Vn d’un logiciel doit être capable de lire les fichiers composés avec les versions Vn - k antérieures. En passant d’une version à l’autre, le logiciel s’alourdit de conventions anciennes dont il doit garder la trace. La complexification est due ensuite à la cible marketing elle-même : pour que le logiciel puisse couvrir un large marché, il doit offrir une grande diversité de fonctions et fonctionner sur des plates-formes diverses. Chaque client n’utilisera qu’une petite partie du logiciel qu’il a acheté et qui encombre la mémoire de son ordinateur.

Or plus un logiciel est compliqué, plus il est difficile de garantir sa qualité, de le " déboguer ". Le logiciel est une construction fragile, très difficile à vérifier. L’éradication totale des bogues est d’autant plus difficile à atteindre que l’on risque toujours, en corrigeant une erreur, d’en introduire plusieurs autres ; et c’est une tâche qu’il est impossible d’automatiser complètement : une des démonstrations les plus intéressantes de la théorie de l’informatique, c’est qu’il est impossible de construire un programme capable de vérifier entièrement les programmes.

On ne peut physiquement plus désormais, même avec quelques dizaines de milliers de programmeurs groupés sur un campus, faire converger le processus de " déboguage " d’un grand logiciel comme Windows. Les versions successives sont commercialisées avec leurs bogues, et les utilisateurs subissent des incidents désagréables.

Conditions de création d’un logiciel complexe

Il est nécessaire pour l’émergence d’une construction intellectuelle complexe comme un système d’exploitation ou un grand logiciel applicatif que les éléments suivants soient réunis :

- un centre (" dictateur bienveillant ") capable d’attirer les contributeurs et de sélectionner les contributions à retenir ;

- des contributeurs qui réalisent le travail de développement ;

- un réseau de communication ;

- un moyen de rémunérer les contributeurs.

Le modèle " Microsoft " a permis de rassembler la masse critique de contributeurs nécessaire à la production des logiciels pour PC. Le " dictateur bienveillant ", c’est Bill Gates lui-même ; le réseau, c’est le RLPC sur le campus de Redmond, et l’Internet entre Microsoft et ses sous-traitants ; les contributeurs sont les programmeurs de Microsoft et les entreprises sous contrat ; la rémunération est financière.

Dans le modèle " Linux ", le " dictateur bienveillant " est Linus Torvalds, le réseau est l’Internet, les contributeurs sont les développeurs du monde entier, la rémunération est symbolique (ce qui ne veut pas dire qu’elle soit irréelle !).

Arrive Linus Torvalds, que sa culture finlandaise protège contre les séductions de la libre entreprise à l'américaine et qui tire parti de l'Internet pour ressusciter le modèle de développement " open source " : le code source de Linux est disponible sur l’Internet, ainsi d’ailleurs que celui de Java etc. Quiconque repère un bogue peut, s’il en a la compétence, proposer une correction qui sera soumise au " dictateur bienveillant ". L'Internet élargit à des millions de programmeurs le cercle des contributeurs potentiels ; il permet d'accélérer la convergence du déboguage et de poursuivre sans fin le processus de perfectionnement. Il permet aussi à l’utilisateur de choisir " à la carte " les fonctionnalités dont il a besoin, ce qui réduit fortement la taille des logiciels.

Se crée alors, en contraste avec l'économie marchande du logiciel compilé, une économie indirecte de la reconnaissance professionnelle autour du code ouvert : " indirecte " parce que, si les développeurs contribuent gratuitement à Linux, ils sont respectés dans leurs entreprises et prennent donc de la valeur sur le marché. L’économie de la reconnaissance est une économie symbolique, mais ce n’est pas une économie de la gratuité : le symbole est ici rémunérateur à la fois psychologiquement et financièrement. Insistons d’ailleurs sur le fait que " open source " ne signifie pas " gratuit ", mais " lisible ". Une économie marchande est en train de se bâtir sur l'" open source ", qui se vend toutefois à des prix très inférieurs à ceux du logiciel compilé.

Le retour de la logique " open source " mettent en péril la logique " programme compilé (cher) en boîte ". L’issue de la lutte est prévisible : la qualité est du côté de l'" open source " qui seul permet de faire converger le déboguage. On peut compter sur le talent stratégique de Bill Gates : il saura adopter souplement le système de l'adversaire. Linus Torvalds dit avec philosophie : " Ma victoire, ce sera quand Microsoft se mettra à l'open source ".

Prospective

Plaçons nous par l’imagination en 2010. Les composants essentiels de l’informatique communicante existent déjà aujourd’hui (processeurs, mémoires, réseaux) ; le changement à cette échéance réside donc moins dans la nouveauté des composants (dont toutefois les performances se seront accrues en raison de la loi de Moore) que dans la transformation des interfaces et protocoles permettant de les commander et de les faire communiquer. Cette évolution des interfaces implique un changement des conditions d’utilisation.

 

 

Miniaturisation : " Microdrive " d’IBM

 

 

 

Lancé en juin 1999, le " Microdrive " est un disque dur de 340 Moctets pesant 16 grammes. Il est destiné aux caméras vidéos, appareils de photo et autres équipements portatifs.

 

 

En 2010, en raisonnant par extrapolation tendancielle, téléphone portable et PC se seront miniaturisés à tel point qu’ils ne seront pratiquement plus visibles ; par ailleurs, ils auront fusionné et l’utilisateur pourra associer leurs fonctions. Les personnes, les objets seront équipés de ressources informatiques et de communication intégrées dans des composants minuscules.

Les thèmes principaux de l’offre auront les noms suivants : " communicateurs personnels ", " containers d’information ", " télédiagnostic des équipements ", etc. De nombreux " téléservices " pourront les utiliser.

L’ordinateur " wearable ", portable au sens où l’on dit que l’on " porte " des vêtements, après avoir été lourd et d’aspect un peu monstrueux, est devenu discret et pratique. Le téléphone portable se miniaturise. La fusion du téléphone et du PC est déjà en cours. Les protocoles de communication évoluent vers la connexion permanente à haut débit en mode paquet (WAP). Les systèmes d’exploitation " multiordinateurs " évoluent vers des architectures facilitant la mise en réseau des ressources de mémoire et de puissance.

 

 

Le " wearable " aujourd’hui

Les personnes disposent de fonctions informatique et de communication incorporées à leurs vêtements, voire à leur corps ; chaleur et mouvements du corps fournissent l’énergie. L’écran est incorporé aux lunettes. Processeur, mémoire et disque dur sont intégrés dans un boîtier qui sert de palm top et de clavier. L’écoute du son est fournie par un walkman ou par un composant inséré dans l’oreille. Les commandes sont saisies par reconnaissance vocale ou par clavier. Les diverses parties de l’équipement communiquent par câble ou ondes à courte portée.

 

L’ensemble de l’équipement personnel est alors connecté en permanence au Web ; il reçoit et envoie messages écrits et vocaux en temps réel. L’utilisateur peut consulter les ressources utiles, recevoir des alarmes, etc : l’équipement apporte alors une assistance à la mémoire, dans la continuité des services que rend aujourd’hui l’agenda sur papier, mais en les enrichissant par l’accès à des ressources encyclopédiques et des moteurs de recherche.

Les personnes qui veulent communiquer avec l’utilisateur peuvent lui être présentées par leur " carte de visite " comportant une photographie (enrichissement de l’identification d’appel), et l’utilisateur a le choix entre communication synchrone et asynchrone (messagerie vocale).

Containers d'information

Les objets eux-mêmes sont munis de ressources informatiques communicantes, facilitant la " traçabilité " des biens de consommation (origine, composition chimique et fraîcheur des produits alimentaires, identification des fournisseurs ayant participé à l’élaboration d’un produit composite, etc. ; la traçabilité des produits, notamment alimentaires, constituera un avantage compétitif et se traduira soit par l’acceptation de prix plus élevés, soit par l’élimination progressive des produits non " tracés "). Des étiquettes électroniques rayonnantes d’un coût de quelques centimes permettent de les identifier, puis de trouver sur le Web les informations nécessaires (si toutefois les étiquettes ne les contiennent pas déjà).

La personne équipée qui se déplace dans un environnement d’objets communicants, reçoit les signaux émis par ces objets et les interprète (protocole Bluetooth). Elle peut aussi recevoir les signaux émis par les équipements des autres personnes (identifier amis et relations dans une foule, etc.).  

 

 

 

Montre communicante

Samsung commercialisera cette montre à la fin de 2000. Elle comporte un téléphone cellulaire CDMA commandé par la voix en utilisant l’analyse vocale de Conversa.

Le prototype pèse 37 g et mesure 7 * 6  * 2 cm. L’écran LCD mesure 4 * 2,5 cm. Le téléphone permet 90 minutes de conversation ininterrompue.

HP annonce un partenariat avec Swatch pour développer des montres bracelets communicant sur l’Internet. Elles identifieront celui qui les porte et permettront des services personnalisés.

 

Maison communicante

L’appartement peut être truffé d’objets communicants aux fonctions diverses. Il est équipé d’un ordinateur central, relié au monde par des accès à haut débit (les accès ADSL et les paraboles pour satellites en sont une préfiguration) qui organise les fonctions informatiques, audiovisuelles, télécoms etc. du ménage, pilote le chauffage, l’éclairage, l’arrosage du jardin etc. selon les consignes fournies par l’utilisateur, et constitue le centre du réseau des objets communicants.

Le terme " ordinateur " ne désigne pas ici une machine, mais un ensemble de fonctions pouvant résider sur des machines diverses, y compris sur des machines situées hors de l’appartement mais fonctionnant sous le contrôle du ménage. L’utilisateur ne dispose plus comme aujourd’hui de plusieurs ordinateurs (un au bureau, un au domicile, un palm top, un ordinateur portable, et en outre un téléphone filaire et un téléphone portable) entre lesquels il doit recopier les données : il dispose d’une ressource informatique globale, localisée sur des serveurs dont l’emplacement est indifférent et entre lesquels traitements et données se répartissent. Il accède à cette ressource par des interfaces diverses sans que cela altère l’unité de celle-ci. A la fois informatique et téléphonique, cette ressource gère les messageries écrites et vocales, garde mémoire des communications vocales ou des conversations, etc. Elle est connectée en permanence au Web sur lequel elle réalise des missions de recherche et de tri.

Dans ce scénario, rien ne dépasse les possibilités de la technique actuelle. Ce qui est nouveau, c’est une intégration des applications permettant de supprimer les ressaisies en mettant à jour automatiquement les ressources à partir d’une saisie initiale ; c’est aussi un filtrage sélectif permettant de trier sur le Web l’utile et l’accessoire pour limiter le débit reçu ou subi par l’utilisateur.

L’utilisateur peut être ainsi assisté ou éclairé dans toutes ses actions : la logique de l’assisté par ordinateur se déploie dans toutes ses implications. L’offre est commode, pratique, une haute complexité technique étant masquée par la facilité de l’usage.

Cette évolution, d’ores et déjà prévisible, comporte des risques :

1) risque de dépendance de l’utilisateur envers un système qui l’assiste en permanence : un nouveau savoir-vivre, une nouvelle hygiène, sont ici nécessaires. De même qu’il est déconseillé de regarder la télévision sans discontinuer quel que soit l’agrément que l’on trouve au spectacle audiovisuel, il sera déconseillé d’utiliser en permanence l’assistance procurée par les équipements téléinformatiques. Il faudra savoir se débrancher, ou ne se brancher que pendant quelques heures par jour, et utiliser la communication asynchrone.

2) un système qui permet de recevoir à tout moment, en temps réel, alarmes, messages et communications, qui permet à d’autres personnes de vous localiser, qui peut à tout moment accéder à des ressources (images, données, textes, sons, jeux), peut être oppressant. Il doit comporter divers niveaux de veille, de l’arrêt total à l’ouverture totale, en passant par le blocage sélectif des communications laissant passer certaines alarmes, ou les alarmes et certains messages, etc.

3) la part importante de l’automatisation dans l’environnement de l’utilisateur a pour corollaire le besoin de contrôler les automates, car personne ne peut faire entièrement confiance à des automatismes pour sa vie courante. La communication entre automates, les actions qu’ils déclenchent doivent pouvoir être traçables et contrôlables ; l’utilisateur doit disposer d’interfaces commodes pour les paramétrer ; ces interfaces doivent être assez sécurisées pour éviter les fausses manœuvres. La protection de la vie privée suppose que les automates soient protégés par des pare-feux contre toute tentative d’indiscrétion.

4) le monde dans lequel vivra l’utilisateur est différent de celui que nous expérimentons aujourd’hui : les appareils seront plus discrets, les fonctionnalités seront omniprésentes. Cette évolution peut susciter des réactions de rejet comme l’ont fait en d’autres temps le téléphone, l’ordinateur, le minitel, voire les équipements électroménagers (machine à laver, aspirateur, etc.).

***

La fonction à coût fixe qui caractérise l'économie du micro-ordinateur, qu'il s'agisse du logiciel, du matériel ou des réseaux, a pour conséquence une logique de concurrence monopoliste et de différenciation. Les exigences en matière de standardisation ne changent rien à cette situation : elles constituent le cadre de la différenciation sans l'annuler (de même, la différenciation des cravates ou des chemises se fait dans un cadre, celui du produit " cravate " ou du produit " chemise ", qui constitue un standard de référence sans empêcher la différenciation).

La dynamique du marché est soutenue:

  • par l'effet d'avalanche qui caractérise tout réseau une fois atteint le seuil critique de pénétration, ce qui est le cas au moins en ce qui concerne l’utilisation du PC par les emplois de service et bientôt les ménages,
  • par la baisse tendancielle des coûts, très rapide pour le matériel (35 % par an), moins rapide pour le logiciel (4 % par an, avec une tendance à l'accélération),
  • par une innovation favorisant la constitution de nouvelles niches de marché.

La concurrence entre fournisseurs est violente. Naissance, croissance et disparition des entreprises sont rapides, les valorisations en bourse précoces, les restructurations fréquentes. La presse est pleine des aventures de Sun, Microsoft, Netscape, Compaq, Apple, etc. Des entreprises modestes deviennent en quelques années des empires, puis ces empires sont mis en difficulté. Les formes de concurrence et de croissance propres à ce secteur illustrent notre modèle.

La question critique du futur se trouve dans les usages de l’ordinateur. Le point de blocage de l'évolution se trouve dans l'aptitude des entreprises et des particuliers à tirer parti des possibilités offertes.

Annexe 1 du chapitre VI : Points de repère pour l’histoire du PC

1973

André Truong, de R2E (" Réalisations études électroniques "), lance en mai le " Micral ", le premier ordinateur utilisant un micro-processeur ou " micro-ordinateur ". Cela se passe en France. R2E sera absorbée en 1978 par Bull.

1974

Altair, premier micro-ordinateur ayant remporté un succès commercial, est vendu en kit. Il est difficile à utiliser mais enthousiasme les hobbyistes.

1975

Bill Gates et Paul Allen développent pour l'Altair un interpréteur BASIC. Création du nom " Microsoft " en novembre ; il sera déposé un an après.

1976

Bill Gates publie dans la newsletter de l'Altair une " Open Letter to Hobbyists " où il accuse de vol les hackers qui ont copié son interpréteur BASIC : c'est le début de l'économie du logiciel compilé et marchand, et de la fortune de Bill Gates.

Steven Wozniak et Steven Jobs conçoivent l'Apple I qui n'est pas pris au sérieux. Création d'Apple Computer en avril.

1977

Lancement du Apple II, premier ordinateur personnel carrossé en plastique et présentant une interface graphique en couleur.

1979

Le premier tableur, Visicalc, est écrit pour l'Apple II. Début de la conception du Lisa par Apple.

1980

Signature du contrat entre IBM et Microsoft pour le développement du système d'exploitation du futur PC. Sortie de l'Apple III.

1981

Sortie du PC d'IBM

1982

Sortie du premier "portable " de Compaq.

1983

Publication de la norme Ethernet pour RLPC.

1984

Sortie du tableur pour PC Lotus 1-2-3. Apple lance le Macintosh.

1985

Le PC AT d'IBM remporte un grand succès.

IBM annonce Token Ring : 260 PC peuvent être reliés par une paire torsadée. Intel annonce le processeur 80386 à 16 MHz. Microsoft livre la première version de Windows.

1986

Sortie de dBase pour la base de données sur PC et d’Excel pour le tableur.

Compaq introduit le premier PC 80386 et lance le marché des clones PC. Le nombre d’ordinateurs aux Etats-Unis dépasse 30 millions, la messagerie se développe.

1987

Les 80386 détrônent les PC AT. IBM lance la série PS/2 ; elle n’a pas de succès, mais l’écran VGA est la première intégration du graphique sur interface PC. IBM lance aussi OS/2. Apple lance le Mac II.

1988

Unix fait croître l’intérêt pour les PC au détriment des mini-ordinateurs et des mainframes.

Apple poursuit Microsoft et HP en justice à propos de l’interface PC. Compaq prend la tête d’un consortium de fournisseurs surnommé " gang des neuf " qui crée le bus EISA pour contrer le " Micro Channel " du PS/2 d’IBM. IBM ressuscite le bus AT avec le modèle PS/2 30286, et lance son offre de mini AS/400.

1989

Ethernet 10BaseT démarre. Les RLPC s’équipent avec les hubs et adaptateurs de SynOptics et 3Com, et ouvrent la voie aux applications client/serveur des années 90.

Intel annonce le processeur 80486. IBM lance OfficeVision. Autres nouveautés : la version 3.0 de Lotus 1-2-3 ; le Macintosh portable ; les premiers systèmes utilisant le bus EISA ; le portable LTE/286 de Compaq alimenté par batterie.

A la fin de l’année, le nombre d’ordinateurs dans le monde dépasse 100 millions et il y a 100 000 ordinateurs sur l’Internet.

1990

Les routeurs et WAN commencent à interconnecter les RLPC.

Une tentative de fusion entre Lotus et Novell échoue. Microsoft lance Windows 3.0. IBM et Microsoft redéfinissent leur partenariat : IBM prend la responsabilité d’OS/1 et 2, Microsoft a l’OS/2 portable, DOS et Windows. Motorola lance le processeur 68040, Apple lance les Macintosh bas de gamme Classic, LC et IIsi.

1991

Windows a un monopole de fait, OS/2 disparaît. Tim Berners-Lee, au CERN, monte le premier serveur Web. Apple lance sa première génération de Powerbooks.

Les dépenses des entreprises en informatique dépassent les dépenses en équipement industriel, agricole et en construction.

1992

C’est l’année des applications sur RLPC avec NetWare et du groupware avec Lotus Notes. L’outsourcing apparaît avec le gros contrat passé par Kodak.

IBM et Microsoft mettent fin à leur accord de coopération. Les comptes annuels d’IBM font pour la première fois apparaître une perte (564 millions de $). Ken Olsen quitte Digital. Intel lance le processeur 486DX2. IBM annonce le ThinkPad.

Le nombre d’ordinateurs sur l’Internet atteint 1 million.

1993

Les pertes d’IBM sont de 4,97 milliards pour un chiffre d’affaires de 64,5 milliards de $. Lou Gerstner remplace John Akers: c’est le premier " outsider " qui prenne le poste de CEO d’IBM. Apple perd son procès contre Microsoft et HP. Intel lance le processeur 60 MHz Pentium, Apple sort le Newton, Novell annonce NetWare 4.0, Lotus Notes 3.0 démarre, Microsoft lance Windows NT.

1994

Après la révélation de l’erreur de calcul sur la puce Pentium, Intel réagit par une communication maladroite, puis décide de remplacer toutes les puces. La frénésie des fusions et acquisitions continue : Novell achète WordPerfect, Aldus et Adobe fusionnent. Apple entre sur le marché de la vente en ligne avec eWorld, Netscape fait ses débuts. L’architecture client / serveur se répand.

1995

Les Notebooks deviennent une alternative au desktop avec les portables Pentium. Il en résulte un développement du télétravail.

IBM offre 3,5 milliards de $ pour acheter Lotus. Microsoft livre Windows 95 et Intel lance le Pentium Pro à 150-200 MHz. Compuserve, AOL et Prodigy commencent à offrir des accès au Web.

A la fin de l’année, 9 millions d’ordinateurs sont connectés au Web.

1996

NT gagne du terrain contre NetWare comme plate-forme pour serveur.

Les Intranet d’entreprise se multiplient, Java fait les premières pages des journaux. Les entreprises commencent à développer des sites Web. Microsoft adopte finalement le Web.

En juillet, 12 800 000 ordinateurs sont connectés au Web.

1997

Le commerce électronique émerge. Les suites ERP se répandent.

La frénésie du Web continue. La navigation devient facile avec des browsers et outils de recherche améliorés. La puissance de traitement s’accroît avec le Pentium 200 MHz d’Intel

1998

L’an 2000 effraie tout le monde. Le manque de personnel en informatique devient aigu. L’outsourcing et les services s’épanouissent. Achat de Digital par Compaq, durcissement de la bataille entre Microsoft et le ministère de la justice. Le grand thème de l’année est le commerce sur l’Internet.

_____________

Annexe 2 du chapitre VI : Le multiordinateur

On dit parfois que l’Internet pourrait, puisqu’il connecte tout avec tout, devenir lui-même un gigantesque ordinateur. D’une façon plus modestement pratique, chacun peut souhaiter interconnecter l'ensemble des ressources dont il dispose (PC au bureau, PC à la maison, PC portable, PalmTop, téléphone portable, boîtes aux lettres vocales et écrites etc.) pour constituer une seule ressource, cohérente, qui se tiendrait à jour sans ressaisie et formerait son réseau personnel.

Certes on peut ressentir quelque inquiétude à l'idée des questions de confidentialité et de protection de la vie personnelle que cela poserait (car si toutes vos ressources sont sur le réseau, qu'est-ce qui garantit que vous êtes seul à y accéder ?)...

Les techniques nécessaires seront en tout cas disponibles sur le marché dans les prochaines années. Elles se nomment " multiordinateur " (" multicomputer ") et " scalabilité ".

Qu'est-ce que le multiordinateur ?

Le " multiordinateur " est un réseau (RLPC, WAN ou Internet) de PC autonomes ayant au moins le débit d’Ethernet (10 Mbit/s) et muni d’un protocole permettant à l’utilisateur d’un ordinateur quelconque de disposer de l’ensemble des autres machines.

Dans une entreprise utilisant 1000 PC, la puissance disponible sur un tel réseau est supérieure à celle des supercalculateurs du marché : 1000 PC représentent 100 gigaoctets de RAM et plusieurs téraoctets de disque dur.

Pour utiliser cette ressource, il faut un protocole d’adressage garantissant l’accessibilité des données. Supposons que les données résident sur les RAM des PC, et migrent vers une autre RAM dès qu’un utilisateur touche son clavier : elles vont se déplacer en permanence ; il faut donc pouvoir mettre les adresses à jour de façon continue.

Le multiordinateur utilise l’algorithme d’adressage SDDS (" structures de données distribuées et scalables ") sur lequel travaillent plusieurs centres de recherche (Microsoft, IBM, université de Berkeley). Son importance n'a pas échappé à Donald Knuth.

Les SDDS

Les données sont sur les serveurs ; il n'existe ni répertoire central ni mises à jour synchrones des clients. Le client calcule l'adresse d’une donnée à partir d'une image locale de la structure des données. Comme les mises à jour sont asynchrones, il se peut que cette image soit obsolète. Un serveur peut donc recevoir une requête qui ne lui est pas destinée. Dans ce cas, il la route vers le serveur probablement destinataire. Le processus se poursuit jusqu'à ce que le bon serveur soit trouvé. Il envoie alors au client, outre la donnée elle-même, un message (" Image adjust message ") qui permet au client de corriger son image de la structure des données.

L'astuce est d’assurer la convergence du processus en limitant le nombre de messages échangés. Le protocole utilise le hachage linéaire distribué. Sa spécification garantit que quelle que soit l'extension de la mémoire on n'a pas besoin de plus de quatre messages pour localiser une donnée. A 99 %, une insertion demande un message, une recherche deux messages.

Performances du multiordinateur

Comparons les temps d'accès :

  • disque local : 10 ms
  • RAM distante sur le réseau : de 1 ms à 100 ms selon le débit
  • RAM locale sur la station : 100 ns (nanoseconde).

Pour rendre ces délais accessibles à l'intuition, dilatons les dans la proportion 100 ns -> 1 minute :

  • disque local : 8 jours
  • RAM distante : de 10 minutes à 2 heures
  • RAM locale : 1 minute.

Il est donc plus efficace d'utiliser la RAM distribuée sur le réseau que le disque dur local du PC.

Associons les performances du protocole (nombre de messages maximal) avec les temps d’accès aux mémoires : il en résulte que 100 Go de mémoire localisées sur les RAM des PC sont accessibles sur un réseau Ethernet en moins d’une milliseconde.

Les temps de réponse sont ainsi fortement améliorés. L'adressage peut s'étendre sans détérioration à des millions d'ordinateurs.

Il faut pour utiliser un multiordinateur refaire le logiciel système (système de gestion de fichiers, structures de données). Par contre on ne touche pas aux applications qui tournent comme auparavant (mais plus vite) sur ce système d’exploitation modifié.

Les premières utilisations du multiordinateur sont les calculs à haute performance et les accès aux grandes bases de données. Dans le contexte de mise en réseau généralisée créé par l’Internet, il ouvre des perspectives techniques et économiques.

Annexe 3 du chapitre VI : la Loi de Moore

En 1965 un des cofondateurs d’Intel, Gordon Moore, observa que l’efficacité de l’intégration sur une puce en silicium croissait de façon exponentielle depuis 1959 au rythme d’un doublement annuel, que l’on considère le coût ou la densité des composants électroniques. Il fonda sur cette base empirique une " loi " permettant de prévoir l’efficacité future de l’intégration en prolongeant le rythme observé.

Cette loi, toute fragile qu’elle fût, a joué un rôle important : elle a encouragé les ingénieurs à concevoir des logiciels pour lesquels il n’existait pas encore de machine assez puissante en leur permettant de parier que lorsque le logiciel serait prêt la machine convenable serait disponible. Elle a ainsi contribué au dynamisme du secteur - et les paris des concepteurs ont été gagnants, car dans les faits la loi de Moore a été vérifiée de façon satisfaisante. Toutefois la durée nécessaire pour un doublement de la densité est plutôt de l’ordre de 18 mois que d’un an.

Où en sommes-nous aujourd’hui ?

La surface d'un circuit intégré est un cristal de silicium pur. Si l'on recherche une probabilité raisonnable de ne pas avoir d'imperfections, cette surface maximum est d'environ 10 cm2. Cependant elle ne peut pas être remplie entièrement avec des transistors, car il faut laisser la place pour des connexions. Le taux moyen de remplissage est aujourd'hui d'environ 10 % ce qui nous donne donc 1 cm2 utile.

La longueur minimum d'un transistor est d'environ 400 atomes de silicium en tenant compte de la proportion d'impuretés à incorporer dans le cristal de silicium. Ce transistor doit être isolé de part et d'autre sur le circuit par une longueur équivalente. La distance entre deux atomes de silicium est de 5,4 x 10-8cm. La longueur minimum du plus petit transistor est donc de 400 x 3 x 5,4 x 10-8 cm, soit environ 10-4 cm de côté ce qui donne une surface de 10-8 cm2.

Le nombre maximum obtenu par ce calcul simplifié est donc d'environ 100 millions de transistors par circuit. Certains raffinements sont possibles, ce qui porterait cette limite aux environs d'un milliard de transistors par circuit. En 1995, on sait intégrer 5 millions de transistors. Il reste un rapport 200 à gagner soit environ 10 ans au rythme actuel qui se ralentira sans doute un peu vers la fin. Le milliard de transistors par circuit sera atteint vers 2010. Cela veut dire que le processus d'intégration que nous connaissons depuis 40 ans va se poursuivre pendant 10 ans : tous les 18 mois, toutes choses égales par ailleurs, la puissance des microprocesseurs va continuer à doubler.