Chapitre VI : Informatique
(extrait de Michel
Volle, e-conomie, Economica 2000)
L'informatique se trouve au centre de la synergie
propre au STC. Les ordinateurs tirent parti des progrès de la microélectronique ; ils
facilitent l'automatisation ; ils sont programmables, et leurs logiciels peuvent être
adaptés aux missions les plus diverses. C'est autour des techniques informatiques, qu'il
s'agisse du matériel, du logiciel ou des usages, que s'articule la dynamique du STC.
C'est à dessein que nous mentionnons les " usages
" dans la liste des " techniques " informatiques. C'est dans la
couche des usages en effet que se trouve le point critique, lorsque l'innovation modifie
rapidement et continuellement le domaine du possible : c'est là que résident les
blocages, les obstacles qui s'opposent à la pleine mise en valeur de la synergie. Nous y
reviendrons dans la partie III.
Ici nous considérerons les couches " matériel " et
" logiciel " de l'informatique, les usages n'étant évoqués que dans la
mesure où ils jouent un rôle dans l'élargissement du marché et le jeu de l'économie
d'échelle.
La fonction de production de l'informatique est à coût fixe.
C'est évident pour le logiciel, dont le coût est un coût de pure conception : une
fois qu'il est écrit, le multiplier en le copiant sur des disquette ou des CD-Rom ne
coûte (pratiquement) rien. Pour le matériel, la fonction de production à coût fixe
concerne les composants les plus nobles (processeur et mémoire vive), le reste étant
constitué d'une carcasse et d'un câblage ainsi que de quelques équipements (disques,
écrans) dont la conception a été très difficile et coûteuse, mais qui sont produits
eux aussi selon des techniques fortement automatisées.
La fonction de coût de l'informatique se retrouve, par
contagion, dans les matériels qui utilisent les mêmes composants que l'ordinateur : le
logiciel représente 80 % du coût des commutateurs des télécommunications ; il
représente, associé à la microélectronique, une part croissante du coût de production
des avions, des automobiles etc. La transmission et le traitement de l'information,
naguère assurés par les engrenages, arbres à cames, chaînes etc. de la mécanique,
sont de plus en plus confiés à des réseaux, mémoires et processeurs qui libèrent
l'information de ses métaphores mécaniques. Il en résulte une simplification des
parties mécaniques des machines et une croissance de leurs performances. Ainsi la
fonction de production à coût fixe caractéristique du STC s'étend à tous les autres
types de produits.
Le micro-ordinateur constitue le phénomène économique le plus
important de notre époque, comme le firent en d'autres temps la machine à vapeur,
le moteur électrique ou le moteur à explosion. C'est la machine emblématique du STC,
celle où se condensent les synergies caractérisant ce système, celle dont la qualité
et le prix tirent au mieux parti de ces synergies, celle qui a le plus d'effets sur les
usages, celle dont le marché obéit le mieux à notre modèle.
1. Matériel
50 ans séparent le premier ordinateur (50 tonnes, 25 kW,
quelques milliers de positions de mémoire, cent instructions par seconde) du
microprocesseur Pentium (quelques grammes, 25 watts, 8 à 32 Megaoctets de mémoire, 100
Mips). L'évolution n'est pas terminée : la loi de Moore (doublement de la complexité
des circuits intégrés tous les deux ans, soit une croissance de 41 % par an) se vérifie
depuis les années 50. Les chercheurs pensent qu'elle jouera jusque vers 2010 (cf. annexe
de ce chapitre).
Regardons comment les choses ont évolué depuis dix ans, et
prolongeons la tendance " pour voir " :
- le PC banal de 1990 a un processeur Intel 80386 ; sa vitesse dhorloge est
de 16 MHz, son disque dur stocke 80 Mo, sa mémoire vive est de 2 Mo ; équipé des
logiciels classiques du moment, il coûte 31 000 francs hors taxes (soit 39 000 francs
hors taxes en prix 2000).
- Le PC banal de 2000 a un processeur Pentium II MMX ; sa vitesse dhorloge
est de 400 MHz, son disque dur stocke 10 Go, sa mémoire vive est de 128 Mo, il a des
cartes son et vidéo ; équipé des logiciels classiques du moment, il coûte 7 000
francs hors taxes, soit une baisse de prix de 80 % en 10 ans compte non tenu de
leffet qualité.
- extrapolons en nous appuyant sur la loi de Moore et sans aucune précaution. Le
PC banal de 2010 aurait alors, par simple extrapolation tendancielle, une vitesse
dhorloge de 10 GHz, un disque dur de 300 To, une mémoire vive de 2 Go ; il
coûterait 1 300 francs aux prix de 2000.
Technologies de base
Les techniques de production des circuits intégrés, qui sont
à la base des microprocesseurs et des mémoires vives, sont fortement automatisées. Le
coût dune usine de microprocesseurs a été de 3 milliards de $, puis de 6
milliards, il est maintenant de 12 milliards de $. Elle doit être installée dans une
zone sans risque sismique, et avoir une durée de vie de trois ans pendant laquelle elle
produira 50 millions de puces par an.
Étapes de la production
dun microprocesseur
La production des cristaux de silicium, matière première de base,
suit un processus chimique dont le coût de revient est minime.
A partir d'un germe de cristal, la silice hautement purifiée croît en
un long cylindre à l'intérieur d'un creuset à haute température. Puis ce cylindre est
découpé en tranches fines par une scie au diamant.
Les tranches de silicium sont ensuite soumises à des manipulations de
type photographique qui gravent les couches incorporant la logique et la physique du
circuit intégré. Le coût de production des circuits intégré est donc essentiellement
composé (a) du coût de conception des " masques " qui permettent le dessin des
circuits, (b) du coût des équipements automatiques et hautement protégés (notamment
contre les poussières) qui assurent la production.
Chaque tranche est nettoyée à l'acide, puis placée dans un four à
haute température où sa surface est oxydée.
La tranche est recouverte d'un produit photosensible, et le dessin du
premier niveau du circuit est projeté à travers un masque par un faisceau de rayons
ultraviolets. Puis les surfaces impressionnées par ce faisceau sont enlevées par de
l'acide. Le processus est répété pour chaque niveau du circuit. La tranche est traitée
avec des impuretés chimiques positives ou négatives qui créent les zones conductrices.
Finalement, elle est revêtue d'un enduit qui protège sa surface et empêche les fuites
de charges électriques.
Les puces comportant des fautes sont repérées sur la tranche par
inspection visuelle et test informatique. Puis les puces sont découpées, collées sur un
support, de minuscules fils sont soudés pour connecter le support aux points de contact
de la puce, un couvercle est placé sur la puce et scellé pour la protéger.
Le microprocesseur est mis pendant plusieurs jours dans un four à
basse température pour simuler son utilisation à long terme. Il est ensuite testé et
les microprocesseurs à basse performance sont éliminés.
Après 2010 environ, les limites du possible en
microélectronique seront atteintes et la poursuite des gains de performance nécessitera
le passage à une autre technologie. Ce sera peut-être la photonique qui a déjà permis
des progrès dans télécommunications (utilisation de la fibre optique pour la
transmission à haut débit sur longue distance) et les mémoires de masse (CD-Rom).
Ce passage demandera du temps et le progrès des performances
sera vraisemblablement ralenti pendant une période de transition. Il ne faut pas s'en
inquiéter : l'assimilation des apports du STC par les entreprises est lente et la pause
des performances permettra de faire mûrir les usages. Cette maturation occupera
les premières décennies du XXIe siècle.
Mémoires de masse
L'évolution des mémoires de masse est aussi déterminante que
celle des mémoires vives et processeurs. Sur les supports magnétiques, le coût du
stockage de 10 000 caractères est passé de 150 000 francs en 1955 à 100 francs en 1980
et à 1 centime en 1995. La densité des enregistrements magnétiques est de plusieurs
millions de caractères par cm2. L'augmentation de la densité accroît le
volume des mémoires ainsi que la vitesse de lecture des données. Cependant elle réduit
l'intensité du champ magnétique utilisable et les limites de cette technique seront
bientôt atteintes.
L'enregistrement optique prend le relais. L'énergie nécessaire
à la lecture n'est plus stockée dans le support. La capacité d'un CD-Rom est de 600
millions de caractères. Les industriels se sont mis d'accord en 1995 sur un standard qui
la porte à 6,4 milliards de caractères.
Concurrence entre mainframe et micro-ordinateur
Par sa puissance et sa mémoire, et grâce à sa "
scalabilité ", le micro-ordinateur en réseau concurrence le gros ordinateur : il
est devenu le support d'une performance analogue à celle des supercalculateurs.
Evolution des performances (en MIPS)
Coût comparé des micro-ordinateurs et " mainframes "
La fabrication d'un ordinateur étant une industrie à coût
fixe, le prix de vente dépend de la taille du marché. Ceci explique la déséconomie
d'échelle qui caractérise le marché des ordinateurs : plus un ordinateur est
gros, plus l'unité d'uvre coûte cher.
Comparaison des prix des matériels
|
IBM 3090 |
Serveur
Unix |
PC |
MIPS |
300 000 F |
2 500 F |
50 F |
Mo
disque |
50 F |
10 F |
1 F |
Mo RAM |
30 000 F |
700 F |
150 F |
Source |
Ovum Ltd |
Sun |
PC direct |
La taille du marché des PC est gigantesque : à la
pénétration permise par la baisse de leur prix sajoute un fort marché de
renouvellement, car le progrès technique provoque lobsolescence rapide du parc
installé. La durée de vie utile dun PC en usage professionnel étant de deux à
trois ans, il se vend chaque année un nombre de PC proche du tiers du nombre de PC
installés, auxquels sajoutent les PC des personnes nouvellement équipées. Si
lon estime le parc de PC à 200 millions, cela représente un marché annuel de plus
de 50 millions de PC.
Le parc des gros ordinateurs se mesure par contre en milliers,
et en outre leur durée de vie est plus longue que celle des PC. Comme le coût de leur
conception et de leur mise en production s'équilibre sur un plus petit nombre d'unités,
leur prix unitaire est à performance équivalente plus élevé que celui du PC.
L'utilisation des ressources est certes physiquement plus
efficace si elles sont concentrées sur une seule machine sécurisée utilisée à temps
complet. Mais l'utilisation économiquement efficace des ressources est celle que
l'on obtient en disséminant processeurs et mémoires et en les reliant par un réseau,
même si chaque PC n'est utilisé que quelques pour cent du temps. Le coût unitaire des
ressources physiques est en effet alors beaucoup plus bas.
La Loi de Grosch
Herbert Grosch a énoncé dans les années 50 une loi empirique :
la puissance dun ordinateur est fonction quadratique de sa taille ; il est donc
plus efficace dutiliser une seule machine que deux machines ayant une taille moitié
moindre. Cette loi suggère une économie déchelle. Elle a été contredite dès la
fin des années 60 avec le succès des mini-ordinateurs, et plus encore dans les années
80 avec les PC.
Elle nest pas fausse sur le plan physique, mais elle est fausse
sur le plan économique : la taille du marché des PC permet de les vendre à un prix
tellement bas que cela compense linefficacité physique suscitée par la dispersion
de puissance.
La déséconomie d'échelle explique la tendance irrésistible
à la décentralisation de la puissance et de la mémoire (architectures client / serveur,
" downsizing " etc.). Les recherches sur le multiordinateur visent même à
faire remplacer complètement le mainframe par des PC en réseau.
2. Évolution du prix
Il suffit d'un coup d'il sur l'indice des prix des
micro-ordinateurs pour voir qu'il se passe quelque chose d'important : il baisse depuis
1990 de plus de 30 % par an. L'indice INSEE du prix de vente industriel des
micro-ordinateurs est établi, conformément aux méthodes classiques en matière d'indice
de prix, à qualité constante. Il décrit donc non l'évolution du prix moyen des
micro-ordinateurs (puisque la qualité du micro-ordinateur standard croît continûment),
mais l'évolution du prix qu'aurait un micro-ordinateur de qualité constante si
celui-ci était offert sur le marché durant la période couverte par l'indice. Il
s'agit donc de l'évolution du rapport " prix moyen constaté sur le marché /
qualité standard sur le marché ".
Source : INSEE, indice trimestriel du prix de vente
industriel des micro-ordinateurs
La baisse, continue, accélère en 1990. La courbe prend alors
la forme d'une exponentielle au taux de baisse à peu près constant. Pour mieux
comprendre cette série, observons son taux de variation en équivalent annuel (le niveau
" - 30 % " sur le graphique ci-dessous signifie que l'indice a évolué ce
trimestre-là à un taux qui, sur un an, correspondrait à une baisse de 30 %):
Cette courbe montre que la baisse annuelle se situe entre 30 et
40 %. Les études prospectives indiquent que ce rythme va se maintenir pendant au moins
dix ans encore.
Nous n'avons pas connaissance d'évolutions aussi fortes et
aussi prolongées d'un autre prix industriel. Ce phénomène a eu des conséquences :
nombre de vendeurs de PC, prospères au début des années 1990, ont été ruinés par la
dévalorisation rapide des stocks. Ceux qui ont survécu ont comme Dell appris à
" tourner " avec un stock très faible et à vendre par
correspondance. Une telle baisse est de nature à briser toutes les résistances, à
franchir tous les " prix de réservation " que directeurs financiers
et ménages peuvent avoir en tête. Celui qui ne " veut pas en entendre
parler " oubliera inévitablement ses réticences dans quelques années, et
alors il " s'y mettra ".
Le prix moyen de l'ordinateur baisse moins vite que
l'indice de prix, puisque la qualité augmente. Cependant il diminue: il était de 35 000
francs en 1990, 17 000 francs en 1994, il est aux alentours de 5 500 francs en 2000, soit
une baisse de 17 % par an. Il est donc erroné de dire que la baisse de l'indice est
compensée par l'effet qualité, le prix restant constant parce que les machines se
compliquent : la baisse de l'indice s'explique pour moitié par la hausse de la
qualité et pour moitié par la baisse du prix moyen.
Évolution du prix moyen des micro-ordinateurs (en milliers de
francs ).
Si l'on combine l'évolution dans le temps du prix du PC et la
déséconomie d'échelle, on obtient un effondrement du prix à performance égale :
- au début des années 1980, le superordinateur Cray 1, capable de traiter 100
Mips, était vendu 60 millions de francs. Il nécessitait une grande salle machine et des
équipements de climatisation ;
- en 2000, la machine multimédia de base pour le grand public était un
microordinateur de même puissance doté de la même capacité mémoire. On pouvait le
faire fonctionner sur un bureau, sans prendre de précautions particulières. Son prix
était d'environ 4 000 francs, soit en francs constants 40 000 fois moins que le Cray
1.
3. Logiciel
Les progrès du logiciel sont déterminants pour la
pénétration des ordinateurs dans toutes les activités industrielles ou intellectuelles.
Ils concernent les langages de programmation, les systèmes d'exploitation, les interfaces
utilisateur, les outils de développement.
Le coût de production du logiciel diminue, mais plus lentement
que celui du matériel (4 % par an pour le logiciel contre 35 % par an pour le
matériel). L'enjeu du coût du logiciel, jugé mineur aux débuts de l'informatique, est
donc maintenant primordial.
Langages
Les progrès des langages peuvent être décrits suivant le
modèle en couches de l'informatique. Initialement les programmeurs devaient écrire dans
le langage machine de l'ordinateur, dont le vocabulaire consiste en nombres binaires
représentant les adresses mémoire et les codes des opérations. Mais ce langage est
très pénible pour des êtres humains.
Le langage " assembleur ", plus commode, code les
opérations avec des caractères alphabétiques (ADD pour l'addition, SUB pour la
soustraction etc.). Néanmoins il était nécessaire de définir des langages encore plus
proches du langage humain.
Le premier langage " de haut niveau " fut FORTRAN
(" Formula Translation ") conçu par John Backus à IBM en 1954. Ses
instructions ressemblaient à des formules mathématiques et il était bien adapté aux
besoins des scientifiques. Mais il n'était pas commode pour les travaux peu
mathématiques, notamment les applications de gestion. COBOL (" Common
Business-Oriented Language ", développé en 1959 par un consortium qui
comprenait le Department of Defense) répond à ce dernier besoin. Il emploie des mots et
une syntaxe proches de l'anglais courant. ALGOL a été développé par un consortium
européen en 1958 pour concurrencer FORTRAN, quIBM considérait comme un langage
" propriétaire " fonctionnant uniquement sur ses machines.
D'autres langages encore plus commodes furent introduits
ensuite : BASIC (" Beginner's All-Purpose Symbolic Instruction
Code ", 1964) peut être rapidement maîtrisé par le profane ; il est utilisé
dans les écoles, entreprises et ménages. C (1972), langage de haut niveau, peut
fonctionner comme un assembleur : beaucoup de logiciels pour les entreprises sont
écrits dans ce langage souple. Pascal (1970), langage " structuré "
conçu de façon à éviter les erreurs de programmation, est largement utilisé pour les
PC et les mini-ordinateurs.
D'autres langages de haut niveau sont adaptés à des
applications précises : APT (" Automatically Programmed Tools ") pour
le contrôle des machines outils numériques, GPSS (" General-Purpose Simulation
System ") pour la construction des modèles de simulation, LISP
(" List Processing ", créé par John MacCarthy au MIT en 1959) pour
manipuler des symboles et des listes plutôt que des données; il est souvent utilisé en
intelligence artificielle. Perl (créé par Larry Wall en 1987) est un langage de commande
commode dans le monde Unix et pour les serveurs Web.
Les langages de quatrième génération (4GL), utilisés
principalement pour la gestion et l'interrogation des bases de données, se rapprochent
encore du langage humain. On peut citer FOCUS, SQL (" Structured Query
Language "), et dBASE.
Les langages orientés-objet comme Simula (1969), Smalltalk
(créé par Alan Kay au PARC de Xerox, 1980), C++ (créé par Bjarne Stroustrup aux Bell
Labs, 1983) ou Java (créé par Scott McNealy chez Sun en 1995) permettent d'écrire des
programmes fondés sur des objets réutilisables, modules rassemblant un petit nombre de
données et de traitements et communiquant entre eux par messages : la logique des
langages orientés objets est proche de celle de la simulation.
Pour les systèmes d'exploitation, les fonctions offertes à un
programme développé en 1966 sous l'OS des IBM 360 étaient pratiquement les mêmes que
celles disponibles sous la dernière version OS/390. La première version d'Unix a été
développée en 1969, les bases de données relationnelles sont nées en 1970.
Classification des langages de
programmation
On peut classer les langages de programmation selon les trois approches
qui se sont succédées dans le temps, et dont chacune a réclamé un effort intellectuel
intense :
- les langages " impératifs " comme Fortran, Cobol ou C visent à
piloter le processeur en obéissant à sa définition logique et physique ;
- les langages " structurés " comme Pascal ou Turbo Pascal visent à
piloter la pensée du programmeur, ou tout au moins à la renforcer en lincitant à
documenter sa démarche et à éclater la programmation en petits modules lisibles et
intellectuellement maîtrisables ;
- les langages " orientés objet " comme Smalltalk, C++ ou Java,
visent à simuler le fonctionnement de la " chose " concernée par le
programme - quil sagisse de clients dans une file dattente, de relations
commerciales dont on suit le " cycle de vie " entre commande et
réception de la livraison, de dossiers administratifs parcourant un
" workflow " le long duquel ils doivent rester
" traçables ".
Chacune de ces approches correspond à une étape dans la maîtrise de
la complexité des programmes.
Selon la thèse de Church-Turing, " tout langage de programmation
non trivial imaginable est capable de calculer ni plus ni moins de fonctions qu'un autre
langage de programmation non trivial ". Tous les langages non triviaux sont donc
équivalents à une machine de Turing. Cependant il ne faut pas surestimer la portée de
cette équivalence : un simple câble, un pont de lianes et le Pont de la Concorde
permettent tous de traverser la Seine - mais pour utiliser le premier il faut être un
équilibriste, le second exige une bonne forme physique, seul le troisième est vraiment
commode. Dans le domaine des langages, la qualité et la commodité résident dans les
structures de contrôle de programmes, les environnements et les outils de programmation.
On voit venir maintenant une quatrième approche : celle qui pilote le
processus de travail des utilisateurs eux-mêmes en mettant au centre de la conception du
système dinformation le couple " utilisateurs + PC en réseau "
associé à la maîtrise de la qualité des données, et qui associe typiquement :
- un langage de modélisation du métier comme UML,
- un langage de programmation orienté objet comme Java,
- un " middleware " conforme à larchitecture Corba,
- une base de données comme Oracle,
- une organisation des processus en " workflows " .
Interface homme-machine
Si le programme transforme l'ordinateur en un outil adapté à
un usage particulier, l'interface utilisateur est l'intermédiaire entre l'utilisateur et
le programme. Robert Barton disait dès les années 60 que " le centre de
lordinateur réside non dans le processeur, mais dans lécran ". Ce
changement de priorité à suscité des recherches et conduit à linvention de la
souris par Douglas Engelbart, puis des fenêtres par Xerox en 1973, a donné naissance à
Star en 1978, à Lisa en 1982, puis en 1984 au Macintosh d'Apple, premier produit avec
interface graphique ayant connu la réussite sur le marché. Il a été suivi en 1990 dans
le monde du PC par Windows 3.0 de Microsoft.
Le principe le plus important de l'interface graphique est le
Wysiwyg (" What You See Is What You Get ") : chaque manipulation de l'image
sur l'écran entraîne une modification prévisible de l'état du système. Les éléments
de cette métaphore sont les fenêtres (Windows), menus, icônes, boutons, onglets et le
pointeur. Les fenêtres permettent la représentation simultanée de plusieurs activités
sur l'écran. Les menus permettent de choisir les prochaines actions. Les icônes,
boutons, onglets etc. attribuent une forme concrète aux objets informatiques. L'outil de
pointage, souris ou track-ball, sélectionne fenêtres, menus, icônes etc.
Évolution
Au début de l'informatique, le coût de la programmation
n'était pas jugé critique. Si une machine coûtait 10 millions de francs, son logiciel
pouvait bien coûter 1 million de francs ! Si la durée de vie du matériel était de
dix ans, le développement du logiciel pouvait bien prendre deux à cinq ans. Mais la
baisse rapide du coût des matériels a rendu critique le coût des logiciels.
Si on utilise pour mesurer la productivité du logiciel la
méthode des points de fonction, on trouve la courbe suivante sur les cinquante dernières
années. Elle montre que le coût du logiciel a baissé depuis cinquante ans d'environ 20
% tous les cinq ans, soit 4 % par an :
Coût moyen du logiciel en Francs par point de fonction
Le Cobol représente 80 % du logiciel produit depuis 1960, et il
existe encore au moins un million de programmeurs Cobol dans le monde. Ils sont trop
occupés à maintenir les programmes écrits en Cobol pour innover.
Des progrès sont toutefois prévisibles : ils viendront de
la minorité de programmeurs qui n'utilisent pas le Cobol, mais des langages orientés
objet. Si ces langages n'augmentent pas sensiblement la productivité des développeurs
(ils accroissent plutôt le coût de la conception initiale), ils facilitent l'évolution
des logiciels et permettent de réduire les coûts de maintenance. On estime que le coût
annuel de maintenance du logiciel traditionnel est dans les premières années de l'ordre
de 10 à 15 % du coût du développement, et tend ensuite à croître ; il convient
de refaire le logiciel à neuf lorsque le coût de maintenance atteint 30 % du coût de
réfection. Avec l'orienté-objet, la maintenance est moins coûteuse (son coût annuel
est de quelques pour cent du coût de développement) et l'évolution, plus aisée, permet
d'éviter les réfections.
Chronologie des coûts de développement en mode traditionnel et
en mode orienté objet
Par ailleurs les outils de développement visuels (interfaces
graphiques, générateurs de programmes) accroissent la productivité dans un rapport de 1
à 5. Ces outils, d'abord dédaignés par les " vrais programmeurs " adeptes de
C ou C++, permettent de produire les lignes de code en manipulant des icônes et menus.
Grâce à une plus grande facilité de création ou de modification, la programmation
" à la souris " gagne du terrain, comme en atteste la percée de Visual Basic,
même pour les applications professionnelles.
Le programmeur du futur s'appuiera sur des outils visuels, des
techniques objets et des bibliothèques de composants. Ainsi, et en rupture avec les
tendances antérieures, il se peut que la baisse du coût des logiciels accélère dans
les prochaines années.
Les orientations du marché sont dores et déjà bien
lisibles. Voici lévolution des offres demploi pour les programmeurs aux
Etats-Unis, classées par langage demandé ; elle montre la croissance rapide des
langages orientés objet (C++ et Java), et la montée de Perl, ainsi que la perte
dimportance du COBOL.
4. Marché
La vivacité de la concurrence entre fournisseurs contribue à
expliquer la baisse du prix des ordinateurs. On trouvera en annexe de ce chapitre les
dates qui ont marqué l'histoire de cette concurrence. Rappelons que l'Altair, le premier
micro-ordinateur qui ait connu le succès commercial, commercialisé en 1974, était vendu
en kit et peu utilisable ; IBM sort le PC standard en 1981 et se fait " doubler
" par Compaq sur le marché des portables en 1982 ; Microsoft, fournisseur du
système d'exploitation du PC, et Intel, fournisseur du microprocesseur, trouvent des
clients chez les fabricants de " clones " qui raflent à IBM la plus grosse part
du marché : Apple sort le Macintosh en 1984.
Par la suite, les progrès des systèmes d'exploitation, des
applications, des processeurs et des mémoires sont autant d'occasions pour relancer la
concurrence, différencier les produits (tout en restant compatible avec le standard PC)
et tailler de nouvelles niches de marché. On dénombre aujourd'hui 200 millions
d'ordinateurs ; depuis 1995 il se vend dans le monde plus de PC que de téléviseurs.
Partenariats pour la conception des ordinateurs
" La commodité dutilisation des ordinateurs varie
comme la racine carrée du coût de développement. Pour concevoir un ordinateur dix fois
plus commode que lApple II, il fallait donc dépenser cent fois plus que ce
quil avait coûté. LApple II a coûté 500 000 $. Le coût du Lisa devait
donc tourner autour de 50 millions de $, et cest bien ce qui sest passé.
" Si vous souhaitez acheter un ordinateur dix fois plus
commode que le Macintosh, cela coûtera 5 milliards de $ environ. Le budget de R&D
dApple étant denviron 500 millions de $, cet ordinateur ne pourra pas sortir
de Cupertino. Le budget de R&D dIBM tourne autour de 3 milliards de $, mais il
est réparti sur plusieurs lignes dordinateurs : donc votre machine idéale ne
pourra pas venir non plus dIBM.
La seule possibilité pour concevoir lordinateur du futur,
cest une alliance entre fabricants dordinateurs et fabricants de circuits
intégrés. Cest pourquoi tout le monde parle de systèmes ouverts : la
seule façon de progresser vers le futur, cest de construire des matériels et des
logiciels compatibles à travers les lignes de produits et budgets de R&D de centaines
dentreprises. Ces partenariats seront la tendance du siècle prochain. "
Le marché s'emballe, l'amélioration continue des technologies
alimentant une baisse du prix qui induit un élargissement du marché, élargissement qui
provoque une nouvelle baisse de prix etc. Loffre se diversifie : du " desktop
" au " laptop " portable, puis au " palmtop " qui tient dans
le creux de la main et qui, muni d'une antenne, apporte toutes les facilités du PC en
réseau. Toute machine qui comporte un microprocesseur et une mémoire vive est
dailleurs un ordinateur en puissance (il suffit de lui connecter une interface
utilisateur) : ce sera bientôt le cas de la plupart des équipements ménagers,
automobiles etc.
Le micro-ordinateur équipe aujourd'hui le poste de travail
typique du salarié dans les activités de service, qui représentent 70 % de l'emploi et
dont l'importance va croissant. Pour mettre ce salarié au travail, il faut lui fournir
quelques m2 d'espace bien éclairé et bien aéré, un siège, un bureau, un
espace de rangement - et un micro-ordinateur relié au réseau de l'entreprise. Le coût
total de l'équipement informatique d'un salarié (micro-ordinateur, quote-part des
serveurs et du réseau, coût des logiciels) est d'environ 20 000 francs, soit 6 000
francs par an si l'on tient compte de la durée de vie du PC. Ce coût, qui baisse
rapidement, est déjà plus faible que le loyer des m2 de bureau. Au coût
d'équipement, il faut ajouter toutefois un coût d'exploitation du même ordre de
grandeur, couvrant l'assistance aux utilisateurs, la maintenance, l'administration des
droits d'accès, l'animation des services de travail coopératif (messagerie, forums,
workflow etc.).
Travail et communication s'organisent autour de cet outil. Celui
qui ne l'utilise pas (c'est encore le cas de certains managers) est en dehors du réseau
de l'entreprise, en prenant le mot " réseau " non seulement au sens
physique, mais au sens symbolique de lieu de communication. La pénétration du
micro-ordinateur est irrésistible, car l'effet d'avalanche propre à la logique du
réseau est renforcé par une baisse de prix rapide, prolongée, qui traverse toutes les
réticences des directeurs financiers, contrôleurs de gestion et autres directeurs
généraux en mal déconomies.
Restructuration de l'offre
Le micro-ordinateur a provoqué dans les années 80 une
transformation radicale du marché de l'informatique. Au début de cette décennie, des
entreprises comme IBM, DEC, Wang, Univac étaient organisées verticalement, chaque
compagnie étant active dans toutes les couches (puces, ordinateurs, systèmes
d'exploitation, applications, vente et distribution). L'industrie informatique était
caractérisée par le mot " propriétaire ", qui désigne un système
entier produit par un seul fournisseur.
L'avantage de cette intégration, c'est que l'offre d'un
fournisseur constitue un ensemble cohérent. Son inconvénient, c'est qu'une fois le
fournisseur choisi le client est obligé de lui rester fidèle. En cas de problème
important il doit changer tout son système informatique d'un coup. La compétition pour
la première vente à un client est féroce.
En 1995, tout a changé : la baisse des prix a fait entrer
l'informatique dans l'ère de la production de masse. Le client peut intégrer des
éléments (puce, système d'exploitation, applications) fournis par des entreprises
différentes. Ceci a modifié la structure du marché. De nouvelles compagnies se sont
créées (Intel, Microsoft, Compaq etc.), spécialisées chacune sur une seule couche où
elles sont en concurrence avec d'autres entreprises spécialisées. Ainsi durant les
années 80, l'organisation de l'offre a changé sans que l'on puisse assigner de date
précise au changement. Le marché s'est restructuré de façon horizontale. IBM,
entreprise phare du début des années 80, a subi une crise profonde ; la première
place a été prise par des entreprises comme Microsoft, Intel, Compaq, Dell, Novell.
Il est instructif de regarder quelques capitalisations
boursières pour voir place prise sur le marché par des entreprises qui nexistaient
pas ou étaient pratiquement inconnues en 1980 (valeurs le 2 avril 2000 en milliards de
dollars) :
Microsoft |
553 |
Sun |
164 |
Compaq |
46 |
Intel |
441 |
Dell |
138 |
Amazon |
23 |
IBM |
212 |
Hewlett
Packard |
133 |
Novell |
9 |
France
Telecom |
181 |
Motorola |
105 |
|
|
Évolution du marché du logiciel pour PC
Les " hackers " des années 60
(" hackers " au sens positif du mot qui signifie
" débrouillard ", et non au sens de " pirate "
qu'il a pris depuis) ont transformé lordinateur. Avant eux, cétait une
grosse machine sans écran, sans carte sonore, sans traitement de texte, sans tableur,
sans réseau etc. Ils ont tout inventé. Leur passion, c'était de créer, non de vendre.
Ils copiaient sans vergogne les programmes, les modifiaient, etc. L' " open
source " (ou " logiciel ouvert "), dont le programme source
est fourni et modifiable à volonté, allait alors de soi.
La transition entre ces habitudes et le marché du logiciel
compilé, donc utilisable mais illisible pour lutilisateur, est très précisément
datée : c'est la " Open Letter to Hobbyists " publiée par Bill Gates
en 1976 dans la " Altair Users' Newsletter " ; Gates y accusait de vol
les " hobbyistes " qui avaient copié son interpréteur BASIC ; il
disait que le développement, étant un travail, devait avoir un propriétaire, être
payé et protégé contre le vol.
Bill Gates avait alors 20 ans. Ce jeune homme avait un fort
potentiel, comme on l'a vu par la suite : d'une part sa compétence en informatique
faisait de lui un bon hacker, d'autre part - et contrairement aux autres hackers - son
milieu social lavait initié aux affaires. Son père était le plus grand avocat
d'affaires de Seattle ; sa mère siégeait au conseil d'administration de plusieurs
grandes entreprises. Il était sans doute mieux préparé que dautres pour percevoir
le potentiel marketing de la vente en boîte de logiciel compilé, et aussi la nécessité
dune telle organisation du marché pour fournir la diversité des logiciels
applicatifs dont les PC allaient avoir besoin.
Les hackers sont restés sans voix devant son attaque. Ils
étaient en effet coincés par deux cultures américaines entre lesquelles ils ne surent
comment arbitrer : celle du pionnier qui va de l'avant dans des territoires vierges et se
sert de l'" open source " pour se débrouiller ; celle de la libre
entreprise, qui ne peut se concevoir sans un droit de propriété protégé.
Gates a défini ainsi le modèle économique qui s'imposera sur
le marché des logiciels pour PC, et créé une industrie du logiciel dont il est devenu
le plus grand dirigeant. Le modèle quil a inventé était alors le seul possible et
sa fécondité mérite ladmiration.
Cependant ce modèle a une limite qui se révèle avec le temps,
qui suscite la complexification des logiciels. Cette complexification est due dabord
aux exigences de la " compatibilité ascendante " : la version Vn
dun logiciel doit être capable de lire les fichiers composés avec les versions Vn
- k antérieures. En passant dune version à lautre, le logiciel
salourdit de conventions anciennes dont il doit garder la trace. La complexification
est due ensuite à la cible marketing elle-même : pour que le logiciel puisse
couvrir un large marché, il doit offrir une grande diversité de fonctions et fonctionner
sur des plates-formes diverses. Chaque client nutilisera quune petite partie
du logiciel quil a acheté et qui encombre la mémoire de son ordinateur.
Or plus un logiciel est compliqué, plus il est difficile de
garantir sa qualité, de le " déboguer ". Le logiciel est une
construction fragile, très difficile à vérifier. Léradication totale des
bogues est dautant plus difficile à atteindre que lon risque toujours, en
corrigeant une erreur, den introduire plusieurs autres ; et cest une tâche
quil est impossible dautomatiser complètement : une des démonstrations
les plus intéressantes de la théorie de linformatique, cest quil est
impossible de construire un programme capable de vérifier entièrement les programmes.
On ne peut physiquement plus désormais, même avec quelques
dizaines de milliers de programmeurs groupés sur un campus, faire converger le processus
de " déboguage " dun grand logiciel comme Windows. Les versions
successives sont commercialisées avec leurs bogues, et les utilisateurs subissent des
incidents désagréables.
Conditions de création dun logiciel complexe
Il est nécessaire pour lémergence dune construction
intellectuelle complexe comme un système dexploitation ou un grand logiciel
applicatif que les éléments suivants soient réunis :
- un centre (" dictateur bienveillant ") capable
dattirer les contributeurs et de sélectionner les contributions à retenir ;
- des contributeurs qui réalisent le travail de développement ;
- un réseau de communication ;
- un moyen de rémunérer les contributeurs.
Le modèle " Microsoft " a permis de rassembler la
masse critique de contributeurs nécessaire à la production des logiciels pour PC. Le
" dictateur bienveillant ", cest Bill Gates lui-même ; le
réseau, cest le RLPC sur le campus de Redmond, et lInternet entre Microsoft
et ses sous-traitants ; les contributeurs sont les programmeurs de Microsoft et les
entreprises sous contrat ; la rémunération est financière.
Dans le modèle " Linux ", le " dictateur
bienveillant " est Linus Torvalds, le réseau est lInternet, les
contributeurs sont les développeurs du monde entier, la rémunération est symbolique (ce
qui ne veut pas dire quelle soit irréelle !).
Arrive Linus Torvalds, que sa culture finlandaise protège
contre les séductions de la libre entreprise à l'américaine et qui tire parti de
l'Internet pour ressusciter le modèle de développement " open
source " : le code source de Linux est disponible sur lInternet,
ainsi dailleurs que celui de Java etc. Quiconque repère un bogue peut, sil en
a la compétence, proposer une correction qui sera soumise au " dictateur
bienveillant ". L'Internet élargit à des millions de programmeurs le cercle
des contributeurs potentiels ; il permet d'accélérer la convergence du déboguage
et de poursuivre sans fin le processus de perfectionnement. Il permet aussi à
lutilisateur de choisir " à la carte " les fonctionnalités
dont il a besoin, ce qui réduit fortement la taille des logiciels.
Se crée alors, en contraste avec l'économie marchande du
logiciel compilé, une économie indirecte de la reconnaissance professionnelle autour du
code ouvert : " indirecte " parce que, si les développeurs
contribuent gratuitement à Linux, ils sont respectés dans leurs entreprises et prennent
donc de la valeur sur le marché. Léconomie de la reconnaissance est une économie
symbolique, mais ce nest pas une économie de la gratuité : le symbole est ici
rémunérateur à la fois psychologiquement et financièrement. Insistons dailleurs
sur le fait que " open source " ne signifie pas
" gratuit ", mais " lisible ". Une économie
marchande est en train de se bâtir sur l'" open source ", qui se vend
toutefois à des prix très inférieurs à ceux du logiciel compilé.
Le retour de la logique " open source "
mettent en péril la logique " programme compilé (cher) en boîte ".
Lissue de la lutte est prévisible : la qualité est du côté de
l'" open source " qui seul permet de faire converger le déboguage. On
peut compter sur le talent stratégique de Bill Gates : il saura adopter souplement
le système de l'adversaire. Linus Torvalds dit avec philosophie : " Ma
victoire, ce sera quand Microsoft se mettra à l'open source ".
Prospective
Plaçons nous par limagination en 2010. Les composants
essentiels de linformatique communicante existent déjà aujourdhui
(processeurs, mémoires, réseaux) ; le changement à cette échéance réside donc moins
dans la nouveauté des composants (dont toutefois les performances se seront accrues en
raison de la loi de Moore) que dans la transformation des interfaces et protocoles
permettant de les commander et de les faire communiquer. Cette évolution des interfaces
implique un changement des conditions dutilisation.
|
Miniaturisation :
" Microdrive " dIBM
Lancé en juin 1999, le " Microdrive " est
un disque dur de 340 Moctets pesant 16 grammes. Il est destiné aux caméras vidéos,
appareils de photo et autres équipements portatifs.
|
En 2010, en raisonnant par extrapolation tendancielle,
téléphone portable et PC se seront miniaturisés à tel point quils ne seront
pratiquement plus visibles ; par ailleurs, ils auront fusionné et lutilisateur
pourra associer leurs fonctions. Les personnes, les objets seront équipés de ressources
informatiques et de communication intégrées dans des composants minuscules.
Les thèmes principaux de loffre auront les noms suivants
: " communicateurs personnels ", " containers
dinformation ", " télédiagnostic des équipements ",
etc. De nombreux " téléservices " pourront les utiliser.
Lordinateur " wearable ", portable au
sens où lon dit que lon " porte " des vêtements, après
avoir été lourd et daspect un peu monstrueux, est devenu discret et pratique. Le
téléphone portable se miniaturise. La fusion du téléphone et du PC est déjà en
cours. Les protocoles de communication évoluent vers la connexion permanente à haut
débit en mode paquet (WAP). Les systèmes dexploitation
" multiordinateurs " évoluent vers des architectures facilitant la
mise en réseau des ressources de mémoire et de puissance.
|
Le
" wearable " aujourdhui
Les personnes disposent de
fonctions informatique et de communication incorporées à leurs vêtements, voire à leur
corps ; chaleur et mouvements du corps fournissent lénergie. Lécran est
incorporé aux lunettes. Processeur, mémoire et disque dur sont intégrés dans un
boîtier qui sert de palm top et de clavier. Lécoute du son est fournie par un
walkman ou par un composant inséré dans loreille. Les commandes sont saisies par
reconnaissance vocale ou par clavier. Les diverses parties de léquipement
communiquent par câble ou ondes à courte portée.
|
Lensemble de léquipement personnel est alors
connecté en permanence au Web ; il reçoit et envoie messages écrits et vocaux en temps
réel. Lutilisateur peut consulter les ressources utiles, recevoir des alarmes, etc
: léquipement apporte alors une assistance à la mémoire, dans la continuité des
services que rend aujourdhui lagenda sur papier, mais en les enrichissant par
laccès à des ressources encyclopédiques et des moteurs de recherche.
Les personnes qui veulent communiquer avec lutilisateur
peuvent lui être présentées par leur " carte de visite " comportant
une photographie (enrichissement de lidentification dappel), et
lutilisateur a le choix entre communication synchrone et asynchrone (messagerie
vocale).
Containers d'information
Les objets eux-mêmes sont munis de ressources informatiques
communicantes, facilitant la " traçabilité " des biens de
consommation (origine, composition chimique et fraîcheur des produits alimentaires,
identification des fournisseurs ayant participé à lélaboration dun produit
composite, etc. ; la traçabilité des produits, notamment alimentaires, constituera
un avantage compétitif et se traduira soit par lacceptation de prix plus élevés,
soit par lélimination progressive des produits non
" tracés "). Des étiquettes électroniques rayonnantes dun
coût de quelques centimes permettent de les identifier, puis de trouver sur le Web les
informations nécessaires (si toutefois les étiquettes ne les contiennent pas déjà).
La personne équipée qui se déplace dans un environnement
dobjets communicants, reçoit les signaux émis par ces objets et les interprète
(protocole Bluetooth). Elle peut aussi recevoir les signaux émis par les équipements des
autres personnes (identifier amis et relations dans une foule, etc.).
|
Montre communicante
Samsung commercialisera cette
montre à la fin de 2000. Elle comporte un téléphone cellulaire CDMA commandé par la
voix en utilisant lanalyse vocale de Conversa.
Le prototype pèse 37 g et mesure 7 * 6
* 2 cm.
Lécran LCD mesure 4 * 2,5 cm. Le téléphone permet 90 minutes de conversation
ininterrompue.
HP annonce un partenariat avec Swatch pour développer des
montres bracelets communicant sur lInternet. Elles identifieront celui qui les porte
et permettront des services personnalisés.
|
Maison communicante
Lappartement peut être truffé dobjets communicants
aux fonctions diverses. Il est équipé dun ordinateur central, relié au monde par
des accès à haut débit (les accès ADSL et les paraboles pour satellites en sont une
préfiguration) qui organise les fonctions informatiques, audiovisuelles, télécoms etc.
du ménage, pilote le chauffage, léclairage, larrosage du jardin etc. selon
les consignes fournies par lutilisateur, et constitue le centre du réseau des
objets communicants.
Le terme " ordinateur " ne désigne pas ici une
machine, mais un ensemble de fonctions pouvant résider sur des machines diverses, y
compris sur des machines situées hors de lappartement mais fonctionnant sous le
contrôle du ménage. Lutilisateur ne dispose plus comme aujourdhui de
plusieurs ordinateurs (un au bureau, un au domicile, un palm top, un ordinateur portable,
et en outre un téléphone filaire et un téléphone portable) entre lesquels il doit
recopier les données : il dispose dune ressource informatique globale,
localisée sur des serveurs dont lemplacement est indifférent et entre lesquels
traitements et données se répartissent. Il accède à cette ressource par des interfaces
diverses sans que cela altère lunité de celle-ci. A la fois informatique et
téléphonique, cette ressource gère les messageries écrites et vocales, garde mémoire
des communications vocales ou des conversations, etc. Elle est connectée en permanence au
Web sur lequel elle réalise des missions de recherche et de tri.
Dans ce scénario, rien ne dépasse les possibilités de la
technique actuelle. Ce qui est nouveau, cest une intégration des applications
permettant de supprimer les ressaisies en mettant à jour automatiquement les ressources
à partir dune saisie initiale ; cest aussi un filtrage sélectif
permettant de trier sur le Web lutile et laccessoire pour limiter le débit
reçu ou subi par lutilisateur.
Lutilisateur peut être ainsi assisté ou éclairé dans
toutes ses actions : la logique de lassisté par ordinateur se déploie dans toutes
ses implications. Loffre est commode, pratique, une haute complexité
technique étant masquée par la facilité de lusage.
Cette évolution, dores et déjà prévisible, comporte
des risques :
1) risque de dépendance de lutilisateur envers un
système qui lassiste en permanence : un nouveau savoir-vivre, une nouvelle
hygiène, sont ici nécessaires. De même quil est déconseillé de regarder la
télévision sans discontinuer quel que soit lagrément que lon trouve au
spectacle audiovisuel, il sera déconseillé dutiliser en permanence
lassistance procurée par les équipements téléinformatiques. Il faudra savoir se
débrancher, ou ne se brancher que pendant quelques heures par jour, et utiliser la
communication asynchrone.
2) un système qui permet de recevoir à tout moment, en temps
réel, alarmes, messages et communications, qui permet à dautres personnes de vous
localiser, qui peut à tout moment accéder à des ressources (images, données, textes,
sons, jeux), peut être oppressant. Il doit comporter divers niveaux de veille, de
larrêt total à louverture totale, en passant par le blocage sélectif des
communications laissant passer certaines alarmes, ou les alarmes et certains messages,
etc.
3) la part importante de lautomatisation dans
lenvironnement de lutilisateur a pour corollaire le besoin de contrôler les
automates, car personne ne peut faire entièrement confiance à des automatismes pour sa
vie courante. La communication entre automates, les actions quils déclenchent
doivent pouvoir être traçables et contrôlables ; lutilisateur doit disposer
dinterfaces commodes pour les paramétrer ; ces interfaces doivent être assez
sécurisées pour éviter les fausses manuvres. La protection de la vie privée
suppose que les automates soient protégés par des pare-feux contre toute tentative
dindiscrétion.
4) le monde dans lequel vivra lutilisateur est différent
de celui que nous expérimentons aujourdhui : les appareils seront plus discrets,
les fonctionnalités seront omniprésentes. Cette évolution peut susciter des réactions
de rejet comme lont fait en dautres temps le téléphone, lordinateur,
le minitel, voire les équipements électroménagers (machine à laver, aspirateur, etc.).
***
La fonction à coût fixe qui caractérise l'économie du
micro-ordinateur, qu'il s'agisse du logiciel, du matériel ou des réseaux, a pour
conséquence une logique de concurrence monopoliste et de différenciation. Les exigences
en matière de standardisation ne changent rien à cette situation : elles constituent le cadre
de la différenciation sans l'annuler (de même, la différenciation des cravates ou
des chemises se fait dans un cadre, celui du produit " cravate " ou du produit
" chemise ", qui constitue un standard de référence sans empêcher la
différenciation).
La dynamique du marché est soutenue:
- par l'effet d'avalanche qui caractérise tout réseau une fois atteint le seuil
critique de pénétration, ce qui est le cas au moins en ce qui concerne
lutilisation du PC par les emplois de service et bientôt les ménages,
- par la baisse tendancielle des coûts, très rapide pour le matériel (35 % par
an), moins rapide pour le logiciel (4 % par an, avec une tendance à l'accélération),
- par une innovation favorisant la constitution de nouvelles niches de marché.
La concurrence entre fournisseurs est violente. Naissance,
croissance et disparition des entreprises sont rapides, les valorisations en bourse
précoces, les restructurations fréquentes. La presse est pleine des aventures de Sun,
Microsoft, Netscape, Compaq, Apple, etc. Des entreprises modestes deviennent en quelques
années des empires, puis ces empires sont mis en difficulté. Les formes de concurrence
et de croissance propres à ce secteur illustrent notre modèle.
La question critique du futur se trouve dans les usages de
lordinateur. Le point de blocage de l'évolution se trouve dans l'aptitude des
entreprises et des particuliers à tirer parti des possibilités offertes.
Annexe 1 du chapitre VI : Points de repère pour
lhistoire du PC
1973
André Truong, de R2E (" Réalisations études
électroniques "), lance en mai le " Micral ", le premier
ordinateur utilisant un micro-processeur ou " micro-ordinateur ". Cela
se passe en France. R2E sera absorbée en 1978 par Bull.
1974
Altair, premier micro-ordinateur ayant remporté un succès
commercial, est vendu en kit. Il est difficile à utiliser mais enthousiasme les
hobbyistes.
1975
Bill Gates et Paul Allen développent pour l'Altair un
interpréteur BASIC. Création du nom " Microsoft " en novembre ; il
sera déposé un an après.
1976
Bill Gates publie dans la newsletter de l'Altair une
" Open Letter to Hobbyists " où il accuse de vol les hackers qui ont
copié son interpréteur BASIC : c'est le début de l'économie du logiciel compilé et
marchand, et de la fortune de Bill Gates.
Steven Wozniak et Steven Jobs conçoivent l'Apple I qui n'est
pas pris au sérieux. Création d'Apple Computer en avril.
1977
Lancement du Apple II, premier ordinateur personnel carrossé en
plastique et présentant une interface graphique en couleur.
1979
Le premier tableur, Visicalc, est écrit pour l'Apple II. Début
de la conception du Lisa par Apple.
1980
Signature du contrat entre IBM et Microsoft pour le
développement du système d'exploitation du futur PC. Sortie de l'Apple III.
1981
Sortie du PC d'IBM
1982
Sortie du premier "portable " de Compaq.
1983
Publication de la norme Ethernet pour RLPC.
1984
Sortie du tableur pour PC Lotus 1-2-3. Apple lance le Macintosh.
1985
Le PC AT d'IBM remporte un grand succès.
IBM annonce Token Ring : 260 PC peuvent être reliés par une
paire torsadée. Intel annonce le processeur 80386 à 16 MHz. Microsoft livre la première
version de Windows.
1986
Sortie de dBase pour la base de données sur PC et dExcel
pour le tableur.
Compaq introduit le premier PC 80386 et lance le marché des
clones PC. Le nombre dordinateurs aux Etats-Unis dépasse 30 millions, la messagerie
se développe.
1987
Les 80386 détrônent les PC AT. IBM lance la série PS/2 ; elle
na pas de succès, mais lécran VGA est la première intégration du graphique
sur interface PC. IBM lance aussi OS/2. Apple lance le Mac II.
1988
Unix fait croître lintérêt pour les PC au détriment
des mini-ordinateurs et des mainframes.
Apple poursuit Microsoft et HP en justice à propos de
linterface PC. Compaq prend la tête dun consortium de fournisseurs surnommé
" gang des neuf " qui crée le bus EISA pour contrer le
" Micro Channel " du PS/2 dIBM. IBM ressuscite le bus AT avec le
modèle PS/2 30286, et lance son offre de mini AS/400.
1989
Ethernet 10BaseT démarre. Les RLPC séquipent avec les
hubs et adaptateurs de SynOptics et 3Com, et ouvrent la voie aux applications
client/serveur des années 90.
Intel annonce le processeur 80486. IBM lance OfficeVision.
Autres nouveautés : la version 3.0 de Lotus 1-2-3 ; le Macintosh portable ; les
premiers systèmes utilisant le bus EISA ; le portable LTE/286 de Compaq alimenté
par batterie.
A la fin de lannée, le nombre dordinateurs dans le
monde dépasse 100 millions et il y a 100 000 ordinateurs sur lInternet.
1990
Les routeurs et WAN commencent à interconnecter les RLPC.
Une tentative de fusion entre Lotus et Novell échoue. Microsoft
lance Windows 3.0. IBM et Microsoft redéfinissent leur partenariat : IBM prend la
responsabilité dOS/1 et 2, Microsoft a lOS/2 portable, DOS et Windows.
Motorola lance le processeur 68040, Apple lance les Macintosh bas de gamme Classic, LC et
IIsi.
1991
Windows a un monopole de fait, OS/2 disparaît. Tim Berners-Lee,
au CERN, monte le premier serveur Web. Apple lance sa première génération de
Powerbooks.
Les dépenses des entreprises en informatique dépassent les
dépenses en équipement industriel, agricole et en construction.
1992
Cest lannée des applications sur RLPC avec NetWare
et du groupware avec Lotus Notes. Loutsourcing apparaît avec le gros contrat passé
par Kodak.
IBM et Microsoft mettent fin à leur accord de coopération. Les
comptes annuels dIBM font pour la première fois apparaître une perte (564 millions
de $). Ken Olsen quitte Digital. Intel lance le processeur 486DX2. IBM annonce le
ThinkPad.
Le nombre dordinateurs sur lInternet atteint 1
million.
1993
Les pertes dIBM sont de 4,97 milliards pour un chiffre
daffaires de 64,5 milliards de $. Lou Gerstner remplace John Akers: cest le
premier " outsider " qui prenne le poste de CEO dIBM. Apple perd
son procès contre Microsoft et HP. Intel lance le processeur 60 MHz Pentium, Apple sort
le Newton, Novell annonce NetWare 4.0, Lotus Notes 3.0 démarre, Microsoft lance Windows
NT.
1994
Après la révélation de lerreur de calcul sur la puce
Pentium, Intel réagit par une communication maladroite, puis décide de remplacer toutes
les puces. La frénésie des fusions et acquisitions continue : Novell achète
WordPerfect, Aldus et Adobe fusionnent. Apple entre sur le marché de la vente en ligne
avec eWorld, Netscape fait ses débuts. Larchitecture client / serveur se répand.
1995
Les Notebooks deviennent une alternative au desktop avec les
portables Pentium. Il en résulte un développement du télétravail.
IBM offre 3,5 milliards de $ pour acheter Lotus. Microsoft livre
Windows 95 et Intel lance le Pentium Pro à 150-200 MHz. Compuserve, AOL et Prodigy
commencent à offrir des accès au Web.
A la fin de lannée, 9 millions dordinateurs sont
connectés au Web.
1996
NT gagne du terrain contre NetWare comme plate-forme pour
serveur.
Les Intranet dentreprise se multiplient, Java fait les
premières pages des journaux. Les entreprises commencent à développer des sites Web.
Microsoft adopte finalement le Web.
En juillet, 12 800 000 ordinateurs sont connectés au Web.
1997
Le commerce électronique émerge. Les suites ERP se répandent.
La frénésie du Web continue. La navigation devient facile avec
des browsers et outils de recherche améliorés. La puissance de traitement
saccroît avec le Pentium 200 MHz dIntel
1998
Lan 2000 effraie tout le monde. Le manque de personnel en
informatique devient aigu. Loutsourcing et les services sépanouissent. Achat
de Digital par Compaq, durcissement de la bataille entre Microsoft et le ministère de la
justice. Le grand thème de lannée est le commerce sur lInternet.
_____________
Annexe 2 du chapitre VI : Le multiordinateur
On dit parfois que lInternet pourrait, puisquil
connecte tout avec tout, devenir lui-même un gigantesque ordinateur. Dune façon
plus modestement pratique, chacun peut souhaiter interconnecter l'ensemble des ressources
dont il dispose (PC au bureau, PC à la maison, PC portable, PalmTop, téléphone
portable, boîtes aux lettres vocales et écrites etc.) pour constituer une seule
ressource, cohérente, qui se tiendrait à jour sans ressaisie et formerait son réseau
personnel.
Certes on peut ressentir quelque inquiétude à l'idée des
questions de confidentialité et de protection de la vie personnelle que cela poserait
(car si toutes vos ressources sont sur le réseau, qu'est-ce qui garantit que vous êtes
seul à y accéder ?)...
Les techniques nécessaires seront en tout cas disponibles sur
le marché dans les prochaines années. Elles se nomment
" multiordinateur " (" multicomputer ") et
" scalabilité ".
Qu'est-ce que le multiordinateur ?
Le " multiordinateur " est un réseau (RLPC,
WAN ou Internet) de PC autonomes ayant au moins le débit dEthernet (10 Mbit/s) et
muni dun protocole permettant à lutilisateur dun ordinateur quelconque
de disposer de lensemble des autres machines.
Dans une entreprise utilisant 1000 PC, la puissance disponible
sur un tel réseau est supérieure à celle des supercalculateurs du marché : 1000 PC
représentent 100 gigaoctets de RAM et plusieurs téraoctets de disque dur.
Pour utiliser cette ressource, il faut un protocole
dadressage garantissant laccessibilité des données. Supposons que les
données résident sur les RAM des PC, et migrent vers une autre RAM dès quun
utilisateur touche son clavier : elles vont se déplacer en permanence ; il faut donc
pouvoir mettre les adresses à jour de façon continue.
Le multiordinateur utilise lalgorithme dadressage
SDDS (" structures de données distribuées et scalables ") sur lequel
travaillent plusieurs centres de recherche (Microsoft, IBM, université de Berkeley). Son
importance n'a pas échappé à Donald Knuth.
Les SDDS
Les données sont sur les serveurs ; il n'existe ni répertoire
central ni mises à jour synchrones des clients. Le client calcule l'adresse dune
donnée à partir d'une image locale de la structure des données. Comme les mises à jour
sont asynchrones, il se peut que cette image soit obsolète. Un serveur peut donc recevoir
une requête qui ne lui est pas destinée. Dans ce cas, il la route vers le serveur
probablement destinataire. Le processus se poursuit jusqu'à ce que le bon serveur soit
trouvé. Il envoie alors au client, outre la donnée elle-même, un message
(" Image adjust message ") qui permet au client de corriger son image
de la structure des données.
L'astuce est dassurer la convergence du processus en
limitant le nombre de messages échangés. Le protocole utilise le hachage linéaire
distribué. Sa spécification garantit que quelle que soit l'extension de la mémoire on
n'a pas besoin de plus de quatre messages pour localiser une donnée. A 99 %, une
insertion demande un message, une recherche deux messages.
Performances du multiordinateur
Comparons les temps d'accès :
- disque local : 10 ms
- RAM distante sur le réseau : de 1
ms à 100 ms selon le
débit
RAM locale sur la station : 100 ns (nanoseconde).
Pour rendre ces délais accessibles à l'intuition, dilatons les
dans la proportion 100 ns -> 1 minute :
- disque local : 8 jours
- RAM distante : de 10 minutes à 2 heures
- RAM locale : 1 minute.
Il est donc plus efficace d'utiliser la RAM distribuée sur le
réseau que le disque dur local du PC.
Associons les performances du protocole (nombre de messages
maximal) avec les temps daccès aux mémoires : il en résulte que 100 Go de
mémoire localisées sur les RAM des PC sont accessibles sur un réseau Ethernet en moins
dune milliseconde.
Les temps de réponse sont ainsi fortement améliorés.
L'adressage peut s'étendre sans détérioration à des millions d'ordinateurs.
Il faut pour utiliser un multiordinateur refaire le logiciel
système (système de gestion de fichiers, structures de données). Par contre on ne
touche pas aux applications qui tournent comme auparavant (mais plus vite) sur ce système
dexploitation modifié.
Les premières utilisations du multiordinateur sont les calculs
à haute performance et les accès aux grandes bases de données. Dans le contexte de mise
en réseau généralisée créé par lInternet, il ouvre des perspectives techniques
et économiques.
Annexe 3 du chapitre VI : la Loi de Moore
En 1965 un des cofondateurs dIntel, Gordon Moore, observa
que lefficacité de lintégration sur une puce en silicium croissait de façon
exponentielle depuis 1959 au rythme dun doublement annuel, que lon considère
le coût ou la densité des composants électroniques. Il fonda sur cette base empirique
une " loi " permettant de prévoir lefficacité future de
lintégration en prolongeant le rythme observé.
Cette loi, toute fragile quelle fût, a joué un rôle
important : elle a encouragé les ingénieurs à concevoir des logiciels pour
lesquels il nexistait pas encore de machine assez puissante en leur permettant de
parier que lorsque le logiciel serait prêt la machine convenable serait disponible. Elle
a ainsi contribué au dynamisme du secteur - et les paris des concepteurs ont été
gagnants, car dans les faits la loi de Moore a été vérifiée de façon satisfaisante.
Toutefois la durée nécessaire pour un doublement de la densité est plutôt de
lordre de 18 mois que dun an.
Où en sommes-nous aujourdhui ?
La surface d'un circuit intégré est un cristal de silicium
pur. Si l'on recherche une probabilité raisonnable de ne pas avoir d'imperfections, cette
surface maximum est d'environ 10 cm2. Cependant elle ne peut pas être remplie
entièrement avec des transistors, car il faut laisser la place pour des connexions. Le
taux moyen de remplissage est aujourd'hui d'environ 10 % ce qui nous donne donc 1 cm2
utile.
La longueur minimum d'un transistor est d'environ 400 atomes de
silicium en tenant compte de la proportion d'impuretés à incorporer dans le cristal de
silicium. Ce transistor doit être isolé de part et d'autre sur le circuit par une
longueur équivalente. La distance entre deux atomes de silicium est de 5,4 x 10-8cm.
La longueur minimum du plus petit transistor est donc de 400 x 3 x 5,4 x 10-8
cm, soit environ 10-4 cm de côté ce qui donne une surface de 10-8
cm2.
Le nombre maximum obtenu par ce calcul simplifié est donc
d'environ 100 millions de transistors par circuit. Certains raffinements sont possibles,
ce qui porterait cette limite aux environs d'un milliard de transistors par circuit. En
1995, on sait intégrer 5 millions de transistors. Il reste un rapport 200 à gagner soit
environ 10 ans au rythme actuel qui se ralentira sans doute un peu vers la fin. Le
milliard de transistors par circuit sera atteint vers 2010. Cela veut dire que le
processus d'intégration que nous connaissons depuis 40 ans va se poursuivre pendant 10
ans : tous les 18 mois, toutes choses égales par ailleurs, la puissance des
microprocesseurs va continuer à doubler.
|