De la « loi de Moore » à
l’ordinateur individuel
10 août 2002
Le silicium (Si) est, après
l’oxygène, le constituant le plus massif et donc le plus répandu de la
Terre. Le silex, constitué de silice pure (dioxyde de silicium SiO2 ),
a servi il y a 2,5 millions d'années de matière première aux premiers
outils, armes et parures fabriqués par l’Homo habilis en Afrique de
l'Est.
Par la suite l’être humain a abondamment utilisé le silicium sous forme de céramique,
de brique, puis de verre et de porcelaine. Le silicium pur cristallisé, produit
par l’industrie chimique à partir de verres de silice (« quartz »)
sert de matière première aux « puces » de la microélectronique.
Le corps chimique le plus répandu
sur notre planète (après l’oxygène), peu coûteux en raison de son
abondance, se trouve avoir par ailleurs des propriétés électroniques
particulières. Elles expliquent à la fois le tranchant des arêtes du silex,
la diversité de ses utilisations, enfin les performances des circuits intégrés.
Le silicium est intimement lié à l’histoire de notre espèce.
Du
processeur au microprocesseur
Le
processeur est la partie centrale et aussi la partie la plus complexe
d’un ordinateur. Il comprend les registres et la machine qui exécute les opérations
commandées par le programme. Les ingénieurs qui conçoivent
un processeur doivent arbitrer en fonction d’un grand nombre de facteurs économiques
et techniques : il en est résulté une diversité de solutions qui a
rendu les divers ordinateurs mutuellement incompatibles. Pour un utilisateur,
il était coûteux de changer de fournisseur, car il aurait fallu réécrire
les programmes pour les adapter à la nouvelle machine.
Le
microprocesseur, processeur intégré sur une seule puce, a introduit un
standard de fait : Intel vend ses microprocesseurs à qui veut les
acheter, comme de simples composants qui dispensent le client des études les
plus complexes et les plus coûteuses.
La mise en exploitation des
possibilités des circuits intégrés requiert la maîtrise de plusieurs
techniques délicates, et elle a donc été progressive. Cette progressivité
explique la « loi de Moore » (doublement des performances tous les
18 mois) qui explique la montée des performances et la baisse du prix des
ordinateurs, donc l’émergence de l’ordinateur individuel puis la pénétration
et la généralisation de l’ordinateur dans les entreprises et la société.
Du transistor au circuit intégré
En 1947, trois chercheurs des
Bell Labs d’AT&T (John Bardeen, Walter Brattain et Robert Shockley) découvrent
le « transistor » (« transfer resistor »). Leur invention
s’appuie sur le fait qu’il est possible de contrôler sélectivement le flux
d’électricité dans le germanium (qui sera par la suite remplacé par le
silicium) en faisant en sorte que certaines zones soient conductrices et
d’autres isolantes, d’où le terme « semi-conducteur ». Comparé
au tube à vide, technologie auparavant dominante, le transistor se révéla
plus fiable, moins consommateur d’énergie et susceptible de miniaturisation.
C’est ce dernier point qui fonde la « loi de Moore ».
Les premiers transistors étaient
faits à la main dans des conditions rustiques si on les compare aux « salles
blanches » actuelles. Les rendements étaient bas (de 20 à 30 %) et les
performances étaient très variables. Les progrès techniques ont donc concerné
surtout la maîtrise du processus de production. Pendant les années 50, la
technologie des semi-conducteurs fait d’importants progrès et une nouvelle
industrie se crée :
Le processus de diffusion
consiste à diffuser des impuretés (« dopants ») directement sur la
surface du semi-conducteur, ce qui a permis d’éliminer le processus
fastidieux d'ajout de diverses couches de matériaux isolants et conducteurs sur
le substrat. Des techniques photographiques ont permis de projeter le
dessin de masques compliqués sur le semi-conducteur de sorte que la diffusion
ne se produise que sur les surfaces souhaitées.
Ces deux techniques permirent
de passer de la production manuelle à la production industrielle de série avec
une meilleure qualité. Elle permirent également l’invention du circuit intégré
(circuit électronique comportant plusieurs transistors sur une même pièce de
matériau semi-conducteur) en 1958 par Jack Kilby.
Jean Hoerni introduisit en 1959
une troisième innovation essentielle : il observa que les techniques de
diffusion et de photographie permettaient de se libérer des complications du
transistor conventionnel à trois dimensions en dessinant des transistors
plans (« planars »). Il devenait alors possible de faire les
connections électriques non plus à la main, mais en déposant un film par
condensation de vapeur métallique sur les parties appropriées du
semi-conducteur.
Fairchild Semiconductor
produisit le premier transistor plan en 1959, puis
le premier circuit intégré utilisant cette technique en 1961. Moore a
fait de l’invention du transistor plan en 1959 le point de départ de la
« loi de Moore ».
Les progrès des processus de
production et des techniques se sont ensuite poursuivis. Les méthodes
photographiques sont devenues de plus en plus précises, grâce notamment à
l’emprunt de techniques de photolithographie initialement conçues pour
l’imprimerie.
Les premiers circuits intégrés
étaient des mémoires. Le microprocesseur, qui est avec l’ampoule électrique
et le téléphone l’une des grandes inventions de la technique américaine,
est créé en 1971 par Intel.
Origines
et évolution du microprocesseur
Intel
a été créée en 1968 à
Santa Clara, dans la Silicon Valley de Californie, par Robert Noyce, Gordon
Moore et Andy Grove. Ces trois ingénieurs de Fairchild Semiconductor venaient
de quitter cette entreprise en raison d’un désaccord avec sa stratégie.
Sur la base d’un business plan d’une page tapé à la machine par Robert
Noyce, (ci-dessous), Art Rock, « venture capitalist » de San
Francisco qui avait financé le démarrage de Fairchild et connaissait les
qualités professionnelles des trois ingénieurs, avança les 2,5 millions de
dollars nécessaires.
Le
business Plan d’Intel, 1968
The
company will engage in research, development, and manufacture
and
sales of integrated electronic structures in order to fulfill the needs of
electronic
systems manufacturers. This will
include thin films, thick
films,
semiconductors devices, and other solid states components used in
hybrid
and monolithic integrated structures.
A variety of processes wil be
established, both at a laboratory
and
production level. These include
crystal growth, slicing, lapping,
polishing,
solid state diffusion, photolithographic masking and etching,
vacuum
evaporation, film deposition, assembly, packaging, and testing,
as
well as the development and manufacture of special processing and
testing
equipment required to carry out these processes.
Products may include diodes,
transistors, field effect devices,
photo
sensitive devices, photo emitting devices, integrated circuits,
and
subsystems commonly referred to by the phrase
“large
scale integration.”
Principle
customers for these products are expected to be the manufac-
turers
of advanced electronic systems for communications, radar, control
and
data processing. It is
anticipated that many of these customers
will
be located outside California.
Intel
a initialement produit des mémoires. Busicom, fabricant japonais de machines
à calculer, lui demande en 1969 de mettre au point douze circuits intégrés
pour assurer les fonctions de ses machines. Un ingénieur d’Intel, Ted Hoff,
propose de concevoir un circuit intégré programmable unique pour réaliser
l’ensemble de ces fonctions. Noyce et Grove approuvent cette solution, ainsi
que Busicom. Le travail fut réalisé en neuf mois sous la direction de
Federico Faggin. Le 4004 est né en 1971. C’est le premier microprocesseur.
Il
comprend 2300 transistors, tourne à 108 kHz et il a autant de puissance de
calcul que l’ENIAC. Il utilise un « chemin de données à 4 bits »
(4 chiffres binaires sont traités en parallèle), ce qui le rend utilisable
pour des automatismes ou des calculettes mais non pour construire un
ordinateur.
Intel
rachète pour 60 000 $ les droits de Busicom sur le 4004 (peu après, Busicom
fit faillite). Il faut trouver d’autres clients. Intel se lance dans une
communication active pour convaincre la profession d’écrire des logiciels
pour le 4004 et de l’utiliser pour des automatismes comme le contrôle des
feux de circulation.
En
avril 1972 Intel produit le 8008. C’est un processeur à 8 bits, ce qui
permet à quelques pionniers de construire un ordinateur autour du
microprocesseur. En 1973 sort
le Micral de R2E ; Byte le baptise en juin 1973 du terme « microcomputer »:
le micro-ordinateur était né, mais il ne rencontrera le succès commercial
qu’avec l’Altair (1974) et surtout l’Apple II (1977).
En
1974, Motorola, entreprise d’électronique créée en 1928 à Chicago et qui
s’est spécialisée dans les circuits intégrés, produit son premier
microprocesseur, le MC6800 à 8 bits. Il comporte 4 000 transistors. Apple
adoptera le processeur 16 bit
68000 de Motorola, sorti en 1979, pour le Lisa (1983), puis pour le Macintosh
(1984).
Intel et Motorola
produisent des microprocesseurs, mais ils ne sont pas les seuls :
on peut aussi citer AMD (Advanced Micro Devices, Sunnyvale, Californie) qui
produit des clones de microprocesseurs Intel depuis 1991 ainsi qu’IBM qui
produit des PowerPC. Certaines
entreprises dites « fabless »
(sans fabrication) conçoivent des microprocesseurs qu'elles font ensuite
fabriquer sur plan par un « fondeur »
: c'est le cas de Sun qui fait fabriquer le SPARC par Texas Instruments, de
Silicon Graphics avec le MIPS etc. (pour plus de détail, voir « Le
marché des microprocesseurs »).
Le
Pentium IV de 2000 possède 42 millions de transistors et tourne à 1,5 GHz. Il
permet de produire des films, diffuser de la télévision sur l’Internet,
communiquer par la voix et l’image, afficher des graphiques 3D en temps réel,
coder de la musique au format MP3, et de faire tourner simultanément
plusieurs applications multimédia tout en étant connecté à l’Internet.
La loi de Moore
En 1965, Gordon E. Moore était
directeur de la recherche et du développement à Fairchild Semiconductor. Préparant
un exposé sur l’évolution des performances des mémoires, il constata que la
capacité des « puces » avait doublé à peu près chaque année de 1959
à 1965. Il en déduisit une hypothèse : la puissance des ordinateurs croîtrait
de façon exponentielle (et très rapide). Elle était hardie, puisqu'il ne
disposait pour l’étayer que de cinq observations. C’est cette hypothèse
que l’on appelle « loi de Moore ».
Moore publia cette découverte
dans un article : « Cramming
more components into integrated circuits », Electronics, 19
avril 1965. Cet article devenu célèbre a encouragé les chercheurs à
anticiper sur la croissance des performances et à concevoir des systèmes
utilisant une puissance très supérieure à celle disponible lors de leurs
recherches.
Il a ainsi suscité une forte accélération de l’innovation.
Voici
la phrase essentielle de cet article : « The
complexity for minimum components costs has increased at a rate of roughly a
factor of two per year. Certainly over the short term this rate can be expected
to continue, if not to increase. Over the long term, the rate of increase is a
bit more uncertain, although there is no reason to believe it will not remain
nearly constant for at least 10 years. That means by 1975, the number of
components per integrated circuit for minimal cost will be 65,000. »
Le raisonnement de Moore
comporte deux étapes. Il examine d’abord l'évolution de la fonction de coût
des circuits intégrés, plus précisément la relation entre coût moyen de
production par composant et complexité du circuit. Cette fonction est d'abord décroissante,
puis croissante : il existe donc un niveau de complexité pour lequel le coût
moyen d'un composant intégré sur le circuit est minimal. C'est ce niveau que
des producteurs rationnels choisiront car il procure le meilleur rapport
efficacité/coût. Ensuite, Moore constate que ce niveau optimal de complexité
est multiplié chaque année par deux.
Moore ne dit pas que le coût
de production des circuits intégrés restera stable dans le temps
malgré l’augmentation de sa complexité. Rien, dans la loi de Moore,
ne le garantit.
Le coût de production des
circuits intégrés dépend peu de la quantité produite : c’est une
production à coût fixe.
Le coût de mise en production croît avec le niveau de complexité (la conception
de l'Itanium d'Intel a coûté 2 milliards de dollars, et pour le mettre en
production il faut encore construire une usine très coûteuse). Le coût moyen de production résulte de
la division de ce coût fixe par le nombre d’unités vendues ; le prix
est égal au coût moyen augmenté d’une marge que le fournisseur peut
s’attribuer puisqu’il est en situation de monopole (ou de duopole si l’on
suppose que le consommateur peut choisir entre Intel et Motorola).
La stratégie des fabricants de
microprocesseurs est alors subtile : ils doivent dégager assez de profit
pour financer la recherche et la croissance, mais aussi pratiquer des prix assez
bas pour que le débouché de leurs produits puisse croître. Or le marché des
ordinateurs est capricieux : formé de l’addition d’un marché de
premier équipement et d’un marché de renouvellement, il est sensible à la
mode dans sa première composante et à la conjoncture dans la deuxième.
Il faut cadencer l’innovation pour le relancer périodiquement. On peut vendre
cher les premiers microprocesseurs d’une nouvelle série, puisqu’ils
procurent un gain de compétitivité (physique ou médiatique, peu importe ici)
aux ordinateurs qui les utilisent ; puis il faut baisser leur prix pour élargir
leur pénétration. L’évolution du prix des microprocesseurs résulte de
l’ensemble de ces phénomènes ; si sa modélisation comporte la loi de
Moore, elle ne s’y résume pas.
Étapes
de la production d’un microprocesseur
La
production des cristaux de silicium, matière première de base, suit un
processus chimique dont le coût de revient est minime.
A
partir d'un germe de cristal, la silice hautement purifiée croît en un long
cylindre à l'intérieur d'un creuset à haute température. Puis ce cylindre
est découpé en tranches fines par une scie au diamant.
Les
tranches de silicium sont ensuite soumises à des manipulations de type
photographique qui gravent les couches incorporant la logique et la physique
du circuit intégré. Le coût de production des circuits intégré est donc
essentiellement composé (a) du coût de conception des « masques » qui
permettent le dessin des circuits, (b) du coût des équipements automatiques
et hautement protégés (notamment contre les poussières) qui assurent la
production. Il ne dépend pratiquement pas du nombre de circuits intégrés
produits (production « à coût fixe »).
1)
Chaque tranche est nettoyée à l'acide, puis placée dans un four à haute
température où sa surface est oxydée.
2)
La tranche est recouverte d'un produit photosensible, et le dessin du premier
niveau du circuit est projeté à travers un masque par un faisceau de rayons
ultraviolets. Puis les surfaces impressionnées par ce faisceau sont enlevées
par de l'acide. Le processus est répété pour chaque niveau du circuit. La
tranche est traitée avec des impuretés chimiques positives ou négatives qui
créent les zones conductrices. Finalement, elle est revêtue d'un enduit qui
protège sa surface et empêche les fuites de charges électriques.
3)
Les puces comportant des fautes sont repérées sur la tranche par inspection
visuelle et test informatique. Puis les puces sont découpées, collées sur
un support, de minuscules fils sont soudés pour connecter le support aux
points de contact de la puce, un couvercle est placé sur la puce et scellé
pour la protéger.
4)
Le microprocesseur est mis pendant plusieurs jours dans un four à basse température
pour simuler son utilisation à long terme. Il est ensuite testé et les
microprocesseurs à basse performance sont éliminés.
En 1975, Moore réévalua le
rythme de croissance : désormais elle procédait par doublement tous
les 18 mois et non tous les ans. Néanmoins elle restait exponentielle. Elle
s’écrit donc, en notant ct le nombre de composants sur une puce
l’année t :
ct = c1975 2
( t - 1975 ) / 1,5
L’accroissement de la densité
des composants permet d’augmenter les performances : lorsque la distance
entre transistors se réduit la vitesse de traitement s’accroît et on peut
introduire sur la puce des fonctions auparavant remplies par d’autres équipements
comme la carte graphique, le modem ou le contrôle de la mémoire.
Illustration
de la loi de Moore
En 1995, Moore vérifia que la
progression prévue avait bien été respectée. Cependant lors du forum des développeurs
d’Intel de septembre 1997 il a déclaré que l’accroissement de la densité
des microprocesseurs pourrait atteindre en 2017 une limite physique : celle
de la taille des atomes.
L’évolution des performances
que décrit la loi de Moore résulte de la mise en exploitation progressive
d’un phénomène naturel : il s'agit d’utiliser les possibilités que recèle
le silicium. Lorsque la croissance s'arrêtera vers 2017 nous disposerons de
processeurs et de mémoires 215/1,5 = 1024 fois plus puissants
qu’en 2002. L'informatique sera donc qualitativement différente de celle que
nous connaissons aujourd’hui. Aurons-nous alors répondu à toutes les
questions que pose l’utilisation de cette ressource ? C’est peu probable.
Ces questions relevant de l’organisation des entreprises et de la vie en société,
elles concernent tout le monde et ne pourront donc pas se régler aussi vite que
ne le font les questions techniques traitées par des ingénieurs « pointus ».
L'utilisation de la « ressource
naturelle» que constitue le silicium, matière peu coûteuse mais riche en
potentialités, nous occupera pendant le XXIème siècle et sans doute encore
par la suite.
|