La loi de Moore
26 mars 2001
La "loi de Moore" a
joué un rôle important dans l'histoire de l'informatique. Formulée pour la
première fois par Gordon E. Moore dans un article de
1965, elle postule le doublement annuel des performances des circuits intégrés (mémoires et
processeurs). Cette annonce a incité les ingénieurs à concevoir des systèmes très en avance sur les possibilités
du jour de leur conception. Elle a ainsi contribué à accélérer le rythme de
l'innovation.
Moore a revu son estimation en
1975 : le doublement aurait lieu tous les 18 mois et non tous les ans, ce qui
correspond tout de même à une croissance très rapide. Cette "loi",
fondée sur un constat empirique, a été vérifiée par la
suite. Moore estime qu'elle se poursuivra jusqu'en 2017, date à laquelle elle
devrait rencontrer des contraintes physiques.
__________
En 1947, trois chercheurs des
Bell Labs d’AT&T (John Bardeen, Walter Brattain et Robert Shockley)
découvrent le " transistor " (" transfer
resistor "). Leur invention s’appuie sur le fait qu’il est
possible de contrôler sélectivement le flux d’électricité dans le silicium
en faisant en sorte que certaines zones soient conductrices et d’autres
isolantes (d’où le terme " semi-conducteur "). Comparé
au tube à vide, technologie auparavant dominante, le transistor se révéla
plus fiable, moins consommateur d’énergie et susceptible de miniaturisation.
C’est ce dernier point qui fonde la " loi de Moore ".
Les premiers transistors étaient
faits à la main dans des conditions rustiques si on les compare aux
" salles blanches " actuelles. Les rendements étaient bas
(de 20 à 30 %) et les performances étaient très variables.
Les progrès techniques ont donc concerné surtout la maîtrise du processus de
production. Pendant les années 50, la technologie des semi-conducteurs fait d’importants
progrès, et une nouvelle industrie se crée :
-
Le processus de diffusion consiste à diffuser
des impuretés (" dopants ") directement sur la surface
du semi-conducteur, ce qui a permis d’éliminer le processus fastidieux
d'ajout de diverses couches de matériaux isolants et conducteurs sur
le substrat.
-
Des techniques photographiques
ont permis de projeter le dessin de masques compliqués sur le
semi-conducteur de sorte que la diffusion ne se produise que sur les
surfaces souhaitées.
Ces deux techniques permirent de
passer de la production manuelle à la production industrielle de série avec
une bien meilleure qualité. Elle permirent également l’invention du circuit intégré
en 1958 par Jack Kilby.
Jean Hoerni leur ajouta en 1959
une troisième innovation essentielle : il observa que les techniques de
diffusion et de photographie permettaient de se libérer des complications du
transistor conventionnel à trois dimensions en dessinant des transistors
plans (" planars "). Il devenait possible de faire les
connections électriques non plus à la main, mais en déposant un film par
condensation de vapeur métallique sur les parties appropriées du semi-conducteur.
Fairchild produisit le premier
transistor plan en 1959, et le premier circuit intégré utilisant cette
technique en 1961. Moore a fait de l’invention du transistor plan en 1959 le point de départ de sa " loi de Moore ".
Les progrès des processus de
production et des techniques se sont ensuite poursuivis. Les méthodes
photographiques sont devenues de plus en plus précises, notamment par l’emprunt
de techniques de photolithographie initialement conçues pour l’imprimerie.
L’article de Moore en 1965
En 1965, Gordon E. Moore était
directeur de la recherche et du développement à Fairchild Semiconductor (il
est maintenant président d’Intel).
Préparant un graphique pour un
exposé sur l’évolution des performances des mémoires, il constata une
tendance frappante : la capacité des " puces " avait
doublé à peu près chaque année de 1959 à 1965. Il en déduisit une
hypothèse : la puissance des ordinateurs croîtrait de façon
exponentielle (et très rapide). Elle était hardie, puisqu'il ne
disposait pour l’étayer que de cinq observations.
Moore publia cette découverte
dans un article devenu célèbre de la revue " Electronics "
: Gordon
E. Moore, " Cramming more components into integrated
circuits ", Electronics, 19 avril 1965. Cet article a
encouragé les chercheurs à anticiper sur la croissance des performances et à
concevoir des systèmes utilisant une puissance très supérieure à celle
disponible lors de leurs recherches. Il a ainsi suscité une forte
accélération de l’innovation.
Voici la phrase essentielle de
cet article : " La complexité permettant de minimiser le coût
des composants a été multipliée chaque année à peu près par un facteur
deux. On peut prévoir qu’à court terme ce taux de croissance se maintiendra,
ou même que la croissance sera plus rapide encore. A long terme, le taux de
croissance est un peu plus incertain, mais il n’y a aucune raison de croire qu’il
ne se maintiendra pas pendant au moins dix ans. Cela signifie qu’en 1975 le
nombre de composants par circuit intégré permettant de minimiser le coût sera
de 65 000. " (" The complexity for minimum components costs
has increased at a rate of roughly a factor of two per year. Certainly over the
short term this rate can be expected to continue, if not to increase. Over the
long term, the rate of increase is a bit more uncertain, although there is no
reason to believe it will not remain nearly constant for at least 10 years. That
means by 1975, the number of components per integrated circuit for minimal cost
will be 65,000. ")
Le raisonnement de Moore est subtil. Il examine l'évolution de la fonction de coût des circuits
intégrés, et considère la relation entre coût moyen de production par
composant et complexité du circuit. Cette fonction est d'abord
décroissante, puis croissante : il existe donc un niveau de complexité pour
lequel le coût moyen d'un composant intégré sur le circuit est minimal.
C'est ce niveau que des producteurs rationnels choisiront, car
c'est celui qui permet le meilleur rapport efficacité/coût. Ensuite, Moore
constate que ce niveau optimal de complexité est multiplié chaque année par deux.
Moore ne dit pas que le prix
de vente des circuits intégrés restera stable dans le temps. Il ne traite pas ce problème, qui est différent, puisque s'agissant d'une production à coût fixe
le prix auquel on peut vendre un composant résulte de la division du coût fixe
par le nombre de composants vendus, qui n'est pas un argument de la fonction de
coût.
En 1975, Moore réévalua le
rythme de croissance : désormais, disait-il, elle procèderait
par doublement tous les 18 mois et non tous les ans ; néanmoins elle
restait exponentielle. Elle se transcrit, en notant ct le nombre de composants sur une puce l’année t :
ct = c1975 2
( t
- 1975 ) / 1,5
L’accroissement de la densité
des composants permet d’augmenter les performances parce que la
vitesse de traitement s’accroît lorsque la distance entre transistors se
réduit, et aussi parce que cela permet d’introduire davantage de
fonctionnalités sur la puce : on peut y introduire des fonctions
auparavant remplies par d’autres équipements comme la carte graphique, le
modem ou le contrôle de la mémoire.
Illustration de la loi de Moore
(source : http://www.intel.com/research/silicon/mooreslaw.htm )
En 1995, Moore vérifia que la
progression prévue avait bien été respectée. Cependant, lors du forum des
développeurs d’Intel en septembre 1997, il a déclaré que l’accroissement
de la densité des microprocesseur pourrait atteindre en 2017 une limite
physique : celle de la taille des atomes. On pourra trouver sa déclaration
à l'URL
suivant : http://news.cnet.com/news/0-1003-200-322592.html?tag=
.
On peut assimiler cette croissance
des performances à un phénomène naturel : il s'agit de mettre en
exploitation, de façon progressive, les possibilités que recèle le silicium.
Lorsqu'elle s'arrêtera en 2017, nous devrions disposer de processeurs et de mémoires 216/1,5
~ 1500 fois plus puissants qu'aujourd'hui. L'informatique et les systèmes
d'information seront donc qualitativement différents.
Aurons-nous répondu aux questions que pose la bonne utilisation de ces
ressources ? Sans doute que non car comme elles relèvent de
l'organisation elles concernent tout le monde et ne peuvent se régler aussi vite que
les questions techniques que traitent des ingénieurs "pointus".
L'utilisation de la
"ressource naturelle" apportée par le silicium, matière peu
coûteuse, nous occupera pendant le XXIème siècle et sans doute encore après.
Observons que les pierres taillées de nos lointains ancêtres étaient, elles
aussi, en silicium (le "silex" ; cf. Bertrand
Gille). Les propriétés électroniques
exceptionnelles du silicium permettaient de tailler des pierres aux arêtes
fines et précises ; elles permettent aujourd'hui de produire les circuits
intégrés.
Dans la diversité des minéraux,
végétaux et espèces animales, d'autres ressources attendent notre attention.
Elles révèleront leurs potentialités à ceux qui ont l'esprit assez
disponible pour regarder la nature avec curiosité et respect. Lisez le "Zhong
Yong" !
|