Marché du logiciel : dynamique des équilibres
19 décembre 2003
Pour comprendre la succession
des équilibres sur le marché des logiciels, il faut remonter jusqu’aux années
60 puis situer les dates du passage d’un équilibre à l’autre (le repérage
de telles dates charnières est toujours délicat : nous identifierons les événements
caractéristiques sans attacher trop d’importance à la datation précise de
la charnière).
Dans les années 60, la
pratique du logiciel libre est répandue sans être théorisée. Elle est mise
en œuvre par des « hackers » :
ce terme ne désignait pas comme aujourd’hui des briseurs de codes, des
fabricants de virus, des fraudeurs, mais les pionniers de l'informatique
personnelle (voir "Histoire du Micro-ordinateur").
On peut dater de 1969 l’émergence
d’un marché du logiciel. Jusqu’à cette date, IBM vendait conjointement le
matériel et le logiciel (systèmes d’exploitation, langages de programmation,
applications) qui permettait de faire fonctionner le matériel. En 1969, pour éviter
que les concurrents ne bénéficient gratuitement des logiciels qu’il avait
produits - et aussi pour se prémunir contre des procès pour cause de monopole
- IBM a mis en place une politique d’« unbundling » (tarification
séparée du matériel et du logiciel).
A partir de la publication de
la lettre ouverte de Bill Gates en 1976 ,
le commerce du logiciel pour PC compilé et vendu comme une boîte noire se met
en place.
On peut dater de 1991 – date
de la première version de Linux, mais aussi date de naissance du World Wide Web
– la résurgence du modèle du logiciel ouvert (voir Open
Source Initiative, « Open
Source Definition » , 1999). Il se développera en s’appuyant sur
l’Internet et en tirant argument de divers défauts que comporte l'économie
du logiciel compilé.
Cependant entre 1976 et 1991, le logiciel
ouvert n’avait pas disparu ; il a constitué un thème de militantisme pour
des personnes comme Robert Stallmann (voir Richard
Stallman, « The GNU Operating System and the Free Software Movement »
in DiBona, Chris, Ockman, Sam, and Stone, Mark (eds.), Open Sources:Voices
from the Open Source Revolution, O’Reilly,
1999 ) ou Eric Raymond ; cependant, s’il avait un
rayonnement intellectuel certain, sa viabilité économique paraissait douteuse.
Il n’en est plus de même maintenant : le modèle du logiciel ouvert a
gagné en crédibilité durant les années 90, il a conquis des parts de marché
et son avenir est garanti. Il reste à situer la ligne selon laquelle le marché
se partagera entre les deux modèles.
L’ « Unbundling » d’IBM
Le « consent decree »
de 1956 entre IBM et le département de la justice oblige IBM à offrir à la
vente les matériels qu’auparavant il louait exclusivement, à facturer séparément
les pièces détachées et la maintenance, et à publier l’information sur la
maintenance de ses machines pour qu'elle puisse être exécutée par d'autres
entreprises.
Des entreprises de leasing se
créent alors : elles achètent des machines IBM et les vendent en leasing à un
prix inférieur au loyer que pratique IBM. Pour les contrer IBM accéléra le
rythme d’introduction des nouvelles machines. Par ailleurs la publication des
informations sur la maintenance avait rendu visibles les interfaces entre
machines IBM. RCA, Amdahl et Fujitsu
ont alors pu offrir des ordinateurs compatibles avec les machines d'IBM et de
nombreuses entreprises ont offert des périphériques compatibles (écrans,
lecteurs de disques, lecteurs de bandes et imprimantes).
IBM offrait par ailleurs à ses
clients ses programmes et services d’ingénierie sans les facturer séparément :
leur coût était inclus dans le prix du matériel, l’ensemble constituant un
« paquet » (en anglais « bundle »). Cette formule
simplifiait la vie des clients, mais les acheteurs de matériels compatibles
disposaient ainsi gratuitement de ces services dont les concurrents d’IBM
n’avaient pas supporté le coût.
Dès 1964, le Spectra 70 de RCA
a été perçu comme une menace pour l’IBM 360 ; mais « les ingénieurs
de RCA n’ont pas vu l’importance de la compatibilité et n’ont pas su résister
à la tentation d’introduire des « améliorations » par rapport au
S/360. Il en résulta que les machines de RCA ne pouvaient pas utiliser sans
modification les programmes en S/360. Cette conversion étant difficile, peu de
clients achetèrent les systèmes de RCA (voir Watts
S. Humphrey , “Software Unbundling : A Personal Perspective”, IEEE Annals
of the History of Computing, janvier-mars 2002, p. 59.)
Il semblait impossible de protéger
les logiciels par des brevets ; les experts d’IBM conçurent donc en 1966
un système associant copyright et licence d’utilisation. En janvier 1969, le
département de la justice engagea des poursuites contre IBM en application de
la loi antitrust. L’« unbundling » a été annoncé par IBM en juin
1969 : moyennant une réduction de 3 % du prix du matériel, les logiciels
seraient vendus désormais à part. Par la suite, lorsque diverses entreprises
attaquèrent IBM en justice en s'appuyant sur les dispositions antitrust, IBM
gagna tous les procès en tirant argument de l’unbundling.
L’unbundling a transformé le
commerce du logiciel et de l’ingénierie. IBM Global Services est devenue la
partie la plus importante et la plus profitable d’IBM. L’interface de
programmation (API) s’est stabilisée pour répondre aux besoins de
compatibilité des utilisateurs, et cette stabilité a favorisé la
diversification de l’offre de logiciels.
Naissance du marché du
logiciel compilé
Le marché du du logiciel
compilé pour PC, utilisable mais illisible pour l’utilisateur, démarre avec
la « Open Letter to Hobbyists » publiée par Bill Gates le 3 février
1976 (voir "Histoire du Micro-ordinateur").
Gates y accusait de vol les « hobbyistes » qui avaient copié son
interpréteur BASIC ; il disait que le développement, étant un travail, devait
avoir un propriétaire, être payé et protégé contre le vol.
Bill Gates avait alors 20 ans.
Ce jeune homme avait un fort potentiel, comme on l'a vu par la suite : d'une
part sa compétence en informatique faisait de lui un bon hacker ; d'autre part
- et contrairement à la majorité des autres hackers - son milieu social
l’avait initié aux affaires. Son père était un des plus grands avocats
d'affaires de Seattle ; sa mère siégeait au conseil d'administration de
plusieurs grandes entreprises et universités. Il était ainsi mieux préparé
que d’autres à percevoir le potentiel marketing de la vente du logiciel
compilé, et peut-être aussi la nécessité d’une telle organisation du marché
pour fournir la diversité des logiciels dont les PC allaient avoir besoin.
Les hackers sont restés désarmés
devant son attaque. Gates les avait en effet pris en tenaille entre deux cultures américaines
entre lesquelles ils ne surent comment arbitrer : celle du pionnier qui
va de l'avant dans des territoires vierges et s'y sert de l'« open source »
pour se débrouiller ; celle de la libre entreprise, qui ne peut pas se
concevoir sans un droit de propriété protégé.
Gates définit ainsi le modèle
économique qui s'imposera sur le marché des logiciels pour PC. Il a créé une
industrie du logiciel dont il est devenu le plus grand dirigeant. Le modèle
qu’il a inventé était sans doute alors le seul possible et sa fécondité
suscite l’admiration, quelle que soit l'opinion que l'on peut avoir sur la
qualité des produits de Microsoft. .
Limites du logiciel compilé
Cependant ce modèle a une
limite qui se révèle avec la complexification des logiciels. Elle est due
notamment aux exigences de la « compatibilité ascendante » :
la version Vn d’un logiciel doit être capable de lire et de traiter les fichiers
composés avec les versions Vn - k antérieures. En
passant d’une version à l’autre, le logiciel s’alourdit ainsi de
conventions anciennes dont il doit garder la trace.
La complexification est due
aussi à la cible marketing elle-même : pour que le logiciel puisse
couvrir un large marché, il doit offrir une grande diversité de fonctionnalités
et pouvoir être exécuté sur des plates-formes diverses. Chaque client
n’utilisera donc qu’une petite partie du logiciel qu’il a acheté et qui
encombre la mémoire vive de son ordinateur.
Or plus un logiciel est
compliqué, plus il est difficile à « déboguer ». Le logiciel est
une construction fragile. L’éradication des bogues est d’autant plus
difficile que l’on risque toujours, en corrigeant une erreur, d’en
introduire d'autres. C’est une tâche qu’il est impossible d’automatiser complètement
: la démonstration la plus intéressante de la théorie de l’informatique,
application du théorème de Gödel (voir "Limites
de l'informatique"), est qu’il est impossible de réaliser un
programme capable de vérifier entièrement les programmes.
On ne peut physiquement plus désormais,
même avec 30 000 programmeurs groupés sur un campus (plus quelques
sous-traitants qui coopèrent à travers l’Internet), faire converger le
processus de « déboguage » d’un grand logiciel comme Windows. Les
versions successives sont commercialisées avec leurs bogues et les utilisateurs
subissent des incidents désagréables.
Organisation
de la création d’un logiciel complexe
Pour réaliser une construction
intellectuelle complexe comme un système d’exploitation ou un grand logiciel
applicatif, il faut dans tous les cas que les quatre éléments suivants soient
réunis :
- un centre capable d’attirer les contributeurs et de sélectionner les
contributions à retenir ;
- des contributeurs qui réalisent le travail de développement ;
- un réseau de communication ;
- un moyen de rémunérer les contributeurs.
Le
modèle « Microsoft » a permis de rassembler la masse critique de
contributeurs nécessaire à la production des logiciels pour PC. Le centre,
c’est Bill Gates lui-même, assisté par une équipe de proches collaborateurs ;
le réseau, c’est le RLPC sur le campus de Redmond et l’Internet entre
Microsoft et ses sous-traitants ; les contributeurs sont les programmeurs
de Microsoft et les entreprises sous contrat ; la rémunération est
financière.
Dans
le modèle « Linux », le centre est Linus Torvalds assisté par une
équipe de proches collaborateurs ; le réseau est l’Internet, les
contributeurs sont potentiellement tous les développeurs du monde entier ;
la rémunération est symbolique (ce qui ne veut pas dire qu’elle soit irréelle),
ce qui implique que le centre soit un « dictateur bienveillant »
(voir Jean
Tirole et Josh Lerner « The
simple economics of Open Source », Journal of Industrial Economics,
July 24, 2001).
Le modèle
« Linux »
La culture finlandaise de Linus
Torvalds
le libère des dogmes de la libre entreprise à l'américaine. Il tire parti de
l'Internet pour utiliser le mode de développement « open source » :
le code source de Linux est disponible sur l’Internet, ainsi d’ailleurs que
ceux de Java, Perl etc.
Quiconque repère un bogue peut
alors, s’il en a la compétence, proposer une correction qui sera soumise au
« dictateur bienveillant ». L'Internet élargit à des millions de
programmeurs le cercle des contributeurs potentiels ; il permet d'accélérer
la convergence du déboguage et de poursuivre sans fin le processus de
perfectionnement. Il permet aussi à l’utilisateur de choisir « à la
carte » les fonctionnalités dont il a besoin, ce qui réduit fortement la
taille des logiciels.
Se crée alors, en contraste
avec l'économie marchande du logiciel compilé, une économie indirecte
de la reconnaissance professionnelle autour du logiciel libre
: « indirecte » parce que, si les développeurs contribuent
gratuitement à Linux, ils sont respectés dans leurs entreprises et prennent
de la valeur sur le marché. L’économie de la reconnaissance est une économie
symbolique, mais non une économie de la gratuité : le symbole est rémunérateur
à la fois psychologiquement et financièrement .
D’ailleurs logiciel libre ne signifie pas « logiciel gratuit »,
mais « logiciel dont le code source est lisible ». Une économie
marchande s’est bâtie sur le logiciel libre qui se vend toutefois à des prix
inférieurs à ceux du logiciel compilé.
Le
« dictateur
bienveillant »
Un
gros logiciel ne pouvant aboutir que si sa production est animée par un
« dictateur bienveillant », le talent nécessaire pour jouer ce rôle
est crucial. L’expression « dictateur bienveillant » est bien sûr
paradoxale. Il faut la comprendre ainsi : beaucoup de personnes sont
autorisées à suggérer des modifications du code, mais seule une toute petite
équipe est autorisée à introduire effectivement les modifications :
c’est cela le côté « dictateur » ; cependant par ailleurs il
importe que cette petite équipe manifeste de la considération aux personnes
qui font des suggestions, même et surtout lorsque la suggestion n’est pas
retenue : c'est cela le côté
« bienveillant ». Si
le « dictateur » était désagréable ou méprisant, il ne recevrait plus de
suggestions et le processus d’amélioration serait stoppé.
Le retour de la logique
« logiciel libre (pas cher) » met en péril la logique « programme compilé
(cher) en boîte ». L’issue de la lutte est prévisible : la qualité
est du côté du logiciel libre qui seul permet de faire converger le déboguage
ou du moins accélère sa convergence. On peut compter sur le talent stratégique de
Bill Gates : il saura adopter souplement le système de l'adversaire, même
si pour le moment Microsoft résiste bec et ongles en tentant de convaincre les
acheteurs et les administrations que le logiciel libre est dangereux.. Linus Torvalds le dit avec philosophie : « J'aurai
gagné quand Microsoft
se mettra au logiciel libre ».
Limites du logiciel libre
Le logiciel libre a lui aussi
ses limites : il arrive qu’il se diversifie en variantes et qu’il soit
déficient du point de vue de la documentation, des interfaces utilisateurs ou
de la compatibilité ascendante. Certains disent que le logiciel libre est
destiné à des experts, alors que Microsoft a eu l’intelligence de faire des
produits destinés à l’utilisateur non expert :
en effet les administrateurs des serveurs Apache ou Sendmail sont plus experts
que l’utilisateur moyen d’un PC.
Les statistiques montrent
que les contributeurs vraiment actifs sont peu nombreux et que la plupart des
contributions sont très simples (ce qui ne veut pas dire qu’elles ne soient
pas précieuses : l’alarme qui indique une bogue est toujours bienvenue).
Pour Apache, 83 à 91 % des modifications proviendraient de 15 programmeurs
(Audris
Mockus, Roy Fielding and James Herbsleb, « A
Case Study of Open Source Software Program Movement: The Apache Server »,
2000).
Le logiciel libre et les pirates
Certains disent que nous allons
vers un « Pearl Harbor électronique » . Pourquoi ? parce que les
pirates (terme qu’il faut préférer à « hackers » pour ne pas les
confondre avec les pionniers des années 60 et 70) progressent
alors que la recherche sur la sécurité piétine.
Les pirates progressent parce
qu'ils utilisent les méthodes du logiciel libre : ils diffusent le code
source de leurs programmes et en partagent les améliorations. La virulence de
leurs produits augmente, leur compétence progresse, le nombre et l'ingéniosité
des attaques croissent exponentiellement. Leur activité devient rentable : les
pirates peuvent racketter des entreprises vulnérables à qui ils vendent leur
« protection », utilisant ainsi les recettes éprouvées de la mafia.
Pour faire face aux pirates, on
compte seulement 200 chercheurs compétents en sécurité dans les universités
et entreprises américaines. Dès qu'un chercheur devient compétent, il est
embauché par une entreprise qui veut utiliser son savoir pour se protéger : il
en résulte une pénurie de professeurs qui explique le faible nombre de diplômés
experts en sécurité. D'une façon paradoxale, la vigueur de la demande assèche
ici la formation des compétences.
Ainsi la lutte est inégale :
d'un côté les pirates tirent parti des méthodes de production du logiciel
libre, construisent leur rentabilité et se multiplient ; de l'autre, la
recherche est entravée par le copyright, vidée de ses compétences par l'appel
du marché, et elle ne suit pas une politique d'ensemble. Une simple
extrapolation de cette tendance désigne le futur vainqueur, ce qui est
très inquiétant.
On observe toutefois chez les
pirates une certaine retenue : ils pourraient déjà bloquer tout l'Internet mais ils n'en font rien. Pourquoi ? parce que la plupart d'entre eux sont des
joueurs, que leur petit jeu les amuse beaucoup, et qu'ils ne pourraient plus
s'amuser s'ils bloquaient leur terrain de jeu. Mais il suffirait qu'il se
trouve parmi eux un pervers, quelqu'un qui prenne plus de plaisir à nuire qu'à
jouer (ou qui ait, pour des raisons quelconques, un fort intérêt à nuire)
pour que le danger devienne réalité.
Tentation de l’« enclosure »
Certaines des innovations
permises par l’Internet (moteurs de recherche gratuits, échanges de fichiers
audio et bientôt vidéo, création coopérative de bases de données) ont
compromis l’équilibre économique des détenteurs de droits et des
diffuseurs de contenus. Il en résulte un développement des techniques visant à instaurer
un contrôle : « policy based routing » de Cisco ;
« réseaux intelligents » des opérateurs télécoms. La vente des
copies de logiciels peut être remplacée par un transfert temporaire du droit
d’utilisation d’après le projet d’UCITA (Uniform Computer Information
Transaction Act ).
Les logiciels peuvent être protégés par des brevets depuis 1980 : en
1999, les brevets sur les logiciels ont représenté 14 % du nombre des brevets
aux Etats-Unis. Le DMCA (Digital Millenium Copyright Act) de 1998
renforce la protection des données informatiques : toute tentative de décryptage
est interdite. La durée du copyright augmente, passant de 14 ans à 70 ans après
la mort de l’auteur.
Michel Gensollen
propose de redéfinir droits de propriété sur les biens informationnels de
telle sorte que leur coût de production puisse être équilibré par des
recettes tout en protégeant la facilité d’utilisation : il faudrait
ainsi distinguer le droit d’accès, l’usufruit, le droit d’administration,
le droit d’exclusion (déterminer qui a accès au bien), le droit d’aliénation.
La rémunération devrait reposer sur des redevances plutôt que sur des droits
de propriété. De nouveaux acteurs devraient émerger pour assurer
l’animation des clubs de producteurs et le partage des droits.
|