Économie du système d’information
(Exposé introductif au
séminaire du club des maîtres d’ouvrages
des systèmes d’information, 10 et 11 mai 2001)
Introduction
L’économie des systèmes d’information
est mal connue : diverses raisons concourent à obscurcir la connaissance
de leurs coûts, et la fonction de production du système d’information n’a
pas fait à ma connaissance l’objet d’une formalisation précise. Certaines
directions générales croient pouvoir maîtriser le coût de l’informatique
en suivant des règles simples, mais ces règles, si
on les applique
à l’aveuglette, peuvent avoir des effets pervers.
Si les coûts sont mal connus,
les apports du système d’information le sont plus encore. Aucune entreprise ne peut se passer aujourd’hui d’un système d’information, fût-il
sommaire ; mais les décisions le concernant sont rarement rationnelles
parce que l’on ne sait pas évaluer ce qu’il apporte.
C’est cette ignorance qui est
à l’origine du fameux paradoxe de Solow “You can see the computer age
everywhere but in the productivity statistics.” (Robert Solow, New York Review
of Books, 12 juillet 1987) " on voit des ordinateurs
partout, sauf dans les statistiques de productivité", ainsi que de certaines des
analyses de Strassmann.
I - Des coûts mal connus
Les entreprises connaissent les coûts immédiatement imputables à l’informatique :
achats de matériel et de logiciel, marchés de réalisation, marchés de
maintenance. Par contre, elles mesurent moins bien (ou pas du tout)
les dépenses nécessaires à la mise en œuvre du système d’information,
mais non directement imputables à l’informatique : marchés de consultance,
travail consacré par la maîtrise d’ouvrage
aux spécifications générales et à leur validation, suivi du projet,
formation, déploiement, conduite du changement.
On définit le
"coût de possession
du SI" comme la
somme actualisée des diverses dépenses qu'implique sa mise en œuvre. L’évaluation prévisionnelle
du coût d’un projet suppose que l’on ait une première idée de la solution
informatique à retenir ; en général, cette idée est imprécise. Elle suppose
avant toute négociation avec les fournisseurs des hypothèses sur
le coût des briques logicielles
et sur le coût de leur intégration. L’évaluation
prévisionnelle sera au centre d’une fourchette d’incertitude
dont la largeur est 50 % (si l’on dit " cela
coûtera 10 MF", il y a 19 chances sur 20 pour que le coût se trouve finalement entre 5 et 20
MF). L’évaluation du délai de
réalisation souffre d’une imprécision du même ordre. L'incertitude dans
la prévision de la chronique des coûts se répercute bien sûr sur l’évaluation
de la rentabilité du projet.
Un enjeu important
D’après Jean-Louis Peaucelle
(" Informatique rentable et mesure des gains ", Hermes
1997), on observe que dans les entreprises le coût de l’informatique
représente en moyenne :
-
1,2 % du chiffre d’affaires, le ratio se
situant selon les cas entre 0,5 et 4 %
-
3,6 % de la valeur ajoutée,
-
25 % de l’investissement.
Le coût du système d’information
est toutefois supérieur au coût de l’informatique parce qu’il comprend d’autres
postes. Le coût d’investissement du
SI peut être estimé à 1,5 fois le coût d’investissement informatique, et
le coût total (qui tient compte des dépenses ultérieures d’exploitation et
de maintenance actualisées) peut être estimé à trois fois le coût d’investissement
du SI, soit 5 fois le coût d’investissement informatique.
Les ratios ci-dessus, évalués
sur l’ensemble des entreprises, recouvrent des situations très diverses. Pour
une entreprise de services, l’essentiel de l’investissement se rapporte en
fait au SI.
Pour donner un ordre de grandeur,
les dépenses informatiques en France (à entendre au sens limitatif en raison
des lacunes de la mesure) sont évaluées à 333 GF en 1996, dont 119 GF pour
les achats de logiciels et de services (source : Pierre Audoin Conseil).
Détail des achats de logiciels
et services :
II - Fonction
de production
La fonction de production du
système d’information comporte des facteurs du type
" capital " (matériel, logiciels), du type
" travail " (personnel d’exploitation), du type
" consommations intermédiaires " (réseaux télécoms,
électricité, locaux), enfin du type " expertise " qui
constitue une forme spéciale de capital (conception fonctionnelle et conception
technique). La durée de vie des logiciels dépend de l’évolution des coûts
de maintenance : la " règle de pouce " en la matière,
c’est de refaire le logiciel lorsque le coût de maintenance atteint le tiers
du coût de réfection.
Les coûts des matériels et
logiciels sont en évolution rapide ; une des plus spectaculaires est celle
du coût des PC dont le prix, à qualité constante, diminue de 35 % par an.
Cette diminution, ainsi que la
baisse du coût des télécommunications, a une grande importance pour le budget
du système d’information : le coût des PC en réseau, si l'on compte
non seulement le matériel mais aussi le coût du support aux utilisateurs (mais
sans tenir compte du temps perdu par les utilisateurs pour apprendre à se
débrouiller) peut représenter
60 % du budget informatique, avec une dépense de l'ordre de 20kF/utilisateur*an.
Le coût de réalisation d’un
logiciel, c’est moins un coût d’écriture qu’un coût de vérification et
de correction des erreurs : une bonne partie de la fonction de production
va donc dépendre de la sécurité apportée par le langage de programmation
utilisé.
L’évolution des langages de
programmation apporte des gains de productivité : l’orienté objet
permet, s’il est correctement mis en œuvre, de réutiliser les composants et
surtout de sécuriser l’écriture du logiciel, car le
cloisonnement procuré par l’encapsulation permet de limiter les risques d’erreur.
Sur
le marché américain, l’offre d’emplois en programmation porte
essentiellement sur les langages orientés objet (C++, Java et Perl) :
L’évolution rapide des
solutions techniques suppose des compétences
" pointues " : sécurité (" firewall ",
antivirus, " proxys ", back-up, etc.),
" middleware ", " datawarehouse ",
" groupware " (messagerie, Intranet, agenda partagé etc.).
Il devient difficile pour une direction informatique de rentabiliser de telles compétences. Dès
lors se pose une question délicate : comment définir ce qui doit être
réalisé par la DSI, et ce qu’elle doit confier à des fournisseurs
(" externaliser ") ? quelles compétences une direction
informatique doit-elle conserver en interne pour maîtriser les évolutions de la
plate-forme technique du SI de l’entreprise ?
III - Danger des règles de
gestion trop simples
Le coût du système d’information
représente pour certaines entreprises, plus particulièrement dans les
services, une part importante des dépenses. Les directions générales
cherchent à maîtriser ce " centre de coûts ",
oubliant qu’il s’agit pour l’entreprise d’une ressource
vitale. En l’absence d’une réflexion mûrie sur l’économie du système d’information
elles se donnent des règles simples : comprimer les dépenses en
respectant une " enveloppe informatique ", limiter le
" taux d’informatisation " de l’entreprise (c’est-à-dire
le volume du logiciel utilisé), limiter les dépenses en nouveaux
développements, etc. Ces diverses méthodes ont fait l’objet d’une étude
systématique (Peter G. W. Keen, Shaping the Future, Business Design through
information technology, Harvard Business School Press 1993).
Le modèle de Keen tient compte
des paramètres suivants :
-
obsolescence des logiciels (durée de vie),
-
baisse tendancielle du coût des unités
d ’œuvre,
-
stock
des logiciels en exploitation, flux des développements, coût de
maintenance et d’exploitation.
L’économie du SI apparaît
alors comme l’économie d’une ressource en capital que l’on
stocke, que l’on entretient et que l’on renouvelle. Cette approche ne tient pas compte d’autres aspects de l’économie du SI
(comme la gestion des erreurs en programmation), mais elle permet de mettre en évidence les
effets pervers des règles simples :
explosion ou implosion non maîtrisées des dépenses, écrasement de la part
des nouveaux développements.
IV - Des gains difficile à
évaluer
En regard de l’évaluation du
coût, il faut pour calculer la rentabilité du SI évaluer les divers gains qu’il
apporte. En premier on trouve la baisse des
coûts de production des services existants, effet très apprécié des directions
générales éprises de productivité. Puis on trouve la différenciation des
services : réservation dans le transport aérien, commutation temporelle
dans les télécommunications, distributeurs automatiques de billets dans les
banques, intermédiation, partenariats et " packaging " d’offres
nouvelles combinant des services rendus par l’entreprise et par des
partenaires externes etc. On trouve ensuite la personnalisation de l’offre
facilitée par l’" orientation client " de l’entreprise
(orientation qui suppose de savoir gérer les informations qu’elle détient sur le client, ses habitudes et préférences) et par les systèmes
de fidélisation. L’exploitation systématique des informations sur le client
permet de segmenter la clientèle, opération fondamentale du marketing,
puis de porter un diagnostic déterminant le segment auquel appartient tel client particulier, et de formuler
en conséquence le type d’offre à proposer ainsi que le type de
relation commerciale à entretenir avec lui.
La relation avec le client peut
combiner, grâce au SI, l’ensemble des vecteurs de communication
possibles : cartes à puce, contact " présentiel " en
agence, centre d ’appel, Internet etc.
Au delà de ses utilisations
opérationnelles, le SI fournit à l’entreprise les moyens d’accumuler l’expertise
sur laquelle se fonde la démarche marketing, ainsi que la préparation des
décisions commerciales ou de l’investissement : il permet l’observation
statistique des données produites à l’occasion des applications
opérationnelles et leur interprétation à l’aide de systèmes d’aide à
la décision (" datawarehouse ", " datamining ").
L’ensemble des apports du SI
est ainsi divers et diffus. Comment mesurer le gain d’efficacité
apporté par une meilleure connaissance du marché, une meilleure perception de
ses déterminants ? comment distinguer l’apport de telle ou telle partie
du SI, sachant qu’elles s’appuient l'une sur l'autre et que l’efficacité
provient de leur synergie ? La baisse du coût de production et l’enrichissement
de l’offre favorisent des gains de part de marché, à la fois par le
canal des baisses de prix et par l'amélioration de la qualité. Il peut en résulter une hausse
du profit qui durera tant que la concurrence n’aura pas contraint l’entreprise à
réduire son prix de vente. La hausse du profit est essentiellement transitoire,
mais comme elle peut être significative pendant
une durée limitée, elle constitue le moteur toujours renouvelé de l’innovation.
C’est sa recherche qui pousse les entreprises à se distinguer de leurs
concurrents par la qualité de leurs produits ou leurs techniques de
production.
Le résultat d’une innovation
est incertain : la baisse du coût de production se
produira-t-elle ? le marché réagira-t-il comme on l’espère ?
le profit escompté sera-t-il au rendez-vous ? en outre les discussions sur la
rentabilité du SI sont confuses, car son
caractère " immatériel " le prive de l’évidence
sensible que possède le " matériel ". Certes la
rentabilité d’un produit matériel est aussi aléatoire que celle d’un
logiciel ; mais on peut le toucher de ses mains, il parle à l’intuition,
alors que le SI n’est visible qu’à travers des
interfaces homme machine qui donnent sur son architecture une vue
étroite. Nous avons tous entendu un DG dire, lors des réunions préparatoires
du budget informatique, " les prévisions de coût, quoique
incertaines, ont une crédibilité car je sais que votre projet va coûter cher ; par contre, les prévisions de gain
sont peu
convaincantes. Si l’entreprise avait gagné tout ce que promettaient les
projets informatiques, nous ferions un profit énorme et nous
aurions une part de marché supérieure à 100 %. "
La rentabilité du SI sera mise en doute. Il faut toutefois relativiser cette difficulté,
que le
SI partage avec l’organisation de l’entreprise. Qui sait mesurer la
rentabilité d’un effort d’organisation ? son effet est aléatoire, car
il est impossible de dire a priori si l’entreprise va accepter ou non la
nouvelle organisation. Il en est de même, d’une façon
plus générale, chaque fois que l’on veut innover, même
dans les techniques de production les plus
" matérielles " : toute innovation implique
un changement des méthodes de production aux effets en partie imprévisible,
donc une prise de risque.
IV - Répondre aux
" paradoxes "
Robert Solow a prononcé en
1982 la phrase devenue célèbre : " Je vois des ordinateurs
partout, sauf dans les statistiques de productivité ". Depuis, il est
revenu sur cette position sceptique ; mais son élève Gordon continue dans
la même voie. Paul Strassmann, dans " The Squandered
Computer " (The Information Economics Press, 1997) a lui aussi mis en
doute la rentabilité des technologies de l’information. Le scepticisme est à
la mode parmi les économistes.
Mais ce scepticisme s’appuie sur des fondements
très fragiles. D’une part, il est normal que les nouvelles technologies,
précisément parce qu’elles sont nouvelles, ne soient pas correctement
utilisées, et que la performance moyenne des entreprises soit médiocre. S’agissant
d’une innovation, la performance moyenne n’est pas significative parce que le marché n’est pas parvenu à
l’équilibre
où chacun saurait comment utiliser l'outil. Il faut regarder non les moyennes, mais
les meilleures utilisations, qui indiquent
la voie en explorant la façon d’utiliser au mieux les nouvelles
technologies.
Par ailleurs les nouvelles
technologies, en raison de leur souplesse et de la différenciation qu’elles
permettent, déconcertent les méthodes de mesure statistique conçues pour
l’économie industrielle antérieure. Seules sont en effet
comptabilisées les valeurs. Or une valeur, c’est une somme de produits d’une
quantité par un prix :
V = SPQ
L’indice de valeur, c’est
le produit d’un indice de volume par un indice de prix :
V/V0 = SPQ/SP0Q0
= (SPQ/
SP0Q)(SP0Q/
SP0Q0)
Lorsque l’on calcule le Produit
Intérieur Brut (PIB) d’une nation, on agrège des volumes auxquels on
applique les prix d’une " année de base ", selon la
formule
SP0Q. Or comment
mesurer des volumes ? en divisant des valeurs par des prix ! mais
comment estimer les prix ? c'est parfois impossible. Par exemple les statisticiens sont désarmés devant le
téléphone mobile, car ils ne parviennent pas à regrouper en un indice de prix la diversité des grilles tarifaires
des opérateurs. Le
téléphone mobile, qui équipe 50 % des ménages, ne fait pas partie des biens
retenus pour calculer l’indice du prix de la consommation. L’indice du prix
de production industrielle des ordinateurs est par exception un indice
" hédonique " calculé à qualité constante ; mais
son calcul est difficile. Les divers pays utilisent des méthodes
différentes, les comparaisons internationales en sont altérées.
Les nouvelles technologies
permettent des baisses de prix, comme ce fut le cas dans le transport aérien.
Cependant leur intervention n’est pas nécessairement
corrélée avec une hausse du profit, le gain de productivité qu’elles apportent
étant approprié par le consommateur.
Les folles espérances placées
par les actionnaires dans la nouvelle économie ont été suivies d’une
désillusion qui a poussé à mettre en doute la rentabilité des
nouvelles technologies. Ce n’est pourtant pas parce que des espoirs excessifs ont
été déçus que les nouvelles technologies ne seraient pas rentables.
La démarche la plus raisonnable
est celle qu’ont suivie Jean Tirole et Josh Lerner dans " The
Simple Economics of Open Source " (17 janvier 2001). Ils se sont contentés d’une
approche monographique : " En raison du caractère encore trop
récent de ce domaine, nous n'avons pas cherché à construire un nouveau cadre
théorique, ni à analyser des statistiques. Nous avons concentré notre
attention sur quatre cas particuliers : Apache, Linux, Perl et Sendmail ".
C’est ainsi que procédaient les économistes et les statisticiens du début
du XIXème siècle, lorsqu’ils voulaient comprendre les performances permises
par une industrialisation alors dans sa nouveauté.
|