Le métier de statisticien
CHAPITRE XI
De la description à l'explication
Retour à la table des matières
Nous avons évoqué dans la première partie la relation entre
théorie et statistique ; nous allons maintenant revenir sur cette relation, et examiner
comment elle se manifeste en pratique. Elle se manifeste, cela ne veut pas dire qu'elle
soit perçue : la division du travail enferme chacun dans sa spécialité - statisticien,
comptable national, économètre, modélisateur, etc. ; lorsqu'on pense à la relation
entre le statisticien et l'économiste, l'image qui se présente à l'esprit n'est pas
celle d'une association organique, d'une collaboration, mais plutôt la suivante : un
restaurant, dans lequel la cuisine (passablement douteuse) est cachée au client, et ne
communique avec la salle à manger que par un étroit guichet par lequel on fait passer
les plats. Le cuisinier est un statisticien, qui fabrique les plats d'information à
partir de produits parfois avariés ; l'économiste déguste ces plats, sans se soucier de
ce qui se passe de l'autre côté du guichet, et sans prêter grande attention aux mises
en gardes éventuelles du cuisinier. Ainsi, la relation que nous avons décrite, bien
qu'elle soit logiquement fondamentale, n'est guère présente dans l'esprit des
praticiens. Il est vrai qu'elle nécessite un dialogue comportant de longs délais ; son
rythme propre est beaucoup plus lent que celui de la technique de production.
Plaçons-nous dans l'hypothèse la plus favorable : imaginons un
économiste qui, sans être soumis à des délais très brefs pour la production de
quelque étude, travaille dans un domaine sur lequel l'information statistique est
abondante, et se décide à faire un effort sérieux pour maîtriser cette information.
Il s'engage alors dans une aventure très particulière. Il est
bien rare en effet que l'information disponible corresponde exactement aux définitions
que comporte la représentation théorique qu'il se fait a priori de son domaine
; de plus, un premier et rapide examen des statistiques lui révèle des concepts qu'il
ignore, un vocabulaire qui lui est étranger ; il lui montre en outre entre les nombres
des proportions qui comportent des accidents surprenants - à moins qu'elles ne soient
d'une trivialité décourageante. Il faut alors débroussailler. Certains individus -soit
talent, soit expérience - font ce travail plus vite et plus sûrement que d'autres : il y
faut une mémoire précise et fidèle, de la persévérance, la capacité de maintenir le
fil d'un raisonnement dans une grande diversité d'occupations toutes longues et
monotones, la patience enfin de travailler et de retravailler sur les mêmes nombres
jusqu'à ce qu'ils se soient imprimés dans l'esprit. Bref : il y faut de l'entêtement et
du " coup d'il " ; mais que l'on soit rapide ou lent, les difficultés
sont les mêmes.
Ce travail se fait à l'aide de papier pour graphiques, de
crayons de couleur, et d'une machine à calculer - ou d'un ordinateur si les données sont
stockées dans un fichier d'accès commode. L'information est apportée par des
publications et par des listings dont le déploiement a tôt fait de recouvrir la table de
travail et de joncher le sol, même chez les plus ordonnés. Les données ont coutume,
comme si elles étaient organisées par quelque esprit malin, de résister à celui qui
veut les étudier : non seulement on ne les trouve pas rangées selon la nomenclature que
l'on souhaiterait, mais les divers aspects que l'on veut confronter ont été étudiés
avec des nomenclatures différentes ; les dates, périodicités et champs des enquêtes
changent d'une source à l'autre ; quant aux séries, certaines comportent des pics ou des
creux incompréhensibles, ou bien varient au rebours de ce que suggère le bon sens, ou
encore elles évoluent très différemment selon la source que l'on utilise. Dans tout ce
fatras, les traces des faits significatifs sont inextricablement mêlées avec les erreurs
de toutes sortes qui ont pu fausser les résultats. Il faut procéder par recoupements,
interroger les statisticiens sur leurs méthodes, transcrire des résultats d'une
nomenclature dans une autre, etc.
Tout cela prend du temps. Les journées passent vite quand on
fait ce genre de travail, et la même impression décourageante se renouvelle chaque soir
: celle de patauger dans des détails, et de ne plus bien discerner ce que l'on veut
faire. Parfois, après avoir par exemple tracé plusieurs graphiques ou réalisé de
nombreux calculs avec une attention toute mécanique, il faut se secouer pour vaincre une
sorte d'hébétude. Si l'on utilise l'informatique, ou si l'on peut se faire aider par des
collaborateurs, l'attention est accaparée par le programme que l'on écrit, ou par les
instructions qu'il faut donner. On court le risque de s'installer dans la routine du
malaxage des chiffres, routine qui devient une fin en soi ; le souvenir des questions que
l'on se posait au départ tend à s'estomper et à disparaître.
On comprend bien que les économistes reculent devant le
caractère pénible et long de toute utilisation sérieuse des statistiques, et plus
encore devant le risque d'y perdre à la fois son temps et le fil de ses idées. Il est
plus facile, c'est vrai, de conserver la cohérence et la clarté de sa pensée si l'on
s'abstient de tout contact un peu direct avec la statistique. Mais on peut se demander si
le risque couru alors n'est pas encore plus grave, parce qu'il est plus insidieux : la
cohérence procure un confort intellectuel dans lequel on s'enferme.
Un peu d'expérience permet d'ailleurs d'éviter et le
découragement précoce, et l'enlisement dans la routine. On finit par savoir qu'il y a
une phase pénible par laquelle il faut passer - un peu comme le violoniste qui
perfectionne pendant des heures le même coup d'archet sait qu'il finira par le réussir.
La recherche dans les chiffres n'est pas conduite au hasard : on a bien, au départ,
quelque idée de ce que l'on veut faire, et donc de ce qui est important et de ce qui
l'est moins. Cette idée se modifie et se précise au vu des données. Même si
l'exécution des calculs auxiliaires et des vérifications provoque de nombreuses
digressions, parfois très longues, on tiendra fermement son cap (au besoin en tenant un
journal), de façon à savoir à tout moment où l'on veut aller. Si l'on a assez de
fermeté et d'entêtement - ou, ce qui revient au même, si l'on est inséré dans une
institution dont la discipline de travail soutient et encourage suffisamment -, et si les
statistiques que l'on utilise contiennent réellement une information ( ce qui est très
généralement le cas), on finit par recevoir la récompense de tous ces efforts.
A force de passer et de repasser sur les mêmes concepts, les
mêmes nombres, les mêmes courbes, ils finissent par s'imprimer dans la mémoire ; à
force de les vérifier, de les recouper, de contrôler l'origine des " points
saillants ", ceux-ci finissent par devenir familiers ; l'il, habitué à
certains profils, à certaines structures de tableaux, opère de mieux en mieux le tri de
l'essentiel et de l'accessoire : l'analyse des données est ici une aide précieuse. En
manipulant les nomenclatures, en s'interrogeant sur leur origine, en discutant avec les
statisticiens qui ont fait la collecte, on apprend beaucoup sur le cadre institutionnel et
réglementaire qui est souvent essentiel (que l'on pense à ce que serait une étude des
prestations sociales, ou des qualifications professionnelles, qui le négligerait).
Enfin la charpente se dessine ; c'est toujours un moment très
surprenant : l'information, qui paraissait au départ pulvérulente et amorphe, s'ordonne
autour de quelques notions qui la structurent ; quelques séries résument toutes les
autres, avec une telle évidence parfois que l'on est surpris de ne pas les avoir
remarquées dès le début.
Invinciblement la description appelle l'explication. L'examen
des données lui-même conduit à poser des questions : les accidents dans les courbes
reçoivent souvent une explication simple (grève, changement de tarif... ou erreur dans
un raccordement de séries), mais les corrélations entre séries différentes appellent
des schémas explicatifs plus riches, que l'économiste spécifie en tirant parti
conjointement de son acquis théorique et de sa connaissance des sources d'informations
disponibles. Ces schémas explicatifs restent cependant hypothétiques, et comportent des
chaînes déductives très courtes : l'information dont on dispose n'est pas, en
général, complète et sûre au point de pouvoir fonder des échafaudages logiques de
quelque ampleur.
La démarche que nous venons de décrire est lente. Elle
comporte une longue maturation, dont le fruit modeste peut sembler décevant : une
description simple ; une explication qui ramène les phénomènes observés à quelques
principes peu nombreux, et qui n'a jamais qu'une portée relative ; des raisonnements
courts. Celui qui a suivi cette démarche a l'avantage, il est vrai, d'avoir présents en
tête les ordres de grandeur essentiels, de pouvoir situer et interpréter rapidement une
information nouvelle, de bien connaître le langage et le découpage institutionnel de
l'objet étudié : mais il est et reste, sans aucun doute, un empiriste ; et à ce titre
il s'expose au mépris de tous ceux pour lesquels il n'est point de salut en dehors de la
théorie.
Pour notre part, nous prenons résolument le parti de cet
empiriste ; et nous prétendons que si l'on avait une conscience théorique plus claire du
rôle et des limites de la théorie, on consacrerait moins d'efforts à " lever des
hypothèses " en économie mathématique, ou à faire la millionième exégèse des
textes sacrés de Marx, et l'on accorderait plus d'attention aux indications fournies par
l'instrument d'observation. Ce faisant, on serait d'ailleurs fidèle à l'enseignement des
grands théoriciens qui, comme Smith, Marx ou Keynes, ont longuement mûri leur
construction théorique par un usage critique de l'information. Il y a une certaine façon
de révérer la théorie qui est la négation de l'activité théorique elle-même.
Que l'on ne s'y trompe donc pas : il n'est pas question pour
nous de nous livrer à quelque attaque obscurantiste contre la théorie et l'abstraction,
ni d'élever une de ces revendications qui, sous couvert d'un retour aux faits et au
concret, visent à ramener en contrebande des théories justement délaissées. Bien au
contraire, abstraction et théorie nous paraissent au cur même de toute activité
humaine, et même de la plus quotidienne - comme, par exemple, de cuisiner un plat ou de
bricoler. Mais elles ne jouent pas de la même façon dans toutes les occasions. Ce point
mérite une brève digression.
En mathématiques, et dans toutes les disciplines qui, comme la
mécanique, peuvent se ramener à quelques principes peu nombreux, le raisonnement part
d'un nombre limité de postulats et déroule des chaînes déductives longues. Ainsi la
mécanique peut être construite à partir du principe de moindre action. L'art du
logicien est d'une part de découvrir, parmi toutes les batteries de postulats possibles,
celle qui sera la plus féconde ; d'autre part, de construire, parmi toutes les chaînes
déductives possibles, celle qui se prête le mieux à la présentation et à la
mémorisation des conséquences des postulats'. Si le produit final de cette démarche est
nécessairement un texte formalisé, il n'en résulte pas moins d'une démarche qui, elle,
n'est pas formalisable ; on connaît ces anecdotes sur les considérations intuitives,
esthétiques ou mystiques qui ont aidé Newton, Einstein, Cantor et d'autres vers leurs
découvertes. Tout texte formalisé comporte d'ailleurs nécessairement des " abus de
langage " sans lesquels il serait d'une lourdeur pédante qui le rendrait illisible.
La recherche logique consacre beaucoup de temps et d'efforts à
la production d'instruments simples, robustes, dont les propriétés sont bien connues, et
qui peuvent être utilisés dans des circonstances très variées. L'usage de ces
instruments requiert un apprentissage pénible car, en raison même de leur simplicité et
de leur généralité, leur caractère éminemment pratique et opératoire est masqué.
Mais cet apprentissage est amplement récompensé. Ainsi l'apprentissage de la théorie
des ensembles - et notamment de la relation d'équivalence - procure, pour un effort bien
moindre, la maîtrise des procédés de la logique formelle décrits par Aristote et
lourdement codifiés par la scolastique. Le maniement de structures plus riches en axiomes
- espaces vectoriels, espaces métriques, etc. permet d'accélérer singulièrement le
raisonnement dans un grand nombre de situations concrètes.
La plupart des situations que l'on rencontre dans la vie
courante, dans l'action, requièrent, elles aussi, des découpages conceptuels et des
déductions ; mais le choix des structures logiques n'est pas, dans la vie courante,
l'objet d'une réflexion explicite ; par ailleurs, les éléments à prendre en
considération sont trop nombreux pour qu'il soit possible de les articuler sous quelques
principes simples ; enfin les changements fréquents de situation obligent à changer
souvent de représentation : pour reprendre un exemple qui nous a déjà servi, l'homme
qui conduit sa voiture utilise un découpage conceptuel qui correspond à cette action ;
dans son travail, il met en uvre un autre découpage, qui lui permet de
différencier et de classer ses instruments, la matière sur laquelle il travaille, etc.
Au point de vue formel, les structures logiques utilisées dans
l'action se caractérisent par le grand nombre des principes considérés, la souplesse et
la fréquence de leurs réaménagements (car le propre de l'action est qu'elle comporte
des surprises, des changements, alors que les structures de la logique mathématique ont
l'éternité devant elles), et aussi la brièveté des chaînes déductives : il est bien
rare que l'on fasse, dans l'action, des raisonnements comportant plus de deux déductions.
Ceci est bien connu des informaticiens, qui distinguent l'" informatique scientifique
" (peu de données, beaucoup de calculs) et l'" informatique de gestion "
(beaucoup de données, peu de calculs).
Cependant, lorsque la vie courante nous fait retrouver
fréquemment la même situation, nous avons l'occasion d'affiner sa représentation
conceptuelle, et aussi de compliquer les chaînes déductives : un véritable
investissement théorique permet de mieux discerner les événements, et de prévoir - par
une sorte de court-circuit logique - les conséquences de nos actions au moment même où
nous évoquons en imagination. Toute personne qui, par exemple, a changé de travail, est
passée par une période pendant laquelle elle s'est sentie " perdue " ; puis
elle a construit progressivement le cadre conceptuel de sa nouvelle activité, elle s'y
est " retrouvée " ; enfin, avec le temps, et à proportion de son talent et de
son énergie, elle " maîtrisera " son activité - c'est-à-dire qu'elle sera
capable de la reconstruire en esprit de façon satisfaisante.
Ainsi l'activité logique est présente au sein même de la vie
courante ; le développement d'une activité logique spécialisée répond, dans l'ordre
intellectuel, à la spécialisation dans la production des outils et des machines, et au
développement de l'investissement industriel.
Ce n'est donc pas en termes de légitimité de l'abstraction
qu'il faut poser le problème des rapports entre la théorie et la pratique, puisque
l'abstraction est présente au sein même de la pratique la plus courante. Mais on doit se
demander si l'effort d'investissement théorique, lorsqu'il prend de l'ampleur, est
réellement appelé par les besoins de l'action, ou s'il répond à quelque visée d'un
autre ordre. Il arrive que des entreprises achètent des machines ou des immeubles non
pour les besoins de la production, mais pour des raisons de prestige ou pour calmer
l'angoisse existentielle de leurs dirigeants : le luxe de certains sièges sociaux va bien
au-delà de la prospérité qu'il est nécessaire de montrer pour avoir du crédit. De
même, l'activité théorique, en se spécialisant, a développé des séductions qui
n'ont rien à voir avec son efficacité. L'élégance de ses produits flatte le sens
esthétique ; leur simplicité masque, dans les grandes uvres, la longueur de leur
maturation. Des jeunes gens, et d'autres moins jeunes, se laissent séduire par les
facilités d'une abstraction trop rapide.
On peut se demander aussi si certains développements
théoriques ne correspondent pas, en fait, à des manuvres idéologiques visant à
empêcher que des problèmes sociaux importants puissent être posés. Ainsi, par exemple,
l'importance théorique accordée au modèle de la concurrence parfaite serait destinée
à masquer la réalité des oligopoles ; et, d'une façon plus générale, le recul devant
le contact des faits et de l'histoire, la tendance à se réfugier dans une
représentation normative de l'économie - à partir de laquelle on peut raisonner comme
si l'on avait l'éternité devant soi -, le refus de la statistique, seraient l'expression
d'une tendance à la fois idéaliste (sur le plan philosophique) et réactionnaire (sur le
plan politique). Mais il convient de ne pas émettre de tels jugements avec
précipitation, car on risque d'instruire ainsi des procès d'intention, et aussi de
commettre des contresens en raison de l'ambiguïté du débat idéologique (2).
Le rôle de la théorie en économie devrait être modeste, car
l'économie a ceci de commun avec la vie courante - et aussi avec la stratégie - que les
surprises y sont fréquentes ; d'un pays à l'autre, d'une époque à l'autre, les "
lois " elles-mêmes changent - l'économie française, par exemple, à pu être
décrite par plusieurs modèles différents depuis la dernière guerre, chacune des phases
de son évolution relevant d'une logique particulière : obstacles et moyens n'étaient
plus les mêmes (3). Dans ces conditions, le rôle de la théorie se limite à trois
points, essentiels il est vrai : d'une part elle doit répondre à l'exigence formelle,
qui organise l'expérience avec méthode et rigueur ; d'autre part elle doit répondre à
l'exigence critique, qui situe la construction formelle dans une claire conscience du
caractère historique de l'objet étudié ; enfin, elle doit explorer les voies que le
raisonnement emprunte le plus souvent dans sa démarche - ces " modèles irréalistes
(4) " qui se présentent inévitablement à l'esprit lorsqu'il s'emploie à
théoriser, et qui comportent des pièges que l'on doit connaître. On ne doit demander à
la théorie rien de moins - mais rien de plus - que de développer chez le praticien
l'exigence de cohérence et de rigueur dans le raisonnement, et que de lui rendre familier
le mécanisme des raisonnements usuels en économie : ainsi il sera préparé à l'étude
de situations concrètes, et il sera en mesure d'en rendre compte selon une création
théorique féconde.
Si la réflexion économique se rapproche du formalisme de
l'action, elle aura les mêmes traits que celui-ci : grande importance donnée aux
découpages du réel (ici ce sont les nomenclatures) ; souplesse de ces découpages, qui
doivent être capables de s'adapter rapidement aux surprises et aux nouveautés ;
attention portée aux phénomènes ; brièveté et prudence des raisonnements déductifs.
L'importance donnée aux découpages découle de l'importance donnée aux phénomènes,
qu'ils organisent.
Si l'on est d'accord avec les considérations qui précèdent,
on nous suivra sans doute dans la conséquence que nous en tirons au plan de la
rhétorique : les textes économiques doivent utiliser de préférence le style
littéraire, et non le style mathématique. Le style mathématique convient bien à la
description des instruments logiques, et à la présentation de longues chaînes
déductives, auxquelles la cohésion des notations peut conférer une sorte d'évidence
formelle. Mais lorsqu'il s'agit de présenter un découpage complexe, sur lequel on opère
des raisonnements courts, c'est le style littéraire qui s'impose : car il est le plus
propre pour expliquer le point de vue auquel on s'est placé, les nécessités auxquelles
on a été confronté, les raisons institutionnelles ou autres des choix que l'on a
opérés ; le style mathématique est le meilleur pour décrire un édifice logique
achevé, mais le style littéraire est le seul capable d'expliquer les choix sur lequel
cet édifice est fondé, ou de présenter une pensée en évolution, dont la communication
peut avoir un intérêt même si elle n'est pas formalisée. Par style littéraire, nous
n'entendons pas style bavard ni style émotif, et nous ne pensons pas non plus à ces
considérations sur l'histoire de la pensée économique auxquelles l'enseignement s'est
longtemps borné : nous avons en vue un style descriptif, où les chiffres occupent une
place nécessaire mais discrète ; où les choix sur lesquels la description est fondée
sont décrits ; où les résultats des calculs d'analyse des données ou d'économétrie
sont présentés, mais sans le luxe de détails techniques qui les entoure trop souvent ;
où enfin la construction théorique rend compte de la description, et reste en deçà des
bornes de la témérité logique.
" Les meilleurs livres sont ceux que ceux qui les lisent
croient qu'ils auraient pu faire ", dit Pascal : cette phrase est la meilleure
réfutation du pédantisme. Mais rares sont les lecteurs assez conscients des difficultés
de l'écriture pour savoir gré à celui qui écrit simplement : l'attitude la plus
fréquente est de supposer que, si le résultat est simple, c'est qu'il provient d'un
travail qui lui-même n'était pas très compliqué. L'effort si pénible de synthèse et
de clarification est très faiblement " rémunéré " en considération et en
audience. Il est même parfois dangereux : des conclusions claires et simples prêtent à
discussion, et donc à critique. Le recul devant l'effort, la timidité, le besoin de se
protéger, toutes ces raisons conduisent à présenter des textes péniblement techniques,
qui se perdent dans les sables avant de déboucher sur une conclusion claire. Le
phénomène est d'autant plus fort que le rédacteur est placé dans une situation
professionnelle plus instable : comment peut-on prendre le moindre risque, en période de
chômage, quand on a le statut d'un modeste chargé d'études sous contrat, révocable à
merci ? Or c'est bien souvent dans ces conditions que travaillent les économistes
praticiens. Ce n'est que lorsque l'employeur s'est soucié de procurer un statut
convenable à l'économiste, et lorsqu'il a montré qu'il savait apprécier la qualité
réelle des travaux que celui-ci lui fournit, qu'il peut raisonnablement se montrer
exigeant.
Le prestige des mathématiques, les positions de force qui ont
été conquises dans l'Université par des mathématiciens, la mode enfin ont poussé
certains spécialistes des sciences humaines à " se mettre aux maths ", comme
ils disent. Le résultat est rarement heureux ; l'historien et le sociologue, abondamment
pourvus pourtant de discernement et de qualités littéraires, offrent un triste spectacle
lorsqu'ils pataugent pédantesquement dans les tableaux de corrélation, les analyses
factorielles, les régressions, etc. Ils débutent dans des matières où tout débutant -
même bon mathématicien - commet des erreurs ; ils renchérissent sur la technique, avec
des ardeurs de néophytes, et sans doute aussi pour éblouir leurs collègues. Il nous est
arrivé plusieurs fois de recevoir la visite d'un sociologue ou d'un historien qui, "
n'ayant jamais rien compris aux maths ", demandait aide pour réaliser des tests, des
analyses factorielles, des régressions, etc. Dans une bonne proportion des cas, les
données traitées ne nécessitaient nullement de tels calculs, car quelques
présentations graphiques bien choisies suffisaient à en rendre compte. Mais le visiteur
s'inquiétait : un si maigre travail statistique suffirait-il pour impressionner tel jury,
ou pour contenter la rédaction de telle revue ? Il y a, nous expliquait-on, dans ce jury
ou cette rédaction, un redoutable M. Untel (parfaitement inconnu chez les statisticiens,
mais grand défenseur de la statistique au sein de sa spécialité), qui ne s'estime
satisfait que si l'on a fourni un certain volume de calculs, de tests, etc. Ces singeries
mathématiques n'honorent ni ceux qui les imposent, ni ceux qui s'y soumettent : mais ces
derniers ont l'excuse d'y être contraints.
Situation inquiétante : car s'il est incontestable que
l'instrument statistique peut beaucoup apporter aux sciences humaines, il est non moins
incontestable que son utilisation indiscrète et pédante risque de dégoûter les esprits
les plus fins et les plus exigeants, qui sont justement sensibles à la rigueur véritable
des travaux et à leurs qualités rhétoriques. Le maniement de l'économétrie ou de
l'analyse des données, et surtout l'interprétation correcte de leurs produits,
nécessitent une formation mathématique et une expérience que les spécialistes des
sciences humaines n'ont généralement pas. Il nous semble que la collaboration entre les
spécialistes des sciences humaines et des statisticiens de métier donnerait de bons
résultats : il y a ici peut-être une " bidisciplinarité " à aménager.
Si l'usage des statistiques réclame à l'économiste un effort
pénible qui risque de le rejeter dans les bras de la théorie pure, en revanche le
statisticien éprouve les plus grandes difficultés pour situer son travail dans le cadre
d'une représentation théorique. Nous avons vu l'incohérence de ces statisticiens
anglais du XIXe siècle, qui prétendaient à la fois s'attacher exclusivement à la
" connaissance des faits " à l'exclusion de toute opinion, et travailler dans
un souci d'action et d'efficacité : que ce souci lui-même conduise à des choix en ce
qui concerne les sujets et la façon de les aborder, et donc qu'il implique des "
opinions ", voilà qui ne semble pas les avoir effleurés (5). Nous avons relevé une
contradiction analogue dans les travaux de Vincent, le créateur de la comptabilité
nationale française : l'économie nationale a, selon lui, besoin d'une comptabilité pour
être dirigée, exactement comme une entreprise ; mais le cadre comptable qu'il décrit
est défini d'une façon toute formelle, sans aucune référence aux besoins de la
politique économique (6). Plus près de nous, le réformateur de la statistique
industrielle dans les années 60, Gérard Ader, se rattache à la tradition dirigiste de
la comptabilité nationale par ses références à une organisation systématique,
cohérente, complète ; mais il contredit cette tradition en cherchant dans la théorie
néoclassique des arguments en faveur de l'utilité de ses enquêtes : la concurrence ne
peut jouer que si les agents disposent d'une information parfaite ; les statistiques
contribueront à la bonne marche de l'économie en améliorant l'information et donc en
favorisant la concurrence (7). La conception de la statistique comme une simple technique
de la mesure, travaillant dans un cadre conceptuel donné sur lequel elle n'a pas à
s'interroger, semble poussée à l'extrême dans certains travaux américains : par
exemple, dans un volumineux manuel à l'usage des statisticiens des pays pauvres, le
bureau du Census décrit dans le détail la technique des recensements de population, des
enquêtes industrielles, etc. ; mais le choix des nomenclatures est réglé de la façon
la plus expéditive : les techniciens sont invités à utiliser les nomenclatures de
l'O.N.U. sans se soucier du rapport qu'elles peuvent avoir avec les structures et les
besoins des pays étudiés. Certains statisticiens de l'O.N.U. se font apparemment des
illusions sur la portée des instruments qu'ils construisent : ainsi, les auteurs de la
C.I.T.I. (classification internationale type, par industrie, de toutes les branches
d'activité économique) prétendent que cette nomenclature est " pleinement
compatible avec la structure économique des différents pays du monde et avec leurs
méthodes et besoins statistiques " (8). En l'occurrence, l'universalité
attribuée à l'instrument traduit l'imposition, à travers le monde entier, des
découpages propres aux pays riches.
Ce qui se produit au point précis où l'instrument
d'observation et la démarche théorique sont en contact est sans aucun doute très
important ; mais tout se passe comme si ce point était situé sur une ligne de crête, de
sorte que la pesanteur (c'est-à-dire ici la facilité) tend à faire dévaler le
statisticien sur l'une des pentes et l'économiste sur l'autre, et à les enfermer chacun
dans sa spécialité. On peut, sans nier la spécificité de chacun, chercher à resserrer
la dialectique entre la théorie et l'observation (9). A notre avis, ce
resserrement ne peut se faire que dans un cadre institutionnel, en raison de la lourdeur
des instruments d'observation et de leurs longs délais d'adaptation et de réponse. De ce
point de vue, c'est une chance que l'I.N.S.E.E., en France, rassemble les deux fonctions
d'observation et d'étude, qu'une illusion positiviste a conduit à disjoindre dans les
autres pays. Mais il est des cloisons internes qui sont parfaitement étanches : il nous
semble que, pour le moment, les deux spécialités sont plutôt juxtaposées qu'unies dans
le dialogue ; et si les textes de Morgenstern et Léontieff (10) sur les relations
entre la statistique et la théorie économique ont réjoui bien des statisticiens - et
irrité bien des économistes -, il s'en faut de beaucoup que toutes les leçons qu'ils
donnent aient été écoutées.
En suivant la statistique dans ses utilisations, nous allons
pouvoir à la fois préciser ce qui précède et déboucher sur de nouvelles questions.
Croiser les découpages
La réflexion, la recherche d'une explication sont déclenchées
par la surprise : tant que tout se passe conformément à ce qui était attendu,
l'attention et le raisonnement ne sont pas sollicités. Ils ne se mettent à travailler
que s'ils sont excités par un fait nouveau, paradoxal, surprenant. Celui qui veut
apprendre quelque chose d'une statistique doit chercher les surprises ; " Etonnez-moi
", dit-il aux chiffres. Mais, pour qu'il puisse être étonné, il faut d'abord que
sa perception soit assez fine pour distinguer les événements significatifs du bruit de
fond qui les entoure ; il faut qu'il use de méthodes de travail qui affinent cette
perception.
La construction de tableaux croisés est une des
méthodes de travail les plus puissantes du statisticien, car elle est féconde en
surprises. Cette fécondité fait contraste avec la simplicité du procédé.
Supposons par exemple que nous ayons fait une enquête
démographique, et que nous ayons observé sur chaque individu certains caractères
qualitatifs (ou quantitatifs, mais repérés selon des codages qualitatifs ordinaux) :
sexe, classe d'âge, métier, niveau d'études, classe de salaire (pour les salariés),
commune de résidence, etc. Chacun de ces caractères permet de " trier " la
population, et donc de compter le nombre d'individus possédant telle modalité de tel
caractère : c'est ce qu'on appelle, dans un langage un peu ancien, un " tri à plat
". Cette opération permet de produire des tableaux très simples, qui ne comportent
qu'une ligne :
Mais on peut faire aussi des " tris croisés ", qui
répartissent la population simultanément selon deux caractères différents (niveau
d'études et niveau de salaire, par exemple (11)). On obtient alors des tableaux croisés
:
On s'étonnera peut-être de nous voir décrire dans un tel
détail une opération technique bien banale en regard d'autres auxquelles nous n'avons
consacré aucun développement : si nous insistons c'est parce que la pratique nous a
convaincu de l'importance de la démarche qui conduit aux tableaux croisés. Voici des
exemples : dans une entreprise, le service technique tenait une comptabilité des ventes
en classant celles-ci selon une nomenclature de produits ; de son côté, le service
commercial classait les ventes selon une nomenclature de clients. Un conseiller en gestion
fit construire le tableau croisé " produits x clients
" ; ce travail fut difficile, car il nécessita que l'on traite de nouveau les
documents comptables : mais il rendit manifestes des faits dont personne ne s'était
avisé, et qui sautaient aux yeux lorsqu'on lisait le tableau : en comparant entre elles
les " structures de vente " de chaque produit (ou les " structures d'achat
" de chaque client), on était conduit à s'interroger d'une façon nouvelle sur la
politique commerciale ou sur la diversification de la production. Autre exemple : dans une
institution d'une certaine taille (entreprise, service administratif), les dirigeants
connaissent généralement bien la répartition des effectifs d'une part par statut
(niveau de salaire, qualification, etc.), d'autre part par service d'affectation ; mais
ils n'ont bien souvent pas pensé à construire le tableau croisé " statut X affectation ". L'expérience montre que la construction de
ce tableau, toujours un peu pénible, est riche en enseignements.
D'où vient que cette opération simple soit si souvent féconde
? Rappelons que toute observation est fondée sur un découpage conceptuel défini a
priori ; chacune des variables qualitatives observées permet de classer les individus, de
répartir la population, ce qui correspond à un tri à plat. En croisant les découpages,
nous créons de nouveaux concepts (à chaque case d'un tableau correspond le concept qui
croise l'une avec l'autre des rubriques relevant de découpages différents), et nous nous
donnons la possibilité de répartir la population selon ces nouveaux concepts. On peut
d'ailleurs croiser plus de deux découpages : par exemple, si l'on croise trois
découpages, on obtient non un tableau mais un " cube " (qui peut être
représenté par une suite de tableaux), etc.
Pratiquer de façon systématique le croisement des caractères
peut faire sortir du cadre conceptuel initial de l'observation, et donc mener sur un
terrain inconnu. En effet, il n'arrive pratiquement jamais que le statisticien pense, a
priori, à tous les croisements possibles entre tous les caractères. Le plus souvent, le
cadre conceptuel prévu. comporte les découpages relatifs aux caractères observés, plus
un nombre limité de croisements. Un peu d'expérience permet de prévoir assez exactement
l'allure des résultats des tris à plats et des tris croisés " classiques " ;
mais les autres tris croisés peuvent être riches en surprises.
La surprise est parfois tellement grande - lorsqu'on découvre
que, dans la population étudiée, deux caractères sont en correspondance selon une
relation tout à fait inattendue - que l'on peut avoir l'illusion d'atteindre ainsi,
par-delà les données, la vérité de l'objet lui-même (12). Il n'en est rien : la
perception est de toute façon limitée par le cadre conceptuel, même si on le complète
par tous les croisements qu'il autorise : seulement les nouveaux concepts que comportent
ces croisements sont peu familiers et facilitent les surprises. Par exemple, connaître la
répartition de la population française par région apporte une certaine information, et
connaître la répartition de cette population par classe d'âge en apporte également.
Mais croiser les deux découpages, et étudier le tableau " région x classe d'âge
", apporte bien davantage (13).
Souvent les débutants en statistique confectionnent des
questionnaires incroyablement lourds (ce fut notamment le cas de Karl Marx, comme nous
l'avons vu). Ils ne parviennent pas, en effet, à se représenter la fécondité des tris
croisés, et l'information que l'on peut obtenir en constatant des relations statistiques
entre variables différentes ; ils veulent rédiger un questionnaire " intelligent
", et demandent à chaque unité interrogée la rédaction d'une véritable
monographie. Seulement ces questionnaires " intelligents " seront inutilisables,
soit parce qu'ils étaient trop lourds pour être remplis, soit parce qu'ils
nécessiteraient des codages et une exploitation beaucoup trop difficiles. Le statisticien
expérimenté sait, lui, que la plus grande faute qu'un statisticien puisse commettre est
le gâchis de collecte, la non-exploitation d'une information recueillie ou le
recueil d'une information inexploitable. Il prépare toujours des questionnaires simples,
" simplistes " aux yeux du non-spécialiste, et qui semblent ne contenir que des
questions " bêtes ". Mais le non-spécialiste est bien surpris lorsqu'il voit
les résultats que l'on obtient en exploitant et en croisant toutes ces questions "
bêtes ".
" Croiser les découpages " : cette phrase devient
pour le statisticien une règle, presque un réflexe. Celui qui l'a bien assimilée la
suit spontanément, y compris dans la vie courante où elle se révèle un outil
intellectuel puissant. Elle peut être mise en pratique dans toutes les occasions,
nombreuses, où l'on est amené à considérer le même objet sous des angles différents,
et donc à le saisir simultanément selon plusieurs découpages conceptuels.
Les découpages a posteriori
Un raisonnement économique global nécessite une information
elle-même globale ; or tout appareil statistique comporte des lacunes, pour des raisons
institutionnelles, politiques ou autres. Nous avons vu au chapitre VIII quelques-unes des
lacunes les plus criantes de l'appareil français actuel : revenus non salariaux, groupes
de sociétés, aides de l'Etat aux entreprises, etc. On peut rêver, bien sûr, d'une
société dans laquelle toutes ces " pudeurs " auraient disparu, et qui serait
donc transparente pour l'observation statistique. Mais il est sans doute, et pour
longtemps, plus réaliste de partir de cet état de fait : les lacunes existent.
La comptabilité nationale s'emploie à combler certaines
d'entre elles. Dans les faits, les choses se passent ainsi : les comptables nationaux se
répartissent en deux catégories, que nous nommerons " hommes des concepts " et
" hommes du chiffre ". L'" homme des concepts " définit les cadres
dans lesquels l'information doit être présentée pour se prêter au raisonnement
économique ; il fournit ce que nous appellerons des découpages a posteriori, des
concepts selon lesquels il faudra répartir les quantités observées ou estimées. Ces
découpages a posteriori sont souvent bien différents des découpages a priori sur
lesquels est fondé l'appareil statistique. Cette différence s'explique soit par des
impossibilités pratiques - c'est le cas des lacunes que nous avons évoquées -, soit par
des décalages de rythme (l'appareil statistique n'a pas encore évolué, et se trouve
donc en retard par rapport aux concepts qui fondent le raisonnement), soit par une
indifférence surprenante et choquante, mais qui existe : il ne nous semble pas que les
hommes des concepts, lorsqu'ils établissent leurs découpages, aient comme souci
principal de définir des êtres observables ; en fait, même s'ils avaient ce souci, la
division du travail entre les statisticiens et eux est telle que l'on voit mal comment ils
pourraient être vraiment informés des possibilités de la collecte. Au demeurant, les
cadres de la comptabilité nationale sont en eux-mêmes assez compliqués pour monopoliser
l'attention des techniciens qui sont chargés de les concevoir : il suffit de se plonger
dans ce système pour en éprouver à la fois la séduction et la complexité (14) .
Les " hommes du chiffre " sont placés dans une
situation étrange d'un côté, ils reçoivent les résultats statistiques
(éventuellement lacunaires, tardifs ou incohérents) que leur communiquent les
statisticiens ; de l'autre, -ils reçoivent les cadres conceptuels que leur fournissent
les hommes des concepts, et qui se présentent concrètement sous la forme de tableaux
dont lignes et colonnes portent des titres, mais dont les cases sont vides. Et ils doivent
remplir ces tableaux-ci à partir de ces résultats-là.
On pourrait penser que ces hommes du chiffre sont bien placés
pour conduire le dialogue entre les cadres conceptuels de la collecte et ceux des comptes
nationaux. Il n'en est rien, pour plusieurs raisons : le chiffrage se fait toujours dans
des conditions d'urgence qui empêchent une réflexion approfondie ; la susceptibilité
des services et des hommes est telle que ce dialogue demanderait des trésors de temps, de
patience et de diplomatie qui ne sont pas toujours disponibles ; enfin, pour des raisons
que nous verrons au chapitre suivant, les techniciens ont toutes les raisons de penser
qu'on ne leur saurait aucun gré du mal qu'ils se donneraient pour faire ce travail.
Donc ils remplissent leurs tableaux. Les différences entre
concepts sont corrigées à l'aide de procédures d'estimation qui, le plus souvent, ne
dépassent guère l'usage de la règle de trois. Les lacunes sont comblées parfois en
usant d'équations comptables (procédé redoutable, car une estimation obtenue " par
solde " est entachée du cumul de toutes les erreurs de mesure portant sur les autres
variables contenues dans l'équation), parfois en recourant au " dire d'expert
", procédé tout aussi redoutable. Les divergences entre sources différentes sont
réglées par voie d'" arbitrage ", c'est-à-dire au cours de discussions lors
desquelles le caractère des individus joue un rôle important. Des personnes qui
connaissent très bien la comptabilité nationale et ceux qui la font prétendent que
certains accidents dans les séries s'expliquent par des changements de responsables :
" X a un sale caractère, et il a toujours refusé les arbitrages qu'on voulait lui
imposer ; quand il est parti, il a été remplacé par Y, qui est mou, et la série s'est
mise à évoluer bien différemment. "
Il résulte de tout cela que les comptes nationaux - dont nous
ne mettons en doute ni l'utilité, ni l'importance - sont plus fragiles qu'on ne le croit
communément :
Les comptes des ménages sont calculés, pour l'essentiel, à
partir de sources relatives aux autres " agents " - c'est-à-dire par solde.
La moitié des informations utilisées pour l'établissement des
comptes de branche résultent d'estimations ou de calculs fondés sur des " clés
" de répartition, et non sur des observations directes.
Les trois quarts des informations contenues dans le tableau des
consommations intermédiaires ne reposent directement sur aucune statistique. Les calculs
réalisés pour les estimer relèvent d'une gymnastique mathématique vraiment
désespérée.
On mesure chaque année la valeur des investissements de deux
façons différentes. L'écart entre ces deux mesures est souvent de 2 à 3 % (par exemple
: indices 110 et 114). Cet écart est souvent résorbé de façon arbitraire.
Le taux de croissance du Produit intérieur brut est estimé, au
mieux, à 1 % près dans le compte définitif ; l'incertitude est plus grande encore dans
le compte provisoire, qui est politiquement et " journalistiquement " le plus
important, puisqu'il est publié au début de l'année qui suit l'année étudiée. Un
taux de croissance de 6 % dans les comptes définitifs doit être considéré comme une
" fourchette " de 5 à 7 %. Les discussions parfois vives portant sur un
dixième ou quelques dixièmes de point de croissance sont donc dérisoires.
Les estimations font l'objet d'un soin particulier lorsqu'on
évalue les comptes d'une année dite " de base " ; entre deux années de base,
les comptes sont évalués à l'aide de procédures plus légères. Le passage d'une
" base " de la comptabilité nationale à une autre " base " conduit
à réviser les estimations antérieures et permet donc de constater leur fragilité ; par
exemple, le passage de la " base 1959 " à la " base 1962 " a
provoqué une révision à la hausse du taux de croissance du P.I.B. de l'ordre de 0,7 %
sur les années 1963 à 196715. Lors de ce changement de base, l'écart sur les taux
d'autofinancement fit sensation. On avait considéré lors de la préparation du Ve Plan,
sur la foi des comptes nationaux, que le taux d'autofinancement des entreprises était
trop bas et, de surcroît, qu'il baissait ; on avait alors pris des mesures pour le faire
remonter au-dessus du seuil jugé souhaitable de 70 %. Une de ces mesures était la
compression des salaires. Or, on constatait, après le changement de base, que le taux
était beaucoup plus élevé qu'on ne le pensait et qu'il était plutôt en hausse
tendancielle. La compression des salaires perdait toute raison. Elle a été l'une des
causes des événements de 1968...
Doit-on considérer les comptes nationaux comme inutilisables ?
Nullement, mais leur usage n'est pas aisé ; il nécessite des précautions et surtout de
l'expérience. Seule l'expérience peut enseigner quelles sont, dans les comptes, les
parties que l'on peut utiliser avec con fiance et celles qui demandent la plus grande
prudence. Il nous arrive d'éprouver une inquiétude proche du vertige lorsque nous voyons
un économiste construire tout un raisonnement à partir d'une série dont le sens de
variation peut être modifié à l'occasion du prochain changement de base des comptes
nationaux. Et la lecture d'un rapport sur les comptes de la nation nous met toujours mal
à l'aise : cette publication si belle, présentée dans un cadre conceptuel d'une
technicité intimidante, bien rares sont ceux qui peuvent deviner la cuisine dont elle est
l'aboutissement ; plus rares encore ceux qui connaissent assez cette cuisine pour utiliser
ses produits avec discernement : or ce discernement est indispensable pour un usage
rigoureux. Faut-il, pour utiliser les comptes nationaux, être " de la maison ",
connaître les techniciens, avoir avec eux ces rapports détendus et confiants qui
permettent de savoir à quoi s'en tenir ? Il nous semble que oui, et il est même apparu
parfois que ce n'était pas encore suffisant. Il y a là, sans aucun doute, un problème.
Les modèles (16)
Un modèle, ce n'est rien d'autre que la mise en forme d'un
raisonnement. Dès que l'on a commencé à raisonner en économie - et, pour cela, à
postuler que telle relation existait entre telles quantités agrégées, et à tirer les
conséquences de cette relation -, on a construit des modèles.
Cependant l'expression a pris dans le courant des années 50 un
sens nouveau. Grâce au développement des moyens de calcul automatique, il est devenu
possible de résoudre des systèmes comportant un grand nombre d'équations ; si l'on
pousse la formalisation d'un raisonnement jusqu'à ses dernières limites (ce qui
nécessite parfois que l'on consente à l'appauvrir singulièrement), il est possible
d'écrire sous forme d'équations les relations qu'il implique : si ces relations
comportent des paramètres indéterminés, on estimera ces paramètres par des procédés
statistiques, en ajustant la relation sur les observations passées.
Le modèle se présente alors comme un ensemble d'équations,
dans lequel on distingue deux familles de variables. Les variables exogènes sont celles
que l'économiste considère comme extérieures à son raisonnement et qu'il doit se
donner a priori pour pouvoir commencer celui-ci : les unes sont imprévisibles (les
récoltes agricoles, qui dépendent du climat), les autres correspondent aux divers choix
possibles d'une instance politique (variables décisionnelles). En tirant les
conséquences des valeurs prises par toutes les variables dans le passé, et en outre des
valeurs prises par les variables exogènes dans le futur, le raisonnement - tel qu'il est
matérialisé dans le modèle sous la forme d'équations numériques - permet de calculer
les variables endogènes : ces variables découlent du raisonnement. Une fois
choisies les valeurs que l'on estime les plus vraisemblables pour les variables exogènes,
il est usuel de réaliser une " projection centrale ", qui indique le sentier
d'évolution considéré comme le plus plausible compte tenu des hypothèses retenues.
Pour étudier les conséquences d'accidents imprévus, ou de décisions de politique
économique nouvelles, on réalise des " variantes ".
Tout cela, on le voit, n'a rien de sorcier : l'ordinateur joue
son rôle d'outil perfectionné et puissant de calcul, non d'ailleurs sans imposer des
contraintes, mais la démarche n'a rien de fondamentalement nouveau ; il ne s'agit pas de
" faire des prévisions avec un ordinateur ", comme on le dit à tort, mais de
conduire un raisonnement qui comporte des calculs, lesquels sont faits automatiquement 17.
Il n'y a rien dans cette démarche - à l'exception des phases
de calcul automatique - qui ne soit normal et même indispensable, dès lors que l'on
s'emploie à raisonner en économie : il est normal de chercher à préciser les relations
que le raisonnement implique, normal aussi de tenir compte des valeurs prises par les
variables dans le passé. On peut seulement remarquer que, comme les calculs demandent que
les relations soient explicites, ils obligent à leur donner une précision que le
raisonnement en lui-même n'implique pas : où par exemple le raisonnement postule y =
f(x), on ajuste une relation comme y = ax + b. Ils obligent aussi parfois à
des simplifications vraiment grossières (comme celle qui consiste à estimer la
production anticipée à l'aide d'une fonction des productions passées). Enfin, le
raisonnement sur des agrégats suppose que soient remplies certaines conditions logiques
qui ne sont, dans les faits, vérifiées que de façon très approximative (18).
Il nous semble que si l'on garde fermement à l'esprit cette
définition (" un modèle est la mise en forme d'un raisonnement "), on évite
la plupart des erreurs d'interprétation auxquelles les modèles ont donné occasion. On
peut aussi tirer de cette définition quelques conséquences.
Certains supposent que le modèle doit chercher à "
reproduire la réalité ", et s'égarent dans une " logique inductive " qui
permettrait, à partir des faits, d'inférer les lois auxquelles la réalité obéit. Pour
notre part, nous pensons avec Karl Popper que l'induction n'est pas de nature logique,
mais de nature intuitive et esthétique : il n'y a pas de pont qui conduise nécessairement
du constat de tels faits au postulat de telle relation, et ce postulat demande donc
toujours que l'on fasse un " saut (19) ". La logique permet seulement de
déduire les conséquences du postulat : et si ces conséquences sont en contradiction
avec les faits le postulat sera " falsifié " : par contre il ne pourra jamais
être logiquement vérifié. Nous n'entrerons pas davantage dans le débat entre les
" inductivistes ", les " conventionnalistes " et les "
instrumentalistes ", qui demanderait des développements trop éloignés de notre
sujet. Indiquons seulement que nos sympathies iraient plutôt à l'instrumentalisme, pour
lequel le critère ultime selon lequel on peut juger une théorie est celui de l'utilité.
Mais toute la question est de savoir comment on apprécie cette utilité :
l'apprécier d'après l'exactitude des prévisions que la théorie permet n'est pas
suffisant. Nous préférerions que l'on parle de " fécondité " plutôt que
d'utilité, cette fécondité s'appréciant à la fois au plan de l'action et au plan des
prolongements théoriques (20).
D'autres, sans s'inquiéter des fondements logiques de tout
cela, font bravement confiance à ces échafaudages compliqués (21), à la science des
modélisateurs, à la puissance des ordinateurs, etc. ; et ils gobent les résultats des
projections - dont la précision numérique est génératrice d'illusions - comme si
c'étaient des prévisions certaines, sans se soucier des raisonnements dont il
proviennent. La déception est ensuite d'autant plus profonde que l'on a été plus naïf,
et parmi ceux qui ne veulent plus " croire aux modèles ", il y en a beaucoup
qui n'y ont que trop cru.
Dans les faits, la mise en uvre d'un modèle
s'insère dans une démarche complexe. Un modèle est non un automate bien réglé qui
calcul des variables endogènes une fois qu'on l'a nourri en variables exogènes, mais
l'instrument de calcul d'une équipe d'économistes dont la réflexion est loin de se
limiter à sa conception et à sa mise en uvre. Les séries sur lesquelles le
modèle est étalonné sont corrigées pour tenir compte de leurs accidents et de leurs
défauts : des " variables d'écart " sont introduites, notamment pour éviter
des ruptures trop brusques entre les dernières valeurs connues et les résultats des
projections ; des perfectionnements sont apportés de façon continue, de sorte que le
modèle ne reste jamais identique à lui-même. Ces grands ensembles d'équations ont des
propriétés mathématiques toujours un peu mystérieuses en raison de leur taille même :
on essaie de les apprécier en procédant à des simulations et en calculant des
multiplicateurs, opérations à l'occasion desquelles les anomalies éventuelles peuvent
être repérées (22) : enfin et surtout, les résultats des calculs sont considérés non
comme la parole d'un oracle, mais comme une étape du raisonnement qui doit elle-même
être interprétée et dépassée. Plutôt que de parler de modèles (" le modèle
DMS ", " le modèle METRIC "), on ferait mieux de parler d'équipes qui se
servent de modèles.
Certains condamnent les modèles, non en raison des
risques d'effets pervers que comporte leur usage, mais parce qu'ils condamnent tout
simplement l'usage du raisonnement en économie : celle-ci serait, disent-ils, trop
compliquée pour pouvoir être représentée de façon correcte par un raisonnement. Et
certes il est vrai qu'un raisonnement fini, comportant un petit nombre de concepts et de
relations, ne peut prétendre égaler la complexité du réel. Cependant, dès que nous
voulons réfléchir en économie, nous raisonnons ; invinciblement, le plus sceptique se
met à postuler des relations, dès qu'il a une décision à prendre ne serait-ce que pour
gérer son patrimoine. N'oublions pas la phrase de Wittgenstein : " Un doute sans fin
n'est pas même un doute (23) " ; ceux qui prétendent ne pas raisonner se laissent
en fait aller à des préjugés ou à des intuitions désordonnées : puisqu'il faut de
toute façon raisonner, raisonnons donc au mieux de nos possibilités et de notre
information, sans prétendre faire autre chose que d'éclairer notre jugement, et de
l'éclairer d'une façon limitée.
On comprend aussi pourquoi il est exagéré de dire que l'on
fait des " prévisions " avec un modèle. Certes, il fournit des séries
chiffrées et datées : mais celles-ci ne sont que la conséquence numérique des
hypothèses de calcul et des choix de variables exogènes. L'intérêt des séries
prolongées par le futur fournies par un modèle est d'illustrer celui-ci, de montrer
quelles sont les conséquences numériques du choix des exogènes et des hypothèses
théoriques. Les utiliser comme des " prévisions " confine à l'absurde, tant
l'incertitude sur certaines exogènes est forte : comment varieront le cours du dollar et
le prix du pétrole ? En fait, l'examen des variantes est bien plus instructif que celui
du compte central, car il montre la sensibilité des variables endogènes à des
variations dans les variables exogènes.
La réalité économique peut être considérée sous bien des
aspects différents, et des institutions dont l'approche diffère ne construiraient
certainement pas le même modèle, sauf bien sûr si le consensus était général. Les
modèles actuellement utilisés en France découlent du long dialogue qui a été
entretenu entre le Plan, l'I.N.S.E.E., la direction de la Prévision et quelques autres
organismes. Ils se réfèrent tous à une représentation néo-keynésienne de
l'économie, dans laquelle la production, la consommation, les échanges extérieurs,
l'investissement, jouent des rôles bien connus : il n'existe pas une grande variété de
fonctions de production, d'investissement, de consommation, etc. Mais on peut penser, par
exemple, que si les syndicats de salariés avaient les moyens de concevoir un modèle, ils
s'efforceraient de formaliser les relations qui peuvent relier la marche de l'économie
avec la formation professionnelle, le statut des salariés et leur qualification technique
; avec un tel modèle, on pourrait peut-être mettre en évidence les dégâts que cause
l'extension du chômage, dégâts que les modèles actuels ne peuvent pas mesurer. On peut
penser aussi que ces modèles ne prennent pas suffisamment en compte les effets
institutionnels : concentration et internationalisation des grands groupes ;
nationalisations ; relations entre les banques et l'industrie, etc. Ils sont quelque peu
désarmés aussi devant les phénomènes d'innovation (qui ont la redoutable propriété
de rendre presque impossible la séparation des effets de prix et des effets de volume).
Chaque raisonnement conduit à un modèle particulier. C'est
pourquoi toute organisation comportant la référence à un modèle unique (Le modèle
... ) serait dangereuse, même s'il est offert à chacun des partenaires sociaux
d'accéder " démocratiquement " au modèle et de lui faire faire ses propres
variantes : ces variantes elles-mêmes seraient marquées par le raisonnement qui définit
le modèle.
1. Cf. N. Bourbaki, introduction du livre 1 des " Eléments
".
2. Cf. C. Ménard - La formation d'une rationalité
économique : A.A. Cournot, Flammarion 1978
3. R. Boyer, La croissance française de l'après-guerre et
les modèles macroéconomiques, C.E.P.R.E.M.A.P., mars 1976.
4. D. Fixari, " Le calcul économique, ou de l'utilisation
des modèles irréalistes " (Annales des Mines, avril 1977).
5. F. Bédarida, " Statistique et société en Angleterre
au XIXe siècle ", in Pour une histoire de la statistique, I.N.S.E.E., 1977.
6. F. Vincent, l'organisation dans l'entreprise et dans la Nation (1941).
7. G. Ader, " Le système français de statistique industrielle ", Economie
et Statistique, n° 12 de mai 1970.
8. Etudes statistiques, série M, n° 4, Rev. 2, O.N.U., New York, 1969.
9. " Il faut désormais se placer au centre où l'esprit connaissant est
déterminé par l'objet précis de sa connaissance et où, en échange, il détermine avec
plus de précision son expérience. C'est précisément dans cette position centrale que
la dialectique de la raison et de la technique trouve son efficacité. " G.
Bachelard, Le rationalisme appliqué (P.U.F., 1949).
10. 0. Morgenstern, Précision et incertitude des données économiques, Dunod,
1972 ; et V. Léontieff, " Theoretical assumptions and non observed facts ", American
Economic Review, mars 1971.
11. Avant la dernière guerre, comme l'usage des moyens automatiques était peu
répandu, la majorité des résultats étaient présentés sous la forme de " tris à
plat " ; les " tris croisés " étaient des opérations extrêmement
coûteuses que l'on ne réalisait qu'en cas de nécessité évidente. Le développement
des moyens automatiques a modifié la situation : le statisticien peut maintenant, à
l'aide de logiciels d'un usage facile, produire sur simple instruction tous les tableaux
croisés imaginables : la difficulté est de parvenir à lire la masse de documents ainsi
produite
12. L'étude des tris croisés est systématisée par l'analyse des
correspondances