RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

Le métier de statisticien

CHAPITRE XI

De la description à l'explication

Retour à la table des matières

Nous avons évoqué dans la première partie la relation entre théorie et statistique ; nous allons maintenant revenir sur cette relation, et examiner comment elle se manifeste en pratique. Elle se manifeste, cela ne veut pas dire qu'elle soit perçue : la division du travail enferme chacun dans sa spécialité - statisticien, comptable national, économètre, modélisateur, etc. ; lorsqu'on pense à la relation entre le statisticien et l'économiste, l'image qui se présente à l'esprit n'est pas celle d'une association organique, d'une collaboration, mais plutôt la suivante : un restaurant, dans lequel la cuisine (passablement douteuse) est cachée au client, et ne communique avec la salle à manger que par un étroit guichet par lequel on fait passer les plats. Le cuisinier est un statisticien, qui fabrique les plats d'information à partir de produits parfois avariés ; l'économiste déguste ces plats, sans se soucier de ce qui se passe de l'autre côté du guichet, et sans prêter grande attention aux mises en gardes éventuelles du cuisinier. Ainsi, la relation que nous avons décrite, bien qu'elle soit logiquement fondamentale, n'est guère présente dans l'esprit des praticiens. Il est vrai qu'elle nécessite un dialogue comportant de longs délais ; son rythme propre est beaucoup plus lent que celui de la technique de production.

Plaçons-nous dans l'hypothèse la plus favorable : imaginons un économiste qui, sans être soumis à des délais très brefs pour la production de quelque étude, travaille dans un domaine sur lequel l'information statistique est abondante, et se décide à faire un effort sérieux pour maîtriser cette information.

Il s'engage alors dans une aventure très particulière. Il est bien rare en effet que l'information disponible corresponde exactement aux définitions que comporte la représentation théorique qu'il se fait a priori de son domaine ; de plus, un premier et rapide examen des statistiques lui révèle des concepts qu'il ignore, un vocabulaire qui lui est étranger ; il lui montre en outre entre les nombres des proportions qui comportent des accidents surprenants - à moins qu'elles ne soient d'une trivialité décourageante. Il faut alors débroussailler. Certains individus -soit talent, soit expérience - font ce travail plus vite et plus sûrement que d'autres : il y faut une mémoire précise et fidèle, de la persévérance, la capacité de maintenir le fil d'un raisonnement dans une grande diversité d'occupations toutes longues et monotones, la patience enfin de travailler et de retravailler sur les mêmes nombres jusqu'à ce qu'ils se soient imprimés dans l'esprit. Bref : il y faut de l'entêtement et du " coup d'œil " ; mais que l'on soit rapide ou lent, les difficultés sont les mêmes.

Ce travail se fait à l'aide de papier pour graphiques, de crayons de couleur, et d'une machine à calculer - ou d'un ordinateur si les données sont stockées dans un fichier d'accès commode. L'information est apportée par des publications et par des listings dont le déploiement a tôt fait de recouvrir la table de travail et de joncher le sol, même chez les plus ordonnés. Les données ont coutume, comme si elles étaient organisées par quelque esprit malin, de résister à celui qui veut les étudier : non seulement on ne les trouve pas rangées selon la nomenclature que l'on souhaiterait, mais les divers aspects que l'on veut confronter ont été étudiés avec des nomenclatures différentes ; les dates, périodicités et champs des enquêtes changent d'une source à l'autre ; quant aux séries, certaines comportent des pics ou des creux incompréhensibles, ou bien varient au rebours de ce que suggère le bon sens, ou encore elles évoluent très différemment selon la source que l'on utilise. Dans tout ce fatras, les traces des faits significatifs sont inextricablement mêlées avec les erreurs de toutes sortes qui ont pu fausser les résultats. Il faut procéder par recoupements, interroger les statisticiens sur leurs méthodes, transcrire des résultats d'une nomenclature dans une autre, etc.

Tout cela prend du temps. Les journées passent vite quand on fait ce genre de travail, et la même impression décourageante se renouvelle chaque soir : celle de patauger dans des détails, et de ne plus bien discerner ce que l'on veut faire. Parfois, après avoir par exemple tracé plusieurs graphiques ou réalisé de nombreux calculs avec une attention toute mécanique, il faut se secouer pour vaincre une sorte d'hébétude. Si l'on utilise l'informatique, ou si l'on peut se faire aider par des collaborateurs, l'attention est accaparée par le programme que l'on écrit, ou par les instructions qu'il faut donner. On court le risque de s'installer dans la routine du malaxage des chiffres, routine qui devient une fin en soi ; le souvenir des questions que l'on se posait au départ tend à s'estomper et à disparaître.

On comprend bien que les économistes reculent devant le caractère pénible et long de toute utilisation sérieuse des statistiques, et plus encore devant le risque d'y perdre à la fois son temps et le fil de ses idées. Il est plus facile, c'est vrai, de conserver la cohérence et la clarté de sa pensée si l'on s'abstient de tout contact un peu direct avec la statistique. Mais on peut se demander si le risque couru alors n'est pas encore plus grave, parce qu'il est plus insidieux : la cohérence procure un confort intellectuel dans lequel on s'enferme.

Un peu d'expérience permet d'ailleurs d'éviter et le découragement précoce, et l'enlisement dans la routine. On finit par savoir qu'il y a une phase pénible par laquelle il faut passer - un peu comme le violoniste qui perfectionne pendant des heures le même coup d'archet sait qu'il finira par le réussir. La recherche dans les chiffres n'est pas conduite au hasard : on a bien, au départ, quelque idée de ce que l'on veut faire, et donc de ce qui est important et de ce qui l'est moins. Cette idée se modifie et se précise au vu des données. Même si l'exécution des calculs auxiliaires et des vérifications provoque de nombreuses digressions, parfois très longues, on tiendra fermement son cap (au besoin en tenant un journal), de façon à savoir à tout moment où l'on veut aller. Si l'on a assez de fermeté et d'entêtement - ou, ce qui revient au même, si l'on est inséré dans une institution dont la discipline de travail soutient et encourage suffisamment -, et si les statistiques que l'on utilise contiennent réellement une information ( ce qui est très généralement le cas), on finit par recevoir la récompense de tous ces efforts.

A force de passer et de repasser sur les mêmes concepts, les mêmes nombres, les mêmes courbes, ils finissent par s'imprimer dans la mémoire ; à force de les vérifier, de les recouper, de contrôler l'origine des " points saillants ", ceux-ci finissent par devenir familiers ; l'œil, habitué à certains profils, à certaines structures de tableaux, opère de mieux en mieux le tri de l'essentiel et de l'accessoire : l'analyse des données est ici une aide précieuse. En manipulant les nomenclatures, en s'interrogeant sur leur origine, en discutant avec les statisticiens qui ont fait la collecte, on apprend beaucoup sur le cadre institutionnel et réglementaire qui est souvent essentiel (que l'on pense à ce que serait une étude des prestations sociales, ou des qualifications professionnelles, qui le négligerait).

Enfin la charpente se dessine ; c'est toujours un moment très surprenant : l'information, qui paraissait au départ pulvérulente et amorphe, s'ordonne autour de quelques notions qui la structurent ; quelques séries résument toutes les autres, avec une telle évidence parfois que l'on est surpris de ne pas les avoir remarquées dès le début.

Invinciblement la description appelle l'explication. L'examen des données lui-même conduit à poser des questions : les accidents dans les courbes reçoivent souvent une explication simple (grève, changement de tarif... ou erreur dans un raccordement de séries), mais les corrélations entre séries différentes appellent des schémas explicatifs plus riches, que l'économiste spécifie en tirant parti conjointement de son acquis théorique et de sa connaissance des sources d'informations disponibles. Ces schémas explicatifs restent cependant hypothétiques, et comportent des chaînes déductives très courtes : l'information dont on dispose n'est pas, en général, complète et sûre au point de pouvoir fonder des échafaudages logiques de quelque ampleur.

La démarche que nous venons de décrire est lente. Elle comporte une longue maturation, dont le fruit modeste peut sembler décevant : une description simple ; une explication qui ramène les phénomènes observés à quelques principes peu nombreux, et qui n'a jamais qu'une portée relative ; des raisonnements courts. Celui qui a suivi cette démarche a l'avantage, il est vrai, d'avoir présents en tête les ordres de grandeur essentiels, de pouvoir situer et interpréter rapidement une information nouvelle, de bien connaître le langage et le découpage institutionnel de l'objet étudié : mais il est et reste, sans aucun doute, un empiriste ; et à ce titre il s'expose au mépris de tous ceux pour lesquels il n'est point de salut en dehors de la théorie.

Pour notre part, nous prenons résolument le parti de cet empiriste ; et nous prétendons que si l'on avait une conscience théorique plus claire du rôle et des limites de la théorie, on consacrerait moins d'efforts à " lever des hypothèses " en économie mathématique, ou à faire la millionième exégèse des textes sacrés de Marx, et l'on accorderait plus d'attention aux indications fournies par l'instrument d'observation. Ce faisant, on serait d'ailleurs fidèle à l'enseignement des grands théoriciens qui, comme Smith, Marx ou Keynes, ont longuement mûri leur construction théorique par un usage critique de l'information. Il y a une certaine façon de révérer la théorie qui est la négation de l'activité théorique elle-même.

Que l'on ne s'y trompe donc pas : il n'est pas question pour nous de nous livrer à quelque attaque obscurantiste contre la théorie et l'abstraction, ni d'élever une de ces revendications qui, sous couvert d'un retour aux faits et au concret, visent à ramener en contrebande des théories justement délaissées. Bien au contraire, abstraction et théorie nous paraissent au cœur même de toute activité humaine, et même de la plus quotidienne - comme, par exemple, de cuisiner un plat ou de bricoler. Mais elles ne jouent pas de la même façon dans toutes les occasions. Ce point mérite une brève digression.

En mathématiques, et dans toutes les disciplines qui, comme la mécanique, peuvent se ramener à quelques principes peu nombreux, le raisonnement part d'un nombre limité de postulats et déroule des chaînes déductives longues. Ainsi la mécanique peut être construite à partir du principe de moindre action. L'art du logicien est d'une part de découvrir, parmi toutes les batteries de postulats possibles, celle qui sera la plus féconde ; d'autre part, de construire, parmi toutes les chaînes déductives possibles, celle qui se prête le mieux à la présentation et à la mémorisation des conséquences des postulats'. Si le produit final de cette démarche est nécessairement un texte formalisé, il n'en résulte pas moins d'une démarche qui, elle, n'est pas formalisable ; on connaît ces anecdotes sur les considérations intuitives, esthétiques ou mystiques qui ont aidé Newton, Einstein, Cantor et d'autres vers leurs découvertes. Tout texte formalisé comporte d'ailleurs nécessairement des " abus de langage " sans lesquels il serait d'une lourdeur pédante qui le rendrait illisible.

La recherche logique consacre beaucoup de temps et d'efforts à la production d'instruments simples, robustes, dont les propriétés sont bien connues, et qui peuvent être utilisés dans des circonstances très variées. L'usage de ces instruments requiert un apprentissage pénible car, en raison même de leur simplicité et de leur généralité, leur caractère éminemment pratique et opératoire est masqué. Mais cet apprentissage est amplement récompensé. Ainsi l'apprentissage de la théorie des ensembles - et notamment de la relation d'équivalence - procure, pour un effort bien moindre, la maîtrise des procédés de la logique formelle décrits par Aristote et lourdement codifiés par la scolastique. Le maniement de structures plus riches en axiomes - espaces vectoriels, espaces métriques, etc. permet d'accélérer singulièrement le raisonnement dans un grand nombre de situations concrètes.

La plupart des situations que l'on rencontre dans la vie courante, dans l'action, requièrent, elles aussi, des découpages conceptuels et des déductions ; mais le choix des structures logiques n'est pas, dans la vie courante, l'objet d'une réflexion explicite ; par ailleurs, les éléments à prendre en considération sont trop nombreux pour qu'il soit possible de les articuler sous quelques principes simples ; enfin les changements fréquents de situation obligent à changer souvent de représentation : pour reprendre un exemple qui nous a déjà servi, l'homme qui conduit sa voiture utilise un découpage conceptuel qui correspond à cette action ; dans son travail, il met en œuvre un autre découpage, qui lui permet de différencier et de classer ses instruments, la matière sur laquelle il travaille, etc.

Au point de vue formel, les structures logiques utilisées dans l'action se caractérisent par le grand nombre des principes considérés, la souplesse et la fréquence de leurs réaménagements (car le propre de l'action est qu'elle comporte des surprises, des changements, alors que les structures de la logique mathématique ont l'éternité devant elles), et aussi la brièveté des chaînes déductives : il est bien rare que l'on fasse, dans l'action, des raisonnements comportant plus de deux déductions. Ceci est bien connu des informaticiens, qui distinguent l'" informatique scientifique " (peu de données, beaucoup de calculs) et l'" informatique de gestion " (beaucoup de données, peu de calculs).

Cependant, lorsque la vie courante nous fait retrouver fréquemment la même situation, nous avons l'occasion d'affiner sa représentation conceptuelle, et aussi de compliquer les chaînes déductives : un véritable investissement théorique permet de mieux discerner les événements, et de prévoir - par une sorte de court-circuit logique - les conséquences de nos actions au moment même où nous évoquons en imagination. Toute personne qui, par exemple, a changé de travail, est passée par une période pendant laquelle elle s'est sentie " perdue " ; puis elle a construit progressivement le cadre conceptuel de sa nouvelle activité, elle s'y est " retrouvée " ; enfin, avec le temps, et à proportion de son talent et de son énergie, elle " maîtrisera " son activité - c'est-à-dire qu'elle sera capable de la reconstruire en esprit de façon satisfaisante.

Ainsi l'activité logique est présente au sein même de la vie courante ; le développement d'une activité logique spécialisée répond, dans l'ordre intellectuel, à la spécialisation dans la production des outils et des machines, et au développement de l'investissement industriel.

Ce n'est donc pas en termes de légitimité de l'abstraction qu'il faut poser le problème des rapports entre la théorie et la pratique, puisque l'abstraction est présente au sein même de la pratique la plus courante. Mais on doit se demander si l'effort d'investissement théorique, lorsqu'il prend de l'ampleur, est réellement appelé par les besoins de l'action, ou s'il répond à quelque visée d'un autre ordre. Il arrive que des entreprises achètent des machines ou des immeubles non pour les besoins de la production, mais pour des raisons de prestige ou pour calmer l'angoisse existentielle de leurs dirigeants : le luxe de certains sièges sociaux va bien au-delà de la prospérité qu'il est nécessaire de montrer pour avoir du crédit. De même, l'activité théorique, en se spécialisant, a développé des séductions qui n'ont rien à voir avec son efficacité. L'élégance de ses produits flatte le sens esthétique ; leur simplicité masque, dans les grandes œuvres, la longueur de leur maturation. Des jeunes gens, et d'autres moins jeunes, se laissent séduire par les facilités d'une abstraction trop rapide.

On peut se demander aussi si certains développements théoriques ne correspondent pas, en fait, à des manœuvres idéologiques visant à empêcher que des problèmes sociaux importants puissent être posés. Ainsi, par exemple, l'importance théorique accordée au modèle de la concurrence parfaite serait destinée à masquer la réalité des oligopoles ; et, d'une façon plus générale, le recul devant le contact des faits et de l'histoire, la tendance à se réfugier dans une représentation normative de l'économie - à partir de laquelle on peut raisonner comme si l'on avait l'éternité devant soi -, le refus de la statistique, seraient l'expression d'une tendance à la fois idéaliste (sur le plan philosophique) et réactionnaire (sur le plan politique). Mais il convient de ne pas émettre de tels jugements avec précipitation, car on risque d'instruire ainsi des procès d'intention, et aussi de commettre des contresens en raison de l'ambiguïté du débat idéologique (2).

Le rôle de la théorie en économie devrait être modeste, car l'économie a ceci de commun avec la vie courante - et aussi avec la stratégie - que les surprises y sont fréquentes ; d'un pays à l'autre, d'une époque à l'autre, les " lois " elles-mêmes changent - l'économie française, par exemple, à pu être décrite par plusieurs modèles différents depuis la dernière guerre, chacune des phases de son évolution relevant d'une logique particulière : obstacles et moyens n'étaient plus les mêmes (3). Dans ces conditions, le rôle de la théorie se limite à trois points, essentiels il est vrai : d'une part elle doit répondre à l'exigence formelle, qui organise l'expérience avec méthode et rigueur ; d'autre part elle doit répondre à l'exigence critique, qui situe la construction formelle dans une claire conscience du caractère historique de l'objet étudié ; enfin, elle doit explorer les voies que le raisonnement emprunte le plus souvent dans sa démarche - ces " modèles irréalistes (4) " qui se présentent inévitablement à l'esprit lorsqu'il s'emploie à théoriser, et qui comportent des pièges que l'on doit connaître. On ne doit demander à la théorie rien de moins - mais rien de plus - que de développer chez le praticien l'exigence de cohérence et de rigueur dans le raisonnement, et que de lui rendre familier le mécanisme des raisonnements usuels en économie : ainsi il sera préparé à l'étude de situations concrètes, et il sera en mesure d'en rendre compte selon une création théorique féconde.

Si la réflexion économique se rapproche du formalisme de l'action, elle aura les mêmes traits que celui-ci : grande importance donnée aux découpages du réel (ici ce sont les nomenclatures) ; souplesse de ces découpages, qui doivent être capables de s'adapter rapidement aux surprises et aux nouveautés ; attention portée aux phénomènes ; brièveté et prudence des raisonnements déductifs. L'importance donnée aux découpages découle de l'importance donnée aux phénomènes, qu'ils organisent.

Si l'on est d'accord avec les considérations qui précèdent, on nous suivra sans doute dans la conséquence que nous en tirons au plan de la rhétorique : les textes économiques doivent utiliser de préférence le style littéraire, et non le style mathématique. Le style mathématique convient bien à la description des instruments logiques, et à la présentation de longues chaînes déductives, auxquelles la cohésion des notations peut conférer une sorte d'évidence formelle. Mais lorsqu'il s'agit de présenter un découpage complexe, sur lequel on opère des raisonnements courts, c'est le style littéraire qui s'impose : car il est le plus propre pour expliquer le point de vue auquel on s'est placé, les nécessités auxquelles on a été confronté, les raisons institutionnelles ou autres des choix que l'on a opérés ; le style mathématique est le meilleur pour décrire un édifice logique achevé, mais le style littéraire est le seul capable d'expliquer les choix sur lequel cet édifice est fondé, ou de présenter une pensée en évolution, dont la communication peut avoir un intérêt même si elle n'est pas formalisée. Par style littéraire, nous n'entendons pas style bavard ni style émotif, et nous ne pensons pas non plus à ces considérations sur l'histoire de la pensée économique auxquelles l'enseignement s'est longtemps borné : nous avons en vue un style descriptif, où les chiffres occupent une place nécessaire mais discrète ; où les choix sur lesquels la description est fondée sont décrits ; où les résultats des calculs d'analyse des données ou d'économétrie sont présentés, mais sans le luxe de détails techniques qui les entoure trop souvent ; où enfin la construction théorique rend compte de la description, et reste en deçà des bornes de la témérité logique.

" Les meilleurs livres sont ceux que ceux qui les lisent croient qu'ils auraient pu faire ", dit Pascal : cette phrase est la meilleure réfutation du pédantisme. Mais rares sont les lecteurs assez conscients des difficultés de l'écriture pour savoir gré à celui qui écrit simplement : l'attitude la plus fréquente est de supposer que, si le résultat est simple, c'est qu'il provient d'un travail qui lui-même n'était pas très compliqué. L'effort si pénible de synthèse et de clarification est très faiblement " rémunéré " en considération et en audience. Il est même parfois dangereux : des conclusions claires et simples prêtent à discussion, et donc à critique. Le recul devant l'effort, la timidité, le besoin de se protéger, toutes ces raisons conduisent à présenter des textes péniblement techniques, qui se perdent dans les sables avant de déboucher sur une conclusion claire. Le phénomène est d'autant plus fort que le rédacteur est placé dans une situation professionnelle plus instable : comment peut-on prendre le moindre risque, en période de chômage, quand on a le statut d'un modeste chargé d'études sous contrat, révocable à merci ? Or c'est bien souvent dans ces conditions que travaillent les économistes praticiens. Ce n'est que lorsque l'employeur s'est soucié de procurer un statut convenable à l'économiste, et lorsqu'il a montré qu'il savait apprécier la qualité réelle des travaux que celui-ci lui fournit, qu'il peut raisonnablement se montrer exigeant.

Le prestige des mathématiques, les positions de force qui ont été conquises dans l'Université par des mathématiciens, la mode enfin ont poussé certains spécialistes des sciences humaines à " se mettre aux maths ", comme ils disent. Le résultat est rarement heureux ; l'historien et le sociologue, abondamment pourvus pourtant de discernement et de qualités littéraires, offrent un triste spectacle lorsqu'ils pataugent pédantesquement dans les tableaux de corrélation, les analyses factorielles, les régressions, etc. Ils débutent dans des matières où tout débutant - même bon mathématicien - commet des erreurs ; ils renchérissent sur la technique, avec des ardeurs de néophytes, et sans doute aussi pour éblouir leurs collègues. Il nous est arrivé plusieurs fois de recevoir la visite d'un sociologue ou d'un historien qui, " n'ayant jamais rien compris aux maths ", demandait aide pour réaliser des tests, des analyses factorielles, des régressions, etc. Dans une bonne proportion des cas, les données traitées ne nécessitaient nullement de tels calculs, car quelques présentations graphiques bien choisies suffisaient à en rendre compte. Mais le visiteur s'inquiétait : un si maigre travail statistique suffirait-il pour impressionner tel jury, ou pour contenter la rédaction de telle revue ? Il y a, nous expliquait-on, dans ce jury ou cette rédaction, un redoutable M. Untel (parfaitement inconnu chez les statisticiens, mais grand défenseur de la statistique au sein de sa spécialité), qui ne s'estime satisfait que si l'on a fourni un certain volume de calculs, de tests, etc. Ces singeries mathématiques n'honorent ni ceux qui les imposent, ni ceux qui s'y soumettent : mais ces derniers ont l'excuse d'y être contraints.

Situation inquiétante : car s'il est incontestable que l'instrument statistique peut beaucoup apporter aux sciences humaines, il est non moins incontestable que son utilisation indiscrète et pédante risque de dégoûter les esprits les plus fins et les plus exigeants, qui sont justement sensibles à la rigueur véritable des travaux et à leurs qualités rhétoriques. Le maniement de l'économétrie ou de l'analyse des données, et surtout l'interprétation correcte de leurs produits, nécessitent une formation mathématique et une expérience que les spécialistes des sciences humaines n'ont généralement pas. Il nous semble que la collaboration entre les spécialistes des sciences humaines et des statisticiens de métier donnerait de bons résultats : il y a ici peut-être une " bidisciplinarité " à aménager.

Si l'usage des statistiques réclame à l'économiste un effort pénible qui risque de le rejeter dans les bras de la théorie pure, en revanche le statisticien éprouve les plus grandes difficultés pour situer son travail dans le cadre d'une représentation théorique. Nous avons vu l'incohérence de ces statisticiens anglais du XIXe siècle, qui prétendaient à la fois s'attacher exclusivement à la " connaissance des faits " à l'exclusion de toute opinion, et travailler dans un souci d'action et d'efficacité : que ce souci lui-même conduise à des choix en ce qui concerne les sujets et la façon de les aborder, et donc qu'il implique des " opinions ", voilà qui ne semble pas les avoir effleurés (5). Nous avons relevé une contradiction analogue dans les travaux de Vincent, le créateur de la comptabilité nationale française : l'économie nationale a, selon lui, besoin d'une comptabilité pour être dirigée, exactement comme une entreprise ; mais le cadre comptable qu'il décrit est défini d'une façon toute formelle, sans aucune référence aux besoins de la politique économique (6). Plus près de nous, le réformateur de la statistique industrielle dans les années 60, Gérard Ader, se rattache à la tradition dirigiste de la comptabilité nationale par ses références à une organisation systématique, cohérente, complète ; mais il contredit cette tradition en cherchant dans la théorie néoclassique des arguments en faveur de l'utilité de ses enquêtes : la concurrence ne peut jouer que si les agents disposent d'une information parfaite ; les statistiques contribueront à la bonne marche de l'économie en améliorant l'information et donc en favorisant la concurrence (7). La conception de la statistique comme une simple technique de la mesure, travaillant dans un cadre conceptuel donné sur lequel elle n'a pas à s'interroger, semble poussée à l'extrême dans certains travaux américains : par exemple, dans un volumineux manuel à l'usage des statisticiens des pays pauvres, le bureau du Census décrit dans le détail la technique des recensements de population, des enquêtes industrielles, etc. ; mais le choix des nomenclatures est réglé de la façon la plus expéditive : les techniciens sont invités à utiliser les nomenclatures de l'O.N.U. sans se soucier du rapport qu'elles peuvent avoir avec les structures et les besoins des pays étudiés. Certains statisticiens de l'O.N.U. se font apparemment des illusions sur la portée des instruments qu'ils construisent : ainsi, les auteurs de la C.I.T.I. (classification internationale type, par industrie, de toutes les branches d'activité économique) prétendent que cette nomenclature est " pleinement compatible avec la structure économique des différents pays du monde et avec leurs méthodes et besoins statistiques " (8). En l'occurrence, l'universalité attribuée à l'instrument traduit l'imposition, à travers le monde entier, des découpages propres aux pays riches.

Ce qui se produit au point précis où l'instrument d'observation et la démarche théorique sont en contact est sans aucun doute très important ; mais tout se passe comme si ce point était situé sur une ligne de crête, de sorte que la pesanteur (c'est-à-dire ici la facilité) tend à faire dévaler le statisticien sur l'une des pentes et l'économiste sur l'autre, et à les enfermer chacun dans sa spécialité. On peut, sans nier la spécificité de chacun, chercher à resserrer la dialectique entre la théorie et l'observation (9). A notre avis, ce resserrement ne peut se faire que dans un cadre institutionnel, en raison de la lourdeur des instruments d'observation et de leurs longs délais d'adaptation et de réponse. De ce point de vue, c'est une chance que l'I.N.S.E.E., en France, rassemble les deux fonctions d'observation et d'étude, qu'une illusion positiviste a conduit à disjoindre dans les autres pays. Mais il est des cloisons internes qui sont parfaitement étanches : il nous semble que, pour le moment, les deux spécialités sont plutôt juxtaposées qu'unies dans le dialogue ; et si les textes de Morgenstern et Léontieff (10) sur les relations entre la statistique et la théorie économique ont réjoui bien des statisticiens - et irrité bien des économistes -, il s'en faut de beaucoup que toutes les leçons qu'ils donnent aient été écoutées.

En suivant la statistique dans ses utilisations, nous allons pouvoir à la fois préciser ce qui précède et déboucher sur de nouvelles questions.

Croiser les découpages

La réflexion, la recherche d'une explication sont déclenchées par la surprise : tant que tout se passe conformément à ce qui était attendu, l'attention et le raisonnement ne sont pas sollicités. Ils ne se mettent à travailler que s'ils sont excités par un fait nouveau, paradoxal, surprenant. Celui qui veut apprendre quelque chose d'une statistique doit chercher les surprises ; " Etonnez-moi ", dit-il aux chiffres. Mais, pour qu'il puisse être étonné, il faut d'abord que sa perception soit assez fine pour distinguer les événements significatifs du bruit de fond qui les entoure ; il faut qu'il use de méthodes de travail qui affinent cette perception.

La construction de tableaux croisés est une des méthodes de travail les plus puissantes du statisticien, car elle est féconde en surprises. Cette fécondité fait contraste avec la simplicité du procédé.

Supposons par exemple que nous ayons fait une enquête démographique, et que nous ayons observé sur chaque individu certains caractères qualitatifs (ou quantitatifs, mais repérés selon des codages qualitatifs ordinaux) : sexe, classe d'âge, métier, niveau d'études, classe de salaire (pour les salariés), commune de résidence, etc. Chacun de ces caractères permet de " trier " la population, et donc de compter le nombre d'individus possédant telle modalité de tel caractère : c'est ce qu'on appelle, dans un langage un peu ancien, un " tri à plat ". Cette opération permet de produire des tableaux très simples, qui ne comportent qu'une ligne :

Mais on peut faire aussi des " tris croisés ", qui répartissent la population simultanément selon deux caractères différents (niveau d'études et niveau de salaire, par exemple (11)). On obtient alors des tableaux croisés :

On s'étonnera peut-être de nous voir décrire dans un tel détail une opération technique bien banale en regard d'autres auxquelles nous n'avons consacré aucun développement : si nous insistons c'est parce que la pratique nous a convaincu de l'importance de la démarche qui conduit aux tableaux croisés. Voici des exemples : dans une entreprise, le service technique tenait une comptabilité des ventes en classant celles-ci selon une nomenclature de produits ; de son côté, le service commercial classait les ventes selon une nomenclature de clients. Un conseiller en gestion fit construire le tableau croisé " produits x clients " ; ce travail fut difficile, car il nécessita que l'on traite de nouveau les documents comptables : mais il rendit manifestes des faits dont personne ne s'était avisé, et qui sautaient aux yeux lorsqu'on lisait le tableau : en comparant entre elles les " structures de vente " de chaque produit (ou les " structures d'achat " de chaque client), on était conduit à s'interroger d'une façon nouvelle sur la politique commerciale ou sur la diversification de la production. Autre exemple : dans une institution d'une certaine taille (entreprise, service administratif), les dirigeants connaissent généralement bien la répartition des effectifs d'une part par statut (niveau de salaire, qualification, etc.), d'autre part par service d'affectation ; mais ils n'ont bien souvent pas pensé à construire le tableau croisé " statut X affectation ". L'expérience montre que la construction de ce tableau, toujours un peu pénible, est riche en enseignements.

D'où vient que cette opération simple soit si souvent féconde ? Rappelons que toute observation est fondée sur un découpage conceptuel défini a priori ; chacune des variables qualitatives observées permet de classer les individus, de répartir la population, ce qui correspond à un tri à plat. En croisant les découpages, nous créons de nouveaux concepts (à chaque case d'un tableau correspond le concept qui croise l'une avec l'autre des rubriques relevant de découpages différents), et nous nous donnons la possibilité de répartir la population selon ces nouveaux concepts. On peut d'ailleurs croiser plus de deux découpages : par exemple, si l'on croise trois découpages, on obtient non un tableau mais un " cube " (qui peut être représenté par une suite de tableaux), etc.

Pratiquer de façon systématique le croisement des caractères peut faire sortir du cadre conceptuel initial de l'observation, et donc mener sur un terrain inconnu. En effet, il n'arrive pratiquement jamais que le statisticien pense, a priori, à tous les croisements possibles entre tous les caractères. Le plus souvent, le cadre conceptuel prévu. comporte les découpages relatifs aux caractères observés, plus un nombre limité de croisements. Un peu d'expérience permet de prévoir assez exactement l'allure des résultats des tris à plats et des tris croisés " classiques " ; mais les autres tris croisés peuvent être riches en surprises.

La surprise est parfois tellement grande - lorsqu'on découvre que, dans la population étudiée, deux caractères sont en correspondance selon une relation tout à fait inattendue - que l'on peut avoir l'illusion d'atteindre ainsi, par-delà les données, la vérité de l'objet lui-même (12). Il n'en est rien : la perception est de toute façon limitée par le cadre conceptuel, même si on le complète par tous les croisements qu'il autorise : seulement les nouveaux concepts que comportent ces croisements sont peu familiers et facilitent les surprises. Par exemple, connaître la répartition de la population française par région apporte une certaine information, et connaître la répartition de cette population par classe d'âge en apporte également. Mais croiser les deux découpages, et étudier le tableau " région x classe d'âge ", apporte bien davantage (13).

Souvent les débutants en statistique confectionnent des questionnaires incroyablement lourds (ce fut notamment le cas de Karl Marx, comme nous l'avons vu). Ils ne parviennent pas, en effet, à se représenter la fécondité des tris croisés, et l'information que l'on peut obtenir en constatant des relations statistiques entre variables différentes ; ils veulent rédiger un questionnaire " intelligent ", et demandent à chaque unité interrogée la rédaction d'une véritable monographie. Seulement ces questionnaires " intelligents " seront inutilisables, soit parce qu'ils étaient trop lourds pour être remplis, soit parce qu'ils nécessiteraient des codages et une exploitation beaucoup trop difficiles. Le statisticien expérimenté sait, lui, que la plus grande faute qu'un statisticien puisse commettre est le gâchis de collecte, la non-exploitation d'une information recueillie ou le recueil d'une information inexploitable. Il prépare toujours des questionnaires simples, " simplistes " aux yeux du non-spécialiste, et qui semblent ne contenir que des questions " bêtes ". Mais le non-spécialiste est bien surpris lorsqu'il voit les résultats que l'on obtient en exploitant et en croisant toutes ces questions " bêtes ".

" Croiser les découpages " : cette phrase devient pour le statisticien une règle, presque un réflexe. Celui qui l'a bien assimilée la suit spontanément, y compris dans la vie courante où elle se révèle un outil intellectuel puissant. Elle peut être mise en pratique dans toutes les occasions, nombreuses, où l'on est amené à considérer le même objet sous des angles différents, et donc à le saisir simultanément selon plusieurs découpages conceptuels.

Les découpages a posteriori

Un raisonnement économique global nécessite une information elle-même globale ; or tout appareil statistique comporte des lacunes, pour des raisons institutionnelles, politiques ou autres. Nous avons vu au chapitre VIII quelques-unes des lacunes les plus criantes de l'appareil français actuel : revenus non salariaux, groupes de sociétés, aides de l'Etat aux entreprises, etc. On peut rêver, bien sûr, d'une société dans laquelle toutes ces " pudeurs " auraient disparu, et qui serait donc transparente pour l'observation statistique. Mais il est sans doute, et pour longtemps, plus réaliste de partir de cet état de fait : les lacunes existent.

La comptabilité nationale s'emploie à combler certaines d'entre elles. Dans les faits, les choses se passent ainsi : les comptables nationaux se répartissent en deux catégories, que nous nommerons " hommes des concepts " et " hommes du chiffre ". L'" homme des concepts " définit les cadres dans lesquels l'information doit être présentée pour se prêter au raisonnement économique ; il fournit ce que nous appellerons des découpages a posteriori, des concepts selon lesquels il faudra répartir les quantités observées ou estimées. Ces découpages a posteriori sont souvent bien différents des découpages a priori sur lesquels est fondé l'appareil statistique. Cette différence s'explique soit par des impossibilités pratiques - c'est le cas des lacunes que nous avons évoquées -, soit par des décalages de rythme (l'appareil statistique n'a pas encore évolué, et se trouve donc en retard par rapport aux concepts qui fondent le raisonnement), soit par une indifférence surprenante et choquante, mais qui existe : il ne nous semble pas que les hommes des concepts, lorsqu'ils établissent leurs découpages, aient comme souci principal de définir des êtres observables ; en fait, même s'ils avaient ce souci, la division du travail entre les statisticiens et eux est telle que l'on voit mal comment ils pourraient être vraiment informés des possibilités de la collecte. Au demeurant, les cadres de la comptabilité nationale sont en eux-mêmes assez compliqués pour monopoliser l'attention des techniciens qui sont chargés de les concevoir : il suffit de se plonger dans ce système pour en éprouver à la fois la séduction et la complexité (14) .

Les " hommes du chiffre " sont placés dans une situation étrange d'un côté, ils reçoivent les résultats statistiques (éventuellement lacunaires, tardifs ou incohérents) que leur communiquent les statisticiens ; de l'autre, -ils reçoivent les cadres conceptuels que leur fournissent les hommes des concepts, et qui se présentent concrètement sous la forme de tableaux dont lignes et colonnes portent des titres, mais dont les cases sont vides. Et ils doivent remplir ces tableaux-ci à partir de ces résultats-là.

On pourrait penser que ces hommes du chiffre sont bien placés pour conduire le dialogue entre les cadres conceptuels de la collecte et ceux des comptes nationaux. Il n'en est rien, pour plusieurs raisons : le chiffrage se fait toujours dans des conditions d'urgence qui empêchent une réflexion approfondie ; la susceptibilité des services et des hommes est telle que ce dialogue demanderait des trésors de temps, de patience et de diplomatie qui ne sont pas toujours disponibles ; enfin, pour des raisons que nous verrons au chapitre suivant, les techniciens ont toutes les raisons de penser qu'on ne leur saurait aucun gré du mal qu'ils se donneraient pour faire ce travail.

Donc ils remplissent leurs tableaux. Les différences entre concepts sont corrigées à l'aide de procédures d'estimation qui, le plus souvent, ne dépassent guère l'usage de la règle de trois. Les lacunes sont comblées parfois en usant d'équations comptables (procédé redoutable, car une estimation obtenue " par solde " est entachée du cumul de toutes les erreurs de mesure portant sur les autres variables contenues dans l'équation), parfois en recourant au " dire d'expert ", procédé tout aussi redoutable. Les divergences entre sources différentes sont réglées par voie d'" arbitrage ", c'est-à-dire au cours de discussions lors desquelles le caractère des individus joue un rôle important. Des personnes qui connaissent très bien la comptabilité nationale et ceux qui la font prétendent que certains accidents dans les séries s'expliquent par des changements de responsables : " X a un sale caractère, et il a toujours refusé les arbitrages qu'on voulait lui imposer ; quand il est parti, il a été remplacé par Y, qui est mou, et la série s'est mise à évoluer bien différemment. "

Il résulte de tout cela que les comptes nationaux - dont nous ne mettons en doute ni l'utilité, ni l'importance - sont plus fragiles qu'on ne le croit communément :

Les comptes des ménages sont calculés, pour l'essentiel, à partir de sources relatives aux autres " agents " - c'est-à-dire par solde.

La moitié des informations utilisées pour l'établissement des comptes de branche résultent d'estimations ou de calculs fondés sur des " clés " de répartition, et non sur des observations directes.

Les trois quarts des informations contenues dans le tableau des consommations intermédiaires ne reposent directement sur aucune statistique. Les calculs réalisés pour les estimer relèvent d'une gymnastique mathématique vraiment désespérée.

On mesure chaque année la valeur des investissements de deux façons différentes. L'écart entre ces deux mesures est souvent de 2 à 3 % (par exemple : indices 110 et 114). Cet écart est souvent résorbé de façon arbitraire.

Le taux de croissance du Produit intérieur brut est estimé, au mieux, à 1 % près dans le compte définitif ; l'incertitude est plus grande encore dans le compte provisoire, qui est politiquement et " journalistiquement " le plus important, puisqu'il est publié au début de l'année qui suit l'année étudiée. Un taux de croissance de 6 % dans les comptes définitifs doit être considéré comme une " fourchette " de 5 à 7 %. Les discussions parfois vives portant sur un dixième ou quelques dixièmes de point de croissance sont donc dérisoires.

Les estimations font l'objet d'un soin particulier lorsqu'on évalue les comptes d'une année dite " de base " ; entre deux années de base, les comptes sont évalués à l'aide de procédures plus légères. Le passage d'une " base " de la comptabilité nationale à une autre " base " conduit à réviser les estimations antérieures et permet donc de constater leur fragilité ; par exemple, le passage de la " base 1959 " à la " base 1962 " a provoqué une révision à la hausse du taux de croissance du P.I.B. de l'ordre de 0,7 % sur les années 1963 à 196715. Lors de ce changement de base, l'écart sur les taux d'autofinancement fit sensation. On avait considéré lors de la préparation du Ve Plan, sur la foi des comptes nationaux, que le taux d'autofinancement des entreprises était trop bas et, de surcroît, qu'il baissait ; on avait alors pris des mesures pour le faire remonter au-dessus du seuil jugé souhaitable de 70 %. Une de ces mesures était la compression des salaires. Or, on constatait, après le changement de base, que le taux était beaucoup plus élevé qu'on ne le pensait et qu'il était plutôt en hausse tendancielle. La compression des salaires perdait toute raison. Elle a été l'une des causes des événements de 1968...

Doit-on considérer les comptes nationaux comme inutilisables ? Nullement, mais leur usage n'est pas aisé ; il nécessite des précautions et surtout de l'expérience. Seule l'expérience peut enseigner quelles sont, dans les comptes, les parties que l'on peut utiliser avec con fiance et celles qui demandent la plus grande prudence. Il nous arrive d'éprouver une inquiétude proche du vertige lorsque nous voyons un économiste construire tout un raisonnement à partir d'une série dont le sens de variation peut être modifié à l'occasion du prochain changement de base des comptes nationaux. Et la lecture d'un rapport sur les comptes de la nation nous met toujours mal à l'aise : cette publication si belle, présentée dans un cadre conceptuel d'une technicité intimidante, bien rares sont ceux qui peuvent deviner la cuisine dont elle est l'aboutissement ; plus rares encore ceux qui connaissent assez cette cuisine pour utiliser ses produits avec discernement : or ce discernement est indispensable pour un usage rigoureux. Faut-il, pour utiliser les comptes nationaux, être " de la maison ", connaître les techniciens, avoir avec eux ces rapports détendus et confiants qui permettent de savoir à quoi s'en tenir ? Il nous semble que oui, et il est même apparu parfois que ce n'était pas encore suffisant. Il y a là, sans aucun doute, un problème.

Les modèles (16)

Un modèle, ce n'est rien d'autre que la mise en forme d'un raisonnement. Dès que l'on a commencé à raisonner en économie - et, pour cela, à postuler que telle relation existait entre telles quantités agrégées, et à tirer les conséquences de cette relation -, on a construit des modèles.

Cependant l'expression a pris dans le courant des années 50 un sens nouveau. Grâce au développement des moyens de calcul automatique, il est devenu possible de résoudre des systèmes comportant un grand nombre d'équations ; si l'on pousse la formalisation d'un raisonnement jusqu'à ses dernières limites (ce qui nécessite parfois que l'on consente à l'appauvrir singulièrement), il est possible d'écrire sous forme d'équations les relations qu'il implique : si ces relations comportent des paramètres indéterminés, on estimera ces paramètres par des procédés statistiques, en ajustant la relation sur les observations passées.

Le modèle se présente alors comme un ensemble d'équations, dans lequel on distingue deux familles de variables. Les variables exogènes sont celles que l'économiste considère comme extérieures à son raisonnement et qu'il doit se donner a priori pour pouvoir commencer celui-ci : les unes sont imprévisibles (les récoltes agricoles, qui dépendent du climat), les autres correspondent aux divers choix possibles d'une instance politique (variables décisionnelles). En tirant les conséquences des valeurs prises par toutes les variables dans le passé, et en outre des valeurs prises par les variables exogènes dans le futur, le raisonnement - tel qu'il est matérialisé dans le modèle sous la forme d'équations numériques - permet de calculer les variables endogènes : ces variables découlent du raisonnement. Une fois choisies les valeurs que l'on estime les plus vraisemblables pour les variables exogènes, il est usuel de réaliser une " projection centrale ", qui indique le sentier d'évolution considéré comme le plus plausible compte tenu des hypothèses retenues. Pour étudier les conséquences d'accidents imprévus, ou de décisions de politique économique nouvelles, on réalise des " variantes ".

Tout cela, on le voit, n'a rien de sorcier : l'ordinateur joue son rôle d'outil perfectionné et puissant de calcul, non d'ailleurs sans imposer des contraintes, mais la démarche n'a rien de fondamentalement nouveau ; il ne s'agit pas de " faire des prévisions avec un ordinateur ", comme on le dit à tort, mais de conduire un raisonnement qui comporte des calculs, lesquels sont faits automatiquement 17.

Il n'y a rien dans cette démarche - à l'exception des phases de calcul automatique - qui ne soit normal et même indispensable, dès lors que l'on s'emploie à raisonner en économie : il est normal de chercher à préciser les relations que le raisonnement implique, normal aussi de tenir compte des valeurs prises par les variables dans le passé. On peut seulement remarquer que, comme les calculs demandent que les relations soient explicites, ils obligent à leur donner une précision que le raisonnement en lui-même n'implique pas : où par exemple le raisonnement postule y = f(x), on ajuste une relation comme y = ax + b. Ils obligent aussi parfois à des simplifications vraiment grossières (comme celle qui consiste à estimer la production anticipée à l'aide d'une fonction des productions passées). Enfin, le raisonnement sur des agrégats suppose que soient remplies certaines conditions logiques qui ne sont, dans les faits, vérifiées que de façon très approximative (18).

Il nous semble que si l'on garde fermement à l'esprit cette définition (" un modèle est la mise en forme d'un raisonnement "), on évite la plupart des erreurs d'interprétation auxquelles les modèles ont donné occasion. On peut aussi tirer de cette définition quelques conséquences.

Certains supposent que le modèle doit chercher à " reproduire la réalité ", et s'égarent dans une " logique inductive " qui permettrait, à partir des faits, d'inférer les lois auxquelles la réalité obéit. Pour notre part, nous pensons avec Karl Popper que l'induction n'est pas de nature logique, mais de nature intuitive et esthétique : il n'y a pas de pont qui conduise nécessairement du constat de tels faits au postulat de telle relation, et ce postulat demande donc toujours que l'on fasse un " saut (19) ". La logique permet seulement de déduire les conséquences du postulat : et si ces conséquences sont en contradiction avec les faits le postulat sera " falsifié " : par contre il ne pourra jamais être logiquement vérifié. Nous n'entrerons pas davantage dans le débat entre les " inductivistes ", les " conventionnalistes " et les " instrumentalistes ", qui demanderait des développements trop éloignés de notre sujet. Indiquons seulement que nos sympathies iraient plutôt à l'instrumentalisme, pour lequel le critère ultime selon lequel on peut juger une théorie est celui de l'utilité. Mais toute la question est de savoir comment on apprécie cette utilité : l'apprécier d'après l'exactitude des prévisions que la théorie permet n'est pas suffisant. Nous préférerions que l'on parle de " fécondité " plutôt que d'utilité, cette fécondité s'appréciant à la fois au plan de l'action et au plan des prolongements théoriques (20).

D'autres, sans s'inquiéter des fondements logiques de tout cela, font bravement confiance à ces échafaudages compliqués (21), à la science des modélisateurs, à la puissance des ordinateurs, etc. ; et ils gobent les résultats des projections - dont la précision numérique est génératrice d'illusions - comme si c'étaient des prévisions certaines, sans se soucier des raisonnements dont il proviennent. La déception est ensuite d'autant plus profonde que l'on a été plus naïf, et parmi ceux qui ne veulent plus " croire aux modèles ", il y en a beaucoup qui n'y ont que trop cru.

 Dans les faits, la mise en œuvre d'un modèle s'insère dans une démarche complexe. Un modèle est non un automate bien réglé qui calcul des variables endogènes une fois qu'on l'a nourri en variables exogènes, mais l'instrument de calcul d'une équipe d'économistes dont la réflexion est loin de se limiter à sa conception et à sa mise en œuvre. Les séries sur lesquelles le modèle est étalonné sont corrigées pour tenir compte de leurs accidents et de leurs défauts : des " variables d'écart " sont introduites, notamment pour éviter des ruptures trop brusques entre les dernières valeurs connues et les résultats des projections ; des perfectionnements sont apportés de façon continue, de sorte que le modèle ne reste jamais identique à lui-même. Ces grands ensembles d'équations ont des propriétés mathématiques toujours un peu mystérieuses en raison de leur taille même : on essaie de les apprécier en procédant à des simulations et en calculant des multiplicateurs, opérations à l'occasion desquelles les anomalies éventuelles peuvent être repérées (22) : enfin et surtout, les résultats des calculs sont considérés non comme la parole d'un oracle, mais comme une étape du raisonnement qui doit elle-même être interprétée et dépassée. Plutôt que de parler de modèles (" le modèle DMS ", " le modèle METRIC "), on ferait mieux de parler d'équipes qui se servent de modèles.

 Certains condamnent les modèles, non en raison des risques d'effets pervers que comporte leur usage, mais parce qu'ils condamnent tout simplement l'usage du raisonnement en économie : celle-ci serait, disent-ils, trop compliquée pour pouvoir être représentée de façon correcte par un raisonnement. Et certes il est vrai qu'un raisonnement fini, comportant un petit nombre de concepts et de relations, ne peut prétendre égaler la complexité du réel. Cependant, dès que nous voulons réfléchir en économie, nous raisonnons ; invinciblement, le plus sceptique se met à postuler des relations, dès qu'il a une décision à prendre ne serait-ce que pour gérer son patrimoine. N'oublions pas la phrase de Wittgenstein : " Un doute sans fin n'est pas même un doute (23) " ; ceux qui prétendent ne pas raisonner se laissent en fait aller à des préjugés ou à des intuitions désordonnées : puisqu'il faut de toute façon raisonner, raisonnons donc au mieux de nos possibilités et de notre information, sans prétendre faire autre chose que d'éclairer notre jugement, et de l'éclairer d'une façon limitée.

On comprend aussi pourquoi il est exagéré de dire que l'on fait des " prévisions " avec un modèle. Certes, il fournit des séries chiffrées et datées : mais celles-ci ne sont que la conséquence numérique des hypothèses de calcul et des choix de variables exogènes. L'intérêt des séries prolongées par le futur fournies par un modèle est d'illustrer celui-ci, de montrer quelles sont les conséquences numériques du choix des exogènes et des hypothèses théoriques. Les utiliser comme des " prévisions " confine à l'absurde, tant l'incertitude sur certaines exogènes est forte : comment varieront le cours du dollar et le prix du pétrole ? En fait, l'examen des variantes est bien plus instructif que celui du compte central, car il montre la sensibilité des variables endogènes à des variations dans les variables exogènes.

La réalité économique peut être considérée sous bien des aspects différents, et des institutions dont l'approche diffère ne construiraient certainement pas le même modèle, sauf bien sûr si le consensus était général. Les modèles actuellement utilisés en France découlent du long dialogue qui a été entretenu entre le Plan, l'I.N.S.E.E., la direction de la Prévision et quelques autres organismes. Ils se réfèrent tous à une représentation néo-keynésienne de l'économie, dans laquelle la production, la consommation, les échanges extérieurs, l'investissement, jouent des rôles bien connus : il n'existe pas une grande variété de fonctions de production, d'investissement, de consommation, etc. Mais on peut penser, par exemple, que si les syndicats de salariés avaient les moyens de concevoir un modèle, ils s'efforceraient de formaliser les relations qui peuvent relier la marche de l'économie avec la formation professionnelle, le statut des salariés et leur qualification technique ; avec un tel modèle, on pourrait peut-être mettre en évidence les dégâts que cause l'extension du chômage, dégâts que les modèles actuels ne peuvent pas mesurer. On peut penser aussi que ces modèles ne prennent pas suffisamment en compte les effets institutionnels : concentration et internationalisation des grands groupes ; nationalisations ; relations entre les banques et l'industrie, etc. Ils sont quelque peu désarmés aussi devant les phénomènes d'innovation (qui ont la redoutable propriété de rendre presque impossible la séparation des effets de prix et des effets de volume).

Chaque raisonnement conduit à un modèle particulier. C'est pourquoi toute organisation comportant la référence à un modèle unique (Le modèle ... ) serait dangereuse, même s'il est offert à chacun des partenaires sociaux d'accéder " démocratiquement " au modèle et de lui faire faire ses propres variantes : ces variantes elles-mêmes seraient marquées par le raisonnement qui définit le modèle.

 

1. Cf. N. Bourbaki, introduction du livre 1 des " Eléments ".

2. Cf. C. Ménard - La formation d'une rationalité économique : A.A. Cournot, Flammarion 1978

3. R. Boyer, La croissance française de l'après-guerre et les modèles macroéconomiques, C.E.P.R.E.M.A.P., mars 1976.

4. D. Fixari, " Le calcul économique, ou de l'utilisation des modèles irréalistes " (Annales des Mines, avril 1977).

5. F. Bédarida, " Statistique et société en Angleterre au XIXe siècle ", in Pour une histoire de la statistique, I.N.S.E.E., 1977.

6. F. Vincent, l'organisation dans l'entreprise et dans la Nation (1941).

7. G. Ader, " Le système français de statistique industrielle ", Economie et Statistique, n° 12 de mai 1970.

8. Etudes statistiques, série M, n° 4, Rev. 2, O.N.U., New York, 1969.

9. " Il faut désormais se placer au centre où l'esprit connaissant est déterminé par l'objet précis de sa connaissance et où, en échange, il détermine avec plus de précision son expérience. C'est précisément dans cette position centrale que la dialectique de la raison et de la technique trouve son efficacité. " G. Bachelard, Le rationalisme appliqué (P.U.F., 1949).

10. 0. Morgenstern, Précision et incertitude des données économiques, Dunod, 1972 ; et V. Léontieff, " Theoretical assumptions and non observed facts ", American Economic Review, mars 1971.

11. Avant la dernière guerre, comme l'usage des moyens automatiques était peu répandu, la majorité des résultats étaient présentés sous la forme de " tris à plat " ; les " tris croisés " étaient des opérations extrêmement coûteuses que l'on ne réalisait qu'en cas de nécessité évidente. Le développement des moyens automatiques a modifié la situation : le statisticien peut maintenant, à l'aide de logiciels d'un usage facile, produire sur simple instruction tous les tableaux croisés imaginables : la difficulté est de parvenir à lire la masse de documents ainsi produite

12. L'étude des tris croisés est systématisée par l'analyse des correspondances (cf. J.-P. Benzécri, L'analyse des données, Dunod, 1973). Nous ne pensons pas que cette méthode permette, comme le dit cet auteur, de " dégager de la gangue des données le pur diamant de la véridique nature " ; mais il est vrai qu'elle parvient souvent à faire exprimer aux données beaucoup plus que ce que l'on attendait.

13. Cf. Michel Volle, " L'analyse des données ", Economie et Statistique, no 96, janvier 1978.

14. La comptabilité nationale peut-être présentée de bien des façons. Le livre de Charles Prou contient une excellente description des origines de la comptabilité nationale, et permet d'entrer dans les préoccupations de ceux qui ont mis au point ces instruments (La comptabilité nationale, Paris 1957). Le cadre conceptuel actuel est bien décrit dans un document pédagogique d'usage commode : Kangaré, par Ngo Thi Cuc et J.-L. Weber, (I.N.S.E.E., 1979). Enfin, le livre de F. Fouquet Les comptes de la puissance (Encres 1980), contient une analyse approfondie des enjeux idéologiques de la comptabilité nationale

15. Etudes et Conjoncture, supplément II A, 1968

16. Patrick Artus et Philippe Nasse, " La pratique des modèles ", Annales des Mines, 1979

17. Il n'en serait plus de même si l'on utilisait l'ordinateur pour simuler la confrontation des comportements d'un grand nombre d'agents, et pour établir les résultats statistiques résultant de cette confrontation (comme cela se fait par exemple en physique). Mais ce type de modèle n'existe pas, à notre connaissance : tous les modèles travaillent sur des agrégats. Les simulations de comportements seront sans doute rendues un jour possibles par l'évolution de la technologie informatique ; elles poseront des problèmes entièrement nouveaux : le comportement d'une entreprise n'est sans doute pas aussi " simple " que celui d'une molécule...

18. Cf. Théorie macroéconomique, par E. Malinvaud, Dunod, 1973.

19. Cf. Karl Popper, Logique de la découverte scientifique, Payot.

20. " A critique of Friedman's critics " par L.A. Boland, Journal of economic litterature, n° 2, juin 1979.

21. Le modèle le plus simple sur le plan du raisonnement économique peut contenir, par suite des contraintes du formalisme retenu - et pour peu qu'il comporte des découpages nombreux -, un ensemble véritablement compliqué d'équations (voir par exemple M. Aglietta, L. Courbis et C. Seibel, Le modèle FIFI [I.N.S.E.E., col. C22], et Rapport technique sur les projections associées au Ve Plan [I.N.S.E.E., col. C24-25]. Cette complication en elle-même recèle un danger : ces grands ensembles d'équations ont des propriétés mathématiques mal connues, et il est difficile de maîtriser les effets combinés des erreurs qui peuvent entacher la mesure des divers paramètres ; on a parfois du mal à discerner, dans les résultats, d'une part ce qui provient des exogènes et du raisonnement, d'autre part le " bruit mathématique " qui n'a aucun intérêt.

22. Cf. M. Deleau et P. Malgrange, L'analyse des modèles macroéconomiques quantitatifs, Economica, 1978.

23. L. Wittgenstein, De la certitude, § 625.