RECHERCHE :
Bienvenue sur le site de Michel VOLLE
Powered by picosearch  


Vous êtes libre de copier, distribuer et/ou modifier les documents de ce site, à la seule condition de citer la source.
 GNU Free Documentation License.

RAPPORT GÉNÉRAL SUR L’ÉVOLUTION A MOYEN TERME DE L'APPAREIL STATISTIQUE FRANÇAIS

Présenté au Conseil National de l’Information Statistique (CNIS) en 1989.

Pour présenter une synthèse des rapports du CNIS sur l'"Evolution à long terme de l'appareil statistique français", il était nécessaire de faire des choix. Une telle synthèse ne peut en effet être claire que si elle est simple.

On court ainsi le risque de l'arbitraire. Nous avons limité ce risque en procédant à des consultations approfondies (1) .

Organisation du rapport

"A qui et à quoi sert la statistique ?" : voilà la question fondamentale. Ce n'est qu'après lui avoir répondu que l'on peut s'interroger sur le type de statistique à produire et sur les méthodes à utiliser.

Cependant le "client" de la statistique ne se laisse pas définir aisément : c'est la société tout entière, puis les institutions, puis les citoyens, puis chaque institution et chaque citoyen, etc. La question fondamentale ne peut donc être examinée que si on la subdivise en questions partielles. Ce découpage doit tenir compte des particularités de la période historique considérée.

Ici nous avons retenu quatre questions transversales :

  • les nouvelles technologies et la statistique ;

  • les articulations marchand-non marchand et public-privé

  • le rôle de la statistique au sein de l'Etat ;

  • le conditionnement théorique et social de la statistique.

On pourrait s'interroger indéfiniment sur la pertinence de ce découpage, qui n'est d'ailleurs pas une partition mais une liste de thèmes qui s'interpénètrent : il est impossible de démontrer qu'il est le meilleur que l'on puisse choisir. Nous lui demanderons seulement de procurer, par croisement avec les rapports des groupes long terme, une grille féconde pour la discussion. Les développements ci-dessous permettront de comprendre pourquoi nous l'avons retenu. Nous avons pu vérifier, lors de nos consultations, qu'il paraissait satisfaisant à nos interlocuteurs.

Ce rapport est destiné au CNIS, non au grand public ni aux statisticiens de profession. Il s'adresse à des personnes qui connaissent la statistique, mais que les subtilités des controverses entre experts intéressent peu. Nous avons donc jugé nécessaire de présenter non des listes de questions ou de prudentes hypothèses, mais une problématique aux contours nets et francs. C'est ainsi, pensons-nous, qu'il convient d'engager une discussion. Le rapport général ne prétend pas anticiper sur les nuances et enrichissements que celle-ci apportera.

Le long terme

Ici nous considérons le long terme, c'est-à-dire une période de l'ordre de vingt ans.

Les incertitudes qui entachent la réflexion sur le long terme sont évidentes. Il faut cependant savoir tirer parti des simplifications qu'elle nécessite. A long terme on doit faire abstraction des questions de transition ou de gestion qui à court terme accaparent l'attention ; on doit se placer dans la situation limite à laquelle aboutissent les tendances décelables aujourd'hui, puis mettre en évidence les problèmes propres à cette situation.

La portée de l'exercice est donc limitée. En particulier il ne considère pas les adaptations qui, à court ou moyen terme, sont nécessaires pour préparer le long terme (2). Il est certes indispensable de définir ces adaptations, mais cela relèverait d'un autre travail. Nous ne donnerons donc ici que peu d'indications immédiatement opérationnelles.

Ambitions

Avant de commencer ce travail, il fallait lui fixer un but. Certes, on ne doit pas nourrir d'illusions sur la portée que peut avoir un colloque. Cependant, comme l'avaient senti les initiateurs de celui-ci, l'occasion semble bonne pour susciter quelques progrès.

En effet la société française, dont l'appareil statistique est un instrument d'observation privilégié (3) , est en train de changer sous plusieurs aspects fondamentaux : économique, social, relations avec le reste du monde. Les besoins d'observation évoluent à proportion de ces changements.

En même temps, les moyens disponibles pour leur répondre sont modifiés. Les instruments sont enrichis grâce à l'évolution technique des matériels et des méthodes , sur un autre plan la coordination internationale réduit l'ensemble des choix possibles, notamment en matière de nomenclatures.

Ainsi la statistique est confrontée à des défis. Il dépend des statisticiens de la nouvelle génération que les outils qui permettent de les relever soient maîtrisés.

Il fallait que cette synthèse fût sans complaisance. Le piège du moralisme est en effet toujours béant devant les statisticiens. Celui qui y tombe ne voit pas clairement la distinction à faire entre obligations morales et contraintes techniques. Cela le conduit à sacraliser de simples habitudes de travail. Il en résulte un mélange de raideur et de mollesse qui rend la discussion très difficile.

Nous voudrions contribuer à promouvoir une association de rigueur et de souplesse.

Les nouvelles technologies et la statistique

Nous sommes tous las du prophétisme facile des chantres des nouvelles technologies. Ils sont en train de passer de mode. Cela ne veut pas dire qu'ils aient tort.

En matière de prospective, il ne faut pas en effet rechercher l'élégance mais l'efficacité : qu'une évidence soit banale ou naïve, cela ne lui retire rien. Ce n'est pas par exemple parce que le rapport Nora-Minc "date" qu'il serait désuet. Prenons donc le risque d'être naïfs, de passer pour des "rêveurs éveillés".

Les nouvelles technologies

Pour bien se comprendre, il est utile de rappeler d'abord ce que l'on entend par "nouvelles technologies".

Sur le plan technique, il s'agit de la synergie entre la micro-électronique, l'informatique et la robotique, synergie qui entraîne des baisses de coûts rapides dans ces trois branches et celles situées en aval.

Sur le plan économique, on peut évoquer avec Bertrand Gille l'émergence d'un nouveau "système technique", caractérisé par l'automatisation qui allège l'effort mental de production (à distinguer de l'effort intellectuel), alors que la maîtrise des sources d'énergie avait allégé l'effort physique, et que la mécanisation avait allégé l'effort manuel.

On peut situer la naissance des nouvelles technologies en 1947, date de l'invention du transistor. Mais leur incidence sur l'économie comme facteur décisif de compétitivité date de la fin des années 1970. Cette évolution est loin d'être terminée. Elle est plus ou moins difficile à prévoir selon l'aspect considéré.

Quelques incertitudes

La plupart des experts pensent que, dans la décennie qui vient, l'évolution des composants est prévisible tant en ce qui concerne leurs performances physiques (rapidité de calcul, taille des mémoires, débit et qualité des transmissions) que leurs coûts.

Par contre l'évolution des méthodes de production des logiciels, donc de leurs coûts et même de leur nature, reste très incertaine.

L'incertitude la plus forte concerne cependant la capacité des agents économiques à intégrer les nouvelles technologies dans leur organisation, leurs procédures de travail, leurs décisions : s'il est sûr que d'importants changements se produiront (on peut s'en faire une idée en se rappelant ceux, récents, dus au téléphone ou à l'informatique), il est impossible d'en prévoir la rapidité ou le contenu précis.

Travaillant sur le long terme, nous devons négliger les incertitudes et considérer les grandes lignes de la situation qui apparaît aujourd'hui comme la plus vraisemblable dans vingt ans.

Un scénario dans vingt ans

Les nouvelles technologies sont corrélatives de l'émergence d'une économie mondiale concurrentielle et innovatrice, dans laquelle chaque pays ou agent est soumis à des "chocs" extérieurs. L'anticipation de ces chocs, l'aptitude au redéploiement, la rapidité dans la mise en œuvre des décisions, bref la vigilance et la souplesse sont conditions de succès ou même de survie économiques. Dans cette compétition, le gagnant est celui qui sait se placer le premier sur des marchés nouveaux, et miser sur les techniques qui permettront des baisses de coûts rapides.

La progression des nouvelles technologies réclame une activité de Recherche et Développement (R&D) , celle-ci concerne autant les applications que la mise au point proprement technologique, et vise à tirer le meilleur parti des synergies possibles au sein du système technique.

L'acquisition rapide d'informations pertinentes sur les marchés et les techniques est un des éléments clés de la compétitivité. La maîtrise des méthodes de production et de circulation de l'information, particulièrement avancée aujourd'hui dans le secteur financier, s'étendra aux services et à la production de biens auxquels elle apportera gains de productivité et baisses du coût de commercialisation.

Nous ne suggérons cependant pas que l'activité des "salles de marché" soit un modèle à suivre pour l'appareil productif, ni que la vigilance de l'industriel doive le conduire à utiliser les méthodes de l'espionnage: mais on nous accordera qu'il est possible et souhaitable de s'informer des projets des économies concurrentes et de l'évolution technologique mieux, et plus rapidement, qu'on ne le fait aujourd'hui.

L'usage de l'informatique est banalisé, ainsi que celui des outils de communication (télécopie rapide, vidéotex alphaphotographique, courrier et archivage électroniques, échanges de données (EDI) et d'images, conférences audio et vidéo, communications entre micro-ordinateurs, systèmes experts pour les codages, etc.). Le micro-ordinateur, devenu aussi banal sur les bureaux que le stylographe ou le bloc-notes, prend en outre la place du téléphone comme terminal principal des réseaux de télécommunications.

Les conditions de travail sont modifiées par la suppression des distances physiques (les interlocuteurs étant tous "proches" sur le réseau) ainsi que par la rapidité qui est le corollaire de cette suppression.

Les réseaux servent non seulement de moyen de communication, mais de places de marché sur lesquelles des serveurs viennent vendre de la puissance de calcul, de la "mémoire" (banques de données ou d'images) ou de l"'intelligence" (logiciels).

Cette évolution comporte des risques : ceux d'une barbarie technicienne qui irait de l'avant sans se soucier des conséquences qu'ont ses choix pour la société. Il importe d'autant plus de s'y préparer.

Incidences sur la statistique

Dans le contexte que nous venons de décrire, chaque agent économique doit avoir appris à réagir efficacement dans un environnement changeant, plutôt qu'à connaître en profondeur un univers stable. Dès lors il réclame à la statistique non une documentation complète, mais une sélection ajustée à ses besoins individuels du moment.

Chacun peut juger cette évolution selon ses préférences personnelles, et s'en féliciter ou la déplorer. Il importe en tout cas d'en considérer les conséquences. Observons d'ailleurs qu'une adaptation exacte aux besoins de l'action n'est pas exclusive d'une réflexion approfondie.

Répondre à une telle demande ne suppose pas que l'on ait renoncé aux instruments "lourds", seuls à même de fournir à chaque client, après un tri, les informations particulières qu'il réclame ; mais cela suppose que les statisticiens soient devenus maîtres dans l'art des exploitations "sur mesures", et qu'ils sachent dans leur activité faire preuve des mêmes qualités de vigilance, de souplesse et de rapidité qui s'imposent aux autres agents.

Cela ne se fera pas sans innovations. Il serait d'ailleurs paradoxal que la statistique restât à l'écart d'une évolution technique qui concerne au premier chef cette "économie de l'information" dont on parle tant (et souvent si mal). Elle devra maîtriser ces techniques, et pour cela organiser en son sein une activité de R&D obéissant au protocole sans lequel il n'est pas de recherche technique efficace (équipes spécialisées, expérimentation méthodique) (4).

Dans la panoplie actuelle du statisticien, certains outils semblent promis dans cette perspective à de brillants développements :

- la collecte électronique se substitue largement au questionnaire sur support papier :

- les fusions de fichiers permettent de préparer des publications rapides et de tirer meilleur parti de l'effort de collecte ;

- la coordination d'enquêtes par sondage, par organisation d'échantillons inclusifs ou exclusifs, en tout ou partie, permet de préparer au mieux les fusions de fichiers ;

- l'exploitation de données individuelles permet de réutiliser les fichiers au lieu de les laisser en friche après une seule exploitation ;

- l'assouplissement de la conception et de la manipulation des nomenclatures, notamment dans le choix des divers regroupements qui peuvent être opérés à partir du niveau de codage le plus fin, facilite les exploitations "sur mesures".

On remarquera que ces outils forment un ensemble cohérent.

Ainsi les techniques de production s'assouplissent, les exploitations se différencient, et on approche du but : que chacun puisse recevoir l'information dont il a besoin, et que le bruit que font les informations inutiles lui soit épargné. Mais pour parvenir à ce résultat le métier du statisticien doit évoluer. Il s'agit à long terme, sans renoncer en rien à la richesse de l'information collectée, d'accélérer la démarche et de raccourcir les délais, de diversifier les produits, de coller aux évolutions de la demande tout en gérant les instruments généraux qui permettent cette souplesse : si des innovations techniques sont pour cela nécessaires, il faut aussi des innovations institutionnelles.

La statistique d'aujourd'hui est en effet liée à une certaine conception du service public qui conduit à "tout publier", à "tout mettre à la disposition de tout le monde". Sur le plan scientifique, cette conception est souvent associée à l'affirmation de la possibilité (et de l'obligation morale) d'une connaissance "objective", qui fournirait une représentation adéquate de son objet indépendamment de la situation particulière de celui qui connaît ; sur le plan institutionnel, elle implique une grande défiance envers l'idée même d'exploitations "sur mesures", dans lesquels elle voit le germe d'inégalités, de privilèges pour ceux qui pourront payer ces exploitations.

Cette dernière question est sans aucun doute sérieuse, car l'importance économique acquise par l'information lui confère de plus en plus un caractère marchand. Ici une réflexion sur le contenu même du service public s'impose.

Les articulations marchand – non marchand et public – privé

L'important, rappelons-le, c'est de satisfaire les besoins dans les meilleurs conditions. Les choix institutionnels doivent être soumis à cet objectif. C'est en partant de ce point de vue qu'il convient d'aborder le plus déterminant d'entre eux : celui entre le service public et le secteur privé.

Lorsqu'on évoque la relation entre service public et secteur privé en matière de statistique, un malaise s'installe. Ce qui est en jeu, c'est plus qu'un simple problème d'organisation : ce sont des valeurs, des idéaux auxquels on s'attache parfois d'autant plus qu'ils sont plus confus.

Le service public, ce serait la République qui offre à chaque citoyen une carrière "sans autre distinction que celle de ses vertus et de ses talents" (5) ; ce serait le statut qui protège contre l'arbitraire les gens sans défenses et les esprits originaux ; bref, ce serait un pas vers le but encore lointain de la démocratie. Ce service public est critiqué au nom de l'efficacité, mais le caractère souvent excessif de ces critiques trahit d'autres intentions : ne serait-ce pas parfois la démocratie elle-même qui est visée ?

D'un autre côté, le service public ne serait-il pas dans certains cas un alibi pour des corporations soucieuses surtout de leur propre intérêt ? C'est l'impression que peuvent donner certaines grèves faites en son nom, qui semblent parfois chercher avant tout à gêner le public pour faire pression sur le pouvoir politique (6).

La notion même de service public est donc un lieu de contradiction, dans lequel se rencontrent quelques uns des conflits et des peurs les plus profonds de notre société. Rien d'étonnant s'il est difficile d'en parler sereinement. En considérant le long terme, nous pouvons prendre du recul et tenter de désamorcer le malaise. Il faut d'abord se débarrasser des connotations et sous-entendus qui entravent la réflexion, et dégager quelques idées claires.

Rappelons d'abord que le service public, c'est essentiellement le service du public : des limites sont ainsi assignées aux démarches corporatistes.

Ensuite, remarquons que rien ne s'oppose en principe à ce qu'un service public soit marchand : personne ne réclame la gratuité du courrier. Personne ne réclame non plus la privatisation de la poste, à l'exception de quelques "libéraux" dogmatiques qui privatiseraient volontiers l'armée et la justice.

Le critère le plus souvent admis pour justifier l'existence des services publics, c'est que ceux-ci sont producteurs d'externalités positives : ils rendent aux agents économiques des services utiles, mais dont la production et la commercialisation ne pourraient être faites de façon efficace par le secteur privé.

L'exemple des télécommunications françaises montre la fécondité de certaines formes de collaboration ou même de partenariat entre secteur public et secteur privé. Ainsi, il aurait été impossible de lancer le Minitel sans la collaboration (aidée au départ par des subventions) entre la DGT et des serveurs privés. La même politique est mise en œuvre actuellement pour le réseau numérique à intégration de services (Numéris).

Un tel partage des tâches - qui tourne le dos aux dogmes opposés de l'efficacité du monopole ou de la concurrence pure - est efficace lorsque l'on est confronté à une production diversifiée dont l'élaboration nécessite l'existence d'une infrastructure lourde. La R&D et les investissements, ainsi que la cohérence technique et la normalisation de l'infrastructure, comportent de forts rendements d'échelle et conduisent à retenir une structure monopoliste, donc de préférence publique. Par contre, la diversification des produits nécessite une attention aux besoins de chaque client ainsi que des réseaux de distribution ramifiés. Il est donc préférable qu'elle soit le fait d'entreprises privées, commercialisant chacune les produits relevant de sa spécialité.

C'est bien ainsi que se présentera la statistique dans vingt ans, lorsque les agents économiques réclameront l'information "sur mesures" adaptée aux besoins particuliers de chacun.

Le chemin à parcourir est long. On peut par exemple décrire ainsi la filière de production actuelle en matière de statistique économique :

- conception et mise au point d'enquêtes obligatoires, après avis du CNIS ;

- réalisation et exploitation de ces enquêtes, selon une organisation méthodique et lourde -,

- publication des résultats après de longs délais, sous une forme le plus souvent très technique ;

- insertion de ces résultats dans la synthèse des comptes nationaux, moyennant quelques arbitrages et estimations complémentaires dont la qualité fait d'ailleurs problème ;

- utilisation enfin des séries chronologiques issues de cette procédure dans le cadre des modèles macro-économiques, débouché "théorique" presque exclusif des statistiques économiques.

Cette filière exclut toute préoccupation relative au caractère marchand de l'information : elle exclut aussi toute prise en compte rapide d'une demande nouvelle, le délai de réaction étant de quelques années ; elle comporte une collaboration codifiée entre des catégories de personnes spécialisées qui font parfois de leur spécialisation un motif de fierté (et de non-dialogue) ; elle implique la diffusion certes étroite, mais publique, d'une information qui, n'étant pas adaptée à un client bien identifié, ne peut avoir qu'une présentation technique.

Les utilisateurs de la statistique, devenus plus avertis dans une société qui utilise davantage l'information, ne se contenteront plus dans vingt ans de nomenclatures rigides et de publications lourdes : ils demanderont une statistique sélective, adaptée de façon pertinente à leurs besoins précis. La statistique sera alors souple, diversifiée, rapide, décentralisée, marchande pour partie : elle utilisera pour sa collecte, son élaboration et sa diffusion les techniques aujourd'hui les plus avancées.

Une telle souplesse, une telle sélectivité nécessiteront qu'existent avec les utilisateurs des liens plus assidus qu'aujourd'hui. Des formes de décentralisation, de collaboration avec des organismes privés ou avec des centres de recherche universitaires permettant une exploitation plus complète des données recueillies, seront nécessaires et même inévitables.

Il ne revient pas à une réflexion de long terme de préciser les voies par lesquelles cette évolution peut passer. Cependant une chose est certaine : ce n'est pas en prenant une attitude défensive que l'on répondra aux exigences nouvelles. Une attitude constructive, dans laquelle le service public prend l'initiative et aide à naître les entreprises qui viendront prolonger et compléter son activité, est possible ; elle ne conduit pas à un "démantèlement" du service public, mais au contraire à une réalisation plus achevée de sa mission.

Il est vrai que de telles modifications sont difficiles, et que le sentier à parcourir entre les divers risques est étroit : il y a en effet toujours des risques lorsque l'on modifie une organisation complexe héritée du passé. Certaines appréhensions sont donc compréhensibles. D'autres doivent être surmontées : celles relatives à la perte du caractère "officiel" de la statistique, au changement de son insertion dans l'appareil administratif de l'Etat. Ici se posent des questions qui méritent un examen particulier.

Le rôle de la statistique au sein de l’Etat

La position de la statistique dans l'appareil d'Etat pose problème. Cependant les termes de ce problème ne se laissent pas dégager aisément. En effet, la réflexion sur l'Etat est souvent paralysée par un esprit normatif qui substitue, à l'examen critique et serein de ce qui est, l'invocation rituelle de ce qui devrait être.

Une approche moins idéale aide à trouver des explications au demeurant évidentes. Il est aisé de constater que les institutions durent souvent plus longtemps que l'esprit qui a animé leur création, de même qu'un coquillage subsiste après la mort de l'animal qui l'a sécrété. Alors elles se mettent à agir de façon non conforme à leurs propres principes ; leur rénovation demande une résurgence de l'esprit fondateur, résurgence qu'elles n'encouragent guère.

Nous plaçant dans une perspective de long terme, nous devons examiner sans complaisance les problèmes que pose l'insertion administrative de la statistique. Ces problèmes sont d'autant plus profonds que la statistique a eu l'Etat pour premier client, qu'elle est née au sein de l'appareil d'Etat, et qu'elle y restera dans la mesure où elle organise des infrastructures lourdes. A la racine de ces problèmes se trouve une contradiction dont les rapports des groupes de travail évoquent abondamment les conséquences :

a) la constitution des répertoires et des nomenclatures, qui est au fondement même du travail statistique, nécessite une explicitation des compétences et attributions des services administratifs concernés (ou des organisations professionnelles). Cette explicitation met en lumière des lacunes ou doubles comptes résultant de compromis passés ; elle ravive donc des guerres de frontière. Les services la jugent souvent inopportune, considèrent le statisticien comme un trouble-fête, et le traitent en conséquence.

b) la publication statistique se heurte à des obstacles connus. Le cas le plus évident est celui des fichiers de paie des fonctionnaires, dont l'exploitation est soumise à de fortes restrictions. La publication est source de conflits entre le statisticien qui travaille dans un ministère et son environnement administratif, parce que les deux parties ne la considèrent pas de la même façon. Alors que le statisticien estime que la publication est un devoir professionnel, pour l’administrateur de stricte obédience il s’agit de l’expression officielle d’un service. Il ne la juge légitime que si elle a reçu l’aval d’une autorité qui aura apprécié son opportunité selon le contexte politique, la conjoncture économique, l’état des relations avec d’autres services etc.

c) l’exploitation de fichiers administratifs suscite d’abord de grands espoirs : ne procure-t-elle pas des résultats en économisant la collecte, lourde et coûteuse ? Les choses sont cependant plus compliquées. L'obtention de l'information d'origine administrative est conditionnée par des protocoles d'accord qui limitent l'exploitation bien plus que ne le fait le secret statistique. Par ailleurs sa qualité technique ne répond généralement pas aux exigences de la statistique, les services ne vérifiant avec soin que les rubriques importantes pour leur gestion et regardant les autres (notamment les identifiants) de moins près. Des vérifications délicates sont nécessaire pour corriger erreurs et lacunes.

d) les répertoires d'identification (entreprises et personnes) ainsi que les nomenclatures (code APE, CSP, nomenclature de produits etc.) sont gérés par l'institution statistique pour compte des diverses administrations qui s'y réfèrent dans les texte réglementaires. Cette démarche a l'avantage de fournir à tous un langage commun. Cependant l'utilisation des outils de la statistique à de fins administratives présente un inconvénient : ces outils deviennent eux-mêmes des institutions, et les difficultés techniques des mises à jour sont aggravées par les lourdeurs des négociations nécessaires. Ici réside la principale cause de la rigidité si souvent déplorée des nomenclatures.

Pour rattacher ces phénomènes à leur cause commune, il faut voir clairement la contradiction entre statistique et administration, et d'abord rappeler quelques principes fondamentaux.

La statistique est un instrument d'observation: cette proposition simple a des conséquences contraignantes. L'usage correct d'un instrument d'observation suppose en effet que ses résulta soient soumis à une analyse critique, attentive aux conditions d'obtention de l'observation. On peut donc, sans se payer de mots ni être dupe du moralisme des statisticiens de vieille souche, affirmer en toute rigueur que la statistique relève de la démarche scientifique. Celle-ci suppose une parfaite liberté d'esprit, de publication et de discussion.

Tout autre est la mission de l'administration, qui doit avant tout gérer l'existant, appliquer les lois et règlements avec de moyens souvent limités, et qui a besoin pour cela d'autorité et donc de légitimité. On rencontre ici la manifestation d'une contradiction plus générale : le pouvoir souverain, dont l'administration est le bras séculier, encourage la science dans la mesure où elle lui fournit des techniques efficaces, notamment pour produire des armes ; mais il se méfie de la liberté scientifique. On peut trouver trace de cette méfiance jusque dans la formation que reçoivent les jeunes gens appelés à constituer l'"élite" de l'appareil d'Etat (7) .

Au cœur de la contradiction se trouve l'expression fréquente de "statistique officielle", dont on se gargarise si mal à propos. Car enfin de deux choses l'une : ou bien la statistique est officielle, et relève donc du pouvoir souverain auquel est dû respect et soumission ; ou bien elle est scientifique, et alors elle doit elle-même se soumettre et s'ouvrir à la critique. Elle ne peut être à la fois l'une et l'autre. Il faut choisir.

De cette contradiction résultent des tensions quotidiennes qu'éprouvent les statisticiens travaillant dans les ministères techniques, ou qui se manifestent à l'occasion de telle ou telle publication de l'INSEE. Bien souvent, on donne de chaque tension une explication anecdotique , mais leur caractère répétitif montre bien qu'elles ont une racine commune. La statistique est l"'enfant terrible" de l'administration : la publication s'oppose au secret, l'explicite à l'implicite ; la souplesse des nomenclatures et des répertoires, à la permanence d'une gestion qui se voudrait intemporelle.

Ce difficultés sont-elles insurmontables ? Faut-il en prendre son parti, et se contenter de "limiter la casse" dans l'action quotidienne ? C'est ce que disent, non sans amertume, la plupart des personnes que nous avons consultées. Pour notre part, nous pensons que le long terme autorise une attitude plus volontaire.

En regard des contraintes de la compétition mondiale, les limites de l'administration que la France a héritée de son histoire sont en effet ressenties au sein même de l'appareil administratif, comme le montrent de nombreux témoignages. Nombreux sont ceux qui souhaitent une rénovation devenue indispensable. La statistique peut y contribuer car elle introduit dans l'administration le ferment de l'exigence scientifique.

Considérons par exemple les procédures d'évaluation. dont la mise en place est encouragée par la Cour des Comptes. Le but de ces procédures est d'apprécier les effets des mesures administratives grâce à des instruments d'observation conçus à cette fin. Certes une forte volonté sera indispensable pour surmonter les réticences qu'elles ne manqueront pas de susciter. Leur définition requiert en tout cas une technicité statistique élevée : il n'est pas aisé de distinguer dans les évolutions constatées celles dues à une mesure particulière ; en outre ces conséquences peuvent être diverses selon les secteurs économiques et les milieux sociaux.

Aider à la mise en place de telles procédures peut devenir une des missions importantes de la statistique. Ce simple exemple donne une idée des changements nécessaires : dans les institutions, dans l'organisation de l'appareil statistique, dans le type des questions que l'on juge normal de lui poser.

L'insertion de la statistique dans la société doit donc évoluer ; pour se représenter cette évolution, il faut prendre la mesure des conditionnements auxquels la statistique est aujourd'hui soumise.

Le conditionnement théorique et social de la statistique

Les rapports des groupes de travail donnent une large place à la description des lacunes de la statistique. Il ne saurait cependant suffire de partir d'un catalogue de lacunes et de s'orienter vers le long terme en se proposant de les combler. Toute observation a nécessairement des limites dont il serait vain de s'affliger.

Mais on peut se demander si les lacunes observées aujourd'hui sont pertinentes ou non : ce qui n'est pas observé, est-ce bien ce qui ne mérite pas l'observation ? Et ici les surprises commencent. Parmi les "lacunes béantes" de la statistique, pour reprendre l'expression chère à Claude Gruson, on trouve en effet des questions dont l'intérêt n'est pas niable : la jonction entre le financier et l'économique, la connaissance des agents financiers, l'innovation, la connaissance des parcs d'équipements, la répartition des revenus, l'observation des échanges extérieurs, le partage entre volume et prix dans l'évolution des valeurs, etc.

La plupart de ces lacunes sont anciennes, les solutions techniques sont en général connues, et il a souvent été proposé de les combler. Des obstacles s'opposent donc à ce qu'elles le soient.

On dit souvent que ces obstacles sont d'ordre budgétaire, et certes les moyens dont la statistique dispose ne sont pas illimités : mais il faudrait expliquer pourquoi les moyens budgétaires ont été disponibles pour d'autres statistiques, et non pour celles-là précisément. L'explication du caractère sélectif des lacunes ne peut pas être d'ordre budgétaire.

On dit aussi que la statistique est souvent bloquée par le jeu des rapports de forces, parce que dans certains domaines beaucoup de personnes ont intérêt à ce que l'information ne soit pas produite. Cette explication, moins mécanique que la précédente, est sans doute plus satisfaisante. Elle est certainement juste dans certains cas, comme celui de la connaissance des rémunérations des fonctionnaires. Observons d'ailleurs que la forme d'action la plus discrète (donc la plus efficace) que puisse utiliser un rapport de forces, c'est bien le refus des moyens budgétaires.

Cependant il faudrait encore expliquer l'origine et le mécanisme de ces fameux rapports de forces, et pourquoi ils parviennent à bloquer certaines statistiques et non d'autres guère moins "sensibles".

Nous estimons pour notre part que les obstacles les plus difficiles ne sont ni d'ordre technique, ni d'ordre budgétaire, ni d'ordre politique. Ils sont dans les tètes (et dans les institutions). Les discussions qui ont précédé la préparation de ce rapport ont montré toutefois que cette conception n'est pas facile à admettre : elle paraît "idéaliste", et les apparences lui sont parfois contraires.

Nous verrons ci-dessous que notre appareil statistique a été conditionné, lors de sa formation, par des schémas de pensée qui le conditionnent encore aujourd'hui. C'est l'inadéquation de certains de ces schémas à la situation actuelle qui explique selon nous l'essentiel des lacunes de l'observation. L'obstacle proprement intellectuel qu'ils représentent est cependant d'autant plus difficile à franchir qu'il est relayé par des institutions moulées dans ces schémas, créées pour leur donner un contenu opérationnel, et qui les maintiennent de tout leur poids. Alors bien sûr le débat est structuré par des rapports de force : mais ceux-ci masquent son origine. Les institutions défendent des schémas ; si l'on modifiait les institutions sans parvenir à modifier ces schémas, rien ne serait fait.

Rappelons qu'une statistique n'est utilisable que s'il est possible de l'insérer dans un raisonnement. Pour l'essentiel, les lacunes de la statistique désignent les domaines sur lesquels, pour des raisons diverses, on ne sait, ne peut ou ne veut pas raisonner.

Il faut pour être plus concret distinguer ce qui se passe en statistique sociale et en statistique économique.

1 - La statistique sociale est née des besoins d'information associés au fonctionnement de certains institutions ou à l'application de certaines législations. C'est le cas de la mesure du chômage, des CSP, etc. La catégorie de "cadre", par exemple, est particulière à la France : d'origine juridique, elle est devenue un enjeu et a ainsi reçu son contenu social a posteriori.

Institutionnelle, la statistique sociale résulte de négociations et de compromis. Les définitions du "chômeur" ou de l'"accident du travail" s'inscrivent dans des textes législatifs et réglementaires, dans les conventions collectives. Le statisticien joue dans le domaine social un rôle de médiateur. Ils ne parvient pas toujours à surmonter les difficultés que comporte ce rôle : on a pu dire par exemple que la statistique de la santé est "schizophrène", séparant les activités médicales et les besoins de l'assurance maladie.

La statistique sociale est arrivée aujourd'hui à un haut degré de développement ; pourtant, elle devra à terme connaître de profondes adaptations. D'une part les crises sectorielles, locales et professionnelles que connaît notre société accroissent le besoin de connaissance. Il suffit d'énumérer les domaines cruciaux, comme la démographie, la santé, l'enseignement, la justice, pour voir que chacun d'entre eux connaît une crise spécifique et durable.

D'autre part les catégories stables dont le statisticien se servait pour décrire la société ont fait place à une multiplicité de situations entre lesquelles se déplace une population mobile : entre le chômage, l'emploi, la formation et l'inactivité ; entre le célibat, le mariage et le concubinage, etc. Des populations "marginales" se sont constituées : le décalage entre leurs valeurs et celles de la majorité de la population rend leur observation difficile. On peut par ailleurs considérer l'immigration comme un point noir de la statistique : les trajectoires sociales et humaines associées à la question de la nationalité sont mal connues, et difficiles à connaître.

En termes de politique sociale, on passe du "partage des bénéfices" entre catégories stables à la "solidarité" entre personnes qui passent souvent d'une catégorie à l'autre. Les principes selon lesquels est interprété le monde social évoluent donc : à l'approche statistique globale, qui lisait la société entière à travers les grilles des diverses nomenclatures, vient se substituer ou s'ajouter l'approche monographique qui vise à saisir l'objet concret (c'est-à-dire individuel) dans la multiplicité de ses déterminations, et à examiner dans le concret même l'articulation de ces déterminations.

L'approche monographique à laquelle nous pensons ici diffère de celle qui était pratiquée aux débuts de la statistique. La monographie a, à certaines époques, rivalisé avec l'enquête comme mode de collecte et d'observation ; elle présentait cependant des difficultés d'interprétation évidentes. De cette tradition subsiste ce que nous appellerons la "monographie préalable", l'observation approfondie de quelques cas individuels, étape souvent utile et féconde qui aide à délimiter les concepts lors de la préparation des enquêtes.

Ici nous pensons à une monographie "après enquêtes", qui regroupe et recoupe sur un même individu les informations collectées par des instruments d'observation divers. Son interprétation nécessite qu'elle soit située par rapport à des informations plus générales, et l'on est donc ici loin de prétendre que la monographie puisse se substituer à la statistique globale : elle apparaît simplement comme un élément désormais nécessaire de la démarche statistique. Nous verrons ci-dessous que la même démarche s'impose dans le domaine économique.

En revalorisant l'observation d'un objet particulier à travers les diverses grilles, plutôt que celle de la totalité à travers chaque grille séparément, on donne au "local" une importance toute nouvelle. Lieu de crises à la fois économiques et sociales, creuset où se confrontent les diverses actions et réglementations, doté par la décentralisation de capacités d'initiative sans précédent, le local sera devenu à long terme un des objets les plus importants de la statistique.

2 - Dans la statistique économique, un système imposant a été construit depuis la Libération ; il articule l'observation statistique avec les comptes nationaux et les modèles macro-économiques.

Le schéma intellectuel fondateur de ce système fut la théorie keynésienne qui, en rupture avec l'économie classique, avait à la fois expliqué la possibilité du sous-emploi des facteurs de production et indiqué les remèdes à lui apporter.

L'apport essentiel de cette théorie réside dans l'importance qu'elle reconnaît à la formation des anticipations, qui peut dans certains cas engendrer des déséquilibres durables. Elle dut son influence extraordinaire à ses indéniables qualités, mais aussi au fait qu'elle fournissait un fondement aux politiques planificatrices en germe dans les années 30.

Le modèle keynésien rendait compte du fonctionnement d'une économie fermée, en évolution régulière, sans progrès technique autre que tendanciel, et dont les agents avaient tendance à épargner à l'excès. Il revenait alors à l'Etat d'organiser la croissance, notamment en pilotant sa propre demande. Toute une administration économique a été mise en place pour définir et conduire la politique économique : le Plan, la Direction de la Prévision, l'INSEE, la Direction du Trésor, ont été soit créés à l'occasion. soit profondément influencés par cette ligne de pensée. Des services ont été installés. des organigrammes établis, des missions définies, des corps de fonctionnaires constitués, des carrières balisées. Des institutions solides se sont mises en place ; elles sont, par nature, peu enclines au changement.

Dans le domaine proprement statistique, la Comptabilité Nationale, dont les concepts essentiels découlent de la théorie keynésienne, a servi de cadre de référence pour définir les programmes d'enquête et pour établir les nomenclatures. Les observations dont elle avait besoin ont été établies selon un programme méthodique, comme si l'on avait rempli l'une après l'autre les cases d'un grand tableau. Les résultats des comptes nationaux ont été utilisés pour établir des modèles macro-économiques, fondés sur l'estimation économétrique des équations découlant de la théorie. L'analyse économique a donné la priorité aux raisonnements sur de grands agrégats comme le PIB, la FBCF, le niveau général des prix, etc.

François Fourquet a décrit l'aventure intellectuelle des pionniers qui ont construit cet édifice imposant dans les années 50. Leur succession fut recueillie par des institutions beaucoup moins aventureuses, et soucieuses surtout de stabilité. Les années 90 vont-elles voir le retour à l'esprit pionnier ?

La situation économique actuelle s'écarte en effet du schéma keynésien sur des points essentiels. A l'économie fermée a succédé l'ouverture des frontières et l'augmentation de la part des échanges extérieurs dans la demande finale. A l'évolution régulière des fonctions de production a succédé une démarche par sauts, les générations techniques (d'origine souvent extérieure) se succédant à cadence accélérée. A l'excès d'épargne succède dans certains pays l'excès de demande finale, qui entraîne un déficit durable des échanges.

Il en résulte que chaque économie nationale est soumise à des chocs exogènes répétés : fluctuations imprévisibles des cours des matières premières, irruptions soudaines de la concurrence ou de la surproduction sur des marchés considérés auparavant comme sûrs, ouverture de marchés à de nouveaux produits qui se taillent la part belle par substitution. L'investissement, déjà fragilisé par le manque d'épargne, en est rendu plus difficile.

Ces chocs déjouent les montages macro-économiques les mieux ourdis et provoquent des crises qui prennent par endroit un caractère aigu : crises sectorielles, professionnelles, locales. Le raisonnement économique, s'il reste cantonné aux grands agrégats et à leurs équilibres, ne peut rendre compte de ces phénomènes.

Pour répondre à ces questions nouvelles, que devront faire nos pionniers des années 90 ? Il ne s'agit pas, comme on le dit parfois de façon sommaire de "rejeter Keynes" : son apport à la théorie des anticipations fait durablement partie des acquis de la théorie économique. Il ne s'agit pas non plus de "rebâtir une nouvelle théorie" : les éléments nécessaires existent, tant du côté de la théorie du déséquilibre que de celui de l'"économie industrielle", discipline en plein essor qui étudie les situations de concurrence imparfaite (monopole, oligopole), la différenciation des produits, les stratégies d'innovation etc., et recourt abondamment à la théorie des jeux.

Nous disposons donc du cadre théorique (certes inachevé, mais peu importe) qui permet de "penser" l'économie actuelle. Les statisticiens devront d'abord se mettre à jour sur le plan théorique. Mais il y a loin du cadre théorique à l'outil d'observation statistique : l'élaboration de celui qui répondait à la théorie keynésienne a pris plusieurs dizaines d'années. Que pouvons nous dire aujourd'hui des traits principaux que devrait posséder la statistique économique à long terme ?

On peut d'abord parler de la fin de la "dictature des agrégats" sur le raisonnement économique. Certes ils restent présents, et nous n'enterrerons pas de sitôt le PIB ! Mais ils ne seront plus seuls à monopoliser l'attention. Dans le domaine économique comme dans le domaine social, on assistera à un retour en force de la monographie, cette exilée de la statistique, devenue indispensable pour comprendre les crises localisées.

Les découpages a priori de la réalité économique se révéleront toujours trop rigides pour permettre de telles études. Dans le domaine géographique, par exemple, l'appareil statistique devra être capable de décrire à la demande des "zones de fait", non prévues dans les codes, mais sur lesquelles l'attention doit se focaliser à l'occasion. Le codage se présente alors non comme le niveau le plus fin d'une suite de partitions emboîtées de plus en plus agrégées, mais comme une partition fine sur laquelle il est loisible de procéder à des agrégations à la demande.

Dès lors le travail sur les données individuelles se présente sous un jour nouveau. Quand on n'utilise qu'une seule nomenclature, il suffit d'exploiter le fichier une fois pour lui faire dire tout ce que l'on attend de lui. Quand on est prêt au contraire à utiliser des regroupements divers à partir d'un même découpage fin, et à utiliser plusieurs fichiers conjointement pour étudier une même zone géographique en recoupant ce que l'on sait d'elle à travers le recensement, l'enquête annuelle d'entreprise, l'enquête sur la structure des emplois etc., les fichiers de données individuelles deviennent une documentation vivante, à laquelle on revient pour des exploitations particulières.

Exploiter des données individuelles, ce n'est pas seulement comme on le dit parfois mettre en évidence des dispersions que les moyennes ou totalisations masquent évidemment : c'est aussi faire apparaître des corrélations entre variables différentes, ou même établir des tableaux croisés dont l'étude peut aller plus loin qu'un simple calcul de corrélation, et confronter ainsi des variables que l'observation fait figurer dans des enquêtes différentes. C'est par rapport à ces analyses que la monographie peut prendre tout son relief.

Ainsi s'ouvre devant les fichiers statistiques un débouché nouveau, voire un marché nouveau. Les exploitations actuelles ne rendent pas justice à la quantité de travail dépensée pour la collecte, et les statisticiens laissent dormir dans leurs fichiers des informations qui pourraient être valorisées plus complètement.

Pour pouvoir obtenir ces exploitations diversifiées, le statisticien doit maîtriser des outils généraux puissants. D'une façon apparemment paradoxale, l'éclatement et la décentralisation des utilisations de la statistique renforce le besoin d'une organisation centrale puissante techniquement, d'une infrastructure statistique forte, d'une cohésion des cadres conceptuels.

Conclusion

Que demande-t-on à la statistique ? non d'être "précise", comme le dit Oleg Arkhipoff, mais plutôt d'être "exacte". Mais si une information peut être précise et inexacte ("le Mont-Blanc mesure 4532,26 m"), elle peut être aussi exacte et imprécise ("la bataille de Waterloo a eu lieu au XIXème siècle"). Il importe plutôt de savoir si l'information répond à une question que l'on se pose, si elle est capable d'alimenter le raisonnement, c'est-à-dire si elle est pertinente : tel est le critère ultime de la qualité.

On parvient ici à une conclusion qui peut paraître paradoxale : l'essentiel de la statistique, ce n'est pas son aspect quantitatif, mais les conclusions qualitatives auxquelles elle conduit. Elle est quantitative dans une de ses étapes, celle de la mesure, mais elle est qualitative dans son origine (ces nomenclatures, "codages" qui, comme le dit Annie Fouquet, comptent plus ou autant que le "comptage") et dans sa fin (cette pertinence, c'est-à-dire cette aptitude à être prise en compte dans un raisonnement, donc à permettre une action qui réponde aux fins de l'agent considéré).

Ainsi conçue, la statistique ne se sépare pas des études qui la prolongent en l'exploitant. Séparer, comme on le fait dans d'autres pays, les activités de statistique et d'études que le législateur a intelligemment réunies en France, ce serait revenir à une conception taylorienne du découpage des tâches, conception désuète dans le monde où nous pénétrons avec les nouvelles technologies. Jacky Fayolle a souligné les effets nocifs des frontières et cloisons qui séparent, à l'intérieur de l'institution statistique, les diverses spécialités : statisticiens, comptables nationaux, économètres, macro-économistes, informaticiens, etc. Mesurer, connaître et prévoir doivent être des activités solidaires. Articuler la statistique et les études, c'est l'une des meilleures façons de lutter contre les cloisonnements. Cela n'implique pas nécessairement un monopole de l'institution statistique sur les études : cette articulation est le lieu privilégié des relations de partenariat que nous avons évoquées.

L'adage malicieux sur les cordonniers mal chaussés s'applique également à la statistique : la statistique sur la statistique est peu développée. Les statisticiens parlent volontiers de la demande de statistique, ainsi que des besoins dont cette demande donne une image plus ou moins déformée ; mais ils n'ont guère étudié leur marché. On peut dire aussi que l'information sur l'information est peu développée : dans le contexte très technique d'une institution statistique fermée sur elle-même, cela se comprend bien : les outils sont faits par des techniciens pour des techniciens, et l'information - toujours très complexe - s'obtient principalement par voie orale. L'ouverture vers l'extérieur obligera à documenter davantage les sources, ce qui sera d'ailleurs excellent pour la qualité des statistiques elles-mêmes.

Il n'y aura pas de progrès, rappelons-le, sans un effort de Recherche et Développement permettant de mettre au service de la production statistique l'ensemble des moyens fournis par les nouvelles technologies. Les statisticiens français, à la différence de leurs collègues étrangers, ne semblent pas avoir pris la mesure de l'organisation que cela implique. Sans doute ont-ils, conformément à un travers national, supposé que l'innovation doit être le fruit du génie individuel, qu'elle relève de l'"art" et qu'elle est donc d'autant plus authentique qu'elle est faite avec moins de moyens et moins de méthode : conception fausse à tous égards, et qui le serait même en ce qui concerne l'art !

La nature (et le coût) des investissements à réaliser montre bien combien serait futile toute proposition qui tendrait à présenter la concurrence comme une panacée dans le domaine de la statistique. Un service public efficace sera indispensable pour réaliser la statistique dont la France a besoin à long terme. La souplesse, l'organisation de partenariats, sont nécessaires pour répondre à une demande diversifiée : mais, sous peine d'éclatement et de dispersion, cette souplesse dans l'action doit être gagée par la rigueur et la fermeté renouvelées des principes fondateurs de la discipline.

  1. Nous avons notamment consulté le bureau du CNIS, les rapporteurs et présidents des groupes long terme du CNIS, le groupe "perspective(s)" de l’AIS ; nous avons reçu des contributions écrites de MM. Dubois, Girard et Rempp, ainsi que les observations et conseils de Mme Faucheux et de M. Desrosières. Enfin, la préparation de ce rapport a bénéficié de conversations nombreuses avec MM. Gruson, Behmoiras et Delisle.

  2. Les contraintes de court terme qui s'imposent à la statistique en raison du caractère budgétaire de son financement peuvent entrer en contradiction avec la nécessité de la planifier dans une optique de moyen terme ; il en résulte un problème structurel dont nous ne nions pas l'importance, mais qui n'est pas ici le sujet principal.

  3. Ce n'est certes pas le seul instrument d'observation,- mais c'est le plus puissant et le plus systématique. Il possède, au moins potentiellement, des qualité que n'ont ni l'observation courante, ni l’œil exercé du journaliste ou de l'expert. Cela ne veut d'ailleurs pas dire que les statisticiens soient nécessairement les meilleurs interprètes des observations que la statistique fournit : observer et interpréter sont deux activités distinctes.

  4. Il est trop fréquent qu'une innovation soit jugée " inefficace " à l’issue d'un simple essai réalisé sans méthode, sans conviction et à une échelle non pertinente. Les conditions de préparation et d'interprétation des expériences sont donc particulièrement importantes.

  5. Déclaration des droits de l'homme et du citoyen, reprise dans le préambule de la constitution.

  6. cf. "Efficacité de l'Etat", avis de la commission n° 7 du Plan, document de travail intermédiaire. décembre 1988.

  7. Cf. Bourdieu : "La noblesse d'Etat"