Système de pilotage de lentreprise
Le pilotage de lentreprise utilise des tableaux de
bord, des indicateurs, produits selon des méthodes statistiques. Ces méthodes permettent
la synthèse dune information massive, protégée de linterprétation par sa
masse même, et qui ne peut être utilisable que si elle est résumée de façon
intelligente.
Nous allons décrire ici les principales méthodes statistiques
utilisées par les entreprises, et les difficultés que rencontre parfois leur
utilisation.
Le terme " statistique " désigne une
méthode qui vise à observer puis décrire des populations. Le mot
" population " sentend ici de façon large : il peut sagir
de populations humaines (démographie), mais plus généralement la statistique considère
des ensembles : sièges*kilomètres de transport de passagers, francs de chiffre
daffaires, tonnes dacier, appels téléphoniques etc. Il importe, dans chaque
cas, de définir la population que lon considère et les
" individus " qui la composent.
En tant quoutil dobservation, la statistique est
analogue à un microscope ou un télescope : elle ne donne un résultat intéressant que
si elle est orientée vers un objet intéressant et si elle est utilisée par un
opérateur capable dinterpréter lobservation. Il nest donc pas inutile
de savoir pour qui, et pour quoi, lobservation statistique est faite. Le critère de
qualité est la pertinence - cest-à-dire ladéquation aux besoins
quimplique laction. Lexactitude dune information
(cest-à-dire son aptitude à alimenter un raisonnement exact) importe plus que sa précision.
Nota Bene : Le critère de pertinence se distingue du
critère dobjectivité, que lon invoque un peu à tort et à travers.
Lorsque vous conduisez votre automobile, la présence du concept " signal
lumineux " dans votre perception est pertinente, celle du concept
" physionomie des passants " ne lest pas ; il nen est pas
de même si vous flânez sur un trottoir... La présence du concept " signal
lumineux " dans la perception du conducteur résulte dun choix et
se juge en termes de pertinence. Mais la valeur que révèle lobservation
(" rouge ", " vert " ou
" orange ") ne résulte pas dun choix : elle est objective,
dans le cadre du concept choisi. Ainsi lobjectivité nest pas une
" exacte représentation du monde réel ", chimère qui masque un sens
commun pétri de préjugés, mais désigne une observation fidèle réalisée après
un choix conceptuel.
En tant quoutil de description, la statistique comporte un
aspect éditorial. Il nest pas aisé en effet de rendre compte de façon
sobre, lisible, intéressante, dun ensemble dobservations dont le résultat
technique constitue une liasse de tableaux de nombres illisibles. La sélection des
nombres, ratios, graphiques à publier est un art, ainsi que la rédaction des
commentaires
La démarche statistique comporte ainsi des étapes relevant
chacune dune logique différente : définition des concepts puis du programme de
lobservation, collecte et traitement de linformation, publication,
modélisation et études. On peut les représenter selon un modèle en couches, chaque
couche étant reliée à la suivante par une interface qui doit être définie proprement
:
Modèle en couches de la statistique et de léconomie
Socle conceptuel
Il faut dabord définir le domaine dobservation
(population) et les individus qui le composent. Observe-t-on des personnes, des
ménages, des entreprises, des établissements, des passagers, des clients ? On aura des
déboires si lon ne sait pas de quoi lon parle: ainsi, croire que lon
observe des clients alors que lon observe des passagers peut conduire à des
conclusions erronées.
Nota Bene : quelle est, pour un transporteur aérien, la
différence entre un passager et un client ? Le passager, cest la personne qui fait
un voyage, que lon ne connaissait pas avant ce voyage et que lon ne connaîtra
plus après ce voyage. Le client, cest un passager identifié : on est donc capable
de regrouper sous son identifiant tous les voyages quil a faits, et danalyser
son comportement. La transition du raisonnement sur le passager au raisonnement sur le
client permet de parler de comportement, de mesurer la " valeur "
associée à un client (idéalement, cette valeur est égale à la valeur actuelle nette
des relations avec ce client, cest-à-dire à la valeur actualisée du chiffre
daffaires que lon fera avec lui, diminuée de la valeur actualisée du coût
de production des services quil consomme; la connaissance de cette valeur suppose
que lon sache prévoir sa consommation, évaluer les coûts des services quil
consomme, prévoir lévolution de ces coûts etc. Dans les faits, cette connaissance
ne pourra être quapprochée parce que les données complètes nécessaires pour la
construire font défaut).
Pour passer de la connaissance du passager à celle du client,
il faut avoir résolu le difficile problème de lidentification du passager.
Identifiants
Il faut pouvoir identifier les individus qui composent
une population - cest-à-dire attribuer à chacun un code qui lui est propre. Il
nest possible de suivre un individu dans le temps que sil a été identifié.
Or les identifiants usuels sont trompeurs (homonymies de létat-civil, ambiguïté
de ladresse, non univocité du numéro de téléphone) ou instables dans le temps
(une entreprise peut déménager, changer de dénomination, de secteur dactivité,
de taille ...).
La détermination et la gestion des identifiants est lun
des problèmes délicats du système de pilotage. En ce qui concerne les entreprises et
établissements français, on dispose des identifiants Sirene et Siret de lINSEE,
mais ils ne sont daucun secours pour identifier les clients situés à
létranger. Lidentification des ménages nexiste pas, où se réduit à
celle du logement (il est vrai que le ménage est une unité instable dans le temps) ;
lidentification des individus est réalisée en France par le numéro
détat-civil (dit " numéro de Sécurité Sociale ") que souvent
lentreprise nutilise pas, car ses clients ne comprendraient pas pourquoi on le
leur demande. Dautres identifiants sont utilisés pour les équipements, les
services etc.
On peut sefforcer didentifier les individus à
partir dinformations identifiantes, dont aucune ne suffit mais dont la
conjonction peut permettre destimer lidentifiant avec une bonne probabilité
de succès. Ainsi, si un client fournit son nom, son prénom, son adresse, son numéro de
téléphone, son numéro de carte bancaire et le nom de son entreprise, on peut chercher
à retrouver le numéro de sa carte de fidélisation, ou bien lui attribuer un identifiant
qui le suivra dans ses relations avec lentreprise. Si le client fournit non pas
toutes les informations ci-dessus, mais seulement certaines dentre elles, on est en
face dun ensemble d " informations identifiantes " moins
complet et donc moins fiable, mais qui peut toutefois être suffisant en pratique.
Nomenclatures
Enfin, les concepts selon lesquels on entend réaliser
lobservation doivent être définis : ce sont les nomenclatures (produits, zones
géographiques, activité économique dune entreprise, classe de taille dune
entreprise, catégorie socioprofessionnelle dune personne, classe de revenu
dun ménage, classe dâge dune personne, équipements, services etc.).
Les nomenclatures se présentent le plus souvent comme une suite de partitions emboîtées
: une nomenclature peut avoir plusieurs niveaux (exemple : commune, canton, département,
région). Leur construction est une étape essentielle de la démarche. Un concept qui
nest pas compatible avec la nomenclature ne pourra être présent ni dans les
statistiques quelle permet détablir, ni dans les raisonnements que lon
pourra bâtir sur ces statistiques. Les nomenclatures délimitent la sphère de pertinence
théorique dune statistique ; la confusion dans les nomenclatures engendre des
dommages : si deux entités utilisent des nomenclatures différentes, elles ne pourront
échanger linformation quà travers des " tables de
passage " qui comportent une imprécision.
Administration des données
Une donnée, cest le couple formé dun
concept et dune mesure.
Administrer une donnée, cest donc :
- définir le concept ;
- décrire la méthode de mesure ;
- identifier le propriétaire de la donnée (celui qui est chargé de la
mesure, et qui est donc autorisé à mettre la donnée à jour).
Administrer les données dune entreprise,
cest :
- faire le travail ci-dessus pour chaque donnée et qualifier son rôle (donnée de
référence, intermédiaire de calcul, donnée technique, donnée publique etc.),
- vérifier la cohérence des données (pas de synonymes ni dhomonymes etc.),
- éditer une documentation.
Pour comprendre le partage des responsabilités en matière
dadministration des données, il faut se référer aux notions de maître
douvrage (directions opérationnelles, ou encore
" métiers "), et de maître duvre.
Le maître douvrage est le client (interne à
lentreprise) qui met en uvre les applications informatiques et utilise
linformation. Le maître duvre est celui qui coordonne la fourniture
(développement) et lexploitation de ces applications, et en porte la
responsabilité devant le maître douvrage.
Cest le maître douvrage qui, dans chaque domaine,
fournit le contenu de ladministration des données : il est porteur des
définitions et des règles de mesure. La mise en forme de ce contenu, par contre,
est une tâche technique ; elle peut être remplie par linformatique sous la
responsabilité de la maîtrise douvrage et pour son compte. Les arbitrages,
parfois nécessaires pour désigner le propriétaire dune donnée, doivent être
rendus par une entité rattachée au Président.
Voici des citations extraites de nos entretiens. Elles montrent
létendue de leffort à faire pour améliorer ladministration des
données :
" Notre première difficulté est de savoir de quoi
lon parle. Dans les réunions, on discute plus de lécart entre deux données
que des actions à mettre en place pour redresser la situation. Plusieurs entités gèrent
sous le même nom des notions différentes. Dans le domaine financier, quand on parle
denveloppe, chacun met ce quil veut sous ce terme : enveloppe initiale,
résultante, etc.
" On a du mal à trouver une personne capable de
prendre une donnée et de la commenter en disant ce quelle représente, si elle est
fiable, quelles conclusions on peut en tirer, avec quelle certitude.
" Certaines informations conçues soi-disant pour un
pilotage nont pas la périodicité requise. Est-ce quune entité peut piloter
correctement ses consommations à partir dune comptabilité analytique qui sort deux
mois après ? On construit parfois des indicateurs qui ne représentent pas ce que
lon veut piloter. Le manager ne peut pas faire son travail.
Dans beaucoup dentreprises, ladministration des
données est défaillante. Or rien nest possible en statistique - et, dune
façon plus générale, en système dinformation - si les données ne sont pas bien
administrées.
Certaines données jouent un rôle particulièrement sensible :
ce sont les données de référence, auxquelles les diverses applications font
souvent appel. Cette désignation recouvre les nomenclatures (découpage géographique,
organigramme etc.), les taux de change, etc. Le taux de change est modifié de façon
pratiquement continue, les découpages en zones géographiques, organigrammes etc.
connaissent aussi des changements mais ils sont moins fréquents. Il importe que chaque
donnée de référence soit gérée de façon centrale et unique, et que chacune des applications qui
lutilise puisse accéder à une information à jour.
Or il arrive souvent que les données de référence soient
entrées séparément dans chaque application, voire plusieurs fois pour une même
application. Il est alors nécessaire de procéder à des mises à jour manuelles chaque
fois que la donnée de référence doit être modifiée. Inévitablement, ces mises à
jour conduisent à des erreurs : elles sont partielles, certaines sont oubliées, etc. Il
en résulte des dommages graves lors des exploitations : que lon pense par exemple
à ce que devient la comparabilité des données si la définition des zones
géographiques nest pas mise à jour de façon cohérente.
Il importe donc que les données de référence soient bien
traitées comme telles, et non dispersées dans les applications où elles réclament des
mises à jour multiples qui peuvent être sources derreurs.
Programme de lobservation statistique
La définition dun programme dobservation
statistique suppose plusieurs choix :
- nomenclatures fournissant son découpage conceptuel,
- périodicité de lobservation (une donnée ne répond pas aux mêmes
besoins selon quelle est produite de façon quotidienne, hebdomadaire, mensuelle,
trimestrielle ou annuelle),
- finesse de lobservation (on peut choisir un niveau de nomenclature plus ou
moins agrégé),
- degré de précision (le taux de sondage sera dautant plus élevé que
lon souhaite davantage de précision),
- délai de disponibilité de linformation.
Un programme statistique se concrétise sous la forme dune
liste denquêtes ou dexploitations répondant chacune à un sous-ensemble des
questions posées. Idéalement, on doit choisir les méthodes permettant de satisfaire les
besoins au moindre coût, même si le calcul du coût nest pas explicite.
Ici se pose un problème. Nous avons dit que la statistique
était fondée sur des concepts dont la pertinence sévalue selon leur adéquation
à laction. Tout est simple si le demandeur est un individu. Tout se complique si
lon entend établir une statistique destinée à un ensemble dindividus dont
les besoins peuvent différer, et qui peuvent même avoir des intérêts opposés. Le
choix conceptuel pertinent pour lun peut ne pas lêtre pour lautre.
Comment une même statistique peut-elle donc correspondre à des besoins divers?
On ne peut pas répondre à cette question de façon logiquement
absolue, car il sera toujours possible dimaginer un cas où des concepts
inconciliables sont pertinents pour des acteurs divers. Cependant cette question reçoit
souvent une réponse pratique. Laction de chacun suppose en effet la communication
avec dautres. Sauf pathologie annonciatrice dun éclatement, toute
collectivité humaine définit des concepts qui lui permettent de partager observations,
raisonnements et décisions. Le partage du langage lui donne sens et cohésion. Le besoin
de communiquer contrebalance la diversité des priorités individuelles.
La procédure utilisée pour construire le programme statistique
doit donc être attentive à lobtention dun consensus, de sorte que les
données puissent servir à la communication. La méthode utilisée par lINSEE
mérite ici dêtre observée : les diverses composantes de la société civile sont
invitées à participer au CNIS, qui rassemble des représentants des organisations
professionnelles, des syndicats, des universités, des administrations, des associations
etc. Lordre du jour des réunions est établi par lINSEE, qui rédige les
comptes rendus. Le CNIS joue un rôle consultatif, mais en pratique ses avis sont
généralement écoutés dans la limite des ressources budgétaires. Éclairé par des
experts qui répondent à toutes ses questions, le CNS donne son avis sur les
nomenclatures, les méthodes statistiques, le programme des enquêtes, exploitations et
publications etc. Il nen résulte pas nécessairement un programme excellent (le
système statistique français a des lacunes, notamment sur le revenu des fonctionnaires),
mais les diverses composantes de la société civile sont invitées à donner un avis dont
il est tenu compte. La qualité de la statistique comme langage commun et outil de
communication en est améliorée.
On peut imaginer une structure analogue dans lentreprise.
Un " conseil de la statistique et des études" comporterait des
représentants mandatés par les diverses directions. Une équipe assurerait lapport
de compétence technique et danimation. Les méthodes à utiliser (CVS sur les
séries chronologiques, évaluation des élasticités prix, segmentation, publication,
diffusion), y seraient discutées posément ainsi que les nomenclatures et le programme
des enquêtes. Des questions délicates pourraient être ainsi traitées à froid, dans
une ambiance sereine.
Collecte et traitement de linformation
Lentreprise dispose de sources diverses : les applications
utilisées dans lactivité opérationnelle fournissent une information
potentiellement utilisable au fil de leau ; des enquêtes permettent dobtenir
des informations complémentaires ; enfin, il est possible dacheter des sources
extérieures sur le marché des bases de données.
A chacun de ces types de sources correspond un mode
dexploitation spécifique - et il est possible, et utile, de les fusionner entre
elles. Ainsi lon rencontre lensemble des situations techniques auxquelles un
statisticien peut être confronté.
Sources
Sources exhaustives
Les données fournies par les applications opérationnelles
constituent une source exhaustive, mécanique en principe (sans intervention humaine, donc
sans erreur humaine), utilisable en temps réel. Cependant cette information est limitée
aux relations avec les clients de lentreprise (elle ne permet donc pas
déclairer sa part de marché). En outre ces sources exhaustives sont volumineuses,
et donc difficiles à exploiter sur le plan statistique.
Sondages internes
On peut chercher à surmonter la lourdeur dune source
exhaustive en faisant un sondage à lintérieur de cette source, pour examiner à la
loupe ses propriétés sur léchantillon. Nous appellerons un tel sondage
" sondage interne ".
Si lon a su exploiter correctement la source exhaustive,
le sondage interne napporte rien sur les totalisations, puisque la mesure quil
procure comporte une imprécision alors que la mesure exhaustive est exacte. Par contre,
il permet détudier les corrélations entre variables, alors que cette étude
serait lourde sur les sources exhaustives. Le sondage interne est donc un bon outil sur le
chemin de léconométrie, fondée sur lutilisation des corrélations.
Un piège : lexhaustif partiel
Les ingénieurs, épris de précision, sont parfois mal à
laise devant la technique des sondages qui fournit des mesures entachées
dincertitude. Ils préfèrent utiliser des données exhaustives, recueillies sur une
sous population, et en tirer des leçons. Tel directeur est connu pour généraliser
souvent, à toute la population, des évaluations obtenues sur une sous-population
précisément connue. Les conclusions abusivement tirées dune expérience
personnelle, ou dune monographie, relèvent de la même démarche.
Cependant si un exhaustif partiel donne des données certaines,
elles sont entachées dun biais lorsquon les utilise comme estimateur
des données globales : une sous-population nest représentative que
delle-même, alors quun échantillon est représentatif de la globalité dont
il est extrait.
Le carré de lerreur sur une donnée est somme du carré
du biais et de la variance :
E2 = B2 + σ2
Lexhaustif partiel nest donc préférable au sondage
que si le biais quil comporte est inférieur à lécart-type de
lincertitude associée au sondage. Or souvent il lui est supérieur.
Il faut donc que les responsables apprennent à maîtriser
linconfort que procure lutilisation des intervalles de confiance, et sachent
quune information incertaine est en général plus exacte quune information
biaisée.
Sondages externes
Les sources exhaustives et les sondages internes à ces sources
ne fournissent pas toute linformation dont a besoin lentreprise. Ils ne
donnent pas dinformation sur la satisfaction des clients, ni sur les données
contextuelles qui permettent dexpliquer leur comportement (revenu, CSP, taille du
ménage ; taille de lentreprise, chiffre daffaires, etc.).(NB : voir les
éléments de théorie des sondages)
Il faut obtenir ces informations par enquête. Ces enquêtes
donnent une information entachée dincertitude, mais une astuce permettrait
dobtenir des estimations plus précises : celle qui consiste à caler les données
fournies par les sondages internes sur des données exhaustives connues de façon
certaine.
Supposons en effet que jassocie à un sondage externe
(portant sur des données que je ne connais pas) un sondage interne, qui procure sur
chacun des individus de léchantillon la mesure de données dont jai par
ailleurs une connaissance exhaustive.
Dès lors je peux estimer sur léchantillon la
corrélation entre données internes et données externes. Or je connais avec certitude le
total de la donnée interne. Je peux donc, en utilisant la corrélation, estimer la
donnée externe. Cette estimation sera certaine si la corrélation est absolue (ρ2
= 1). Si la corrélation nest
pas absolue (ρ2
< 1),
jobtiens une estimation non certaine, mais meilleure que celle fournie par un
sondage qui ne serait pas confronté à la source interne, et dautant meilleure que
la corrélation est plus forte.
Panels
Un panel, cest un échantillon dont on suit
lévolution dans le temps (une " cohorte "). La technique du
panel vise à combiner les avantages du sondage (économie sur les coûts
dobservation) avec le suivi des comportements permis par la présence permanente des
mêmes individus dans le panel. Cette technique est donc séduisante au premier abord.
Cependant sa mise en uvre est des plus difficiles.
La difficulté vient dune contradiction entre la
permanence du panel et lévolution des populations sondées qui se renouvellent par
" naissance ", " décès " et
" migration " des individus : un ménage se forme, se dissout,
déménage ; une entreprise se crée, fusionne, éclate, change dactivité, etc. La
continuité du panel, sa représentativité, sont ainsi rompues par des évolutions de
type démographique.
La représentativité de léchantillon risque dêtre
altérée après quelques années, car sil a bien été constitué au départ de
façon aléatoire les " décès " ont obéi non à une loi aléatoire,
mais à une loi naturelle qui ne frappe pas au hasard. Il faut renouveler
léchantillon pour introduire des représentants des
" naissances " : mais ces nouveaux individus nont pas de passé,
et il faut donc les ignorer dans les calculs dévolution. Les pondérations à
accorder aux individus doivent varier dans le temps, pour donner une image fidèle de la
proportion des diverses strates : mais des pondérations variables peuvent avoir des
effets surprenants pour lintuition.
Autres sources
On trouve des bases de données sur le marché. Certaines
contiennent des informations utiles pour compléter les données internes, et permettent
déviter la dépense dune enquête.
Il faut distinguer parmi ces sources celles qui permettent
didentifier lindividu, et autorisent donc une fusion de fichier puis des
calculs de corrélation, et celles qui ne fournissent que des totaux sur des
sous-populations, et ne sont utilisables quà ce niveau agrégé. Les secondes sont
potentiellement moins riches et moins utiles. Les contraintes imposées par la CNIL
peuvent parfois obliger à dégrader une source : elle pourrait donner des informations
individuelles, mais on sinterdit de les utiliser et on ne peut se servir que des
données agrégées.
La politique dachat en matière de sources externes
requiert une expertise précise. Elle doit être attentive :
- au niveau dagrégation auquel il est possible de fusionner la source
externe et la source interne,
- au prix, comparé à celui dun sondage procurant une information analogue,
- au prix, comparé à lutilité du complément dinformation par
rapport aux sources internes.
Délimitation des domaines de lexhaustif et du sondage
Nous avons distingué ci-dessus les calculs qui permettent
dévaluer des totaux (ou des moyennes) et ceux qui permettent destimer des
corrélations.
Si lon utilise le langage de la mathématique, on
distingue parmi les mesures associées aux variables les " moments dordre
un " (moyennes, totaux) et les " moments dordre deux "
(variance, corrélation).
Les moments dordre deux sont à lorigine des calculs
économétriques, des modèles, et de la segmentation qui implique une analyse de la
variance.
Lexigence de précision concernant les moments
dordre un est souvent élevée et leur calcul est simple (il suppose une addition).
Le calcul des moments dordre deux est plus lourd, et lexigence de précision
moins élevée : en matière de variance ou de corrélation, on se contente souvent
dune estimation.
Ainsi, dans les cas où lon dispose dune grande
source exhaustive, on utilisera cette source pour calculer moyennes et totaux, et on
utilisera un sondage interne à cette source pour calculer variances et corrélations. Le
sondage est également utile pour estimer les moments dordre un et deux des
variables non comprises dans la source exhaustive.
Ceci permet de voir clairement le domaine de validité des
sondages : ils sont précieux pour les travaux économétriques ou de modélisation, pour
la segmentation, pour étudier les corrélations entre variables internes et variables
externes (par exemple entre facture et opinion).
Vérification
Avant dexploiter une source statistique, il faut la
vérifier. La vérification porte sur chaque enregistrement individuel. On distingue
vérification logique et vérification sémantique. La vérification logique est simple :
il sagit de voir si le questionnaire est complet, si les codes ont des valeurs
admissibles, si les totalisations tombent daplomb, si tel ou tel taux est juste
(TVA, taux de change etc.). La vérification sémantique est plus subtile, car elle porte
sur la vraisemblance des informations ou des ratios, comparés par exemple à leur
distribution dans lensemble de la population.
Lidéal est de faire ces vérifications au moment de la
saisie : on peut alors éditer des messages derreur ou danomalie, et la
personne chargée de la saisie effectue les corrections sur le champ. Sil
sagit dune source obtenue après saisie, il est indispensable de la soumettre
à un programme de vérification avant de lexploiter.
Exploitation
Exploiter une source statistique (fichier ou enquête),
cest définir la liste des tableaux qui seront produits pour présenter les
résultats, puis programmer et faire réaliser par lordinateur les opérations
nécessaires pour les obtenir.
Les résultats se présentent sous forme de tableaux, obtenus en
faisant des tris dans la population considérée, puis des totalisations. Si
lenquête a été réalisée par sondage, chaque réponse doit avant dêtre
additionnée aux autres être pondérée par linverse du taux de sondage dans la
strate à laquelle appartient lindividu. Le calcul de cette pondération peut être
délicat : dans un panel, par exemple, la représentativité dun même individu peut
varier dans le temps, et il faut faire évoluer sa pondération.
Toujours dans le cas des sondages, le calcul des intervalles de
confiance nécessite le recours à des formules un peu complexes. Si lon considère
une évolution dans le temps, il faut savoir distinguer dans les résultats ce qui revient
à lévolution à population constante (suivi de " cohortes ",
panel " cylindré ") et ce qui revient à la démographie
(" mort ", " naissance " et
" migration " dindividus). Cette distinction est importante dans
les statistiques dentreprise ; la présentation des résultats en est
inévitablement alourdie, leur interprétation nest pas aisée.
Lutilisation de pondérations variables peut avoir des
effets surprenants : il peut ainsi arriver que le taux de croissance de la moyenne de deux
variables ne soit pas contenu dans lintervalle des taux de croissance de ces
variables (effet de structure). Cet effet est notoire dans les indices de prix, qui sont
des indices de Paasche à pondération variable.
Il est souhaitable détablir le programme
dexploitation au moment même où lon définit le programme denquête,
le dessin du questionnaire etc. : on sassure ainsi que lon dispose bien de
toutes les données dont on aura besoin, et que la collecte nest pas excessivement
riche. Il est vrai que trop souvent les statisticiens ne respectent pas cette règle, et
construisent le programme dexploitation à chaud, alors même quils croulent
sous les questionnaires et vérifications ...
Fusion de fichiers
La fusion de fichiers est lune des opérations les plus
puissantes de la statistique. Supposons que lon ait fait deux enquêtes sur une
même population, et que lon ait observé la variable X (n modalités) dans
lune, la variable Y (m modalités) dans lautre. Fusionner les fichiers revient
à constituer un nouveau fichier, indiquant pour chaque individu les valeurs des variables
X et Y. Ainsi on peut calculer leur corrélation, et établir le tableau qui les croise
(nm modalités) : on peut donc dire de façon très exacte que la fusion de fichiers multiplie
les possibilités dexploitation.
La CNIL est souvent hostile aux fusions de fichiers, car cette
technique puissante permet de recouper sur un même individu des informations
dorigines diverses qui navaient pas été collectées dans ce but. Il est vrai
que la fusion de fichiers, surtout lorsquelle est associée à des techniques
danalyse discriminante (" scoring "), risque de donner trop de
puissance à des démarches indiscrètes ou malveillantes. Les contraintes déontologiques
doivent être ici particulièrement strictes.
La fusion de fichier est dailleurs une technique
délicate, car les fichiers sont souvent incomplets, et les identifiants souvent mal
contrôlés. En outre la fusion est loccasion dune vérification. On procède
par étapes : " mise en forme ",
" interclassements ", " appariements ",
" réintroduction dunités absentes ",
" confrontations ", " mise à niveau des
données ". Ces opérations sont coûteuses, lourdes, et demandent un savoir
faire spécialisé.
Séries chronologiques
Il est utile, dans un environnement concurrentiel, de percevoir
rapidement les réactions du marché, et dinterpréter les inflexions de ses
tendances. Il faut pour cela (a) disposer de séries chronologiques de bonne qualité, (b)
traiter ces séries de façon à faire apparaître la tendance instantanée.
Lexigence est analogue si lon entend procéder à
des expérimentations : il faut disposer dune mesure dassez bonne qualité
pour pouvoir évaluer les effets dune nouvelle tarification, dune nouvelle
offre que lon teste sur un échantillon de clients.
Qualité des séries chronologiques
Une mesure exacte si elle est adéquate au concept que lon
entend mesurer. Ainsi, additionner les factures émises pendant un mois nest pas
adéquat pour mesurer la valeur de la production de ce mois, puisque certaines de ces
factures peuvent correspondre à la production des mois précédents, et quune
partie de la production du mois considérée sera facturée plus tard. Evaluer les
dépenses dun mois en considérant les factures reçues le 10 du mois suivant
nest pas adéquat non plus, pour des raisons analogues.
Les montants des factures émises ou reçues ont la faveur des
comptables, parce quil sagit de données précises. Le problème,
cest quelle nont pas de valeur économique. Léconomiste veut
avoir une estimation sans biais de la production du mois, ou des dépenses du mois. Il
accepte ainsi une perte en précision pour obtenir un gain en exactitude, au sens que nous
avons donné ci-dessus à ce terme.
Autre exemple : les balances comptables mensuelles visent non à
donner une estimation des données du mois, mais à faire progresser tout au long de
lannée le classement des enregistrements comptables, de façon à faciliter
larrêté des comptes en fin dannée. Les données mensuelles ainsi inscrites
ne sont pas révisées par la suite, et la donnée relative au mois m est la somme de ce
que lon connaît sur le mois m vers le 10 du mois m + 1, plus la somme des
corrections et compléments apportés aux données des mois antérieurs : il sagit
en fait plus de la mise à jour partielle dun cumul depuis le début de
lannée que dune donnée mensuelle.
" Badger " les données
Seules certaines données se prêtent donc à
létablissement de séries chronologiques. Il convient de distinguer les données
selon lutilisation qui peut en être faite. Il existe plusieurs façons de mesurer
un effectif, un chiffre daffaires, une production, etc. Il convient de réserver à
certaines de ces mesures (si possible, une seule par concept) le badge
" publiable " ; les autres porteront un badge technique : données
" comptables ", " de gestion ",
" intermédiaires de calcul " etc. En général les données
publiables sont celles qui ont un contenu économique, et non celles qui sont les plus
faciles à mesurer : la production dun mois ne peut être connue quaprès des
traitements délicats, alors que le montant des factures émis durant un mois (indicateur
fallacieux sur le plan économique) est disponible plus vite.
Personne ne peut reprocher à un comptable de calculer le total
des factures émises durant un mois, et de lutiliser à des fins de vérification et
de recoupement. Mais ce nest pas une donnée économique, car elle ne peut pas aider
à calculer la production, la productivité, ni à estimer le résultat etc. Il y aura
souvent conflit entre la donnée comptable (précise mais trompeuse) et la donnée
économique (fidèle mais imprécise). Il faut savoir préférer la seconde, qui seule
peut éclairer le raisonnement, et apprendre à supporter limprécision de
lévaluation.
Traiter les séries chronologiques
Considérons une série mensuelle publiable. Son interprétation
requiert un traitement. En effet, une mesure mensuelle est un produit T = n*I, où n est
le nombre de jours dactivité du mois et I lintensité de la consommation. Si
lon veut dégager cette dernière, il faut appliquer à la donnée brute une
correction tenant compte du nombre de jours du mois, voire du nombre de jours ouvrables
selon les secteurs économiques considérés.
Enfin les intensités elles-mêmes sont influencées (a) par le
mouvement saisonnier propre au marché considéré, (b) par la tendance sous-jacente, qui
seule intéresse vraiment le management. Pour détecter la tendance sous-jacente il faut
éliminer le mouvement saisonnier. Cest à quoi sert la correction des variations
saisonnières, ou CVS.(NB : voir la théorie de la CVS).
Certains jugent les CVS trop compliquées pour leur goût. Ils
préfèrent les données brutes, quils jugent plus
" concrètes ", et utilisent pour éliminer leffet saisonnier la
comparaison dite " R/R " : on compare la réalisation dun mois
à celle du mois correspondant de lannée précédente.
Cette méthode est fallacieuse. Considérons une série
mensuelle observée sur trois ans, et lévolution du rapport R/R sur les deux
dernières années :
Série chronologique et rapport R/R
La série est croissante pendant les deux premières années, se
retourne à la fin de la seconde année et décroît pendant la troisième année.
Cependant le rapport R/R reste croissant pendant la première moitié de la troisième
année, et ne se retourne quau milieu de cette année. Si lon sen fie à
ce rapport, on se trompe donc pendant six mois sur le signe de lévolution, et
lon commet une erreur de six mois sur la date du retournement.
Dune façon plus générale, lévolution du rapport
R/R résulte des deux tendances observées lors de lannée en cours et de
lannée précédente : elle mêle donc deux informations, et elle est malgré son
apparente simplicité plus difficile à interpréter que celle dune série
CVS.
Utiliser les séries brutes ou le rapport R/R peut paraître
rassurant à ceux qui nont pas de culture statistique ; mais ce confort se paie par
des erreurs dappréciation qui, de la part dun décideur, peuvent avoir des
conséquences graves.
Lempirisme débridé des calculateurs a produit
dautres méthodes plus sophistiquées, mais analogues, qui présentent les mêmes
défauts que le rapport R/R ou des défauts plus graves encore : ainsi la méthode qui
consiste à associer à un mois le rapport " somme des douze dernier mois,
divisée par la somme des mois n - 13 à n - 24 ", équivaut à la suite des
opérations suivantes :
- moyenne mobile sur douze mois ;
- rapport R/R ;
- retard de six mois.
Lempirisme, armé de lordinateur, peut produire une
grande variété dindicateurs synthétiques, de graphiques, qui ne veulent rien dire
et sont même fallacieux. Les graphiques diffusés, étant erronés ou fallacieux, peuvent
avoir une influence sur la décision. Lattachement de lentreprise aux
graphiques présentant lévolution des rapports R/R, graphiques qui napportent
aucune information utile et qui peuvent même tromper, est inquiétante.
Publication
Les publications statistiques se classent en deux familles :
- les compilations qui, comme les cours de bourse,
fournissent à des lecteurs habitués un grand nombre de résultats parmi lesquels ces
lecteurs savent trier ce qui les intéresse ;
- les tableaux de bord qui fournissent à des lecteurs a
priori non spécialisés une information synthétique : à cette catégorie
appartiennent les EIS qui visent à éclairer des responsables. Les publications
statistiques internes à une entreprise relèvent en majorité de cette seconde famille.
Or les exigences quimpliquent ces deux familles sont
différentes. Une compilation fournit beaucoup de nombre non commentés. Beaucoup croient
quun tableau de bord doit se présenter de la même façon, et quil sera
dautant plus utile quil apporte plus dinformations. Ce nest pas
exact.
Pour chaque lecteur dun tableau de bord, on peut en effet
considérer lindicateur le plus intéressant, puis le second etc. Lutilité
totale en fonction du nombre dindicateurs est représentée par une courbe dont la
concavité est tournée vers le bas (graphique 2). Par ailleurs, leffort demandé
par la lecture dune publication est à peu près proportionnel à la taille de
celle-ci. Il en résulte que lutilité de la publication, différence entre
lutilité des indicateurs et leffort de lecture, passe par un maximum pour un
nombre dindicateurs donné, puis décroît et peut même devenir négative.
Lutilité en fonction de la taille dune publication
Un tableau de bord doit donc être sélectif, sobre,
visuel et commenté.
- sélectif
: retenir dabord les indicateurs les plus intéressants.
- sobre
: ne publier que le nombre dindicateurs correspondant au maximum
dutilité pour le lecteur.
- visuel
: la visualisation graphique est indispensable, car les nombres sont
difficiles à lire.
- commenté
: les commentaires facilitent la compréhension des graphiques, en
communiquant au lecteur les raisonnements de bon sens dont le statisticien se sert
lui-même, ou des indications sur le contexte qui permettent dinterpréter les
données.
Il est difficile de respecter ces exigences simples. Il est
pénible pour un statisticien de limiter la taille de sa publication, car les indicateurs
quil a produit lui semblent tous intéressants. Les représentations graphiques sont
diverses, et le choix entre courbes, histogrammes, formages, ainsi quentre diverses
échelles est délicat. Enfin la rédaction du commentaire est embarrassante : la gamme
est large de la paraphrase des nombres à lexplication qui nécessite de les
confronter à une théorie ; le rédacteur a peur dêtre banal, den dire trop,
de prendre le risque dexprimer une opinion qui peut être discutée.
La plupart des publications statistiques et tableaux de bord ne
respectent donc pas ces exigences. On rencontre souvent un empilement de nombres, des
graphiques absents ou mal choisis, des commentaires absents ou réduits à un charabia
technique, faisant souvent la part belle à des subtilités comptables sans signification
économique. Rien de tout cela ne peut servir à un décideur.
Modélisation et études
Les trois techniques essentielles utilisées pour interpréter
les données sont lanalyse des données, léconométrie, et la classification
(ou segmentation).
Lanalyse des données
Lanalyse des données formalise les techniques de
statistique descriptive (analyse factorielle des correspondances, analyse en composantes
principales, analyse discriminante etc.). Elle considère uniquement les relations
algébriques entre données et ne suppose aucune hypothèse explicative a priori.
Cest un instrument dexploration qui suscite des questions et aide à détecter
des phénomènes, ainsi quà les décrire et les visualiser, mais ne vise pas à les
expliquer.
Lanalyse des données est une bonne méthode lorsque
lon doit aborder un gros corpus de données sur lequel on na pas didées
a priori, et que lon veut lexplorer rapidement. Pour traiter les
questions que suscite cette exploration et les confronter à des schémas explicatifs, il
faut recourir à dautres méthodes.
Segmentation
La segmentation, ou encore classification, est lopération
par laquelle on définit des classes (segments) dans lesquelles on range les individus
appartenant à une population. La construction dune segmentation suppose des choix :
sur une population donnée, plusieurs segmentations sont logiquement possibles. Il importe
donc de savoir à quelles fins on construit une segmentation, et de sassurer que les
choix sur lesquels elle repose sont adéquats à ces fins.
Toute action suppose une segmentation, car un cas particulier ne
peut être traité que si lon sait le ranger dans une classe : par
lobservation des symptômes, le médecin range un patient dans une classe (la
maladie), ce qui lui permet détablir sa prescription. De même, par
lobservation des variables relatives à un client, le commercial classe celui-ci
dans un segment, ce qui lui permet dappliquer le traitement personnalisé
convenable. Observons en effet que personnaliser la démarche commerciale, ce nest
pas traiter un client selon les caractéristiques ineffables de son individualité, mais
laffecter à une classe pour laquelle une démarche a été définie a priori.
On distingue deux types de segmentation dont les utilisations
sont différentes : la segmentation a priori comporte peu de classes (quelques
dizaines au plus) et repose sur des critères faciles à observer ; la segmentation a
posteriori résulte dune utilisation poussée de la statistique, et fournit un
grand nombre de classes.
Segmentation a priori
La segmentation a priori fournit à lentreprise un
langage et des points de repère. Les classes du découpage, leurs dénomination,
deviennent des concepts sur lesquels se construisent raisonnement et communication. Des
statistiques agrégées, calculées sur chaque classe par totalisation, permettent de la
caractériser.
Segmentation a posteriori
La segmentation a posteriori résulte dune
utilisation extensive des bases de données individuelles. En les soumettant à des
démarches danalyse des données, elle délimite quelques centaines de classes. Il
ne sagit donc plus ici de fournir au raisonnement un outil conceptuel, mais de
repérer des " niches " sur lesquelles peuvent être engagées des
actions spécifiques, et que la segmentation a priori naurait pas permis de
repérer.
Qualité de la segmentation
La segmentation structure souvent lorganisation. En effet
des entités spécialisées sont créées dans lorganigramme pour assurer chacune la
relation commerciale avec une classe. Dès lors la segmentation prend une existence
institutionnelle qui peut masquer ses origines et les choix sur lesquels elle est fondée.
Il est important de relativiser ces choix pour éviter que la segmentation ne se
fossilise.
Par ailleurs la finalité de la segmentation doit être prise en
compte lors de sa définition. Fonder une segmentation sur des critères relatifs à la
relation entre lentreprise et le client serait au rebours des besoins de la
modélisation (cf. encadré).
Les besoins de la modélisation
Un modèle qui vise à expliquer la consommation dun
client, et à révéler un potentiel, doit distinguer :
- les variables exogènes qui décrivent le contexte (dans le cas dune
entreprise : activité, taille, localisation, chiffre daffaires etc.)
- les variables endogènes qui décrivent la consommation et sont
modélisées en considérant les exogènes comme des variables explicatives. Il est
ensuite intéressant de comparer la consommation effective à la valeur estimée par le
modèle pour détecter et interpréter les écarts (sur- ou sous-consommation).
Il importe donc de privilégier les variables exogènes pour
définir une segmentation sur laquelle un modèle pourra ensuite sappuyer. Un
segmentation fondée sur la consommation ne peut pas servir à cette fin, puisquelle
prend comme variables dentrée celles que la modélisation doit justement expliquer.
Exemple : si on a défini les classes en fonction du volume
consommé (gros consommateurs, petits consommateurs etc.), la réussite dune
politique commerciale portant sur les petits consommateurs aura pour effet de vider cette
classe au bénéfice de la classe des gros consommateurs, donc éventuellement de diminuer
sa consommation totale !
Léconométrie
(NB : voir les éléments de théorie de l'économétrie).
Linterprétation des statistiques, comme celle de toute
observation, réclame une confrontation avec un modèle théorique, qui outre le
découpage conceptuel propre à la description postule des relations fonctionnelles entre
les données observées. Ainsi la statistique fournira la mesure du revenu R et de la
consommation C, mais cest la théorie qui fournira lhypothèse dune
relation fonctionnelle (comportant éventuellement un aléa) du type C = f(R).
Parfois, la théorie est simple, et il est inutile de
lexpliciter : on a alors limpression que les données parlent
delles-mêmes. Souvent par contre il est nécessaire pour faire parler les données
de se référer à une toile de fond théorique.
Il est alors commode de formuler la théorie sous la forme
dune équation qui permet dexpliquer une donnée à partir des autres et
comporte un terme aléatoire, par exemple :
Les techniques de léconométrie permettent destimer
les valeurs les plus plausibles des coefficients. Ici, le coefficient f est
lélasticité de la consommation au prix, le coefficient a est le taux de croissance
tendanciel, etc. Ces techniques comportent également des tests qui permettent de
vérifier que les données constatées ninvalident pas la spécification de
léquation.
Les économètres testent plusieurs spécifications avant
den retenir une qui soit à la fois féconde sur le plan théorique, et acceptable
du point de vue des tests statistiques.
Il est possible de lier par de telles équations les données
qui décrivent un domaine de léconomie : on aura alors construit un modèle
économétrique. On distingue parmi les données les " variables
exogènes ", paramètres fournis en entrée au modèle, et les
" variables endogènes ", qui résultent du calcul. Par exemple, dans
le cas de léquation ci-dessus qui constitue un modèle simple, on peut considérer
Y comme une endogène, " expliquée " par les variables situées dans
le terme de droite de léquation.
Léconomètre est parfois tenté de travailler de façon
purement statistique, sans référence aucune à une théorie. Il sont alors tentés de
donner foi à des corrélations constatées dans le passé, mais qui sont accidentelles et
nont donc aucune valeur prédictive. Le surdimensionnement de la flotte navale
sexpliquerait par une erreur de ce type.
Lorsquil est bien fait, le travail de léconomètre
est technique, long et compliqué. Il lui est difficile de communiquer à un non expert
les raisonnements quil a faits pour sélectionner les spécifications. En outre la
seule autorité des résultats quil obtient, cest de ne pas avoir été
rejetés par les tests lors de la confrontation avec les données observées.
Certains tirent parti de cette difficulté de communication et
de cette autorité limitée pour révoquer en doute les résultats de
léconométrie, et leur préférer dautres hypothèses qui sans doute ne
résisteraient pas à la confrontation avec les données, mais correspondent mieux à
leurs préjugés, et quils ne se soucient dailleurs pas de soumettre à des
tests.
Il nest pas facile pour un dirigeant dentreprise
dutiliser convenablement les résultats de léconométrie, car cela demande
savoir faire et expérience. Il est certain en tout cas quun dirigeant fait prendre
un risque à son entreprise lorsquil tourne le dos à ces résultats pour se fier à
des affirmations plus séduisantes, mais qui leur sont contraires.
Les prévisions
Si lon dispose de prévisions sur les exogènes, on peut
en faisant tourner le modèle sur ces valeurs prévisionnelles en déduire une prévision
des endogènes. La qualité de cette prévision dépendra de celle des exogènes, mais
aussi de la validité du modèle en dehors de lintervalle de temps sur lequel il est
étalonné. Il est utile, pour vérifier ce dernier point, détalonner une même
équation sur des intervalles de temps différents, et de comparer les estimations des
coefficients ainsi obtenues.
Il nest pas toujours possible de disposer de prévisions
sur les exogènes : on dit alors que ce sont des variables explicatives, mais non
prédictives. Pour produire un modèle prévisionnel, il faut limiter les spécifications
en ne retenant comme exogènes que des variables prédictives.
Linformation prévisionnelle est plus précieuse que
linformation sur le passé proche: on ne peut rien faire pour corriger le passé,
alors que lon peut réagir si la prévision montre que lon est devant un
obstacle.
Le mot prévision est à comprendre ici en un sens technique
précis.
Si vous conduisez une automobile la nuit, les phares portent
droit devant vous et indiquent les tournants de la route et les obstacles. Vous
manuvrez de façon à prendre le virage, éviter lobstacle etc., et sortez
donc de la trajectoire que les phares avaient indiquée. Vous naccusez pas pour
autant les phares davoir donné des indications erronées.
De même, les prévisions que lon obtient par
léconométrie, tendancielles en tout ou partie (les exogènes prédictives sont
souvent obtenues par extrapolation), montrent des obstacles que le pilotage de
lentreprise semploiera à éviter. Les réactions que suscite la prévision
font donc - heureusement - que la prévision ne se réalise pas. Mais, si lon ne
comprend pas que la prévision économétrique est analogue aux phares dune
automobile, on croit que le prévisionniste a eu tort.
Il ne faut pas sétonner si lexpert garde alors pour
lui ses prévisions. Il ne les communique, avec prudence, que si elles lui montrent un
obstacle quil estime vraiment dangereux pour lentreprise.
Nota bene : le mot " prévision "
reçoit parfois un sens différent de celui que nous avons indiqué ici : il désigne des
données établies afin de mensualiser la présentation du budget. La finalité politique
du budget - que nous ne remettons pas en cause, mais que nous distinguons dune
finalité économique - donne à ces " prévisions " un caractère
hautement conventionnel. Ce sont elles qui sont considérées lorsque lon calcule
des rapports R/P (réalisation/prévision) dans la présentation des statistiques,
rapports qui nont guère plus dutilité pour évaluer la tendance que les
rapports R/R que nous avons évoqués.
Il est utile ici de regrouper diverses remarques concernant les
statistiques commerciales :
- les experts disposent destimateurs sans biais, de séries corrigées de
variations saisonnières et interprétables, danalyses économétriques, de
prévisions tendancielles sur les six mois à venir ;
- lentreprise leur réclame, et obtient, des données biaisées, présentées
sous la forme de rapports R/R ou R/P, accompagnées de lourds commentaires comptables et
sans prévisions autres que budgétaires et donc conventionnelles ;
- les données utilisées par lentreprise sont fallacieuses et peuvent donc
conduire à des interprétations et décisions erronées ;
- lutilisation de données économiques de qualité suppose un changement de
lattitude de lentreprise vis-à-vis des données et des experts.
Points divers importants
Difficultés propres à la statistique des entreprises
Une population se prête à la statistique :
- si elle est assez nombreuse pour que lon puisse estimer les moyennes,
totaux, dispersions et corrélations des variables qui la décrivent, la classer en
segments et procéder aux mêmes estimations sur les segments ;
- si elle est assez stable dans le temps pour que lon puisse étudier
lévolution des variables ci-dessus.
Les populations des ménages et petites entreprises répondent
à ces exigences. Cela ne veut pas dire quelles soient homogènes : elles sont au
contraire très diversifiées. Mais ces populations sont assez nombreuses pour que
lon puisse les segmenter, réduire leur diversité à des différences entre
classes, et en rendre compte à la fois en description instantanée et en évolution.
La situation nest pas la même en ce qui concerne les
grandes entreprises. La population est alors peu nombreuse ; bien quexhaustive, elle
a les caractéristiques dun petit échantillon qui serait tiré dans une population
infinie, celle des " entreprises possibles ", population purement
idéale et donc hors datteinte par lobservation. Si cet
" échantillon exhaustif " est de taille trop petite, les
moyennes, totaux etc. que lon peut en tirer ont une valeur purement descriptive,
mais ne se prêtent ni à lanalyse économétrique, ni aux calculs prévisionnels.
Cest flagrant en ce qui concerne les grandes entreprises.
Saint-Gobain, Rhône-Poulenc, Bouygues, la Lyonnaise des Eaux, EDF sont des entreprises
qui ont une forte individualité et quil convient détudier en tant
quindividus, même si on les compare à leurs concurrents dans certains domaines.
France Télécom, Air France, la Société Générale peuvent être situées chacune sur
la toile de fond dun secteur (opérateurs télécoms, transport aérien, banque),
mais présentent aussi chacune des particularités uniques et importantes.
Bref : les entreprises, surtout les grandes entreprises,
constituent une population qui ne se prête pas ou mal à la description statistique. Les
mesures que lon peut faire sur ces populations, même parfaitement précises, sont
à considérer sur le plan du raisonnement comme des estimations de faible qualité.
Cela ne veut pas dire que lon ne puisse rien tirer des
données relatives aux grandes entreprises, mais quon est plutôt avec elles dans le
domaine de la monographie que de la statistique.
Portée et limites de la monographie
Une monographie, cest une étude qui ne concerne
quun individu, que lon considère sous divers aspects entre lesquels on
cherche à établir des relations. Lapproche monographique est utile en statistique,
car elle permet par une démarche purement descriptive de préparer le cadre conceptuel de
lobservation dun domaine nouveau. Mais elle est aussi dangereuse, car
lon est souvent tenté de donner à une monographie une portée excessive, en
généralisant indûment ses enseignements (cest un travers fréquent).
Bref : la monographie est à considérer comme une étape
préliminaire du travail statistique ; dans certains domaines comme celui des grandes
entreprises on doit en rester à cette étape, et interpréter les résultats quelle
fournit en se gardant de les généraliser. On peut dailleurs, en compilant les
monographies dentreprises dun même secteur, dégager des ratios et moyennes
qui, même incertains, donnent des points de repères utiles.
Connaissance dun marché concurrentiel
Leffet immédiatement visible de la concurrence,
cest la perte de chiffre daffaires quelle induit. Mais il en est un
autre, plus insidieux et peut-être plus grave à terme pour une entreprise qui exploite
un réseau : lincertitude sur la demande future est accrue, car dune part la
connaissance de la demande adressée aux concurrents est imparfaite, dautre part le
choix des clients entre offres concurrentes comporte un aléa qui nexistait pas
auparavant. Or, si lon suit le raisonnement qui fonde les règles de
dimensionnement, on voit quun accroissement de lincertitude sur la demande
provoque toutes choses égales dailleurs un accroissement du coût du réseau.
Maintenir la qualité de la connaissance de la demande par delà les obstacles que
larrivée de la concurrence élève devant cette connaissance est un enjeu
important.
Pour connaître le marché des concurrents, trois voies se
présentent : soit il existe sur ce marché des intermédiaires auxquels on peut acheter
linformation (cest ce que font les transporteurs aériens), soit on passe un
accord déchange dinformation avec les concurrents, soit ... on utilise les
techniques du renseignement en assumant les risques quelles comportent.
Domaines connexes à la statistique : comptabilité et mesure
des coûts
La qualité de la comptabilité et de lévaluation des
coûts de production est dautant meilleure que les méthodes utilisées sont plus
proches de celles de la statistique (mot que nous utilisons pour désigner les données
propres à alimenter un raisonnement économique). Ainsi, une provision comptable correcte
est une estimation sans biais de lécart entre données connues et données
réelles, etc. Cependant le langage de la comptabilité, héritier dune longue
tradition, nest pas identique à celui de la statistique.
Nous allons regrouper ici des remarques déjà énoncées de
façon éparse ci-dessus. Pour éviter tout malentendu, disons clairement que nous
considérons les approches comptables et statistiques comme également légitimes,
chacune dans son ordre. Les difficultés viennent de ce que lon confond souvent ces
deux approches, et que lon utilise indûment des données comptables à des fins
statistiques.
Une entreprise doit savoir être polyglotte en matière de
données : elle doit savoir parler le langage de la comptabilité avec ses
actionnaires, ses créanciers, ladministration fiscale etc., et le langage de la
statistique (qui sera souvent purement interne) pour interpréter sa situation économique
et préciser sa démarche marketing. Bien souvent les managers refusent cette complexité,
quils jugent superflue. Et comme les données comptables sont nécessairement
établies à des fins réglementaires, elles simposent au delà de leur cercle de
validité, comme si elles fournissaient une représentation économique correcte de
lentreprise.
Statistique et comptabilité
La comptabilité est essentiellement une méthode de classement,
permettant de dégager des soldes et des totaux utiles pour la gestion de
lentreprise ainsi que pour la fiscalité.
Statistique et comptabilité produisent toutes deux de
linformation, et partagent certaines méthodes (découpage conceptuel, classement
etc.). Cependant elles diffèrent sur des points essentiels. Il serait donc erroné de
vouloir supprimer à toute force les écarts entre données statistiques et données
comptables, car cela reviendrait à " caler la statistique sur la
comptabilité ", donc à altérer la qualité de la statistique.
La comptabilité procède par classement des recettes et
dépenses attestées par des documents, des " effets de commerce ".
Elle est maladroite lorsquil sagit de procéder à des estimations qui ne sont
pas fondées sur de tels documents, et applique en outre un " principe de
prudence " qui biaise les évaluations.
Balances mensuelles
Lexercice comptable a le plus souvent une durée annuelle.
Cest à la fin de lexercice que lon " arrête " les
comptes, opération coûteuse quil nest pas souhaitable de renouveler souvent.
Les balances mensuelles nont pas pour but premier de fournir une évaluation
mensuelle de lactivité de lentreprise, mais de faire progresser le classement
comptable tout au long de lexercice.
Les données comptables relatives au mois m recouvrent ainsi les
comptes relatifs à ce mois, selon limage quen donnent les pièces disponibles
au moment de sa clôture, additionnés à la somme des corrections apportées aux comptes
des mois précédents en classant les pièces relatives à ces mois mais parvenues après
la clôture du compte du mois m - 1.
Il en résulte que les données mensuelles fournies par la
comptabilité ne constituent pas de véritables séries chronologiques, et sont impropres
à lanalyse des tendances (sauf toutefois si les provisions font lobjet
dun calcul rigoureux, ce qui est rarement le cas).
Exactitude et précision
Le comptable équilibre les comptes au centime près, car
lexpérience lui a montré quun petit écart pouvait être lindice
dune importante erreur de classement. Les procédures destimation, qui rendent
la mesure imprécise (" intervalle de confiance "), ne lui conviennent
donc pas.
A la précision, le statisticien préfère lexactitude. Si
le comptable évalue les dépenses du mois m en se fondant sur les factures reçues à la
clôture du compte mensuel, le statisticien complète cette évaluation en estimant le
montant des factures qui restent à recevoir. Alors que le comptable classe des montants
figurant dans les documents disponibles, le statisticien complète cette information en
estimant les montants qui figureront dans des documents que lon na pas encore.
Dans le meilleur des cas, le comptable estime les informations
manquantes en évaluant des " provisions ", calculées à partir de
données observables, souvent physiques, corrélées avec les données comptables. Si le
calcul des provisions est bien fait, ce qui est rare, il équivaut à une estimation
statistique.
Principe de prudence
Une estimation statistique doit avant tout être
" sans biais ", cest-à-dire telle que si elle peut
sécarter sur un cas particulier de la valeur vraie connue a posteriori, sur
un grand nombre de cas la somme des estimations sera proche de la somme des valeurs vraies
(" loi des grands nombres ").
Pour un comptable, lécart entre évaluation et valeur
vraie na pas les mêmes conséquences selon quil induit un excès
doptimisme ou de pessimisme : le principe de prudence veut que lon estime la
valeur des stocks au coût de production, non au prix de vente ; que lon estime la
valeur dun actif à son coût dacquisition (diminué de lamortissement),
non au cours du jour. Les plus-values latentes ne sont pas comptabilisées dans
lactif. Le comptable estime quil faut surtout éviter lexcès
doptimisme, jugé plus dangereux que lexcès de pessimisme.
Il en résulte que lors dune cession ou dune fusion
de lentreprise, le calcul de lactif net (mesure comptable de la valeur de
lentreprise) doit être complété par une expertise afin de réévaluer les actifs.
Lécart entre les valeurs ainsi établies et la valorisation comptable peut être
important, notamment en ce qui concerne les actifs immatériels (valeur du réseau
commercial, du savoir faire, de la marque etc.).
Risques de la comptabilité analytique
La comptabilité analytique vise à fournir aux responsables
dunités décentralisées le moyen de calculer le résultat de leur activité, tout
en permettant de calculer le coût de production des divers produits de lentreprise.
Elle implique que des prix de cession interne soient associés aux biens que
lentreprise produit pour sa propre consommation.
Il importe que les " signaux prix " qui sont
ainsi envoyés aux responsables opérationnels soient exacts, en ce sens
quils induisent des comportements favorables à lentreprise considérée dans
son ensemble. Cette définition de lexactitude peut guider, mieux quun
prétendu " réalisme " des coûts, le choix des conventions qui
permettent le calcul des prix de cession interne. Ces prix doivent être déterminés par
arbitrage, et non par négociation : sinon le risque est fort que lénergie des
responsables soit accaparée par des négociations qui napportent rien à
lentreprise, au détriment du temps quils doivent consacrer aux clients et à
la conquête des marchés.
Lorganisation dune entreprise est souvent
représentée par un organigramme hiérarchique. On est alors tenté dimposer à la
comptabilité analytique la même présentation : les comptes dune entité de niveau
n doivent sobtenir par addition des comptes des entités de niveau n - 1, etc. Il en
résulte une simplicité reposante pour lesprit, mais qui nécessite des conventions
pour " ventiler " entre entités de niveau n - 1 des dépenses
engendrées par le fonctionnement des entités de niveau n et au dessus. Les comptes de
chaque entité opérationnelle sont alors lestés de " frais
généraux ", " frais de siège " et autres, sur lesquels
les décisions du responsable opérationnel nont aucun effet.
Aucune logique indiscutable ne préside à ces ventilations, qui
comportent toujours une part darbitraire. Il est tentant pour un responsable
opérationnel, sil se sent en position de force, de chercher à obtenir une
convention qui lui soit favorable. Les discussions, contestations et négociations sont
sans fin, et constituent une déperdition dénergie ruineuse. La meilleure solution,
cest en fait de demander à chaque entité de dégager une marge -
différence entre les dépenses et recettes qui lui sont directement imputables -, la
marge de niveau n étant la somme des marges du niveau n - 1 diminuée des dépenses
induites par le niveau n lui-même. Cependant cette solution est jugée parfois trop
compliquée ...
Mesure des coûts
La mesure des coûts de production est lun des objectifs
les plus délicats de léconomie de lentreprise, quil sagisse des
coûts destinés à fonder les prix de vente à des clients ou des " prix
dordre " utilisés pour les cessions internes à lentreprise.
Les ingénieurs simaginent souvent que le coût de
production dun bien est une donnée aussi " réelle " que son
poids. Or il nen est rien. La définition du coût dépend du point de vue sous
lequel on considère ce bien. Le " réalisme " de la mesure du coût
est une illusion dangereuse.
Prenons lexemple du réseau télécom. Il est dimensionné
pour acheminer le trafic de lheure de pointe avec un taux de perte des appels
socialement acceptable. Son coût est donc fonction de la définition de lheure de
pointe, de lestimation du trafic anticipé pendant lheure de pointe, du taux
de perte accepté, et du coût des unités duvre utilisées pour le
construire. Le coût dune communication en dehors de lheure de pointe est nul,
puisque le trafic induit par cette communication nentre pas dans la fonction de
coût du réseau. Par contre le coût dune communication pendant lheure de
pointe est élevé.
Il sagit donc dun coût conventionnel, qui dépend
de la définition de lheure de pointe et du taux de perte. Ajoutons que ce coût se
décompose entre raccordement de labonné, utilisation des ressources de calcul et
de mémoire des commutateurs, et équipements de transmission.
La répartition du coût entre abonnés suppose des
péréquations que lon peut pousser plus ou moins loin, selon que lon tient
compte ou non de la distance de labonné à son commutateur de rattachement (qui
détermine le coût de son raccordement), de la densité de la zone à laquelle il
appartient (qui détermine le coût de la ressource locale de commutation), de la nature
de ses appels, etc.
Ainsi, sans aller jusquà dire comme Claude Riveline que
" le coût dun bien nexiste pas ", il faut reconnaître
que cest une notion construite, et qui peut lêtre de diverses façons
selon le but que lon se donne.
Il faut shabituer à travailler avec des coûts de
production divers : prix de cession interne visant à induire des comportements favorables
à lentreprise, coûts de production destinés aux autorités de tutelle, coûts
utilisés pour la détermination des prix, etc. Les degrés de liberté que comporte les
péréquations et ventilations de frais généraux doivent être ici utilisés au mieux.
Centralisation/décentralisation
Lorganisation de lobservation statistique doit
obéir à des impératifs contradictoires : les exigences formelles de cohérence du
programme dobservation, des concepts et méthodes militent en faveur dune
centralisation ; les exigences de pertinence militent en faveur dune
décentralisation, ladéquation des concepts à laction étant plus aisée si
lon est proche de cette dernière.
Lappareil statistique public donne ici un exemple
intéressant : les statistiques relatives aux entreprises sont collectées par divers
ministères (ministère de lindustrie pour les entreprises industrielles, ministère
de lagriculture pour les exploitations agricoles et les industries agroalimentaires, ministère de léquipement pour les entreprises du BTP,
etc.) LINSEE remplit par rapport à ces ministères une fonction de coordination en ce qui
concerne les méthodes, et anime le conseil national de la statistique qui joue un rôle
consultatif dans la détermination du programme dobservations. LINSEE a en
outre la responsabilité des travaux de synthèse : calcul de lindice de la
production industrielle et de lindice des prix à la production, fusion de fichiers
entre les données fournies par les enquêtes et les sources fiscales (déclarations BIC
des entreprises), alimentation des comptes nationaux. Les questionnaires sont visés à la
fois par lINSEE et par le ministère qui réalise lenquête. L
" enquête annuelle dentreprise " est réalisée sous une forme
analogue par divers ministères. Lensemble des sources relatives aux entreprises est
organisé au sein dun " système de statistiques
dentreprises ".
La collecte doit être proche du terrain pour être pertinente
et acceptable par ses utilisateurs. Les méthodes doivent être cohérentes, et une
coordination est nécessaire.
Cependant articuler décentralisation de la collecte et
coordination des méthodes ne va pas de soi. Lun des premiers soucis des entités
soumises à une coordination, cest déchapper à lautorité du
coordinateur. Elles la contestent en faisant état de leur expérience du terrain,
quelles seraient seules à connaître à fond, des difficultés pratiques,
quelles seraient seules à supporter, et qualifient volontiers les exigences de la
coordination de " théoriques ", terme auquel elles donnent un
acception péjorative. La légitimité des coordinateurs sera toujours contestée. Pour
équilibrer ces tendances centrifuges, il importe donc de confier la coordination à des
personnes aux compétences indiscutables et qui ont acquis sur le terrain une expérience
reconnue.
Léquilibre entre des exigences centrifuges et
centripètes se gère dans la durée : imaginer quon puisse lobtenir dun
coup, par le moyen de dispositions judicieuses, serait une illusion. Par contre il importe
de rendre cette gestion possible.
État des lieux