L’informatisation de l’entreprise
Pour décrire l’évolution
historique du rôle de l’informatique, nous allons d’abord présenter de façon
schématique comment une entreprise travaille, puis montrer comment
l’informatique a progressivement équipé les divers types de fonctions qui
sont assumées au sein de l’entreprise.
Toute activité d’une
entreprise débute par des événements externes à la production (ou « événements
externes » tout court) : commandes des clients, livraisons des fournisseurs, et
aussi mise de nouveaux produits au catalogue. Lorsqu’il est initialisé
par une commande d’un client, le cycle de l’activité se boucle par une
livraison accompagnée d’une facturation, puis d’un paiement.
Le schéma ci-dessus
s’applique à toute entreprise, qu’elle soit informatisée ou non : des
« activités internes » font progresser le processus de production
de la prise de commande jusqu'à la livraison en fournissant des « livrables »,
produits intermédiaires documentaires ou physiques dont la mise à disposition
est un « événement interne ».
Organisation du travail de bureau : années
1880
L'organisation du travail de
bureau a résulté d’un effort prolongé et méthodique. Les progrès
essentiels ont été réalisés lors des dernières décennies du XIXème siècle
dans le « loop » de Chicago, centre d’affaires en croissance
rapide où furent mises au point les méthodes de standardisation et de
classement documentaire ainsi que l’architecture des grands immeubles de
bureau. C’est également aux États-Unis que débuta la mécanisation du
travail de bureau avec les machines à écrire et les machines à calculer : la
machine à écrire permit d’obtenir des documents plus lisibles que les
manuscrits et de les dupliquer en quelques exemplaires grâce au papier carbone
puis au stencil ; la machine à calculer facilite les opérations de vérification
et de calcul.
Les tâches remplies par les
employés de l'entreprise dans la première moitié du XXème siècle se
classent en deux catégories : celles effectuées au contact des clients ou
des fournisseurs, qui impliquent une part de dialogue et de négociation (« première
ligne » ou encore « front office ») ; celles internes à
l’entreprise (« middle office » et « back office »).
Seules ces dernières peuvent être entièrement organisées, car l’agent qui
se trouve au contact de personnes extérieures doit laisser à l’interlocuteur
sa part d’initiative : l’organisation ne peut pas maîtriser complètement
le déroulement de ce dialogue.
Les tâches internes obéissent
toutes à un même schéma pendant la première moitié du XXème siècle :
1) d’une part l’agent reçoit des commandes, des matières premières ou des
produits intermédiaires ; son travail consiste à élaborer d’autres
produits intermédiaires (« livrables ») qu'il oriente vers l'étape
suivante du processus. Par exemple, pour les agents qui traitaient
l’information dans les grandes banques ou compagnies d’assurance, le travail
se faisait sur un bureau dans une salle où se trouvaient de nombreux employés ;
à gauche de l’agent se trouvait la barquette arrivée, à droite la barquette
départ, les dossiers étant apportés et emportés par des personnes équipées
de caddies.
2) d’autre part les personnes
qui transportent les dossiers d’un bureau à l’autre, ainsi que le
superviseur de la salle de travail, assurent une logistique qui entoure
les tâches des agents d’un réseau de communication et de contrôle. La pile
de dossiers qui reste dans la barquette arrivée signale l’agent qui travaille
plus lentement que les autres. La mesure du flux quotidien permet d’établir
des normes de productivité. Les délais normaux de traitement d’une affaire
peuvent être évalués.
Le travail que l’agent
effectue sur un dossier consiste en calculs, vérifications et transcriptions,
et aussi en expertises, classements, évaluations et décisions (ou avis pour préparer
la décision). En même temps qu'il fait progresser le processus de traitement
des affaires, le travail alimente des fichiers manuels qui constituent la mémoire
de masse de l'entreprise. Les éventuelles interrogations donnent occasion
à des échanges de notes ou fiches que l’agent place dans la barquette
« départ » en mentionnant le nom du destinataire, les réponses lui
parvenant dans la barquette « arrivée » avec les dossiers à
traiter.
Évolution
des équipements de bureau
Les
équipements du travail de bureau (fauteuils, bureaux, téléphones,
photocopieurs, télécopieurs, calculateurs, machines à écrire, classeurs,
trombones, post-its, sans même évoquer l'ordinateur et sa séquelle
d'imprimantes, scanners etc.) sont tous d'origine récente : le brevet du
trombone est déposé en 1901, celui du classeur mécanique en 1904. Les
copieurs apparaissent en 1890, mais la photocopie ne se répandra vraiment qu'à
partir de 1960 avec la xérographie. Le Post-it
est lancé par 3M (après de longues hésitations) en 1980.
La
machine à écrire,
inventée en 1868 par l’Américain Christopher Latham Sholes, est
commercialisée par Remington en 1874. Elle a déjà le clavier qwerty. Elle
écrit en majuscules et l’auteur ne peut pas voir le texte qu’il tape. 5 000
machines sont vendues en cinq ans. La Remington n° 2 de 1878 permet d’écrire
en minuscules et majuscules. En 1895, Underwood commercialise une machine qui
permet de voir ce que l’on tape. Dès lors la machine à écrire se répand
rapidement dans les entreprises. La première école de dactylographie est créée
en 1911.
Dans les entreprises
industrielles, le travail de bureau traitait les commandes, les factures et la
comptabilité ; il émettait les ordres qui déclenchaient les opérations
physiques de production, approvisionnement, stockage, transport et livraison.
Les décisions concernant les opérations physiques étaient prises dans les
bureaux, les décisions laissées aux agents de terrain étant celles qui
accompagnent l’exécution des opérations.
Processus
de gestion dans une entreprise industrielle
Les
commandes sont satisfaites en puisant dans les stocks ; la statistique des
commandes permet d'évaluer la demande anticipée et de déterminer le programme
de production ; les facteurs de production (capital K, travail L, biens intermédiaires
X) sont mobilisés chacun selon le cycle de vie qui lui est propre ; la fonction
de production Y = f(K, L, X) est mise en oeuvre pour alimenter les stocks.
La procédure du « front
office » était plus souple, car il travaillait
au contact d’un client ou d’un fournisseur, que ce soit par contact
« présentiel », par téléphone ou par courrier : il ne
s’agissait plus de traiter des documents conformes aux formats types de
l’entreprise, mais de répondre à des demandes ou questions formulées dans
la langue de personnes extérieures à l’entreprise et dans un ordre
correspondant à leurs priorités (certes le courrier arrivée est placé dans
la barquette « arrivée », mais il n’est pas rédigé selon les
normes de l’entreprise et son traitement peut nécessiter un dialogue par
lettre avec le client).
L’agent devait alors de
transcrire les indications recueillies lors de la relation externe en un
document susceptible d’alimenter le processus interne.
Cette organisation comportait
des articulations fragiles. Les documents posés en pile risquaient d’être
traités sur le mode « last in, first out » qui induit des délais
aléatoires ; la succession des transferts entre agents risquait de finir
« dans les sables » en cas d’erreur d’aiguillage ; si pour une
raison particulière on avait besoin de retrouver un dossier en cours de
traitement, il n’était pas facile de le suivre à la trace le long de son
parcours. Enfin, le schéma que nous avons décrit se dégradait en variantes
artisanales dans les entreprises petites et moyennes et il restait vulnérable
à la négligence ou à l’étourderie.
Arrivée de l’informatique : années 1950
L’industrialisation du
travail de bureau, avec les armoires de dossiers suspendus, classeurs, bibliothèques
tournantes, la logistique du transport des dossiers, les longues opérations de
calcul, appelait l’informatique. Mais l’informatisation n’a pris son essor
que dans les années 1950, la guerre ayant pendant dix ans bloqué l'utilisation
civile des techniques tout en accélérant leur conception (comme ce fut le cas
pour l'agriculture : en Europe le tracteur ne se répand pas avant les années
50).
La mécanographie, fondée sur
le traitement électromécanique de cartes perforées par des trieuses et
tabulatrices, a été conçue pour réaliser des travaux statistiques. La première
réalisation est celle du statisticien américain Herman Hollerith (1860-1829)
pour le recensement de la population des États-Unis en 1890. Les entreprises créées
par Hollerith sont à l'origine d’IBM. Les premiers utilisateurs
de la mécanographie furent les instituts statistiques, les armées et quelques
administrations.
Les origines de plusieurs grands groupes informatiques remontent à l’ère de
la mécanographie.
C’est avec l’ordinateur,
plus puissant que la machine mécanographique et surtout plus souple grâce à
la mise en oeuvre automatique de programmes enregistrés conformément à
l'architecture de von Neumann,
que l’informatique pénètre les entreprises dans les années 50 et surtout
les années 60. Elle est d'abord utilisée pour automatiser la production
physique : dès 1968, on pense à remplacer la commande numérique des
machine-outils par la « commande numérique directe ». Dans le numéro
spécial de « Science et Vie » sur l'automatisme en 1964, la gestion
n'apparaît encore pour l'automatisation que comme un domaine relativement
secondaire.
Partage
du travail entre l'ordinateur et l'être humain
Les
entreprises achètent les ordinateurs pour économiser le temps que les employés
passent à des opérations répétitives de vérification, calcul et
transcription, et aussi pour obtenir plus rapidement des informations de gestion
d'une meilleure qualité.
Elles
utilisent la machine pour faire des traitements (puissance) ainsi que pour
classer et trier les données (mémoire). Elles réservent à l’être
humain les fonctions où il est supérieur à l’ordinateur : comprendre,
expliquer, décider, concevoir.
Les premières entreprises de
services à s’informatiser furent les banques et assurances ; dans les
autres secteurs, les premières utilisations ont concerné la comptabilité, la
paie et la gestion des stocks. Cela modifie les conditions physiques du
travail : les employés passent dans les années 60 une partie de leur
temps à perforer des cartes et dépouiller des listings ; puis dans les
années 70 et 80 on installe des terminaux qui seront dans les années 90
remplacés par des micro-ordinateurs en réseau. A chaque étape, l’ergonomie
se modifie ainsi que les possibilité offertes.
Décalage
de la pénétration des innovations
Lorsque l’on examine
comment l’informatique a pénétré les entreprises on constate un décalage
entre la disponibilité des innovations et leur mise en oeuvre. Il faut donc
distinguer la chronologie des innovations, telle que les historiens de
l'informatique la décrivent, de celle de leur utilisation par les entreprises.
Ainsi,
il était dès 1957 possible d’utiliser quatre terminaux en grappe sur l’IBM
305, mais les entreprises en sont restées pendant les années 60 au couple
« carte perforée et listing » et la diffusion des terminaux date
des années 70. De même, il était possible de fournir aux utilisateurs des
micro-ordinateurs en réseau dès le début des années 80, mais de nombreuses
entreprises ont continué à utiliser des terminaux « passifs »
jusqu’au milieu des années 90.
Ces
décalages s'expliquent : les premières versions des solutions innovantes sont
coûteuses et demandent des mises au point, leur mise en oeuvre implique des
changements également coûteux de l'organisation de l'entreprise, et celle-ci
prend donc tout son temps avant de mettre en oeuvre une innovation.
L’espace de travail change
d’allure. Même si le « bureau sans papier » reste rare, les
archives et dossiers sur papier sont remplacés, dans une large mesure, par des
informations stockées dans les mémoires électroniques. L’interface avec écran,
clavier et souris s’installe sur tous les bureaux. Une part croissante du
travail à faire arrive non plus dans une barquette, mais sur l’écran via
le réseau.
Ce changement ne modifie pas
fondamentalement la nature du travail : la différence entre événement
interne et événement externe reste de même nature, même si l’écran-clavier
s’impose désormais comme un tiers dans la relation avec les personnes extérieures
à l’entreprise (au point parfois de gêner le dialogue).
Toutefois l’agent n’a plus,
en principe, à recopier une information déjà introduite dans l’ordinateur ;
la vérification de la saisie est automatique ; les calculs (de prix,
taxes, salaires, ainsi que les totalisations etc.) sont eux aussi automatisés,
ainsi que la mise en forme et l’édition des « états » divers
(bulletins de paie, documents comptables, état des stocks, statistiques etc.)
L'ordinateur remplit ainsi deux
fonctions : d’une part il aide à traiter des dossiers individuels dont il
facilite aussi le tri et la recherche ; d’autre part il permet de
produire des indicateurs. L’être humain se spécialise dans les tâches
qu’il fait mieux que l’ordinateur : il analyse l’information
pour faire le tour d’un problème, l’interprète pour comprendre, la synthétise
pour résumer et communiquer ce qu’il a compris ; enfin il décide ou même
il conçoit. Ayant été soulagé des travaux qui exigeaient une
utilisation répétitive de son cerveau, il est invité à se consacrer à des
travaux auxquels le cerveau humain est bien adapté. On arrive ainsi à un
partage des tâches où chacune des deux ressource (le « silicium »,
la « matière grise ») tend à être utilisée au mieux de ses
aptitudes ; mais cette évolution n'est pas facile.
Une
évolution difficile
L’évolution
est pénible pour ceux des agents, souvent les plus intelligents, qui avaient
pris l'habitude de travailler de façon mécanique et rapide tout en pensant à
autre chose. Désormais le travail leur demande concentration, réflexion,
responsabilité, prise de risque, et il leur impose donc soucis et angoisse. Même
s'il est en principe devenu plus intéressant, la transition n'est pas facile.
Il
faut aussi des changements dans l'organisation (transversalité etc.) :
l'entreprise doit accorder à l'employé un pouvoir de décision correspondant
aux responsabilités qu'elle lui confie et éviter de le harceler pour obtenir
toujours plus de productivité, de qualité ou de profit unitaire. Cela implique
un changement dans les rapports entre personnes, qui doivent devenir respectueux
: dans une entreprise où la prise de décision est décentralisée, il faut
savoir écouter ce que dit l'autre. L'évolution est donc difficile aussi pour
les entreprises qui oublient parfois que l’on ne peut pas demander à un
salarié d’être à la fois un exécutant docile et un pionnier plein
d'initiative et de créativité.
Nous sommes là vers le milieu
des années 80. Il faut compléter cette description en mentionnant des défauts
souvent rencontrés. D’une part les « applications » informatiques
ont été conçues séparément et communiquent mal : les agents doivent
dans le cours d’une même tâche ouvrir une session puis la fermer pour passer
à une autre dont l’ergonomie sera différente, ressaisir des données,
utiliser des codes divers dont la mémorisation demande un long apprentissage.
Si l’informatique est puissante, elle manque encore de cohérence et de
« convivialité ». L'automate n'est pas souple. Comme il ne s'adapte
pas facilement aux utilisateurs, l’entreprise leur demande de s'adapter à
lui.
Ces défauts sont d'abord tolérés
en raison des gains d'efficacité que l'informatique apporte. Puis ils
deviennent de plus en plus insupportables. Le « système d’information »
vise à les corriger. Les diverses applications doivent s’appuyer sur un référentiel
unique, ce qui garantit leur cohérence sémantique ; elles doivent échanger
les données et se tenir à jour mutuellement, ce qui assure la cohérence de
leur contenu et supprime les ressaisies. Toutefois cette mise en ordre reste
souvent partielle et les défauts persistent en raison du poids de l'existant et
de la pression d'autres priorités.
Écart
entre théorie et pratique
L'idée
du système d'information n'est pas nouvelle : la théorie était déjà bien
avancée avant la seconde guerre mondiale. Mais il faut, quand on examine la
pratique des entreprises, tenir compte de l'écart chronologique entre l'émission
d'une idée et sa mise en oeuvre. La lenteur du cycle de vie de l'organisation
fait que des méthodes que chacun sait absurdes survivent alors que la mise en
oeuvre de solutions simples et connues est ajournée.
La bureautique communicante : à partir des
années 1980
L’arrivée du
micro-ordinateur dans les années 80 est un choc pour les informaticiens. Ils ne
reconnaissent pas immédiatement la légitimité et l'utilité du
micro-ordinateur. Celui-ci sert d'abord à diffuser les applications de
bureautique personnelle mises au point auparavant sur des architectures de
mini-ordinateurs en grappe (traitement de texte, tableur, grapheur). Le
micro-ordinateur supplante progressivement la machine à écrire et la machine
à calculer, mais les applications bureautiques se déploient dans le désordre
(versions différentes des applications, travaux locaux sans cohérence
d'ensemble).
Au début des années 90 la
mise en réseau des micro-ordinateurs confronte enfin la bureautique aux
exigences de cohérence du système d'information : pour toute donnée
importante, seule doit exister sur le réseau une mesure définie et tenue à
jour par le propriétaire de la donnée.
Finalement le micro-ordinateur
cumule deux rôles : d’une part il remplace les terminaux pour l’accès aux
applications centrales, d’autre part il apporte à l’utilisateur la
bureautique personnelle ainsi que la « bureautique communicante »
(messagerie, documentation électronique, groupware puis Intranet). Le
micro-ordinateur en réseau devient ainsi à la fois le terminal ergonomique des
applications centrales, un outil de communication asynchrone entre agents, et la
porte d’accès aux ressources documentaires de l’entreprise.
On dirait alors que
l’informatique a accompli tout ce qui était possible : elle fournit à
l’utilisateur une interface qui, fédérant sous une ergonomie cohérente les
accès aux diverses applications, lui évite les connexions-déconnexions et les
doubles saisies tout en soulageant son effort de mémoire ; elle lui fournit
aussi un média de communication. Cependant il lui reste à assister les
utilisateurs non seulement dans chacune de leurs tâches considérée séparément,
mais dans la succession et l’articulation des diverses tâches tout au long du
processus de production.
En effet si l’informatique a
libéré l’agent des tâches répétitives de calcul, vérification et
transcription, les entreprises ne l’ont pas encore pleinement utilisée pour
assurer les fonctions de logistique et de supervision remplies autrefois par les
personnes qui transportaient les dossiers et par les superviseurs des salles de
travail. Or le travail, devenu informatique (« virtuel »), a perdu
la visibilité que lui conférait l’apparence physique des documents et
dossiers sur papier. Il est devenu plus difficile de vérifier sa qualité, d'évaluer
la productivité des agents et de maîtriser les délais de production.
Rien de tout cela n’est
impossible pour l’informatique. Les outils existent depuis longtemps (les
premiers « workflows » ont fonctionné dès l’époque des « mainframes »),
mais pour qu’ils soient mis en oeuvre il faut que le besoin soit ressenti et
que la possibilité de le satisfaire soit perçue. L'attention s'était d'abord
focalisée sur la productivité de l'agent individuel ainsi que sur la maîtrise
des concepts (composants, classes, attributs, fonctions) que l’informatique
mettait à sa disposition. Il fallait maintenant utiliser celle-ci pour
automatiser le processus de travail lui-même.
L’informatique communicante
apporte un élément de solution : s’il est possible aux utilisateurs de
communiquer par messagerie, pourquoi ne pas utiliser ce média pour tisser une
solidarité entre étapes d’un même processus ?
Du concept au processus : années 1990
Pour retrouver la maîtrise de
la logistique que l'informatisation avait dans un premier temps négligée, il
faut introduire dans le système d’information les tables d’adressage qui
balisent les transferts entre agents successifs, la traçabilité (possibilité
retrouver et consulter un dossier en cours de traitement), des indicateurs de
volume, de délai et (si possible) de qualité : ce sont là les
fonctionnalités du workflow. Celui-ci améliore d'ailleurs notablement
la logistique par rapport à l’époque du papier : il supprime le risque du
« last in, first out », assure la traçabilité des dossiers et
produit automatiquement des indicateurs de volume et de délai qui facilitent la
maîtrise de la qualité.
Dès lors, le système
d’information équipe les processus internes de l’entreprise au plus près
de la pratique professionnelle en associant les fonctionnalités de
l’informatique de communication à celles du traitement des données structurées,
selon une articulation d’ailleurs finement délicate.
Pour concevoir le traitement
des données structurées, il avait fallu concentrer l'attention sur les
concepts à l’œuvre dans le système d’information et sur le processus des
traitements informatiques. Pour concevoir un workflow, il faut concentrer
l'attention sur l’enchaînement des tâches des agents et donc sur le
processus opérationnel. Celui-ci se complique d'ailleurs avec l'arrivée du
multimédia pour les événements externes (utilisation conjointe du courrier,
du téléphone, du présentiel, de l'Internet, de la carte à puce) comme pour
les événements internes (Intranet etc.), et aussi avec l'interopérabilité
des système d’information nécessitée par les partenariats entre les
entreprises.
La hiérarchie des difficultés
invite alors à examiner en priorité le processus opérationnel : cet
examen dictera les concepts sur lesquels se fonde le traitement des données.
Alors qu'auparavant la pratique professionnelle avait été invitée à se
construire autour de l’informatique, c’est désormais l’informatique qui
est construite autour de la pratique professionnelle.
Ce changement de point de vue
s'accompagne, en ce qui concerne l'organisation, de l’émergence d’une
fonction professionnelle de maîtrise d'ouvrage du système d’information
dans les métiers de l'entreprise. Pour prendre en compte de façon exacte le déroulement
des processus au sein des métiers, il faut en effet à la fois une proximité
quotidienne avec les agents et une rigueur intellectuelle dont le besoin n'avait
pas jusqu'alors été ressenti. Ces professionnels mettent en forme les
processus opérationnels en utilisant par exemple le langage UML.
De nouveaux problèmes
apparaissent alors : comment choisir, si l'on veut un système d’information
assez sobre pour pouvoir évoluer, entre les fonctionnalités que l'on fournira
et celles sur lesquelles on fera l'impasse ? comment faire en sorte que le métier,
ses dirigeants, s'approprient le système d’information, valident ses spécifications,
participent à sa définition ? Par ailleurs, si la maîtrise du
processus convient aux travaux internes, il est beaucoup plus difficile
d’outiller l’agent du « front office », qui travaille au contact
des clients ou des fournisseurs : on ne peut pas prévoir en effet
l’ordre dans lequel il devra saisir les données et lancer les traitements.
Tout au plus le système d’information peut-il lui fournir une aide
contextuelle et la liste des tâches à accomplir équipée de boutons indiquant
pour chaque tâche le degré d’avancement ; le workflow ne débute qu’au
moment où l’agent alimente les événement internes.
*
*
*
Le resserrement des relations
entre l’informatique communicante et le traitement des données structurées
amène à construire un système d’information « sur mesures »,
« près du corps », dont la définition et l’évolution adhèrent
à la pratique professionnelle des agents. Il permet d'associer aux données
leur commentaire, ce qui les rend compréhensibles, facilite leur
transformation en « information » et modifie donc en profondeur leur
rôle dans l'entreprise. Le système d’information assiste les diverses
personnes qui interviennent dans l’entreprise - opérationnels, managers
locaux, concepteurs et stratèges de la DG - en fournissant à chacun la
« vue » qui lui convient : ici les données pour le traitement opérationnel
d'un dossier ; là les indicateurs utiles au pilotage opérationnel quotidien ;
ailleurs les statistiques qui alimentent les études marketing et l'analyse
stratégique.
Cette évolution rencontre
cependant des obstacles. D'une part, comme l'informatique d'une entreprise résulte
d'un empilage historique d'applications conçues dans l'urgence, elle est
rarement conforme aux exigences de cohérence du système d’information : il
s'en faut de beaucoup que les référentiels et l'administration des données répondent
tous aux critères de qualité communément reconnus. D'autre part, l'histoire a
habitué les esprits à une représentation étroite de ce que peut et doit être
le rôle de l'informatique. Le choc éprouvé lors de l'arrivée des
micro-ordinateurs se renouvelle, sous une autre forme, lorsque l'on met en place
la documentation électronique, le multimédia et les workflows : personne
ne pensait auparavant que l'informatique pouvait ou devait faire cela, et il
faut du temps pour que l'on réalise (à tous les sens du terme) ces
nouvelles possibilités. Enfin, l’évolution de l’informatique confronte
l’entreprise à des questions qui touchent à son identité même.
Le
tracé des frontières dans l'entreprise, question philosophique
D'après
le dictionnaire de Lalande,
l'une des acceptions du mot « métaphysique » est « connaissance
de ce que sont les choses en elles-mêmes par opposition aux apparences qu'elles
présentent ». On peut donc utiliser ce terme pour désigner les idées
(qu'elles soient pertinentes ou non) concernant la nature de l'entreprise ou
celle de l'informatique.
Ces
idées influencent la façon dont on trace la frontière entre les activités
que l'entreprise doit assurer elle-même et celles qu'elle doit sous-traiter.
L'intuition des dirigeants étant déconcertée dans les périodes d'innovation,
il peut leur arriver d'adopter des principes antiéconomiques. Certaines
entreprises externalisent ainsi leurs centres d'appel (dont la compétence est
alors gaspillée) ou encore la maîtrise d'œuvre de leur informatique (ce qui
leur fait perdre la maîtrise de leur système d’information), alors qu'elles
conserveront l'exploitation des serveurs qu'il serait plus efficace de
sous-traiter.
La
frontière de l'automatisation est, elle aussi, l'objet de convictions métaphysiques.
Certains pensent qu'en équipant les processus opérationnels on dépasse une
limite qui n'aurait pas dû être franchie. Ils éprouvent une horreur
instinctive devant le multimédia ou le workflow, horreur qui semble absurde
tant que l'on n'en perçoit pas les raisons.
Ainsi s'explique que le même
directeur qui lance d'un cœur léger des projets de plusieurs dizaines de
millions d'euros refuse un projet de workflow de 100 000 euros qu'il considère
comme une « usine à gaz».
Il est vrai qu'il est
impossible de tout informatiser : l’informatique doit donc rester en deçà
d'une certaine frontière. Mais cette frontière ne passe pas entre le concept
informatique (légitime) et le processus opérationnel (qu'il ne faudrait pas
informatiser) : le traitement de texte, le tableur, la messagerie et la
documentation électronique, ainsi que l'Internet et l'Intranet, ont prouvé que
l'informatique pouvait se mettre efficacement au service de l'activité
quotidienne de l'agent au travail.
Tout système d'information
implique une abstraction, un schématisme, donc le renoncement à la finesse
sans limites de l'expérience au bénéfice d'une représentation sans doute
grossière mais efficace en pratique. La frontière de l'informatisation se définit
donc par le degré de détail fonctionnel (et donc conceptuel) qu'il est
raisonnable de retenir pour assister l'action des êtres humains et non par une
conception normative (et tissée d'habitudes) de ce que serait le champ légitime
de l’informatique.
Pour ceux qui veulent faire
progresser le système d'information et, à travers lui, l'assistance que
l'automate apporte aux agents, il est devenu nécessaire de faire comprendre par
l'entreprise que la frontière du système d’information ne se définit pas
par la nature des opérations qu'on peut lui faire réaliser, mais par le degré
de détail que l'on exige de lui. Il faut que l’entreprise transforme son système
d’information : il était spécialisé dans quelques fonctions qu'il
remplissait en offrant des fonctionnalités parfois inutiles ; il doit
devenir sobre en fonctionnalités, mais s’étendre pour fournir aux
utilisateurs l'ensemble des fonctions automatisables.
16 novembre 2002
Philippe Penny et Michel Volle, « La téléinformatique dans
l’entreprise », La Recherche, juin 1993.
|