L’ordinateur et l’intelligence
« These
machines have no common sense; they do exactly as they are told, no more and no
less. This fact is the hardest concept to grasp when one first tries to use a
computer »
(Donald
E. Knuth, The Art of Computer Programming, Addison Wesley 1997, volume 1,
p. v)
Parmi les fausses questions que
conduit à poser un concept mal bâti se trouve celle de l’« intelligence »
des ordinateurs. Elle suscite des émotions extrêmes et opposées. « Où
est l’homme là-dedans ? » se demande avec angoisse
l’individualiste sentimental qui se dit un « humaniste ».
Certains, tout aussi émotifs mais dans le genre misanthropique, se félicitent
de voir la machine éliminer l’être humain qu’ils jugent peu fiable et
moralement douteux. D’autres enfin croient
devoir utiliser un vocabulaire emphatique pour célébrer la nouveauté
qu’apporte l’ordinateur.
D’honorables philosophes
et d’excellents ingénieurs
disent des choses très contestables.
Pour éclairer cette question,
il est utile de se référer de nouveau à la culture américaine. Nous considérerons
ici non plus l’entreprise, mais l’armée : tout comme
l’entreprise, l’armée est consacrée à l’action, mais sous la forme la
plus urgente et la plus dangereuse. C’est donc dans les doctrines militaires
que l’on rencontrera l’expression la plus pure, la plus claire de la
doctrine d’action d’une Nation, doctrine qui s’appliquera ensuite dans
tous les domaines et en tout premier dans l’entreprise, lieu géométrique de
l’action organisée.
La doctrine militaire américaine
s’appuie sur le Précis de l’art de la guerre (1838) du Suisse
Antoine-Henri Jomini (1779-1869) et, à un moindre degré, sur le Vom Kriege
(1832) du Prussien Carl von Clausewitz (1780-1831). Ces deux généraux avaient
observé la stratégie de Napoléon, étudié celle de Frédéric II de Prusse,
et en avaient tiré les leçons. Rivaux sur le terrain de la théorie, ils se
sont beaucoup emprunté l’un à l’autre. Leurs théories sont plus proches
que les interprétations qui en sont données : mais, quand il s’agit d’évaluer
une influence, l’interprétation d’une théorie a plus de poids que son
contenu même. On peut ainsi associer les noms de Jomini et Clausewitz à deux
modèles contrastés.
Selon le modèle de Jomini,
tout problème est ramené à ses éléments rationnels puis traité de façon
scientifique. Jomini entend maîtriser l’art de la guerre en résumant ce
qu’elle a de complexe par quelques principes et axiomes évidents. Cette
approche satisfait le pragmatisme des Américains : culte de l’offensive,
concentration des masses au point décisif pour anéantir l’adversaire,
professionnalisation d’une stratégie qui a pour but de gagner les batailles
et non de servir par les armes un projet politique. La guerre est un « job »
que la nation confie au militaire et que celui-ci exécute.
L’école qui se réclame de
Clausewitz ne répudie pas cette modélisation mais postule une continuité
entre la guerre et la politique, idée difficilement assimilable par le
pragmatisme américain. Cette école insiste par ailleurs sur les conditions de
l’action, ces « incertitudes », ces « frictions », ce
« brouillard » que Jomini postule négligeables mais qui en pratique
nécessitent un travail permanent d’interprétation, de synthèse, de décision.
Le modèle de Jomini, rationnel
et planificateur, incite à l’automatisation parfaite : les êtres
humains exécutent les ordres de l’automate pré-programmé qui, sur la base
d’une information claire et complète, établit de façon optimale le
programme de leur action. Mais le modèle de Clausewitz, plus complexe, invite
au contraire à articuler l’automate et l’être humain car seul ce dernier,
s’il a été bien formé, pourra dans une situation imprévue interpréter des
rapports incomplets ou fallacieux et prendre la décision juste.
La discussion sur
l’intelligence de l’ordinateur se situe sur cette toile de fond doctrinale.
Soit on suppose que les hypothèses du modèle de Jomini sont vérifiées
(information parfaite, planification parfaite, etc.) et alors en effet
l’action peut être déterminée au mieux par l’automate car il calcule vite
et sans erreurs. Soit on suppose que la situation comporte une part
d’incertitude, de « brouillard », et alors la contribution du
cerveau humain est indispensable.
De ces deux modèles, lequel
est le bon ? Lorsqu’il s’agit d’assurer la maintenance d’un équipement,
le modèle de Jomini semble s’imposer (sous la seule réserve que le
technicien doit émettre une alarme en cas d’imprévu). Mais par ailleurs si
l’ordinateur permettait de supprimer l’incertitude, cela se saurait dans les
salles de marché : les informaticiens auraient fait fortune à la Bourse.
Si nous reprenons la
distinction proposée au début de ce chapitre entre « événement interne »
et « événement externe », on peut dire que le modèle de Jomini
s’applique aux événements internes, à la conduite du processus de
production de l’entreprise, et que le modèle de Clausewitz s’applique aux
événements externes, que l’entreprise ne peut ni maîtriser ni organiser
entièrement : relations avec les clients et avec les fournisseurs,
conditions de la concurrence.
Sur ces événements externes,
même si l’information sur le passé et le présent était parfaite - ce qui
n’est jamais le cas – l’anticipation du futur comporterait encore une part
d’incertitude. Les conditions pratiques de l’action stratégique, celle qui
porte non sur l’exécution des tâches mais sur leur conception, sur le
positionnement de l’entreprise, sont donc celles que décrit le modèle de
Clausewitz. Le modèle de Jomini conforte la confiance en soi du professionnel,
mais si celui-ci l’applique aux événements externes il prend le risque de se
trouver désarmé devant l’imprévu.
*
*
*
Ceux qui conçoivent les
ordinateurs savent faire la différence entre l’ordinateur et l’être
humain. John von Neumann
était arrivé
à l'informatique par la physique et se servait de l'ordinateur pour résoudre
par le calcul des problèmes trop complexes pour être traités analytiquement.
C'est lui qui, avec Church et Turing, a conçu les ordinateurs dont nous nous
servons aujourd'hui. Certaines de ses réflexions sont à l'origine de
l'intelligence artificielle.
Le cerveau lui a fourni une
image de l’ordinateur : tout comme le cerveau, l'ordinateur est doté d'une mémoire,
d'une capacité de traitement et d'organes sensoriels (entrées et sorties). Le
cerveau, être biologique, progresse à l'échelle des dizaines de milliers
d'années, alors que l'ordinateur, être artificiel, progresse à l'échelle de
la dizaine d'années, donc beaucoup plus vite. Certains en ont conclu que
l'ordinateur, « cerveau électronique », avait vocation à
supplanter le cerveau humain. « Comment pouvez-vous affirmer, disent-ils,
que l'ordinateur sera à jamais incapable d'avoir des émotions et de se
comporter comme un être humain ? »
Du point de vue poétique toute parole qui éveille
l'intuition est légitime, car la poésie relève d'une démarche mentale antérieure
au raisonnement. Mais certaines phrases sont impropres au raisonnement parce
qu'elles ne sont pas « falsifiables », pour utiliser le vocabulaire
de Popper. « Y a-t-il une vie après la mort ? » La réponse peut être
« oui » ou « non » sans que l'expérience puisse
trancher, la conviction intime du croyant lui-même oscille entre ces deux réponses.
Donc même si cette question est un intéressant objet de rêverie, du point de
vue de la réflexion elle est futile. « L'intelligence des ordinateurs
atteindra-t-elle, dépassera-t-elle celle des êtres humains ? » est une
phrase du même type. On peut y répondre par oui, par non, ou osciller entre
les deux réponses sans pouvoir trancher par l'expérience puisque celle-ci se
situe dans un futur indéfini et ne peut s'appuyer sur aucun précédent.
Il existe entre l’ordinateur et l’être
humain une différence bien plus grande qu’entre l’être humain et les
primates qui lui sont génétiquement proches. Se peut-il qu’un chimpanzé
apprenne un jour à parler ou à lire ? Cette hypothèse n’est pas moins
plausible que celle de l’intelligence de l’ordinateur.
Hypothèse pour hypothèse,
nous sommes libres de choisir. Ne serait-il pas alors plus fécond de postuler
qu'il existe entre l'ordinateur et le cerveau humain une différence de
nature ? Cette dernière hypothèse à plusieurs avantages : d'une part elle
est conforme à l'expérience présente car aucun des ordinateurs existants ne
se comporte comme un être humain ; en outre, elle indique une piste à l'action
: si l'ordinateur et l'être humain sont différents, il importe de les
articuler ; enfin, elle fournit à la pensée un cadre utile pour préparer
cette action : il est possible de penser l'articulation de deux êtres différents,
alors qu'il est impossible de penser l’articulation de deux êtres identiques
puisque la pensée les confond.
Von Neumann a perçu les
limites de l'analogie entre l'ordinateur et le cerveau humain. Le mécanisme
du cerveau, dit-il, est plus lent et plus facilement sujet à l'erreur que celui
de l'ordinateur ; mais la structure
du cerveau est, elle, plus complexe que celle de l’ordinateur. Le cerveau met
en oeuvre des processus parallèles et analyse les signaux de façon statistique
(notamment en évaluant des corrélations). Cela lui confère une grande rapidité
et une grande fiabilité malgré les défauts que comporte son mécanisme. En
outre la mémoire du cerveau, qui utilise une grande diversité de supports,
semble pratiquement infinie même si la mémoire consciente est, à chaque
instant, limitée.
Ainsi notre héritage génétique
nous aurait doté d'un automate naturel dont les capacités diffèrent essentiellement
de celles d'un ordinateur. Notre cerveau est supérieur à l’ordinateur pour
certaines fonctions (interpréter, synthétiser, comprendre, expliquer, décider,
concevoir), inférieur pour d'autres (classer et trouver une information,
calculer, recopier, transcoder). La question pratique à laquelle nous sommes
confrontés n'est pas de mettre au point un ordinateur dont le comportement ne
diffèrerait en rien de celui d'un être humain - but peut-être hors de portée
et en tout cas éloigné de nos priorités actuelles - mais de réaliser
efficacement l'articulation entre l'« être humain organisé » (car
bien sûr il ne suffit pas de considérer un seul cerveau : il faut considérer
la société entière avec ses institutions, notamment l’entreprise qui est le
lieu même de l’organisation) et l'« automate programmable doué
d'ubiquité » (forme que l'ordinateur a prise grâce au réseau).
Turing a-t-il perdu son pari ?
Dans un article qui a eu une
immense influence,
Alan Turing a soutenu qu'il était possible de concevoir une expérience
prouvant que l'intelligence de l'ordinateur ne pouvait pas être distinguée de
celle d'un être humain. Le pari de Turing a éveillé l'ambition de
l'intelligence artificielle.
Il faut pouvoir faire
abstraction de l’apparence physique pour répondre à la question « est-ce
que les machines peuvent penser ? ». Turing
propose le « jeu de l’imitation » qu’il définit ainsi : « [The imitation game] is played with three people, a
man (A), a woman (B), and an interrogator (C) who may be of either sex. The
interrogator stays in a room apart front the other two. The object of the game
for the interrogator is to determine which of the other two is the man and which
is the woman. He knows them by labels X and Y, and at the end of the game he
says either "X is A and Y is B" or "X is B and Y is A.". The
interrogator is allowed to put questions to A and B (…) We now ask the
question, "What will happen when a machine takes the part of A in this game?"
Will the interrogator decide wrongly as often when the game is played like this
as he does when the game is played between a man and a woman? These questions
replace our original, "Can machines think?" (…) I believe that in
about fifty years' time it will be possible to programme computers, with a
storage capacity of about 109, to make them play the imitation game
so well that an average interrogator will not have more than 70 per cent chance
of making the right identification after five minutes of questioning. (…)The
only really satisfactory support that can be given for [this] view (…) will be
that provided by waiting for the end of the century and then doing the
experiment described.»
Le test est peu exigeant : il
ne dure pas plus de cinq minutes et le seuil d’efficacité est modeste
(l’ordinateur doit tromper l’examinateur dans au moins 30 % des cas). Il est
audacieux de dire qu’une telle expérience, si elle réussit, suffit pour
affirmer que des machines peuvent penser.
Quoiqu’il en soit, Turing a
formulé à la fois un pari et le test qui permet de le vérifier. Nous pouvons
faire le test, puisque la fin du siècle est passée. Certes l’ordinateur
s’est révélé redoutable au jeu d’échecs ; mais dans un travail
aussi « simple » que la traduction d’un texte littéraire il
fournit un résultat tellement médiocre que l’examinateur moyen le distingue
immédiatement d’un traducteur humain.
Si nous prenons Turing au mot,
nous pouvons donc dire que son pari a été perdu. Mais ce serait là une réfutation
peu satisfaisante : quelqu’un d’autre pourrait prendre la relève et parier
de nouveau en fixant comme échéance la fin du XXIème siècle, ou du troisième
millénaire etc.
La
meilleure réfutation de Turing s’appuie cependant sur la définition de
l’ordinateur qu'il donne lui-même : « The idea
behind digital computers may be explained by saying that these machines are
intended to carry out any operations which could be done by a human computer.
The human computer is supposed to be following fixed rules; he has no authority
to deviate from them in any detail. We may suppose that these rules are supplied
in a book, which is altered whenever he is put on to a new job. He has also an
unlimited supply of paper on which he does his calculations. He may also do his
multiplications and additions on a "desk machine," but this is not
important. The book of rules which we have described our human computer as
using is of course a convenient fiction. Actual human computers really remember
what they have got to do. If one wants to make a machine mimic the behaviour of
the human computer in some complex operation one has to ask him how it is done,
and then translate the answer into the form of an instruction table.
Constructing instruction tables is usually described as "programming."
To "programme a machine to carry out the operation A" means to put the
appropriate instruction table into the machine so that it will do A. »
Si Turing définit ainsi
l’ordinateur, puis affirme par ailleurs qu’il sera difficile de distinguer
au « jeu de l’imitation » un ordinateur d’un être humain, cela
implique qu’il sera tout aussi difficile de distinguer un calculateur humain,
assujetti au respect de règles fixes consignées dans un cahier, d’un être
humain ordinaire qui, n’étant pas assujetti à de telles règles, est libre
de prendre des initiatives et de s’adapter à l’imprévu.
Il s'agit finalement de savoir
si l’on suppose l’imprévu négligeable ou non : on retrouve le débat
entre les écoles de pensée qui s’inspirent de Jomini et Clausewitz. Il est possible de rédiger le cahier de règles
de sorte que le calculateur dispose de consignes lui permettant de faire face à
une grande diversité de situations (c’est ainsi que l’ordinateur joue aux
échecs), mais la typologie des situations que décrit le programme est nécessairement
finie alors que l’imprévu potentiel que comporte le rapport d’un être
humain au monde est indéfini : et il faut bien que l'être humain sache
« se débrouiller » là où l’ordinateur (ou le calculateur
humain, pur exécutant) ne disposera plus de règles et ne saura donc que faire
ou commettra des erreurs (c’est ce type de difficulté que l’ordinateur
rencontre en traduction automatique).
C’est le sens de la réfutation
de Turing par Popper:
« Turing a affirmé qu'il était impossible, par principe, de distinguer
les hommes des ordinateurs à partir de leurs activités observables (leurs
comportements), et il a défié ses adversaires de spécifier une activité
ou un comportement humain observable quelconque qu'un ordinateur fût, par
principe, incapable de réaliser. Mais ce défi est un piège intellectuel
: spécifier un type de comportement reviendrait à établir une spécification
pour la construction d'un ordinateur. En outre, si nous utilisons et
construisons des ordinateurs, c'est parce qu'ils sont capables de faire beaucoup
de choses que nous ne savons pas faire ; tout comme je me sers d'un crayon ou
d'un stylo pour calculer une addition que je suis incapable de faire de tête.
"Mon stylo est plus intelligent que moi", disait souvent Einstein.
Mais ceci ne prouve pas qu'il soit impossible de le distinguer de son stylo. »
*
*
*
Turing fut un génie et aussi
un être humain dont les souffrances suscitent la compassion.
Il a contribué à la naissance de l'informatique, bouleversement dont nous
n'avons pas fini d'explorer les conséquences. Il est naturel que le témoin
d’un événement d’une telle importance ait du mal à en circonscrire la
portée. Constatant la rapide croissance des possibilités de l'ordinateur,
Turing a extrapolé et il s'est trompé.
Les Grecs avaient découvert la
puissance de l'abstraction ; on voit dans l’Anabase de Xénophon
l’ivresse intellectuelle et l’orgueil que cette découverte leur a apportés.
Platon a été jusqu’à affirmer que seules les idées sont réelles :
« l'idée de cheval est plus réelle que le cheval qui gambade dans le pré,
tout comme l'idée de cercle est plus réelle que le cercle que je trace avec un
compas ». L'idéalisme platonicien a inspiré la philosophie de Plotin et
de Saint Augustin, la théologie catholique, elle a influencé les hommes de la
Renaissance et bien d'autres : ce n'est pas parce qu'une représentation est
inexacte ou incomplète qu'elle n'a pas d'impact, surtout quand elle est formulée
par une personne du plus grand talent.
Le pari de Turing a eu des
effets contrastés. Le parallèle entre le cerveau électronique et le cerveau
humain a suscité des recherches fécondes mais les travaux en intelligence
artificielle ont donné des résultats décevants. En focalisant l'attention sur
l'intelligence de l'ordinateur et donc sur la similitude entre celui-ci et l'être
humain, ce pari a eu l’inconvénient d’inciter à ne pas se préoccuper de
leurs différences.
Quelles sont nos priorités aujourd’hui
? Est-ce de rêver à l’intelligence que la machine, par hypothèse, pourrait
déployer dans quelques siècles ou quelques millénaires, ou d’agir pour
articuler au mieux les ressources de l’automate programmable (l’ordinateur)
avec ce que sait faire l’être humain organisé dans l’entreprise
(comprendre, expliquer, décider, concevoir) ?
Choisir la seconde réponse,
c’est dire que le pari de Turing n’est pas pertinent.
Différence entre l’ordinateur et le cerveau
Les questions que nous venons d’évoquer
n’ont rien de fondamentalement nouveau. L'être humain s'est déjà accommodé
de plusieurs « successeurs » potentiels : le langage, qui a une
existence propre depuis que des hommes se sont mis à parler ; l'écriture,
support de la mémoire ; l'impression, support de la diffusion des textes. Des
machines remplacent nos jambes (bateau, bicyclette, automobile, avion), des
prothèses assistent nos sens (lunettes, appareils acoustiques, téléphones, télévision).
L'élevage et l'agriculture pratiquent la manipulation génétique, depuis le néolithique,
par la sélection des espèces. La bionique, l'intelligence artificielle ne font
que s’ajouter aujourd’hui au catalogue des prothèses qui assistent nos
activités physiques ou mentales. N'avons nous pas tendance, par défaut de
perspective historique, à exagérer leur nouveauté ?
Il existe entre la complexité du logiciel et
celle du cerveau d'un être vivant une différence de nature. Aussi compliqué
soit-il, le logiciel est de taille finie puisqu'il s'agit d'un texte.
Mais toute théorie, aussi puissante soit-elle, reste incomplète ; or aucun
objet naturel (et le cerveau en est un) ne peut donc être reproduit par un
texte. Si un texte poétique semble parfois nous mettre en relation avec le
monde lui-même, c'est parce que notre cerveau le complète par le réseau de
connotations qui enrichit l'apport des mots et, au prix d'une imprécision que
le logiciel ne saurait tolérer, ouvre la perspective d'une rêverie sans
limites.
L'intuition de ceux qui vivent dans un
univers de science fiction ou de dessin animé s'affranchit de l'expérience :
dans cet univers-là toutes les métamorphoses sont possibles, toutes les chimères
peuvent exister, quiconque évoque une impossibilité serait immédiatement démenti.
Mais l'expérience distingue le possible de l'impossible et assigne des bornes
à notre action. Il existe dans le monde de l'expérience des questions pertinentes,
c'est-à-dire utiles à l'action, et d'autres qui ne le sont pas. Les rêveries
sur l'intelligence des ordinateurs sont impertinentes si elles détournent
des questions pertinentes.
Nous sommes confrontés non à des
ordinateurs intelligents mais à un automate programmable auquel le réseau
confère l'ubiquité. Sa puissance peut aider l'être humain dans son
travail et ses jeux, mais le cerveau lui reste supérieur dans l'analyse (sélectionner,
observer, interpréter les données relatives à un domaine nouveau) et la synthèse
(expliquer à un autre ce que l'on a compris), ainsi que dans la décision et la
conception (pour lesquelles, certes, l'ordinateur peut nous assister utilement
mais non nous remplacer).
Nous qui savons tant bien que mal parler,
lire, écrire, compter, domestiquer plantes et animaux, fabriquer produits et
outils, communiquer, déposer et retrouver notre mémoire collective dans des
encyclopédies etc., nous devons apprendre à tirer parti de l'automate
programmable. Pour voir clair dans les questions de savoir-faire et de
savoir-vivre, d'organisation collective et personnelle que cela pose, il importe
de percevoir la frontière qui nous sépare de lui, de discerner ce qu'il sait
faire de ce que nous savons faire, de sorte que son insertion dans notre action,
dans nos processus, puisse être judicieuse. Il faut pour tracer cette frontière
un outil conceptuel aussi précis que le scalpel du chirurgien.
Or les rêveries sur l'intelligence de
l'ordinateur brouillent cette frontière. On ne peut pas penser la relation
entre deux êtres dont on a postulé l'identité, fût-elle asymptotique.
L'intelligence de la machine s'actualisant dans un futur indéfini, l'intuition
s'évade des contraintes de l'action et tourne le dos aux questions qui se
posent aujourd’hui et nous sautent aux yeux : comment assister nos processus
opérationnels ; tirer parti de la conjugaison des données et du commentaire ;
fonder la solidité des référentiels ; articuler les médias ; faire interopérer
les systèmes d’information de diverses entreprises ; assurer la dialectique
du système d’information et de la stratégie, etc.
Ceci n'est pas sans conséquences. La rêverie
délasse le praticien expert : il n'est pas dupe des illusions qu'elle
comporte et il est rattaché à l'expérience par le ressort de rappel de son
activité professionnelle. Mais parmi les personnes qui décident en matière de
système d'information les praticiens experts sont une petite minorité. La
diffusion médiatique de rêveries sur l’intelligence de l’ordinateur risque
de placer ces personnes sur une orbite mentale d'où il leur sera impossible de
revenir au sol. Ce n'est pas de rêveries impertinentes que nous avons
besoin dans ce domaine difficile, mais de réalisme scientifique et de méthode
expérimentale.
L’ordinateur ne sait pas réaliser
des choses que l'être humain apprend à faire lors des premières années de sa
vie : il ne comprend pas le langage humain ordinaire, avec ses allusions et
ses connotations. Il ne sait pas faire la synthèse d’un ensemble de faits et
en tirer la conclusion. Il ne sait pas prendre de décision. Il n’a pas
d’imagination. Si l’on a l’impression qu’il sait faire tout cela,
c’est que l’on commet une erreur classique : celle qui consiste à dire
« l’ordinateur calcule » quand on se sert de l’ordinateur pour
faire un calcul, ou que « l'ordinateur décide » quand on l'utilise
pour aider la décision.
Ce n’est pas l’ordinateur
qui calcule ni qui décide, mais l’utilisateur qui se fait aider par
l’ordinateur pour calculer ou décider. Cette aide rend parfois possibles des
choses qui, autrement, auraient été impossible : ainsi le pilote
automatique d’un avion permet de maintenir celui-ci pendant toute la durée du
vol dans la position qui minimise la consommation de carburant, alors pour le
pilote humain ce serait aussi délicat que de tenir une assiette en équilibre
sur une aiguille, performance qu’il serait difficile de réaliser des heures
durant.
Les écrivains de science
fiction, les cinéastes, créent un monde imaginaire ; il leur est facile
d’y doter les ordinateurs de facultés extraordinaires, comme l’a fait
Stanley Kubrick dans « 2001 : odyssée de l’espace », ou de
mettre en scène des robots qui se comportent comme des êtres humains. Ils
sculptent ainsi un imaginaire fallacieux.
C’est la seconde, celle qui
postule une différence essentielle entre l’être humain et l’automate. En
effet, nous devons penser la relation entre l’être humain et
l’ordinateur, puisque cette machine est devenue notre outil de travail
quotidien. Si notre imagination confond leurs facultés, comment pourrons-nous
penser cette relation et l’organiser ? On ne peut pas penser de relation
entre des êtres identiques. On ne peut penser de relation qu’entre des êtres
différents, et il faut pour cela penser cette différence. Il arrive souvent,
observons-le, que l’on croie devoir fusionner sous un même concept des êtres
qui entretiennent une relation forte en disant « ils sont pareils,
puisqu’ils sont en forte relation ». C’est une erreur : il faut
les distinguer soigneusement pour pouvoir décrire la façon dont ils
s’articulent.
*
*
*
Pour progresser dans
l’utilisation de l’ordinateur, il faut se rappeler qu’il obéit à la
lettre, sans initiative ni interprétation, aux ordres qui lui sont donnés ;
il apporte à l’être humain une aide précieuse, mais bien délimitée.
L’expression « assisté par ordinateur », que l’on utilise pour
le dessin, la gestion, la conception etc., a une portée très générale :
en tout et pour tout, l’ordinateur nous assiste ; les utilisations
les plus intelligentes de l’informatique sont celles qui cultivent cette
relation entre l’ordinateur et nous, en partant d'une claire conscience de la
différence qui nous sépare de lui.
La
traduction automatique
Il
se peut que la « traduction automatique » soit un mythe. Les
chercheurs qui ont tenté de mettre au point un logiciel capable de traduire
automatiquement des textes littéraires d’une langue à l’autre ont obtenu
des résultats décevants.
La
traduction automatique ne donne de résultat acceptable que lorsqu’il s’agit
textes formalisés, techniques, précis, sans surprises du point de vue de la
syntaxe. Par contre les textes littéraires, proches de la langue ordinaire et
riches en connotations, donnent des résultats ridicules lorsqu’ils sont
soumis à la traduction automatique.
Pour
voir ce qu’il en est, appliquons le logiciel fourni par AltaVista à un
paragraphe de la fameuse lettre ouverte de Bill Gates :
To me, the most critical thing in the hobby market right now is the lack
of good software courses, books and software itself. Without good software and
an owner who understands programming, a hobby computer is wasted. Will quality
software be written for the hobby market?
On
obtient ceci :
À moi, la chose
la plus critique sur le marché de passe-temps est en ce moment le manque de
bons cours, de livres et de logiciel de logiciel lui-même. Sans bon logiciel et
propriétaire qui comprend programmant, un ordinateur de passe-temps est gaspillé.
Le logiciel de qualité sera-t-il écrit pour le marché de passe-temps?
Il
est par contre possible d’écrire un bon logiciel de traduction assistée
par ordinateur qui aidera efficacement un traducteur connaissant bien la
langue de départ et très bien la langue d’arrivée. Mais les producteurs de
logiciels et les organismes de recherche ont préféré dépenser des fortunes
pour la traduction automatique au lieu de chercher à aider les traducteurs.
Il
existe une façon raisonnable d’utiliser la traduction automatique.
L’automate peut balayer un ensemble de textes écrits dans une langue que l'on
ignore, en fournir une transcription sommaire et aider ainsi à repérer ceux
qui méritent d'être effectivement traduits ; puis la traduction
proprement dite sera faite par traducteur humain assisté par l'ordinateur. On
est loin, avec cette utilisation modeste, des ambitions initiales de la
traduction automatique.
16 novembre 2002
John von Neumann,
The Computer and the Brain, Yale Nota Bene 2000. C'est le
dernier ouvrage de von Neumann. Miné par le cancer dont il est mort en
1957, il n'a pas pu l'achever. Il lui accordait beaucoup d'importance.
|