Sciences, culture et foi

N° 48 Juillet - Aout 1983 - Page n° 54

Jacques ARSAC A propos de l'informatique

Ce qui borne la portée de l'informatique, comme science, ce ne sont pas ses limites et ses échecs, mais les conditions même de son fonctionnement et de ses succès : l'abstraction du sens, le traitement formel de l'information.

D'où l'ouverture d'autant plus grande que la question du sens.

 Tout l'article est joint.

DANS l'audience qu'il a accordée à des intellectuels européens en septembre 1982, Jean-Paul II a rappelé la nécessaire autonomie de la science par rapport à l'ordre de la foi. Il ne devrait donc pas être nécessaire de parler d'informatique ici : elle n'interroge pas la foi. Mais la réalité n'est pas toujours conforme à la théorie. Il y eut des époques où l'Eglise ne respectait pas cette autonomie. A l'inverse, il y a encore des gens qui utilisent la science pour une propagande athée. Je faisais partie d'un groupe visitant l'U.R.S.S. en 1980, sous la houlette de Pierre Toulat. Nous avons été reçus par des dignitaires du parti communiste, qui nous exposèrent leur athéisme. Je ne peux citer que de mémoire et résumer leur argumentation : «Nous ne cherchons pas à montrer que Dieu n'existe pas. Nous présentons le monde tel qu'il est, nous expliquons la science, et cela suffit... »

Sans aller chercher si loin, il est clair que la science a joué un rôle non négligeable, bien que le plus souvent involontaire, dans la perte de la foi par nombre de nos contemporains. Dans sa volonté d'expliquer, elle chasse le mystère. Certes, Dieu n'est pas dans les phénomènes inexpliqués, il n'est pas la réponse aux questions scientifiques ouvertes. Mais l'avancée de la science peut être perçue comme la preuve que seul le mesurable existe ; elle chasse l'invisible. Et c'est pourquoi le P. André Brien rappelait à un groupe d'anciens élèves catholiques de l'Ecole Normale Supérieure qu'aucune catéchèse n'est possible si l'on ne rétablit pas d'abord le sens de l'invisible.

Je voudrais dire, dans ces quelques pages, comment l'informatique, sans jamais entrer en conflit avec ma foi, m'a cependant forcé à une réflexion sur cette notion, et m'a fait pénétrer plus avant dans cet invisible qu'est « le sens ». Je rappellerai d'abord ce qu'est l'informatique, et tenterai de dégager sa situation par rapport au cerveau humain, notamment dans le domaine encore mal connu de « l'intelligence artificielle ». (p.54)

Les cerveaux électroniques

Dans les années 60, quand l'ordinateur sortit de l'ombre pour devenir un outil important dans nos sociétés, on l'appelait souvent «cerveau électronique ». Une plus grande familiarité avec ces machines a fort heureusement fait reculer le terme. Tout élève de lycée qui a eu l'occasion de s'en servir réalise très vite que la machine est plutôt stupide. (Et il y a de plus en plus d'élèves dans ce cas : outre les lycées équipés d'ordinateurs, outils pédagogiques, il y eut démarrage en octobre 1981 d'un enseignement optionnel d'informatique en classe de seconde. Enfin les ordinateurs domestiques sont de moins en moins rares). Les professeurs sont obligés de réagir contre cet anthropomorphisme : la machine n'est ni bête, ni intelligente ; elle est machine.

Mais le terme resurgit périodiquement. Dans un article du Nouvel Observateur en juin 1982, Gérard Bonnot titrait : «La France invente le nouveau cerveau du monde... », parlant du micro-ordinateur comme de « l'arme absolue contre la sottise ». Il arrive aux journalistes de parler des «super-cerveaux» (comme si cerveau ne suffisait plus). Dans une émission télévisée récente, le journaliste reconnaissait que les ordinateurs actuels ne sauraient être qualifiés de cerveaux, mais principalement parce que leur complexité est trop faible : 100 000 éléments actifs pour les plus grosses machines. Le jour, prévisible, où il y aura 10 milliards de composants, alors ce sera un cerveau...

Or l'ordinateur n'est qu'une machine, inactive tant qu'elle n'a pas été munie d'un programme de travail, conçu et rédigé par l'homme. Si elle devait un jour avoir des capacités nouvelles, c'est parce que l'homme l'en aurait dotée. Mais il y a plus. Il faut analyser de très près la méthode informatique, et donc définir la science informatique.

La science informatique

 Précisons bien que tout ce que je vais dire n'est pas une vérité scientifique prouvée par la logique. C'est une thèse — je serais tenté de dire un principe ou un postulat —, justifiée par l'observation d'un certain nombre de développements de l'informatique, et par l'expérience personnelle. Je ne peux le rappeler à chaque ligne. Qu'il soit donc bien entendu que tout ce que j'avance n'est que l'expression de ma conviction intime, au demeurant partagée par un grand nombre de mes collègues, mais non pas tous.

Je définis l'informatique comme la science du traitement de l'information. Dans cette définition, deux mots importants :

 — La science. Certains pensent que la seule science en cause est la mathématique, l'informatique étant la technique qui lui donne des moyens de calcula Je ne peux opposer à cette vue que mon expérience personnelle : j'étais d'abord physicien, considéré comme scientifique. Je suis venu à l'informatique sans changer de type d'activité intellectuelle : je crois être toujours un scientifique. Je n'ai jamais été bon en mathématique, mais je suis très à l'aise et chez moi en informatique.

L'information. On ne définit pas l'informatique si on ne précise pas ce qu'est l'information. Or le mot est très flou. Au sens usuel, l'information est ce qui apporte des connaissances nouvelles. Ce n'est pas restreindre le terme que de remplacer (p.55) « ce qui » par « un texte » — je dirai de façon plus technique « une chaîne de caractères », en réduisant la notion de texte à celle des lettres qui la composent. Donc, une information est une chaîne de caractères qui apporte des connaissances. C'est ce que je trouve dans un journal ou un livre. C'est cette chaîne, lue par un journaliste, qui m'informe à la radio ou à la télévision.

Mais cette notion est subjective. Ce qui est connaissance nouvelle pour l'un n'apprend rien-à celui qui le sait déjà. Or nous avons besoin d'un concept objectif. Il faut donc distendre le lien entre la chaîne de caractères et l'information véhiculée. C'est d'autant plus tentant que le lien en soi est lâche. Une suite de caractères japonais peut apporter une connaissance à un habitant de Tokyo. Pour moi, elle n'est que dessin complexe. Nous dirons donc qu'une information est une chaîne de caractères susceptible d'apporter une connaissance, ceci dépendant de deux conditions : 1) le lecteur doit connaître le code attaché à cette chaîne et qui permet de l'interpréter ; et, 2) le niveau de connaissance du lecteur ne doit pas contenir ce qui est véhiculé par la chaîne.

D'un point de vue objectif, il est impossible de déterminer si une chaîne de caractères peut ou non apporter une connaissance. Dès lors, cette précision est inefficace : une information est une chaîne de caractères. C'est un contenant. Le fait qu'elle puisse véhiculer une connaissance, avoir un contenu, est un accident hors de l'informatique.

Dès lors, nous nous trouvons confrontés à la distinction fondamentale en linguistique : l'information est contenant, forme, syntaxe. C'est ce que manipule l'informatique. Pour l'homme, la même information contient un sens, elle a un contenu : elle est sémantique.

Si ce que nous disons est vrai, on se trouve confronté à une sérieuse difficulté. Nous ne sommes pas intéressés par un traitement de l'information, au sens «chaîne de. caractères ». Si j'utilise un ordinateur, c'est pour obtenir de nouvelles connaissances à partir de celles que je-possède. Or la machine ne peut traiter les connaissances, les significations, les contenus. Elle ne peut traiter que les contenants. La démarche informatique est donc la suivante :

— Partant des connaissances données, on les représente au moyen de chaînes de caractères par l'opération dite « codification ». Les contenus sont enfermés dans des contenants.

— On traite les chaînes de caractères «données» pour obtenir des chaînes « résultats ». Ce traitement est strictement syntaxique, et ne fait référence qu'à la forme des données. Il n'y a pas de sens dans une machine.

— Le résultat, c'est une nouvelle chaîne de caractères. On l'interprète en lui donnant un sens.

 

On conçoit la fragilité de ce schéma. Pour qu'il fonctionne, il faut que lé sens soit à ce point solidement chevillé dans la 'forme que le traitement de celle-ci implique le traitement du sens. On m'a objecté que les choses ne pouvaient être ainsi. Le passage du sens à la forme, au début du traitement, est en général un appauvrissement. Or le plus ne saurait sortir du moins. Ce qui a été perdu à l'entrée l'est irrémédiablement. Mais c'est précisément ce que l'on observe en pratique, et c'est pourquoi le modèle que je propose me paraît si conforme à la réalité. On pourrait m'objecter aussi que ce schéma n'a aucune chance d'être réalisable. Comment peut-on espérer associer un traitement syntaxique des formes aboutissant au (p.56)résultat cherché, qui est un traitement sémantique des signifiés ? Je vais montrer sur un exemple classique comment ceci s'est toujours fait.

Supposons que l'on veuille connaître l'opinion d'un groupe sur une question. On organise un référendum. On publie un texte, puis on demande aux gens de l'approuver ou de le rejeter en votant. Lorsque je me rends à l'isoloir, j'ai le choix entre un bulletin « oui » et un bulletin « non ». Je peux aussi mettre un bulletin nul. Toutes les nuances de la pensée ne peuvent entrer dans un cadre aussi étroit : je suis assez d'accord avec l'idée générale du texte, mais tel détail ne saurait passer, et je ne peux approuver l'utilisation politique qui sera faite de mon jugement. Qu'importe ? Il me faut répondre «oui» ou «non », ou renoncer à répondre, ce qui a encore une signification politique. Ainsi les nuances de ma pensée sont perdues dans la codification initiale.

Quand le scrutin est clos, on procède au traitement de l'information, c'est-à-dire au dépouillement. Les bulletins sont sortis de l'urne, et rangés en trois piles : les « oui », les « non », et tous les autres. Ceci est fait sans aucune référence à la signification de chaque vote. Seule la forme compte. Le dépouillement peut être fait par un illettré : il suffit qu'il sache distinguer les bulletins les uns des autres pour les placer dans les trois piles. Il reste à compter les bulletins dans chaque pile, ce qui est encore une opération syntaxique : les nombres n'ont pas de sens. Le traitement fini, on procède à l'interprétation. Ce qui a été perdu à l'entrée n'est pas retrouvé à la sortie. Si la désignation de la réponse majoritaire est facile, les politologues se perdent en conjectures sur la signification des bulletins nuls. Les deux camps affirment avoir gagné.

Ce mécanisme est typiquement informatique. Le traitement étant strictement formel peut être mécanisé, et l'on a fabriqué des machines à voter. Il faut noter que l'on n'a pas attendu l'ère des ordinateurs pour voter. C'est le signe que l'informatique telle que je la définis n'est pas immédiatement liée à ces machines. C'est une forme de traitement spécifique, qui a toujours existé, mais à laquelle on n'avait pas attaché suffisamment d'importance pour la préciser, l'isoler et la nommer. Comme Monsieur Jourdain, l'homme a longtemps fait de l'informatique sans le savoir. Il se trouve simplement que ses propres capacités en ce domaine sont extrêmement limitées, et qu'il ne peut aller bien loin sans l'aide d'une machine. En reculant ces limites naturelles, l'ordinateur a permis l'extension d'un domaine préexistant, mettant en pleine lumière une activité ancienne.

Le traitement de l'information

Je pourrais citer d'autres exemples du même genre. Mais on ne dégagerait pas ainsi le véritable champ d'extension de l'informatique. Il y a des domaines dans lesquels l'homme a de tous temps utilisé la démarche informatique. La question est de savoir si cette démarche peut être étendue à d'autres domaines. Là encore, je le montrerai sur un exemple : la traduction des langues.

Lorsqu'un interprète, au cours d'une conférence internationale, traduit de l'anglais en français, il opère à partir du sens des mots anglais qu'il entend, Ces mots veulent dire quelque chose. La phrase de l'orateur évoque dans la tête du traducteur une image, qu'il dit en français. Les deux langues étant assez peu distantes l'une de l'autre, l'interprète n'a pas le plus souvent besoin d'attendre la fin de la (p.57) phrase anglaise : dès les premiers mots, une image apparaît qu'il peut énoncer en français. C'est un processus direct, lié à la sémantique.

A l'opposé, on m'avait enseigné une toute autre méthode pour la version latine. Chercher dans la phrase latine un mot qui, par sa terminaison, peut être un verbe à un temps principal. C'est très exactement du traitement de chaîne de caractères : je connais la liste des terminaisons possibles, et je cherche s'il y en a une dans la phrase. Ayant le verbe et son nombre, je cherche le mot qui, par sa terminaison, peut être un nominatif au nombre convenable. De proche en proche, je construis l'arbre syntaxique de la phrase, puis je remplace les mots par leurs équivalents français donnés par un dictionnaire, enfin je construis avec ces mots une phrase ayant même structure. On sait le prix de l'opération : si, à l'inverse de la traduction sémantique, les propriétés grammaticales sont strictement conservées (temps des verbes, nombre des,noms, etc.), par contre on risque le non-sens ; un interprète ne prononcera jamais une phrase sans signification. Il n'accumule pas des mots venus de la syntaxe, il dit un sens.

J'ai présenté deux exemples où, pour la même activité (traduction des langues), on utilise deux méthodes différentes. L'une sémantique, propre à l'homme ; l'autre syntaxique, mécanisable, informatique. La distinction n'est pas liée à la nature de la langue à traduire. D est fort douteux que les Romains aient eu à faire de l'analyse syntaxique pour comprendre leurs interlocuteurs. Pour traduire de l'anglais en français avec un ordinateur (et de façon très limitée), on passe par la voie syntaxique.

D y a donc des activités de traitement de l'information qui peuvent être abordées suivant deux chemins. La question est alors de savoir s'il en existe qui sont définitivement sémantiques, et irréductibles à un traitement syntaxique, donc à un traitement informatique. C'est toute l'affaire des rapports entre le cerveau et la machine. Je rappelle qu'ici j'avance des thèses personnelles. Je suis intimement convaincu que le cerveau humain opère de manière privilégiée au niveau sémantique. D est fort mal équipé (ou entraîné, je ne sais) pour les traitements syntaxiques. Quand un traitement d'information est strictement syntaxique (comme le vote), il est mieux fait par la machine que par l'homme. Tout le calcul numérique entre dans cette catégorie. Quand un traitement est irréductiblement sémantique (s'il en existe), il ne peut être mécanisé. Lorsqu'un problème peut être abordé de deux façons : au niveau sémantique, par l'homme et, au niveau syntaxique, par la machine, alors la compétition est possible. Il n'est pas rare que le chemin syntaxique soit beaucoup plus complexe que le chemin sémantique, sorte de court-circuit dans la combinatoire, et que l'homme batte la machine. Le plus souvent, la situation est quelque part entre les deux cas : le chemin est partiellement réductible à de la syntaxe, et le succès de l'ordinateur n'est pas total.

L'intelligence artificielle

C'est ce que l'on observe dans un domaine de plus en plus étendu de la recherche informatique, baptisé il y a bien longtemps de façon fort mauvaise : l'intelligence artificielle. Ce secteur recouvre les problèmes pour lesquels on essaie de trouver une méthode syntaxique satisfaisante là où l'homme a toujours opéré de façon sémantique. Le mot « intelligence » figure dans le nom de ce secteur, parce (p.58) qu'à voir les résultats produits par la machine, on pourrait la croire douée d'intelligence.

 

Tout traitement sur ordinateur d'une langue maternelle est de ce type. Car une telle langue n'est pas en général réductible à sa syntaxe. La forme n'implique pas le sens, et un même contenant peut avoir plusieurs contenus. Si je dis : « Paul ferme la porte », vous imaginez Paul, à l'entrée de la salle, en train de fermer la porte. Mais il se peut que Paul et Virginie soient partis en promenade, et qu'ils aient assisté à un horrible accident de voiture. Virginie s'est évanouie. Paul (resté) ferme, la porte... On cherche à lever ces ambigüités en utilisant un «contexte >y, ce qui amène à la notion de « représentation de connaissances », domaine aujourd'hui important de la recherche. Là encore, il s'agit de savoir comment des mots, pris en dehors de toute signification, peuvent servir à représenter un contexte significatif. On n'est pas très avancé dans tout ce qui touche le traitement des langues naturelles. D'importants travaux ont été faits en traduction des langues (notamment par l'équipe de Bernard Vauquois à Grenoble), en prenant pour principe général la production de textes les plus ambigus possible : on renvoie le problème au lecteur. Mais ce sont des programmes gigantesques, et pas encore d'emploi courant. On aurait besoin de traiter la langue naturelle dans tout ce qui met l'ordinateur en relation avec un large public, comme par exemple dans les applications pédagogiques (enseignement assisté par ordinateur) ou pour la consultation des banques de données. Faute de quoi, il faut passer par des mécanismes contraignants qui limitent à la fois les possibilités de ces systèmes, et leur impact sur le grand public.

La démonstration automatique de théorèmes entre dans cette même catégorie de l'intelligence artificielle. On peut réduire cette démonstration à un mécanisme fort simple. On se donne des axiomes sous forme de chaînes de caractères. Les règles du raisonnement sont transformées en règles de réécriture. Ainsi, une des formes du syllogisme sera notée :

 (A implique B) ET (B implique C) implique (A implique C)

 Il y a un nombre fini (et même petit) de règles. On les essaie donc les unes après les autres. On regarde toutes les conclusions que l'on peut obtenir avec l'application d'une seule règle. Si le résultat cherché n'est pas parmi celles-ci, on applique alors de nouveau chacune des règles à chacune des conclusions. Il est inévitable que l'on trouve le résultat cherché, si le théorème est juste. Malheureusement, le temps de traitement croît vertigineusement avec le nombre de règles nécessaires pour obtenir le résultat. Sous cette forme, la démonstration de théorèmes non évidents est impossible.

 Il est absolument certain que le mathématicien n'opère pas ainsi. Son cerveau est inapte à conduire une telle recherche combinatoire. Suivant des voies que nous ne savons expliciter, il ne poursuit la recherche que dans un très petit nombre de directions. Le mathématicien heureux est celui qui trouve tout de suite la bonne direction. On dira qu'il a beaucoup d'intuition. On a essayé d'accélérer les programmes de démonstration automatique en évitant de parcourir tous les chemins. On peut le faire en estimant la probabilité de succès d'un chemin, soit à partir de l'expérience d'un mathématicien, soit même à partir des expériences précédentes faites par l'ordinateur. On part d'une certaine probabilité de succès des chemins. On fait démontrer à la machine beaucoup de théorèmes simples, et chaque fois, le programme de la machine est tel que la probabilité proposée pour le chemin du (p.59) succès est augmentée, tandis que celle des voies d'échec est réduite. Il devrait se faire que la machine devient de plus en plus sûre du succès.

J'ai beaucoup simplifié la présentation, tout en respectant les grandes idées. Ce que j'ai dit de la démonstration automatique vaut pour le jeu d'échecs. On a commencé par des programmes très complexes et peu performants. Puis l'appréciation de la valeur des coups s'est affinée. L'ordinateur explore un certain nombre de coups d'avance pour déterminer le meilleur coup à jouer, mais sans essayer toutes les combinaisons passibles. Il ne considère que celles qui ont un intérêt. Les programmes d'échecs deviennent de plus en plus difficiles à battre. Reste que nous sommes à peine dans le domaine de l'intelligence, si celle-ci est le lieu du sens. Le jeu d'échecs est strictement combinatoire, la seule difficulté à vaincre étant le nombreux vertigineux de combinaisons à essayer. L'homme n'opère pas en les énumérant. Sa façon de faire relève encore du domaine de la recherche. Certains informaticiens pensent que les méthodes utilisées sur ordinateur fournissent un modèle de l'intelligence naturelle. C'est une hypothèse de travail acceptable. Il ne s'agit que d'un modèle, toujours susceptible d'être remis en cause, et dont nous ignorons complètement s'il est une description raisonnable de la réalité sous-jacente.

Le problème du sens

J'ai eu, à différentes reprises (et très récemment lors d'un voyage en Suède), à exposer ces idées sur la science informatique. Elles sont en général bien acceptées, parce qu'elles rendent compte de deux réalités importantes. Les Anglo-saxons utilisent le terme « computer science ». Mais il n'y a pas de science d'une machine, et ce que nous considérons n'est pas plus la science des ordinateurs que l'astronomie n'est la science des télescopes. En mettant l'accent sur l'objet et non sur l'outil, on obtient une meilleure vue de l'informatique. Pour moi, on met aussi mieux en lumière les relations entre les méthodes de travail de l'homme et de la machine. Celle-ci ne traite que des caractères, de, formes. Elle est parfaitement adaptée, et imbattable, pour tout ce qui est traitement syntaxique. Elle peut être considérée comme délivrant l'homme de ses servitudes intellectuelles. Car l'intéressant pour moi, c'est le sens, le signifié, pas le mot signifiant.

Un linguiste du Massachusets Institute of Technology, avec lequel je discutais de ces questions, me répondit que le sens n'existait pas. C'est une vue de l'esprit. Et d'une certaine façon, il avait raison. Scientifiquement parlant, il n'y a pas de sens. Pas plus que le médecin ne trouve l'âme du bout de son scalpel, l'informaticien ne trouve de signification dans les circuits d'un ordinateur. Il n'y a que des états électriques, que l'on peut lire comme des caractères d'un alphabet binaire.

Et l'on revient ainsi à mon point de départ. Le sens, inaccessible à la science informatique, perd de sa consistance. Même le scientifique peut en venir à douter de la réalité de ce qui est inaccessible à la science. L'invisible, le non détectable ou mesurable, le non observable «n'existe pas ». La foi en Dieu devient impossible.

Pour moi, seule une réflexion profonde sur la nature de la science et de ses méthodes permet de dépasser ce barrage. réel. La science construit des modèles de la nature et les étudie. Tout ce qu'elle peut faire est formel : création d'êtres mathématiques liés par des lois, et susceptibles de calculs. Ce que la science manipule, ce sont des formes. Les lois décrivent des relations entre les formes. Extrapolant à (p.60) partir de là, je suis tenté de dire que la science n'a pas de sens. Le cerveau apparaît comme le lieu du sens.

On trouve ainsi l'invisible du P. Brien. Le premier invisible, pour moi, c'est le sens. Et Dieu est le sens, la signification de toute chose. L'amour aussi est invisible. Et Dieu est l'Amour. La science, domaine du formel, est sur un autre plan.

Jacques ARSAC

 

Revue papier

Prix HT €* TVA % Prix TTC* Stock
11.75 2.10 12.00 Stock: 15

*Hors frais de port s'élevant entre 3 et 5 euros selon le pays d'expedition

Revue numérique

Titre Prix HT € TVA % Prix TTC Action
Sciences, culture et foi - pdf Gratuit pour tout le monde Télécharger