Common nouns | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z
Proper nouns A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z| HOME

L'informatique est une architecture

    
A la différence du domaine nucléaire, l'informatique n'est pas née de l'application pratique de découvertes théoriques. Ici, la technique a toujours précédé la théorie:
- Pascal invente la pascaline pour calculer plus aisément les feuilles d'impôts des contribuables de la région de l'Ouest où il avait été envoyé en mission
    
(note, sans doute vers 80: en fait, ce n'est ni l'objectif ni la théorie qui sont preières, c'est la "conception de système", du couer de celui-ci, qui fait la passion des chercheurs).
    
- Le dispositif à cartes perforées de Hollerich est développé parce que moins cher que les solutions "classiques"    
 
- Les besoins militaires allemands (Zuse) puis américains font mettre au point les premiers calculateurs électroniques (rappelé par le rapport OCDE).
    
Seul Babba, peut-être pourrait faire exception. Mais est-ce à la gloire de la théorie?
    
René Carmille remarque dès 1938:
     (la citation manque)
    
Et le rapport OCDE note clairemnt: "La science des calculateurs s'est édifiée à partir de nos tentatives pour mettre au point des outils propres à faciliter la solution des problèmes d'autres disciplines, d'où le rôel très particulier et important des applications dans le développement de cette science".
     
     Mais:
- le rapport ne reconaît ce rôle que pour en souhaiter la fin au nom d'une "distinction claire", comme on l'a vu plus haut;

- il mesure la fécondité des applications non pas en termes d'utilité sociale ou d'insertion dans un mouvement historique général, mais en termes d'utilité pour les chercheurs en informatique théorie: "certaines appliations seront fructueuses et feront émerger des problèmes fondamentaux..."
    
D'ailleurs, les éléments constitutufs de la "science informatique" sont fort disparates. L'algèbre de Boole, la théorie de l'information de Shannon, les automates de Kleene, la linguistique chomskienne, les neurones de McCulloch et Pitts, la cybernétique de Couffignal ou de Wiener, les théories des systèmes de Bertallanfy ou de Mesarovic... autant de sorces diverses. Pour la plupart, ces théories ne sont pas nées de l'informatique. M. Nivat le remarque pour les automates et, de même que R. Carmile, trouve cela "chose assez surprenante".
    
Il n'existe pas, aujourd'hui, une science que l'on pourrait appeler l'informatique. Il n'existe qu'un certain nombre d'agrégags de théories qui trouvent leur cohérence dans la construction concrète de systèmes informatiques opérationnels.
    
Très vite, on devait s'apercevoir que, pour ces systèmes, le calcul (à moins de lui donner une signification si large qu'elle perd toute valeur pratique)...
    
En s'assimilant la mécanographie, le calculateur apprit qu'il lui fallait, pour progresser, apprendre à stocker de l'information (et, en pratique, à plusieurs niveaux) et se munir de dispositifs "d'entrée-sortie".
    
Ces derniers n'ont jamais fait le bonheur des informaticiens. Et il est vrai que la programmation en langage de base des éditions n'a rien de noble ou d'intellectuellement excitant, alors que c'est pourtant un aspect fondamental de l'efficacit des systèmes informatiques. L'apparition dest temrinaux et des systèmes de gestion de transaction donne une nouvelle dimension aux problèmes. Mais, là encore, bien peu de choses ont été écrites sur l'emploi optimal des écrans cathodiques... les "filles" suivront.
    
(note 92: les filles, sont le personnel, essentiellement perfo-vérif, qui à l'époque assurait encore la saisie)
    

Au delà du calcul, l'informatique est donc l'rt de concevoir et de réaliser des systèmes d'information, susceptibles de s'insérer efficacement dans l'univers concret des entreprises, des administrations, des usines ou des laboratoires scientifiques. L'informaticien est essentiellement un architecte.
    
Pour lui, comme pour le constructeur d'un pavillon ou d'une "tour", les sciences sont le moyen essentiel de faire mieux, plus utile, plus efficace, plus rentable. Et, à l'occasion, plus agréable pour les utilisateurs.
    
Les sciences? Mais pourquoi les seules mathématiques? Ces systèmes sont faits pour des hommes. Et les sciences humaines devraient jouer dans leur conception un rôle au moins aussi important que les sciences dites exactes. L'informatique manifeste clairement l'impossibilité où nos socétés ont été, jusqu'à présent, de donner dans leurs organiations la place qui devrait revenir aux sociologuques, psychologuqes, etc. Ceux-ci n'ont sans doute pas toujours fait ce qu'il fallait pour se faire admettre. Et les discours qu'ils tiennent sont au moins aussi ésotériques que ceux des informaticiens. Mais on peut toujours prétendre que l'ordinateur n'est qu'un outil. C'est rassurant et
peut-être efficace. Pour se défendre du spécialiste des sciences de l'homme, il ne reste qu'à le fuir ou à le traiter de "psychopitre"... ce n'est pas la même chose.
    
Au passage, notons que c'est sans doute à partir de ce point de vue de l'architecture que l'on peut utilement étudier le fait que le software est un produit ou un service. L'architecte utilise des moyens de plus en plus industrialisés. Dans certains cas, le préfabrique complet est même possible. Mais, la plupart du temps, la part de "service" reste considérable tant pour la conception que pour la mise en oeuvre.
    
Le rapport OCDE note plusieurs fois le caractère dialectique de la conception des systèmes: "On s'attache à l'amélioration de l'efficacité des langages en tenant compte de l'ensemble des contraintes tenant à l'environnement économique et social... la mise au point d'un système de calcul est un processus itératif d'interction entre le concepteur et l'utilisateur, au cours duquel l'utilisateur définit plus clairement son problème, cependant que le concepteur met au point les spécifications du système".
    
Mais il ne voit pas que ce processus itératif est le coeur même de l'informatique, et que l'informatique théorique ne progressera vraiment qu'en faisant la théorie de ce processus. Bien au contraire, on choisit de laisser l'utilisateur en dehors. Il arrive ce qui devait arriver: l'utilisateur (ou, si l'on préfère, l'utilisation) est le fautif: "Un grave obstacle à une étude approfondie des possibilités des systèmes de calcul tient à ce que nous n'avons aucun moyen de décider a priori si un système est bien ou mal adapté à un type donné d'application... la situation se complique encore...".
    
A un niveau différent, on retrouve le problème de l'informaticien s'étonnant de rencontrer des "problèmes humains" quand il essaie d'imposer unilatéralement, appuyé sur la direction générale, les solutions qui lui paraissent (de toute évidence) les meilleures.
    
Le rapport OCDE est tout de même très conscient des problèmes, puisqu'il parle ensuite de "technologie créatrice". mais le choix même du terme laisse prévoir les conclusions. Puisqu'il s'agit de technologie, il ne s'agit pas de recherche. Donc, le chercheur n'étudiera pas ces problèmes. Et par conséquent, on n'en sortira jamais.
    
S'étant reconnu architectre, l'informaticien va s'efforcer d'embrasser courageusement tout le champ concerné par ses constructions. Concepteur d'un système de gestion, il va lui falloir apprendre la gestion. Concepteur d'un MIS (note 92: Managemnet Information System), il apprendra le managemnet. en tous cas, il aura son mot à dire sur tout, dans l'entreprise. N'est-il pas, finalement, l'architecte du système d'information, cr'st à dire finalement du système tout court?
    
Hélas, parvenu à ces sommets, l'informaticien s'aperçoit qu'il manque d'air. En effet:
- plus ou moins implicitemnet, il en vient à revendiquer des responsabilités qui dépassent largemnt le champ de l'informatique. Et s'il revendique d'être lui-même le patron, il s'apercevra qu'il a d'autres responsabilitéq que les
"systèmes"... qui trop embrasse, mal étreint.
    
- les outils qui lui seraient nécessaires n'existent nullemnte à ce niveau. Certes, une "approche systèmes" se révèle féconde. Mais il s'en faut qu'il existe à ce jour une véritable théorie des systèmes, cohérente et suffisamment développée pour être autre chose qu'un moyen d'éclairage utilise mis à manipuler avec précaution.
    
Déjà, avant l'informatique, d'autres avaient tenté l'ascension, poussés par la logique même des implications de leur discipline. tout à tour ingénieurs (il y a longtemps, au XIXeme siècle), comptables (années 30 à 50), chercheurs opérationnels (50 à 60), voire même cybernéticiens, ont revendiqué les responsabilités centrales, à tout le moins, une dépendance directe du "patron" et son appui "inconditionnel" vis à vis des autres responsables de l'entreprise.     
     
Tour à tour, ils ont été renvoyés à leurs machines, à leurs comptes, à leurs algorithmes, ou même ont disparu. Qui parle aujourdh'ui de cybernétique?
    
Après avoir cru absorber le conseil en management, l'organisation traditionnelle, etc.... l'informatique parvient à une crise d'identitité, bien mise en lumière par les évolutions des "SSCI" (plus tard, SSII) . La crise intellectuelle coïncide avec une crise financière.
    
On ne peut donc pas définir l'architectrue uniquement comme une architecture.

L'informatique est une biologie


    
L'ordinateur est une création de l'homme. Et, comme tel, ilest susceptible d'une description complète. Il n'y a rien en lui qui dépasse ce que nous savons faire et contrôler.
    
Oui, mais.
    
Qui, aujourd'hui, connaît la totalité d'un système informatique, depuis son software d'appliation avec son mode d'emploi jusqu'à la chimie des circuits intégrés qui le composent? Quelques concepteurs exceptionnels, peut-être. Pour, dans le monde, des centaines de milliers d'informatciens. Qui ne s'en portent pas plus mal. Dans l'immensité d'un grand système informatique, chacun découpe les zones qu'il doit connaître pour effectuer son travail: concevoir le hardware, concevoir un système d'exploitation, former des utilisateurs, pupitrer, maintenir, etc. Pour la plupart, ce qui se paser derrière les carters, c'est la "boite noire" dont on connaît suffisamment le comportement pour le conduire. On en sait autant d'un cheval.
    
Mieux. Même si l'on savait le "tout" d'un système, bit par bit et transistor par transistor, cela ne suffit plus pour en prévoir le comportement pratique dans un environnement complexe de temps réel et de multi-programmation. C'est pourquoi l'on développe aujourd'hui des outils de "métrologie" où l'apparition des statistiques est absolument indispensable si l'on veut obtenir des résultats significatifs. Gibson Mix, moniteurs et softwares d'analyse de travaux sont nécessairement utilisés de manière statistique. le système a un comportement. On connaît des moyens de l'"optimiser", c'est à dire de l'améliorer. On en sait autant d'un cheval.
    
L'ordinateur n'est qu'un outil? Certes. Mais, parvenu à ce point de complexité qu'on ne puet lui refuser le statut d'une certaine autonomie. Il suffit de couper le courant pour qu'il s'arr^te? Si vous voulez qu'il s'arrête définitivemnte, c'est plus compliqué que cela. Peut-être plus difficile que d'assommer un lapin.
    
L'ordinateur a un mode d'existence propre. Une cohérence inédite dans le monde des artefacts.
     
    
(Note, quasi contemporaine du manuscrit je pense): Cet "automate électronique de traitement de l'information" a fait ses preuves et représente un investissement (financier, intellectuel, mythique) qui lui garantit une substantielle longévité. De plus, aucune technologie actuellement imaginable ne paraît mettre en cause ses structures fondamentales actuelles. Le calcul
analogique est désormais limité à quelques applications. La fluidique, le calcul optique, les supra-conducteurs, resteront probablement des curiosités de laboratoire ou de quelques domaines limités. Seules, les mémoires assocaitives ou les hardwares flous offrent une alternative, à ce jour fort lointaine, maême au plan des purs concepts).

    
Plus loin que l'individu ordinateur, les systèmes informatiques s'organisent en espèces. S'engendrent les uns les autres au fil des générations. Et ce n'est pas par hasard que les grands systèmes portent la trace des concepts qui firent naître leurs parents à lampes ou leurs grands parents mécanographiques.
    
(Note, idem. C'est parce que les lois profondes de génération des espèces s'appliquent à lui comme aux phyla du cheval ou du primate).
    
Du point de vue épistémologique (c'est à dire quant à la connaissance que nous pouvons en avoir), l'informatique offre nombre de points communs avec la biologie. Et il se trouve qu'effectivemnet, l'épistémologie de cette dernière offre des approches qu'il est fort intéressant d'appliquer à l'informatique.
    
A partir de cet objet essentiel qu'est le vivant, la théorie peut s'orienter soit vers l'atomisme, avec la réduction progressive du complexe qu seimpple: de l'organisme à l'organe, de l'organe à la cellule, de la cellule à la molécule et à l'atome, soit vers les totalités: de l'individu à la famille, à la horde, à l'espèce, au genre, à la biosphère dans son ensemble. On lire, par exemple, "Biologie, théories du développement et dialectique", par Czeslaw Nowinski, dans le tome "Logique et connaissance scientifiqique" de l'Encyclopédie de La Pléïade.
    
C'est l'approche atomistique, et elle seule, que les mathématiciens proposent pour l'étude théorique de l'informatique. Le calcul binaire, le monoïde libre, les neurones de Mc Culloch montrent clairement la voie qui est choisie. Et, de
même que le biologiste se renfermera méthodiquement sur de petits problèmes, laissant loin en avant de lui l'approche du vivant dans son ensemble, de même Maurice Nivat insiste sur la différence de degré de complexité entre les systèmes réels et les objets actuels de l'algorithmique ou de la "sémantique formelle des langages de programmation".
    
Mais pourquoi ne pas reconnaître l'intérêt et la valeur théorique d'études totalisantes analogues aux classifications de la zoologie, à la génétique des systèmes et à leur écologie?
    
Nous y revienrons. Mais cette ouverture fait sentir la remarquable consistance de l'objet "système informatique". De même que l'improbable vivant a su progressivemnet se dégager du bouillon originel, jusqu'à affirmer sa maîtrise de plus en plus forte sur l'univers, de même l'ordinateur -mais ici sur un plan
différent puisqu'il est essentiellemnet un artefact- affirme sa permanence et poursuit son développement au fil des ans.
    
Et cette consistance, originale mais forte et certaine, fonde la spécificité de l'architecture informatique. Ni la recherche opérationnelle ni la cybernétique n'ont pu solidement fonder leur pérennité, parce que les structures sur quoi elles se fondaient (algorithmies, homéostases par feed-back) n'avient le degré suffisant de complexité et d'autonomie.
    
Les informaticiens n'ont donc pas à s'inquiéter pour leur avenir: le dynamisme et la volonté de vivre (tout en n'étant qu'induits par le dynamisme des sociétés humaines) des systèmes informatiques garantit pour longtemps encore la spécificité de leur rôle.