Interface/interaction homme machine

Notice mise en ligne à titre expérimental le 30 août 2004. Toutes critiques et corrections envoyées par courriel à la rédaction seront les bienvenues.

Tendances générales

Généralisation

Depuis les années 1990, avec la généralisation des ordinateurs sur les bureaux, la plupart des activités humaines se font en interaction avec une machine, qu'il s'agisse des loisirs aussi bien que du travail, industriel ou bureautique.

Comme les machines sont l'oeuvre de l'homme, et donc le produit d'une interaction de l'homme avec son oeuvre, d'une interaction homme-machine, on pourrait ranger dans ce chapitre la totalité /du dictionnaire des Stic. Nous nous limiterons aux aspects les plus "relationnels".

Nous procéderons du "bas niveau" (interactions physiques) vers le "haut niveau" (interactions entre les planifications de l'homme de la machine). Permettons-nous tout de même quelques notes historico-philosophiques.

Les IHM sont évidemment contemporaines de l'apparition des machines elles-mêmes. Celles-ci peuvent être considérées comme un certain stade de développement des outils (Voir concepts généraux). Quelques traits caractérisent plus précisément leur évolution historique.

Miniaturisation

La machine, à fonctionnalités égales, se miniaturise, alors que le corps humain ne change pas de dimensions, et même tend, lentement, à grandir. Cela a plusieurs conséquences pour les IHM.

Un même type de fonctionnalité de système occupe un volume plus faible, pèse de en moins lourd, consomme de moins en moins d'énergie. Il peut donc devenir portable, portatif, de poche... donc il allège progressivement les contraintes physiques qu'il imposait à l'utilisateur et en tous cas à l'interface.

Cette évolution est aussi vieille que l'outil. Leroi-Gourhan a noté l'évolution des silex taillés, en mesurant la longueur de mètre de tranchant par kilo de silex. Au début, la taille simpliste du silex oblige l'homme à demeurer à proximité de gisements faciles à exploiter. En améliorant ses technique de taille, il peut se déplacer, étendre le rayon de ses chasses, et de son habitat.

Au XXe siècle, c'est tout le charme des portatifs et autres PDA. Avec le problème que ces petites machines sont vulnérables aux chocs physiques comme aux prédateurs en tous genres.

Comme les dimensions du corps humain de changent pas, il faut exploiter au mieux les petits volumes et petites surfaces des portatifs, avec une ergonomie particulière, et parfois un peu déroutante sur des appareils compliquée comme les appareils de photo numériques, par exemple.

Dématérialisation

Les interfaces deviennent de moins en moins matérielles, de plus en plus logicielles, virtuelles.

L'effort physiques nécessaire à l'interaction se réduit. Sur les grosses machines du XIXe siècle, il fallait souvent de grands volants pour lancer les machines, de grandes "barres" pour conduire les navires. L'emploi des servo-moteurs permet de réduire ces forces autant qu'on veut, et finalement à les optimiser en fonction du besoin de l'utilisateur de "sentir" ce qu'il fait, par exemple sur les touches de son clavier ou, de manière plus élaborée, avec un "retour d'effort" (interfaces haptiques). Les première machines à écrire exigeaient, pour un emploi efficace, un entraînement qui comportait une musculation particulière de l'annulaire et du petit doigt de chaque main. On s'est cependant aperçu que l'efficacité de la main exigeait qu'elle rencontre un minimum de résistance, cette résistance étant parfois en relation (en proportion) avec l'effort demandé à la machine.

Les commandes se concentrent sur un poste de conduite, où l'opérateur est le plus souvent assis. L'IHM s'insère dans l'espace naturel d'action de l'homme, alors qu'auparavant c'est lui qui se déplaçait dans l'espace de la machine, tourner autour d'elle voire entrer à l'intérieur. "Les temps modernes" de Charlie Chaplin, ou "Metropolis" de Fritz Lang, en donnent des illustrations spectaculaires.

Non seulement les commandes se regroupent, mais elles s'intègrent fonctionnellement. La multiplication des boutons, manettes et cadrans physiques laisse place à un nombre réduit d'écrans d'affichage et de points d'entrée (souris). C'est le logiciel qui génère à l'écran les formes complexes de présentation et traduit finement les impulsions données par la main.

Outre l'élargissement des fonctionnalités possibles, de leur souplesse et de leur adaptabilité, cette évolution s'accompagne d'une baisse des coûts de fabrication, puisque le logiciel se reproduit et se transporte à coût virtuellement nul, alors que tout pièce matérielle doit faire l'objet d'un usinage puis d'une logistique aux coûts difficilement compressibles.

Une fois assurée une certaine stabilité de l'interaction matérielle, c'est donc par la suite au niveau des fonctions, voire des services, qu'il faudra s'intéresser surtout dans l'organisation de l'IHM.

Fusion et intégration des interfaces

Avec les outils et les machines traditionnelles (typiquement celles de la révolution industrielle jusqu'au milieu du XXe siècle), l"interaction avec la machine n'est pas localisée dans une interface. La machine est ouverte sur l'extérieur. L'ouvrier se déplace autour d'elle et intervient en de multiples points, pour effectuer un réglage, débloquer un mécanisme, graisser un rouage... quand ce n'est pas pour donner un coup de pouce "énergétique". Ce mode de relation n'est pas fondamentalement changé par l'apport d'énergies extérieures (roue du moulin, machine à vapeur, moteur électrique général).

En revanche, la miniaturisation et la multiplication des moteurs (et autres actionneurs) électriques change radicalement la donne, puisqu'il devient facile et évidemment pratique de concentrer les commandes sur un panneau regroupant les interrupteurs de commande, les réglages de vitesse et puissante (et, symétriquement, la fourniture d'informations sous forme de voyants et cadrans). L'interface se matérialise donc et se perfectionne.

Les machines de traitement de l'information conduisent logiquement à une intégration dont l'importance sera explicitée par Von Neumann. En effet, à la différence des machines traitant des produits matériels, il n'y a plus ici de différence physique entre des informations à traiter et les ordres de commande. Et cette intégration est encore facilitée par la digitalisation allant jusqu'au binaire, puisque tout se résout alors en bits, depuis la commande marche/arrêt jusqu'aux processus les plus fins à haute résolution et à haute fréquence.

En 2004, l'interface type, pour toutes les machines, devient l'écran d'ordinateur avec son clavier et sa souris. N'échappent à ce modèle que des dispositifs relativement simples ou physiquement trop petits : téléphones portables, électroménager. Au prix, bien souvent, d'une grande difficulté d'utilisation, comme on le voit avec les magnétoscopes et lecteurs-enregistreurs de DVD, dès que l'on veut effectuer autre chose qu'une simple lecture de cassette.

Interaction à distance

L'augmentation du débit des lignes de télécommunication et la baisse des coûts quelles que soient les distances, libère elle aussi les interactions de contraintes géographiques. En revanche, elles obligent à reconstituer une "téléprésence" permettant une action efficace et sans risques.

Noter qu'il y a des délais de transmission incompressibles, car les signaux ne vont jamais plus vite que la lumière, soit 300 000 kilomètres par seconde. Ces délais ne sont pas négligeables quand les lignes sont longues, en particulier avec les transmissions par satellites géostationnaires, où le délai ne peut descendre en dessous d'un tiers de seconde, quel que soit le débit de la ligne.

Cette distanciation crée des dangers, en faisant perdre le contact direct entre l'homme et les processus qu'il pilote. On a pu entendre des enseignants en agriculture s'en plaindre et regretter le temps où les élèves étaient plus près du "cul des vaches". Dans certaines usines chimiques, on a préféré longtemps conserver quelques dispositifs primitifs, qui obligeaient les opérateurs à circuler dans l'unité pour les faire fonctionner au lieu de rester toujours dans la salle de contrôle.

Digitalisation

Les interfaces deviennent de plus en plus digitales. Dans un premier temps, cela se traduit pour l'utilisateur par un remplacement des affichages "continus" par des chiffres. Le cadran fait place à l' "afficheur". D'abord des chiffres dessinés matériellement (sur des rouleaux, puis par de petits tubes au néon), puis des chiffres représentés par des matrices de points, qui permettent bientôt un élargissement du nombre de symboles et conduisent au texte.

Dans un deuxième temps, grâce aux capacités des écrans et des logiciels graphiques (GUI ,Graphic user interfaces), les présentations "analogiques" refont leur apparition. L'iconisation de certains types d'information, par un dessin "réaliste" des anciens instruments (cadrans, système de niveau des avions, "zapette" de la télévision), souvent aussi avec la création de formes originales (curseurs, formats de groupage), mais avec une créativité relativement modeste. De l'analogique, on est passé au métaphorique.

Saturation du champ sensori-moteur

Les IHM tendent à investir la totalité du champ sensori-moteur de l'utilisateur, mais en pratique ne dépassent pas une certaine limite de saturation, pour des raisons tant de coût que de psychologie.

Vers 1985, on parlait beaucoup de réalité virtuelle, et l'on imaginait que les casques, gants (data glove) voire les combinaisons complètes allaient se répandre grâce à une industrialisation qui déboucherait sur des produits bon marché. On en a d'ailleurs vu apparaître dans le commerce (surtout le monde des jeux).

Mais la fabrication de ces systèmes était coûteuse. Plus encore, leurs exigences en puissance de calcul étaient excessives. En particulier, l'emploi d'un casque exige le re-calcul de l'intégralité de l'image présentée au moindre mouvement de tête.

Enfin, l'immersion totale met l'utilisateur mal à l'aise. Il souffre d'un effet de nausée dès que les mouvements présentés par les écrans du casque ne sont plus en relation normale avec la perception des mouvements du corps par la cénesthésie, ici principalement par l'oreille interne.

Pour ces raisons, au cours des années 1990, les systèmes à immersion totale ont fait la place à des environnements plus modestes, se limitant à une bonne présentation du relief sur un écran classique de micro-ordinateur et à une bonne sonorisation. Il suffit de voir des utilisateurs engagés dans une bonne partie, ou dans un travail prenant, pour se convaincre qu'ils sont déjà suffisamment (sinon trop, parfois) "immergés". Les neurosciences nous montrent peu à peu à quel point les différents organes de nos sens ne sont de toutes façons que la partie externe d'un système perceptif complexe. Il est donc normal que nous puissions nous sentir complètement (voire "naturellement") intégrés à un espace virtuel artificiel, tout en continuant à gérer nos relations avec notre environnement matériel (siège, local, environnement) grâce à la vision périphérique, à la cénesthésie, etc.

Epaisseur et transparence

La médiatisation apportée par la machine entre l'homme et le monde, entre l'homme sa tâche, devient à la fois plus épaisse et plus transparente, naturelle, "intuitive". Il y a là une contradiction, mais plus apparente que réelle. Dans une "génération" donnée de machines, le progrès se fait par enrichissement progressif des fonctions (fonctionnalités, si l'on préfère) offertes aux utilisateurs. Il a de plus en plus de choix, aussi bien dans la diversité des fonctions que dans la finesse de leur réglages, de leur paramétrage. Vient un moment où la présentation même de ces choix, le langage proposé pour les déterminer, les communiquer à la machine, devient trop lourd, trop fatigant, crée une charge mentale trop élevée, induit des erreurs, des sous-utilisations, voire un rejet.

Il y a alors deux types de voies de dépassement de cette saturation :
- Simplifier le travail de l'utilisateur en lui présentant un sous-ensemble standard de fonctions et de valeurs des paramètres. Ce réglage suffit au début, et l'utilisateur ne le modifie que quand il se sent assez aguerri pour le "personnaliser". On lui propose, parfois, une simple touche pour revenir au paramétrage standard. (On trouve déjà des recommandations de ce type dans l'ouvrage d'Oehmichen).
- Confier une partie de la tâche à des automates qui prennent les décisions à la place de l'utilisateur ; il faut ici être prudent car l'excès devient de "prévenance" (si l'on peut dire) devient vite agaçant.

La puissance de ces fonctions de médiation crée une sorte de malaise, ressenti comme une opacité par l'utilisateur. On la combat par un effort de transparence. Mais le mot peut prendre deux sens bien différents :
- le système ne masque pas le monde de la tâche, de l'action ; il le présente sous une forme semblable au résultat qui sera obtenu (wysiwyg, what you see is what you get) ;
- le système laisse voir "son intérieur", ou du moins dans quel état il est, grâce à des barres d'état, de tâches, des informations de diagnostic, etc.

Si l'on va au fond des choses, on voit que l'utilisateur, cherche, idéalement, deux types de fusion aussi parfaite que possible avec la machine.

La première est celle où la machine fait corps avec lui ; une prothèse, comme un organe biologique, remplit parfaitement sa fonction quand il fonctionne si bien, ou que l'utilisateur s'y est si bien adapté, qu'il ne le perçoit plus : le foie, les lunettes...

La deuxième est celle où la machine lui apparaît comme un autre lui-même, à qui il a tellement bien délégué les fonctions qu'il en est complètement libéré. Plus les machines deviennent complexes (pour éviter ici le mot d'intelligence), plus les interactions avec elle se font de pair à pair. La machine progresse en automaticité, en autonomie. On passe, note Philippe Codognet, d'une interaction de maîtrise à une interaction de coopération.

Les machines les plus récentes (robots réalisés ou en projet à partir du XXeme siècle, voir par exemple l'interview de Malik Ghallab dans Asti Hebdo), ont des architectures d'action à plusieurs de niveaux, depuis les boucles réflexes jusqu'aux stratégies en passant par les comportements. L'interaction homme-machine en tient compte, et fonctionne elle aussi à ces différents niveaux. Cela joue relativement peu pour la partie matérielle de l'interface qui elle, en quelque sorte, est toujours au plus bas niveau. En revanche, cela joue fortement sur le logiciel.

Stabilité et normalisation

Pour que les utilisateurs n'aient pas à apprendre, chaque machine, l'ensemble des actions possibles et la manière de les obtenir, s'imposent des standards d'interface, qui manifestent une grande stabilité au fil des générations de machine, tant pour des raisons de réduction des coûts de fabrication pour ne pas avoir à reprendre des habitudes acquises. Les standards de clavier en sont l'exemple le plus marquant. (Voir notice).

Marcel Soberman (in Les grilles informatiques, Hermès/Lavoisier 2003) note : "L'interface homme-machine est de plus en plus réalisée à partir de navigateurs comme Internet explorer, Netscape et Mozilla, opérant sur des PC. Ceci facilite le développement des applications et l'indépendance vis-à-vis des nœuds sur lesquels celles-ci s'exécutent".

Besoin, devoir, plaisir

Enfin, l'élévation générale (globalement) du niveau de vie réduit peu à peu les contraintes sur l'IHM venant des besoins ou des devoir, pour remonter les niveaux de la pyramide de Maslow et pour privilégier les suggestions du désir. L'esthétique industrielle en a ouvert la voie. L'intégration de quelques jeux à Windows a montré une autre orientation. A terme, outre l'importance des jeux dans le marché des Stic, il faut voir aussi celle des "robots de compagnie", pour l'instant (début des années 2000) intéressant presque exclusivement les Japonais, pour des raisons notamment culturelles.

Dispositifs élémentaires

Les dispositifs élémentaires sont nombreux, et se perfectionnent. Nous supposerons ici que l'unité centrale dispose des pilotes et plus généralement du logiciel ad hoc.

Les dispositifs élémentaires sont asymétriques, ils vont de l'humain vers la machine, ou l'inverse. Spécialisés, ils sont, par nature, de dimensions géométriques et de paramètres énergétiques compatibles avec celles de l'être humain. Nous verrons plus loin qu'il n'en est pas de même des "ensembles". On n'emploie pas en général, le terme de capteurs ni d'actionneurs (voir notice sur ces mots) pour les dispositifs appartenant à l'IHM, bien qu'ils n'en soient qu'un cas particulier.

Commençons par les plus classiques, et qui s'adressent à un individu humain (Nous traiterons plus loin des interfaces de groupe). . Et d'abord la boucle main-oeil, qui domine pour au moins une bonne raison, c'est que ces organes humains sont à la fois les plus divers dans leurs aptitudes et les plus précis dans les paramètres qu'ils peuvent transmettre. Ils sont donc ceux qui peuvent assurer les plus grands flux d'information (en termes shannoniens).

De la main vers la machine

On peut ranger les dispositifs en ordre de croissance de "puissance informationnelle", c'est à dire de nombre de bits transmis par action élémentaire.

1. Un bit. Nous trouvons ici tous les "boutons" traditionnels, qu'il faut presser, ou faire passer d'une position à une autre (ouvert/fermé). On peut y inclure la "bobinette" du Petit chaperon rouge, qui fait choir la chevillette.. Bien que peu sophistiqué en lui-même, le simple bouton a été employé pour transmettre des textes entiers, à l'époque du manipulateur Morse, employé pour la transmission de textes de 1850 à 1970. Cas particulier : le bouton de panique (un gros bouton rouge) des systèmes industriels/

La liaison avec le système digital est des plus faciles, puisqu'un bouton est binaire par construction, et n'a donc ouvrir ou fermer un circuit électrique, n'exigeant donc aucune conversion.

2. Une variable "continue". C'est le bouton à tourner, le curseur linéaire, le volant de type automobile, les pédales et leviers de puissance des moteurs d'avion comme des régies de TV, les petits boutons des boîtiers de télécommande de modèles réduits. Un manche à balai, ou joystick, combine souvent deux variables à partir d'une même poignée. On trouve parfois deux boutons rotatifs concentriques (un pour la position approximative, l'autre pour un réglage fin), sur d'anciens appareils de radio ou des oscilloscopes.

Ici, la liaison avec un système digital exige une conversion. La méthode la plus simple consiste à contrôler un potentiomètre circulaire ou linéaire, et d'en déduire une tension continue que l'on convertit. On trouve aussi des conversions par lecture optique d'un disque ou d'une réglette portant des marques digitales.

3. Un code digital choisi dans un alphabet. C'est le clavier de machine à écrire, le clavier Braille, d'instrument de musique (en général de type piano, variante de type instrument à vent chez Akai), ou plus simplement les volants crantés, voire des leviers de changement de vitesse. Il existe de nombreuses variantes de clavier, y compris pour les enfants très jeunes. Variante en forme de boule. Les claviers musicaux haut de gamme, après 1980, incorporent une mesure de la puissance de frappe (vélocité). Voir l'article "clavier".

4. Une série de bits par positionnement sur une matrice à une, deux (cas le plus fréquent) voire trois dimensions. Les technologies sont nombreuses. souris (la plus courante depuis la fin du XXeme siècle; elle peut être 3D), la tablette graphique, la boule, le "clitostick" et surfaces à glisser des ordinateurs portatifs, l'écran tactile, l'écran à stylet des PDA, plus anciennement (de la fin des années 60 au milieu des années 80) le photostyle.

5. Cas plus élaborés :
- quelques commandes groupées en forme de manche à balai
- combinaison avec une capteur (cellule photoélectrique, caméra, lecteur infrarouge), armes de certains jeux (combinant une visualisation spécifique, le repérage de la position de l'arme et en particulier le fait qu'elle pointe ou non sur la cible, et un dispositif d'action (gâchette)), douchette de codes à barres, caméra tenue à la main.
- partie "capteur" des systèmes de réalité virtuelle
- mouvements de la main prolongée par une clé, ticket, badge,
- bruit fait avec la main (claquement), mais cela relève plutôt du jeu.  

Sur les PDA, un écran sensitif permet de communiquer avec la machine par écriture « naturelle ». reconnaissance du geste quand on écrit sur l’écran.

N'oublions pas le papier. La reconnaissance optique de caractères et plus généralement tous les systèmes de vision par la machine sont relativement peu performants et manquent de fiabilité. Cependant, dans de nombreux cas, l’écriture sur papier  peut être performante, par exemple avec le graphitage de documents "aller retour", l'écriture sur les chèques et titres de paiement. Ou des solutions spécifiques comme celles signalées par Wendy Mackay. Et, vers les années 1970, la perforation manuelle de cartes "préperforées"¨

De la bouche vers la machine

Sauf pour quelques cas particulier, la bouche ne sert, dans l'interaction homme-machine, que comme moyen d'entrer des sons, que la machine reçoit par un micro. Il n'y aurait rien de particulièrement difficile à rendre la machine sensible aux bisous... mais à notre connaissance personne n'a encore développé ce type de fonctionnalité (sauf peut-être les fabricants japonais, qui progressent rapidement dans ce genre de produits).

Le micro peut être incorporé au poste de travail, posé sur une table ou un pied, tenu à la main, attaché à une cravate, intégré à un casque (opérateur téléphonique, réalité virtuelle).

Si le système dispose d'un logiciel de reconnaissance vocale, le son peut être utilisé comme véhicule du langage. Sinon, ou bien on se contente d'exploiter quelques signaux élémentaires, par exemple des "tops", ou bien on n'utilise le système que pour stocker des fichiers sonores.

Cas particuliers :
- handicapés, qui peuvent tenir un stylet à la bouche pour actionner des boutons ou un clavier
- capteurs de pression pour indiquer la puissance du souffle : instruments à vent Akai, créations artistiques d'Edmond Couchot
- alcoomètre, spiromètre et autres analyses de type médical.

D'une manière générale, la communication à la voix est difficile à mettre en oeuvre et a trouvé peu d'applications, bien que des dispositifs électroniques d'un prix abordable soient disponibles depuis les années 1960.

Du reste du corps vers la machine

Les autres dispositifs sont plus rares, ou réservés à des usages spécialisés.

Les commandes au pied sont utilisées pour la conduite (réelle ou simulée) de véhicules terrestres ou aériens (pédales, palonniers), et pour certains instruments de musique (pédale de grosse caisse, pédales d'effet, pédaliers d'orgues ou de synthétiseurs) ; sur certains harmoniums, il existe une commande au genou.

En réalité virtuelle, le casque et la combinaison ne sont pas seulement des canaux de présentation à l'humain du monde géré par la machine. Ils sont aussi des capteurs d'information pour la machine : la position de la tête, par exemple, est une information indispensable pour l'affichage.

Parmi les autres capteurs notons :
- capteurs de mesures classiques posés ou collés sur le corps : thermomètre, voltmètre (connu pour son utilisation psychologique par les scientologues), humidité (pour les détecteurs de mensonge), accéléromètres,
- capteurs bio-médicaux (ECG, EEG, tension artérielle), pour le monitoring médical, voire pour la méditation transcendantale (capteurs d'ondes alpha).

La machine peut aussi observer l'utilisateur (ou d'autres personnes) au moyen de cellules photoélectriques, caméras ordinaires ou infrarouge, détecteurs de mouvements d'air, radars, ultrasons, IRM. L'interprétation des images peut être facilité par des marques sur le corps ou les vêtements (travaux notamment à l'université de Valenciennes). Cas particulier : suivi des mouvements de l'oeil par une petite caméra fixée sur un casque (eye tracking). Pour les films d'animation, on colle un ensemble de capteurs sur différents points du visage, et le système transpose les expressions de l'utilisateur dans un présentation animée d'un visage de synthèse. D'une manière générale, toute l'instrumentation médicale tend à se connecter à un système d'information.

Les capteurs biométriques sont utilisés surtout en sécurité : empreintes digitales, image de l'iris, son de la voix, voire signature ADN.

Les capteurs trop "présents", perçus comme agressifs ou objectivement contraignants ne peuvent s'employer que dans des environnements médicaux, expérimentaux ou, à la limite, coercitifs (bracelet de prisonniers).

Enfin, les capteurs et actionneurs peuvent être multiples et répartis dans une "combinaison" globale. Les recherches sont avancées en particulier pour la tenue de combat des fantassins.

D'un groupe vers la machine

Quelques capteurs peuvent saisir des caractéristiques globales d'un groupe. Un applaudimètre, par exemple (ce n'est qu'un micro), une détecteur de fumée, un analyse global de mouvements (caméra, radar).

Plus précisément, on a vu fonctionner (au moins dans quelques congrès aux Etats-Unis), un outil de synthèse des réactions d'un auditoire. Chacun dispose d'un panneau de plastique réfléchissant, vert d'un côté, rouge de l'autre. En présentant une face ou l'autre à la scène, on envoie à une caméra un petit signal qui donne une image de la salle, et qui peut être utilisée pour un vote, par exemple.

De la machine vers l'œil de l'utilisateur

Au début, les machines étaient ouvertes, elles montraient leurs tripes au soleil. Des entrailles qui n'étaient pas trop compliquées, d'ailleurs, quoique parfois un peu magiques (fours). Puis elles se sont fermées, pour se protéger. Elles sont devenues plus abstraites, aussi. Il a donc fallu expliciter des indicateurs à l'intention de l'utilisateur.

Pour bien comprendre ces dispositifs et leur utilisation, il faut garder à l'esprit que l'œil et le système nerveux qui conduit les images à notre conscience, est d'une très grande complexité. Voir à ce sujet notamment les travaux d'Alain Berthoz et de son équipe.

Comme pour les dispositifs destinés à la main, on peut les classer selon leur puissance (en bits/seconde). Mais il y a une différence. Des signaux qui vont vers la machine, pour les systèmes informatisés d'aujourd'hui, doivent toujours être digitalisés. En sens inverse, on peut présenter aux humains des informations sous forme aussi bien analogique que digitale, quelle que soit la source elle-même. Un tableau de bord automobile, par exemple, combine les deux modes : la vitesse de déplacement du véhicule et de rotation du moteur s'expriment mieux en analogique, et surtout leurs variations, lentes ou brutales. Alors que le kilométrage parcouru est toujours donné sous forme numérique.

A un bit, ce peut être un voyant mécanique (comme ceux qui indiquent que les toilettes sont occupées, par exemple), électromécanique, et plus souvent une lampe.

Un paramètre continu était, traditionnellement, présenté sur un cadran (du terme mathématique, quart de cercle). L'aiguille peut être remplacée par un spot lumineux, dévié par un miroir, par exemple. C'est l'humain qui digitalise ensuite, si nécessaire, aidé par une graduation.

Une curiosité ancienne : le Vu-mètre des postes de radio à lampes, et qui indiquait par une bande plus ou moins large la puissance du signal reçu sur la fréquence choisie. Ou les indicateurs de température par la couleur d'un filament.

Un paramètre numérique (et plus précisément, digital) est fourni par l'écriture de chiffres. S'il y a quelques caractères seulement, voire une ou deux lignes, on parle d'afficheur.

Mais la puissance et la variété des représentations permises par les écrans leur assurent une place de plus en plus large. Des débuts (fin des années 1960) jusqu'aux années 1990, il s'agissait de tubes cathodiques (CRT), de plus en plus supplantés ensuite par des écrans plats. Dans les tout débuts, l'affichage était "cavalier". Le faisceau d'électrons était dévié de manière analogique par deux tensions en abscisse et en ordonnées. On obtenait ainsi, par exemple les images des oscilloscopes ou des radars. En perfectionnant le dispositif de contrôle de ces tensions, on a pu utiliser l'affichage cavalier pour représenter des formes géométriques, voire du texte. Cependant le mode matriciel (raster) s'est lui aussi progressivement imposé, à partir des années 1990.

On peut aussi mettre l'information devant les yeux des utilisateurs par réflexion sur des lunettes spéciales, intégrées à un casque (réalité virtuelle), ou sur la visière de casques d'aviateurs. Dans les véhicules, au lieu d'afficher l'information sur le tableau de bord, on peut la faire réfléchir sur le cockpit (HUD): head up display). En 2003, ce mode commence à être proposé sur les automobiles.

Enfin, pour les groupes, on utilisait autrefois des tableaux synoptiques (centres de régulation des transports, salles de conduite d'unités industrielles). Les murs d'images (par juxtaposition d'écrans cathodiques) et les dispositifs de projection les remplacent aujourd'hui à moindre coût et avec une capacité beaucoup plus grande d'évolution.

On a d'abord eu la lanterne magique (XVIe siècle), l'épidiascope (pour la projection de documents opaques, XIXe), le projecteur de cinéma (XIXe) , le projecteur de diapositives (années 1960), le rétroprojecteur avec ses transparents (ou slides, années 1970), aujourd'hui c'est le projecteur "vidéo" qui tend à prendre toute la place (fin des années 1990 pour une utilisation relativement courante).

Depuis les années 1980, la présentation graphique permet une transposition sur l'écran d'un certain nombre de dispositifs jusque là matériellement séparés. Les boutons matériels deviennent des "contrôles" à l'écran, que l'utilisateur actionne par le clavier et la souris.

Quant au relief (ou "3D"), les solutions techniques, par exemple les lunettes à verres polarisants. Les applications ne se sont guère développées, sans doute pour les mêmes raisons que la réalité virtuelle : pour peu que l'image 2D soit correctement construite (perspective), notre cerveau reconstitue assez aisément la troisième.

Pour certaines applications, c'est la réalisation matérielle en relief qui est intéressante, avec le "prototypage rapide", c'est à dire la réalisation d'un modèle en plastique de l'objet à étudier (CAO de pièces mécaniques, par exemple).

Enfin, le papier a été depuis toujours, et restera encore longtemps un mode essentiel de communication aux humains de données internes à la machine. Dès le XIXe siècle, les appareils "enregistreurs", avec leurs suffixe  -graphe, se multiplient. Dans ce cas, le papier sert à la fois d'affichage pour l'œil et de mémoire de données, au moins de deux façons :
- enregistrement de l'évolution d'un phénomène, soit parce qu'il est trop rapide pour que l'œil interprète directement le signal (électrocardiogramme), soit parce que l'on s'intéresse à des évolutions relativement longues, et qu'il est donc utile de les mémoriser indépendamment de la présence d'un utilisateur (par exemple barographe pour la pression atmosphérique),
- conservation à long terme (archivage).

Contrairement à ce que beaucoup (moi-même y compris) pensaient dans les années 1970-80, l'écran n'a pas (loin s'en faut) fait disparaître le papier. Certains emplois ont pratiquement disparu, par exemple les gros "listings" de donnée ou de programmes qui remplissaient armoires et greniers. D'autres, en particulier les livres et les magazines, semblent au contraire trouver une nouvelle dynamique dans la réduction des coûts et la facilité de mise en oeuvre des techniques d'impression. Cela s'explique en partie par les limites actuelle des écrans : relativement peu confortables pour l'œil et, malgré les écrans plats, substantiellement plus lourds et encombrants qu'une feuille de papier. Enfin, dans certaines limites, le papier reste un excellent moyen d'archivage à long terme.

Il est vraisemblable que l'on ira vers une convergence du papier et de l'écran. D'une part avec des écrans de plus en plus plats, légers et souples. D'autre part avec des papiers "réimprimables".

De la machine vers l'oreille des utilisateurs (et le reste du corps)

D'un point de vue informationnel, l'essentiel se résume à l'émission de sons. Dans les temps anciens, cette émission se faisait à partir d'instruments divers, mécaniques (gongs, cloches, instrumente de musique "acoustiques", gramophones), à vapeur (sirènes), électromécanique (buzzers).

Progressivement, au cours des trente dernières années du XXeme siècle, tous ces dispositifs ont été remplacés par des moyens électroniques et l'émission faite à partir d'écouteurs ou de hauts-parleurs. Les autres moyens ont un caractère strictement artistique (musique) ou traditionnel (cloches).

Ces dispositifs peuvent être des plus simples aux plus sophistiques (début du XXIeme siècle, typiquement, le home cinéma).

Les autres canaux ont un caractère surtout marginal : génération de vent pour accroître le réalisme en réalité virtuelle, émission d'odeurs, d'infrasons, sièges ou cabines mises en mouvement par des systèmes à six vérins (cabines de cinéma mobiles, simulateurs d'avions, de véhicule, simulateur de cheval de selle).

On devrait voir se diffuser, en particulier pour les handicapés, le recours à des dispositifs implantés directement sur le système nerveux.

Cas particulier : monitoring médical, machines de massage, chirurgie, exosquelette.

Dispositifs de communication à distance

L'interaction peut se faire
- en contact direct,
- à courte distance : télécommande des postes de TV,
- à grande distance (radio, télévision, télécommande, téléchirurgie...), moyennant des lignes adaptées.

Dispositifs physiques de protection

Il faut citer l'environnement plus global de l'interaction homme machine (supports divers, locaux), et en particulier l'ensemble des moyens de protection du système contre les maladresses (tasse de café, choc) ou les malveillances. Citons : murs, armoires, clés, blindages, grillages, carters...

Systèmes


La dimension physique (leur format, ou facteur de forme) des machines, en tant qu'entités autonomes et complètes (à la différence des périphériques de dialogue, adaptés par construction) est importante pour leur mode d'interaction avec les humains.

En sens inverse, les dimensions physiques des humains se situent dans des intervalles relativement restreints. Il serait peut-être intéressant d'analyser les différences d'interaction que peuvent avoir une personne très grande, ou très petite (par rapport à la moyenne). 

Nous procéderons des plus petites aux plus grandes. A tous les niveaux les machines peuvent être "en face" de l'homme, ou concentriques. Cette distinction correspond à la fois à une disposition physique et à une relation psychologique.

Dans la  relation "concentrique";  si la machine est petite, elle est à l'intérieur (implant) , ou au contact de l'humain (prothèse). Si elle est plus grande, l'humain est à l'intérieur (exosquelette, cabine, poste de pilotage). Après une phase d'accoutumance, la machine est vécue inconsciemment, comme un organe ou comme une extension du corps propre.

Dans la relation "face à face". La machine est toujours à l'extérieur de l'homme, et perçue comme une autre entité, comme un partenaire, un alter-ego.

Cependant la souplesse du psychisme humain est telle qu'il peut toujours, dans une certaine mesure, considérer une partie de lui-même comme détachée de lui, ou, symétriquement, se projeter psychologiquement au cœur d'une machine externe, faire corps avec elle.

Nano-machine

Les plus petites machines ne sont même pas perceptibles par nos yeux, encore moins accessibles à nos doigts. Elles ne peuvent donc qu'être des composants de machines plus grosses (ou en interaction par l'intermédiaire de  machines plus grosses, à notre échelle)... ou être implantées dans le corps de l'utilisateur humain lui-même.

On trouve des exemples du premier cas dans la science-fiction, surtout le remarquable "Age de diamant" de Neal Stephenson. L'interaction ne peut pas être directe. Stephenson ne s'étend pas sur ce point.

Quant aux implants, ils ont eux aussi largement inspiré la science-fiction. Au début du XXIeme siècle, ils ne sont plus rares, au moins pour des produits simples comme les stimulateurs cardiaques. Des expériences vont beaucoup plus loin, à l'intention des handicapés sensoriels (rétine artificielle, sans doute prothèses auditives) ou moteurs (essai d'implant pour la commande des membres inférieurs). . La recherche doit respecter l'intégrité du corps humain et les répugnances de l'opinion à tout ce qui y porte atteinte. Peu à peu, les progrès dans la fiabilité des machines et la connaissance des bonnes méthodes à employer devraient en augmenter la diffusion, qui dépendra pour une large part de l'évolution plus ou moins favorable ou défavorables des mentalités.

Ici, l'interaction ne peut être efficace que si elle devient inconsciente, intuitive, comme un prolongement de l'organisme. Pour des machines comme le circuit moteur des paraplégiques ou la rétine artificielle, ils se placent au niveau neural, avec des niveaux d'énergie très faibles dans les deux sens. D'ailleurs, pour tout implant, la consommation doit être très faible, du moins tant qu'on ne saura pas prélever d'énergie à partir de l'organisme comme le font les organes naturels.

Prothèse et machines portée

Plus volumineuse, la prothèse peut être discrète et petite, pour se placer dans l'oreille ou, plus importante, se placer au contact du corps humain, pour remplacer par exemple un membre amputé. Ce type de machine, souvent, n'est pas vraiment autonome. On pourrait plutôt le considérer comme un périphérique de l'organisme biologique.

Pour la prothèse, l'interaction peut éventuellement exploiter une énergie corporelle non négligeable. En outre, comme elle est extérieur au corps,
- il est facile de changer les piles
- l'interaction peut se faire par les canaux sensori-moteurs normaux, le rattachement au cops n'ayant qu'une fonction pratiquement mécanique Cependant la dimension en général petite ne permet d'offrir à l'interaction explique que quelques boutons, à presser ou tourner, au mieux un petit cran.

On peut traiter comme des prothèses les bracelets (bracelet montre, walkman sanglé sur le bras, bracelet de prisonnier), les lunettes... La différence avec les machines "portables" venant d'un rattachement plus étroit au corps, autre qu'une "prise en main".

A la limite, la prothèse devient englobante. C'est l'équipement élaboré du "robot-soldat", ou les systèmes intégrés aux vêtements qui commencent à être commercialisés par certains couturiers haut de gamme.

Matériel de poche

La gamme des matériels de poche s'agrandit tous les jours, soit par la création de nouveaux appareils, soit par la digitalisation ou l'intelligence apportée à des instruments classiques. Citons :
- jumelles (optiques, nocturnes, radar), lunettes, appareils de photos et caméras/caméscopes
- téléphones portables, et leurs étuis, dont les fonctionnalités s'enrichissent rapidement au début du XXIe siècle, en particulier pour la transmission d'images,
- ordinateurs portatifs, de poche, "palm",
- postes de radio, walkmans, téléviseurs portables
- consoles de jeux

A ce niveau, il devient possible d'offrir à l'utilisateur un clavier et un écran (petit, éventuellement tactile) et un clavier (réduit), donc un dialogue complet (conscient, explicite) mais limité. Plus le processeur est puissant, plus cette interface physiquement limitée peut être utilisée "intelligemment". En outre, sous réserve d'implanter les logiciels et d'avoir un processeur suffisamment puissant, on pourrait aussi dialoguer en mode vocal.

Ces postes sont aujourd'hui parmi les plus diffusés, et représentent un volume d'affaires du même ordre ou plus grand que celui de l'informatique traditionnelle, d'autant plus qu'ils nourrissent des marchés de compléments (logiciels) et de services (notamment de télécommunications).

La tendance est à la polyvalence : le téléphone devient appareil de photo, par exemple. On peut même imprimer, pour les machines de paiement, par exemple.

En même temps, les appareils portables se multiplient, ce qui pose le problème de la cohérence des services qu'ils offrent (voir l'interview de Ganascia)

En outre, ces matériels ne sont pas toujours monolithiques. Les appareils de photo haut de gamme ont montré, à partir des années 60, surtout avec l'arrivée des reflex mono-objectifs, leur capacité à devenir de véritables "systèmes" : objectifs interchangeables, flash, télécommande, filtres, pieds, motorisation...

Portatif et portable

Y a-t-il une différence nette entre portatif et portable ? Portatif serait plus petit ... mais comme on emploie cet adjectif pour les téléphones, plus petits que les ordinateurs de poche, il ne peut s'agir que de nuances, voire de contexte.

D'une manière générale, il s'agit ici de versions allégées, mobiles, de postes fixes. . Leur usage normal, en tous cas s'il est intensif ou prolongé) implique qu'on puisse les poser (au moins sur les genoux) et les brancher sur une prise électrique.

Les fonctionnalités sont semblables à celles des postes de bureau , avec (pas toujours) quelques limitations sur les dimensions de l'interface, la puissance de calcul, la capacité de mémoire, les périphériques. En matière de télécommunications, cela dépend surtout des prises que l'on peut trouver, car les postes par eux-même sont susceptibles de haut débit.

Ils ont quelques défauts par rapport aux postes fixes A performances égales, un de leurs inconvénients est leur coût, de l'ordre du double (en 2003) de celui des machines fixes. Ils sont aussi plus vulnérables aux chocs physiques et aux risques de perte et de vol. Ce qui conduit à en proposer des versions plus ou moins "durcies".

En revanche, ils consomment moins et sont plus silencieux, car ils se passent de ventilateurs. Ils n'encombrent pas l'espace (ce qui est intéressant à domicile en particulier), ils permettent la continuité des interactions bureau/domicile/déplacements d'affaires ou de loisir. Certains peuvent, d'un seul geste de l'utilisateur, se placer sur un socle installé au bureau, avec un ensemble de fonctions qui assure alors aussi bien le rechargement de la pile que les connexions réseau et la mise à jour réciproque des données et programmes.

Principaux types à signaler :
- le micro-ordinateur ; rappelons que les premiers "micros" (fin des années 1970, début des années 1980 étaient portables, se contenant d'un afficheur ou d'un écran réduit ;
- machines de jeux (nécessitant en général un téléviseur) ;
- terminal de paiement électronique.

Poste et station de travail, caisse, guichet

A ce niveau dimensionnel, les solutions "concentriques" ne sont pas possibles (sauf peut-être cas extrêmes de prothèses). Le "poste" (de radio, de télévision, de téléphone, l'ordinateur) voire la "station" (un peu plus imposante) se pose "en face" de l'utilisateur.

En matière de Stic, à partir de 1990 et jusqu'à 1005 environ, c'est l'ordinateur "de bureau" qui fait référence, avec son écran (volumineux, en couleurs), son clavier (étendu), sa souris, parfois ses petites enceintes pour le son (à domicile plus souvent qu'au bureau), ses lecteurs de supports (disquettes, puis CD, puis DVD). Ce poste type apparaît à la convergence de deux lignées de machines, toutes deux prenant leurs racines, bien distinctes, au XIXeme siècle :
- le terminal, venu du télégraphe et s'intégrant très tôt dans le XXeme siècle la machine à écrire, puis se dotant d'un écran à partir des années 1980 ;
- la machine à calculer, exploitant la mécanique jusqu'à ses limites (les prolongeant jusqu'aux années 1970), puis l'électronique sous des formes de plus en plus miniaturisées et complexes, et devenant enfin le micro-ordinateur à partir du milieu des années 1970.

Mais, parallèlement, le poste téléphonique, le poste de radio puis de télévision (et la "chaîne hi-fi") se sont développés, largement répandus, ont élargi ses capacités, s'est muni d'une "péritéléphonie", d'une "péritélévision". Au début des années 1980, plusieurs types de machine électroniques comportaient un boîtier relativement léger et le téléviseur devait leur servir de dispositif d'affichage (accessoirement, de sortie sonore) : machines de jeux, postes minitel, micro-ordinateurs. Cette solution s'est marginalisée, par la baisse des coûts de fabrication, par l'inconvénient de mobiliser le téléviseur familial pour d'autres activités, et par le fait que le téléviseur traditionnel (non "numérique") n'était pas techniquement une solution appropriée à l'affichage de l'informatique graphique.

Vers 2000, on tendait à opposer deux familles de "postes", en concurrence pour les années à venir :
- le poste "à trente centimètres", avec son clavier et sa souris sur la table, son utilisateur assis sur un siège adapté (siège de dactylo, fauteur de dirigeant (pour une utilisation moins intensive), pour des sessions de travail en général silencieuse, souvent aussi en rapport avec une autre personne : interlocuteur de l'autre côté du bureau, du guichet, de la caisse...
- le poste "à trois mètres", avec sa télécommande, et son utilisateur affalé dans le canapé, la "zapette" à portée de main, plus spectateur qu'acteur, ou la machine de jeux.
Fin 2004, la concurrence est active, évoquant plutôt une complémentarité et une interpénétration qu'une concurrence au sens propre. L'écran de la télévision, désormais numérique, peut être piloté par le micro-ordinateur, et bénéficier alors de sa périphérie (CD, DVD) et connexions réseau pour faire du "home cinéma". Et, dans le même temps, le micro-ordinateur étant connecté à haut débit (câble ou ADSL) peut très bien servir à regarder des émissions de télévision.  

De toutes façons, un ménage (voire un poste de travail d'entreprise) dispose désormais d'un assez grand nombre de postes, depuis les équipements "collectifs" (téléviseur familial, home cinéma) jusqu'aux téléphones portatifs et PDA en passant par les postes de bureau qu'il a bien fallu multiplier pour le travail scolaire et les jeux des enfants;

Le terme de station de travail est un anglicisme traduisant workstation (qui se traduit plus généralement par poste de travail). Le terme a pris une certaine importance au début des années 1980, sans aboutir à un sens général bien précis. Il s'agissait (pour des constructeurs comme Apollo, puis Sun), de mettre en commun des micro-ordinateurs puissants avec une interface graphique avancée (pour l'époque), sur un grand écran, avec un système d'exploitation approprié. Avec la baisse générale des prix, la puissance a pu être installée sur chacun des postes, et les fonctions communes reportées sur des serveurs, dont les postes individuels sont devenus clients.

A ce niveau "poste", l'interface homme-machine tient compte de l'autonomie permise par le micro-processeur, et l'utilisateur, à la différence du terminal, est responsable de diverses fonctions (lancement, gestion de fichiers).

Les contraintes de temps sont relativement légères. Cependant les éditeurs de logiciels tablent sur la puissance des machines et multiplient tellement les fonctions et leur sophistication qu'un poste âgé de plus de trois ans devient peu efficace en environnement professionnel et peut-être moins encore en environnement familial du fait de la puissance requise par les dernières versions de jeux;  

Relevons, à ce niveau de machine, un certain nombre de types spécialisés.

Le minitel est un petit terminal passif spécialisé, développé en France pour la connexion au réseau télétel et à ses services. Offert gratuitement aux abonnés de France Télécom, il a permis, presque dix ans avant la généralisation d'Internet, de diffuser largement en France des applications en ligne, dites "télématiques". Malgré ses capacités limitées (débit, mode d'affichage), il est encore présent en 2004 dans de nombreux foyers français, même abonnés à Internet, qui apprécient:
- sa facilité d'utilisation
- l'efficacité de certains des services qu'il fournit.

La caisse (enregistreuse) est une des gloires du XIXeme siècle finissant, et elle a retrouvé son nom à la fin du XXeme, après avoir failli disparaître, du point de vue terminologique, sous le TPV (terminal de point de vente).

Certes, on trouve toujours au début du XXIe, chez les petits commerçants et artisans, la simple caisse. C'est une calculatrice électronique, de format plutôt large et plat, associée à un tiroir caisse et à son inévitable sonnette à l'ouverture. Dans ce cas, le terminal de paiement est portatif et distinct.

En revanche, dans les (plus ou moins) grandes surfaces, la caisse est devenue un vaste ensemble de mécanismes et de processus connectés, depuis les tapis roulants présentant les produits à la caissière (pardon, à l'hôtesse de caisse) jusqu'au lecteur de cartes à puces qui sert aussi bien au paiement qu'à la lecture des cartes de fidélité ou de crédit.

Le guichet est un poste particulier. Voir article d'Informatique et gestion. Son recours au Stic peut être fort simple du point de vue matériel, même pour des opérations complexes qui s'interfacent avec de vastes et complexes systèmes informatiques. C'est le cas par exemple d'un guichet de banque, ou d'une agence de voyage.

Si le poste est conduit par un opérateur, il faut prévoir deux interfaces, une pour lui et une pour l'utilisateur, et la communication entre l'ensemble.

Borne, robot : la relation face à face

A ce même niveau dimensionnel, celui de l'être humain, la parfaite situation de face à face est théoriquement celle du "robot". Les "bornes" et un certain nombre de dispositifs automatiques peuvent en être considérés comme des versions simplifiées (bien que les habitudes langagières ne parlent pas de robot pour un distributeur de billet, et l'emploieraient plus facilement pour des machines plus petites et plus "prothétiques" comme un mixer de cuisine ou un aspirateur domestique.

Le terme "robot" s'applique aujourd'hui plus particulièrement à deux catégories de machines
- les  robots "industriels", fixés au sol,
- les robots "de compagnie", dont le chien Aibo est l'exemple majeur.

Le péage automatique d'autoroute, ou de transports en commun. Avec la périphérie appropriée pour n'autoriser le passage qu'après paiement. On cherche à améliorer les performances, en particulier le débit (passage sans arrêt, pour les autoroutes, et presque sans arrêt avec la carte Navigo de la RATP).

Si le poste est autonome, sans opérateur, il faut assurer sa sécurité, et d'abord matériellement. Du point de vue logiciel, c'est essentiel pour les DAB (distributeurs automatiques de billets), GAB (guichets automatiques de banque), autour desquels les criminels développent des stratégies de plus en plus sophistiquées. De toutes façons, le vandalisme s'attache à tout objet sophistiqué apparemment sans défense.

Les origines de ces types de machines sont variées. Certaines sont les héritières de machines non automatiques, et en portent le nom : par exemple le GAB (guichet automatique de banque). Une pompe à essence de station service fonctionnant en autonome avec paiement par carte banche est une version "totalement" automatisée (du point de vue du vendeur), de la pompe à main qu'utilisaient nos pères dans les années 1930-1950.

On n'emploie le mot de robot qu'à partir du moment où il y a un mouvement extérieur, des "bras" et des "mains". Plus rarement des jambes. Le robot peut-être considéré comme l'aboutissement final des machines industrielles, devenues machines-outils, puis MOCN (machines-outils à commande numérique), centres d'usinage, etc.

L'industrie japonaise investit fortement ce domaine, d'abord avec ses petits animaux (dont le plus connu est le chien Aibo, de Sony), puis avec des robots ménagers...

C'est dans cette catégorie qu'il faut placer le cheval Persival.

L'exosquelette est un autre cas particulier.

 Comment interagit-on avec une machine dans la relation "face à face" ? Pour l'instant, les capacités de vision et d'audition des robots sont bien trop limitées pour que l'on puisse transposer les modes de relation inter-humains. Sauf pour le cas des robots de compagnie, qui cherchent justement à les simuler/transposer) Il faut donc faire autrement, par exemple :
- si la mobilité du robot est réduite, sinon nulle, on dialogue avec lui comme avec un ordinateur classique et sa périphérie, en général réduite (par exemple, quelques boutons, un lecteur de carte à micro-processeur
- on intervient sur le robot (industriel notamment) à distance (poste de commande) ou en temps différé (programmation).

A ce niveau, la science-fiction s'est donné beau jeu depuis longtemps, et plus précisément depuis le livre de Karel Capek. Du point de vue IHM, elle décrit le plus souvent les interactions comme des modèles appauvris du dialogue entre humains. C'est le cas, stimulant pour la réflexion, des deux robots de la Guerre des étoiles, où les questions linguistiques ont été travaillées en profondeur, avec deux robots bien différents.  R2D2, physiquement très rustique, comprend le langage humain, mais s'exprime par un système de fréquences comparables à celles des claviers téléphoniques FSK. C6PO parle presque comme un humain.

Neal Stephenson, dans Le samouraï virtuel, présente un grand nombre de types d'interaction avec les robots, en particulier l'immersion globale en réalité virtuelle, mais aussi la prothèse.

Cabine et cockpit

On franchit un autre niveau dimensionnel quand elle est plus grande que l'homme. Si l'homme ne lui est pas physiquement lié, elle n'est plus qu'un objet qu'il gère dans le cadre de son poste de travail. Si l'homme est installé sur la machine, et a fortiori à l'intérieur (véhicules, "cave", certains jeux d'arcade) on voit immédiatement que se posent des problèmes de sécurité. Ici, l'IHM est immersive par nature, bien que l'interaction doit forcément limitée à ne zone spatiale (ce qui est dans le champ visuel et auditif), encore que l'utilisateur puisse se déplacer.

Les contraintes de temps sont fortes, et surtout la conséquence possible d'erreurs, non seulement pour l'utilisateur placé dans la machine, mais pour l'environnement. Il faut donc présenter à l'utilisateur non seulement la machine mais l'environnement.

Dans les cas simples, le système se présente sur des angles oculaires limités "à côté" du réel : le cockpit ou le pare-brise à hauteur des yeux, le tableau de bord en dessous (et un peu autour). Mais cela peut s'avérer insuffisamment efficace, obligeant l'utilisateur à de fréquents mouvements de tête. D'où le HUD (head up display, mis en oeuvre d'abord sur les avions de chasse, depuis le début du XXIe siècle, proposé sur certaines automobiles haut de gamme), projetant des informations sur le cockpit, en quelque sorte par surimpression à l'image du monde extérieur.

Allant plus loin dans cette voie de la superposition, on peut combiner la vue "naturelle", directe, du réel avec une image construite, porteuse d'information. C''est ce qu'on appelle la réalité augmentée. Le réel se laisse d'ailleurs aussi percevoir par les effets d'accélération linéaire ou angulaire de la cabine.

La cabine, bien sûr, se prête à la création d'univers tout à fait "de synthèse", avec les effets d'accélération grâce au système à six vérins. Le cave, ou cube de 3m de côté avec projection sur tous les côtés offre des possibilités de simulation du même ordre, moins le mouvement. Les simulateurs de vol pour la formation des pilotes en sont l'exemple le plus remarquable, tant par leur coût élevé que par leur diffusion et leur efficacité reconnue.

Salle, environnement collectif

Même une petite machine peut avoir des relations avec un groupe de personnes, qui se trouve alors devant elle ou autour d'elle. Consacrons quelques notes à des environnements collectifs englobant plusieurs utilisateurs, et achevons ainsi notre parcours des machines des plus petites vers les plus grandes. Il peut s'agir d'une grande salle ou d'un réseau de cabines (Battle center de Chicago, années 1980). Nous les classons ici par type d'interaction visé.

Etant donné que les différents dispositifs constituant la machine sont répartis dans un espace assez grand, il y a un réseau local, de type adapté (réseau local de véhicule, réseau domotique, réseau industriel), pour une part sans fil. Mais, dans les conditions normales de fonctionnement, l'utilisateur n'interagit pas directement avec le réseau.

1. Le local ne sert qu'à créer des conditions générales favorables au type d'activité qu'on y a prévu (bureau, domicile). La machine joue un rôle de GTC (Gestion technique centralisée), avec son poste de surveillance (IHM avec le personnel de surveillance), des périphériques d'interaction aux points d'accès, et des actionneurs généraux (chauffage, éclairage, ascenseurs) et une gamme plus ou moins étendue de capteurs, depuis les thermomètres jusqu'aux caméras de surveillance, en passant par les lecteurs de badges et les détecteurs de mouvements. A domicile, ces fonctions sont souvent groupées sous le terme de "domotique".

2. Le local sert à présenter un spectacle. Il comporte au minimum les appareils de projection visuelle et de sonorisation, éventuellement assez sophistiqués, même à domicile (home cinéma). . Mais il peut comporter une régie (voir plus loin). Certaines salles comportent des effets spéciaux (infrasons) voire un mouvement matériel par l'emploi du système à six vérins (Cinaxe de La villette, par exemple).

3. Le local sert à une action collective : salle ou chambre de contrôle, salle d'opérations (SIC des militaires), passerelle de navire, salle de surveillance de la sécurité civile, régie radio ou TV, simulateurs (hier, kriegspiel). Le "pupitre" des premiers grands ordinateurs est souvent devenu une salle de contrôle de ce type, gérant des réseaux de machines. Vers la fin des années 1970, ce type de local a été expérimentalement appliqué aux systèmes d'information d'entreprise (notamment par Bruno Lussato, professeur au Cnam), mais sans succès décisif.  

4. Le local sert à la prise de décision collective : assemblées, conseils municipaux. Il doit alors comporter des dispositifs plus ou moins élaborés de vote, de présentation du groupe à lui-même.

A la limite, un quartier (avec ses dispositifs de télésurveillance), une ville (Londres avec son système de péages automobiles à l'entrée), le monde entier (avec les surveillances par Satellite et le système anglo-américain Echelon) peut être considéré comme un tel local, où vivent tous les humains.

Réseaux et systèmes multi-machines

En 2004, une grande part des machines sont connectées entre elles. Et c'est encore plus marqué si l'on considère que différents logiciels, ou différents services, sont des machines relativement autonomes.  Le monde des "multi-agents" pose des problèmes particuliers pour permettre à l'utilisateur de s'en servir efficacement et confortablement. Et certains logiciels (moniteurs) ou agents peuvent avoir pour fonction spécifique de gérer ces interactions.

A un moment donné, un même utilisateur peut utiliser un assez grand nombre de machines plus ou moins interconnectées : il téléphone sur son portable tout en travaillant sur micro-ordinateur de bureau mais en consultant son PDA... Cela pose un problème d'intégration (signalé par exemple par Ganascia dans son interview).

Dans le cas des machines industrielles, le pilotage global d'ensembles connectés s'impose. A cet effet ont été développés, sur micro-ordinateur, des logiciels spécialisés, les superviseurs. L'interface homme-machine comme les automatismes de contrôle se hiérarchisent, depuis les opérations élémentaires jusqu'aux décisions de gestion. Le superviseur est un niveau médian, entre les bureaux des gestionnaires et le "plancher" des ateliers.

Les grilles de calcul exigent aussi des moyens de pilotage appropriés.

La machine globale

A la limite, l'ensemble de toutes les machines est connecté. Et ce n'est plus une fiction depuis la généralisation d'Internet. Le poste de travail est essentiellement une interface avec cet ensemble unifié par ses URL et ses standards. Il ne peut évidemment en présenter qu'une toute petite partie à l'utilisateur, et  les navigateurs et moteurs de recherche sont une des modalités de cette sélection.

Cela peut tourner mal, comme le veulent de multiples scénarios du type Matrix, I robot, etc. Il pourrait être intéressant d'analyser ces films du point de vue IHM.  

Le savoir de la machine sur l'utilisateur  

Les systèmes les plus rudimentaires ne "savent rien" sur les humains avec lesquels ils interagissent. Leur "savoir" est tout au plus implicite dans leur disposition même, ou dans certains de leurs états : si la machine est allumée, on peut présumer que l'utilisateur est présent... Ou encore, des fonctionnalités de la machine et de la disposition de son interface, on peut déduire le type d'utilisateur qui pourra s'en servir... Dans ce cas, c'est à l'humain seul qu'il revient d'apprécier la situation générale et, en tenant compte de l'état du système, de lui commander les actions correspondant à ses objectifs, à ses enjeux économiques, éthiques, sécuritaires et plus globalement politiques.

Les systèmes plus évolués comportent une mémoire (fonction d'état, si l'on veut) ou s'explicite, au fur et à mesure de la montée en sophistication, un certain nombre de représentations :
- du monde extérieur
- de l'utilisateur (individuel ou collectif)
- de lui-même.

Ces représentations comportent des modèles abstraits et des paramètres concrets (lieux et temps). .

L'interface homme-machine présente tout ou partie de ces informations à l'utilisateur. Nous nous attacherons ici au deuxième point, la représentation de l'utilisateur.

Notons d'abord que le système peut être informé sur l'utilisateur par deux sources différentes :
- les signaux que l'utilisateur lui envoie intentionnellement,
- des informations fournies par ailleurs, ou fournies involontairement par l'utilisateur, ou obtenus par exploitation de paramètres involontaires des signaux fournis volontairement (par exemple, le système pourrait mesurer le nombre de fautes de frappe, et en déduire une information sur l'état de fatigue ou de charge mentale).

Sur Internet, certaines de ces informations sont recueillies et transmises par les cookies implantés sur le poste utilisateur par certains serveurs (pour des raisons qui peuvent être bonnes).

Cette connaissance émerge et se développe le long d'une longue échelle, plus exactement d'un vaste "espace", en fonction du degré de perfectionnement des systèmes mais aussi de l'importante plus ou moins grande que cette connaissance a pour le fonctionnement du système. Cette importance induit aussi le degré de fiabilité requis pour la construction et l'utilisation de ces informations.

Identité de l'utilisateur

Ce point peut être connu par la machine soit par reconnaissance, soit par indication par l'utilisateur (login), soit par une combinaison des deux, avec d'autant plus de vérification que l'on a besoin de sécurité

De nombreuses techniques sont mises à contribution pour identifier l'utilisateur : mots de passe, badge, biométrie (reconnaissance de la voix, de l'iris, des empreintes digitales, demain peut-être de l'ADN), reconnaissance de signature

L'identification précise d'un individu donné a du sens si la machine en tient compte dans ses actions, ce qui implique
- un fichier des personnes avec les paramètres pertinents pour l'action
- des programmes tenant compte de ces paramètres.

Dans les cas les plus courants, ces paramètres sont essentiellement des droits (ou "capacités") d'accès à certains lieux et dispositifs, à certaines données ou d'utilisation de certaines foncions. Cela peut aller plus loin :
- "préférences" pour la configuration d'un poste de travail partagé
- données médicales et sociales pour des prestations de santé,
- profilage commercial plus ou moins fin pour faire des offres adaptées (idéal du "one to one").

Noter que l'identification d'une personne n'est jamais totalement sûre. La plupart des systèmes se contentent d'un "login" avec un nom d'utilisateur et un mot de passe, éventuellement complété par la présentation d'un badge ou d'une clé physique. toute personne connaissant ces termes et disposant du dispositif physique est acceptée. En fait, le système ne connaît pas un individu mais un "compte" ou une entité relativement abstraite. Mais on peut aller toujours plus loin, tant dans les moyens d'identification que dans les moyens de les tromper.

Les caractéristiques pertinentes d'un utilisateur peuvent avoir
- un caractère général, permanent : ce qui compte est le type, le profil,
- un caractère local et temporaire, c'est "l'état" de l'utilisateur.

Type, profil

On peut, dans une certaine mesure, passer de l'individu aux paramètres, et réciproquement.

De l'individu aux paramètres. Cela va de soi si l'on dispose d'un fichier qui les comporte. Parfois, l'identifiant est par lui-même significatif :
- En France, le NIR, (code de sécurité sociale) donne le genre, l'année, le mois et le département de naissance), ou simplement la date ou il a été créé, éventuellement déduite du simple ordre séquentiel (numéro de carte du parti...),
- Le patronyme et le prénom donne des indications vraisemblables sur les origines (particules, formes particulières à certaines langues, ethnies ou cultures).

Des paramètres vers l'individu. Si l'on dispose de nombreux paramètres, et s'ils sont précis, le nombre de personnes susceptibles d'y correspondre se réduit souvent à une personne unique. Rencontrant un homme blanc au fond de l'Afrique noire, Stanley l'illustre par son fameux "Docteur Livingtsone, I presume".

Ensuite, les paramètres permettent d'en déduire bien d'autres, si l'on dispose de fichiers et modèles généraux (moteurs de scoring, systèmes d'information géographiques ou géomatiques, analyses statistiques par catégories socio-professionnelles, modélisations psychologiques générales,, etc.)
- l'adresse postale identifie une région, une ville, un quartier, voire un îlot, qui peuvent avoir été caractérisés par des données statistiques générales, les recensements, des enquêtes...
- le genre et l'âge induisent des besoins spécifiques, des spécificités culturelles...

Les paramètre courants ou pertinents dépendent du type d'application :
- en bureautique générale : rôle dans l'organisation (niveau hiérarchique, service, fonctions de sécurité, d'administration des systèmes)
- didacticiels et EAO : niveau de connaissances, diplômes, compétences reconnues par des tests, évaluation par le système (docimologie)
- médical : patient/professionnel ; pour le patient : type de pathologie, paramètres médicaux généraux, handicaps, allergies et contre-indications le cas échéant, couverture sociale
- commercial : revenus, domicile, profilage, caractéristiques de crédit (historique des paiements)

Localisation

Dans les systèmes simples, la localisation ne prend en compte que l'espace même du système ou de la tâche. Il est, et le système aussi, "dans" (en train de travailler avec) tel fichier, telle ligne, telle colonne de texte, telle cellule du tableur. Le curseur ou le caret montrent ces coordonnées, qui constitue une sorte de point focal de l'interaction. Plusieurs boucles s'y croisent :
- pour l'utilisateur, le point focal est montré sur l'écran pour l'œil, et l'action passe par le clavier ou la souris,
- pour la machine, l'affichage du curseur et la prise en compte de la souris et du clavier (ON MOUSECLICK, ONKEYPRESS...) sont des moments dans un flux complexes de messages.

Puis, peu à peu, avec le perfectionnement des machines, l'espace se précise. Ou les espaces. On explicite le fait que l'on est dans telle application, sur telle machine, qui est installée dans tel bureau. Et, avec le GPS ou le téléphone portable, l'utilisateur et son interface sont à tel endroit précis de la planète, en train de travailler avec tel serveur situé à tel autre endroit.

Cette localisation peut être utile pour des raisons de sécurité (telle action ne doit pas être faite à partir ou en dehors de tel endroit).

Dans certains cas, elle est essentielle à l'application même. C'est par exemple la géodépendance, pour le pilotage des véhicules, les aides la navigation (... mais aussi  la poursuite des criminels), la prestation de certains services adaptés au lieu. On a donné comme exemple (vers 2000) l'annonce des retards au départ des avions, spécifiquement à automobilistes disposant d'un téléphone portatif et se trouvant en route vers l'aéroport.

Voilà pour l'espace. Quant on temps, contentons-nous de rappeler qu'il y a le temps de la tâche, le temps "réel", le temps de l'horloge du processeur... la durée de connexion de l'utilisateurs (ne serait-ce que pour le facturer, mais le cas échéant pour prendre en compte son état de fatigue).

Etat psychologique

Mais aussi, dans quel état psychologique est l'utilisateur? Dès que le processus en jeu atteint un certain degré de complexité, de dépendance par rapport au temps, de criticité (véhicules notamment), il est important que la machine ait des informations sur l'état psychologique de l'humain qui la conduit. Ce point dépend de la criticité des applications.

Depuis longtemps (après Zola, mais avant la deuxième guerre mondiale), les locomotives comportent une "pédale d'homme mort". Le conducteur doit y poser le pied, ou l'actionner à intervalle régulier, pour confirmer sa présence et sa vigilance. A partir des années 1950 (?) des méthodes plus sophistiquées sont employées dans ce but, par exemple "l'acquittement" des signaux de voie.

On commence à mettre en place des capteurs pour mesurer le degré de fatigue, la somnolence, la charge mentale (on mesure les temps de réponse, la pression des doigts sur le volant). Demain, on détectera peut-être en permanence l'alcoolémie, on mettra peut-être une petite caméra regardant en permanence l'opérateur pour "reconnaître" son attitude, évaluer son comportement, par une généralisation de la télésurveillance automatisée. Les freins seront moins économiques que psychologiques (aversion pour le "flicage").

On trouve dans le commerce des détecteurs de stress (sur les signaux vocaux téléphoniques). On pourrait analyser la voix. Mais elle reste relativement rare dans la conduite des machines. On pourrait aussi mesurer les taux d'erreur. Rêvons un peu, en génie logiciel, quand on constate qu'un développeur commence à faire beaucoup de fautes de frappe ou de petites erreurs de syntaxe, on pourrait le prier plus ou moins fermement d'aller se reposer, ses interventions devenant plus destructrices que créatrices ..

Intentions et "capacités". De l'ordre à l'intention

Plus positivement quelles sont les intentions de l'utilisateur ? Ce n'est pas parce qu'il tape sur la touche A qu'il veut vraiment ajouter un A au texte en cours. Que veut-il vraiment ?

Alphonse Allais disait "Une bonne bibliothèque, c'est celle où, quand on a trouvé le livre que l'on cherchait, il y a tout près celui dont on avait besoin".

On peut donc chercher à interpréter la demande de l'utilisateur avant de l'exécuter. Un éditeur de texte peut être "prédictif", frapper le mot complet dès que les premières lettres l'identifient suffisamment. Avec le risque de se tromper, et d'agacer. Jusqu'où la machine doit-elle être "prévenante" ?

Les moteurs de recherche font des suggestions ("essayez plutôt ...", supprimez les guillemets...)

En matière de conduite automobile, Michel Parent notait dans son interview (AH No 107) que l'on commence à mesurer l'écart entre l'angle volant et l'angle de rotation réellement observé...

Cela conduit au problème moral de l'évaluation d'un être humain par une machine. Ce qui est demandé est il cohérent, permis, sans danger ? Et dans le cas contraire et répétitif, cet utilisateur devient-il dangereux, faut-il le mettre hors d'état de nuire ? Cela pose une question de principe, présente dans la loi française Informatique et Libertés : "Aucune décision de justice impliquant une appréciation sur un comportement humain ne peut avoir pour fondement un traitement automatisé d'informations donnant une définition du profil ou de la personnalité de l'intéressé". Comme l'a montré Isaac Asimov dans son "Moi Robot", il est d'ailleurs très difficile, peut-être même absolument impossible, de déterminer de manière incontestable les droits et devoirs des machines vis à vis des être humains;

L'utilisateur collectif, le groupe

Si l'interaction se fait avec un groupe, il ne suffit pas de faire la somme des informations sur chacun des participants. Il faut y ajouter ce qui concerne le groupe, sa modélisation quantitative et qualitative, le jeu des relations entre les membres, leurs positions relatives, etc. (Voir notamment l'ouvrage Le travail coopératif et ses technologies de Jacques Lonchamp, Hermès/Lavoisier 2003).

Si l'action implique différentes machines, avec différents utilisateurs, on entre dans des combinatoires complexes dont Michel Parent donne un exemple frappant : la traversée en voiture de la place de l'Etoile à Paris.  

Informer l'utilisateur

Montrer quoi ?

Puisqu'il s'agit d'interagir, le centre de la présentation est le bout des doigts et la fovea concentrées sur un point du monde ; et, au fur et à mesure des progrès, l'outil puis la machine qui s'interposent, jusqu'à ce que l'écran lui même vienne montrer à l'humain l'image de lui même agissant : le curseur.

Autour de ce point partagé, actif et mobile, la machine présente un certain nombre d'espaces, de dimensions.

1. L'espace de l'outil lui-même, de la machine. Avec ses formes caractéristiques, ses paramètres qualitatifs et quantitatifs, la palette des outils disponibles, des actions possibles (affordance). La présentation des menus, plus ou moins sophistiqués et dynamique, est l'exemple type pour les applications bureautiques. Les jeux sur ordinateur sont désormais très riches de ce point de vue. Et, pour mieux se laisser maîtriser, la machine peut montrer ses parties internes, ce qu'elle a "sous le capot", et ses différents paramètres d'état. Le cas échéant, indication des parties hors services, indications de diagnostic.

2. L'espace du monde extérieur, la page, l'objet, la pièce. Autour, l'espace géographique et temporel (présent, passé et avenirs possibles).

3. L'espace de l'utilisateur lui-même, individuel ou collectif, ses mains, sa position spatiale..

4. L'espace des objectifs, des valeurs : chiffres à atteindre, normes à respecter, agenda à respecter, itinéraires à suivre. Mais aussi valeurs négatives : anomalies, dangers, ressources risquant de manquer, menaces de virus.

Montrer comment ?

Les manières de montrer se situent entre deux extrêmes, ou dans une combinaison de deux modes extrêmes :
- analogique : l'image, naturelle, directe (ou semblable) au monde (réel ou virtuel),
- digital, un code purement arbitraire, conventionnel, le chiffrage mené au terme de sa logique.

Tentons de répertorier les modes les plus courants en partant de la "nature" Ici se regroupent quelques idées qui sont, à la limite, des fantasmes. Il y aurait quelque chose, non médiatisé par définition, qui serait à la fois :
- le réel à percevoir, le monde tel que nous le percevons pas nos sens, s'imposant à nous malgré les doutes "métaphysiques) des philosophes ; toute médiatisation masque ce réel, introduit des erreurs, des biais, des artefacts;
- la nature, non modifiée par l'homme, dans son état virginal, edénique, antérieur au "péché originel";
- l'objectif à atteindre, la tâche.

Dès que la machine existe, elle transforme le regard de l'homme, elle encadre le réel. Elle le fait voir à travers un cockpit, un viseur, une lorgnette avec son grand et son petit bout.

De ce point de vue, le progrès de la machine consiste à retrouver la transparence, à utiliser sa complexité pour nous restituer toujours mieux, avec une fidélité toujours plus haute, ce réel supposé ; à nous monter toujours plus exactement ce que nous faisons, le résultat que nous allons obtenir (wysiwsyg, "aperçu avant impression"...)...

Mais cette transparence n'est pas toujours l'idéal. Pour bien comprendre où nous sommes, où nous en sommes, où nous allons, il peut avoir avantage à ce que la machine
- "colore" globalement l'image "naturelle"(réglage global de luminosité, de contraste, améliorations de netteté),
- fasse ressortir, souligne, mette en lumière les points importants, masque les autres,
- "renseigne" l'image, c'est à dire y place des symboles ou du texte pour préciser la nature des objets (signalétique, toponymie des cartes géographiques)

Allant plus loin, qu'elle mette en perspective, modifie même le jeu des relations spatiales, naturelles. Morphose, regroupement, résumé, schématisation, synthèse... "De quoi s'agit-il", demandait Foch. On lui demande aussi de jouer sur les quatre dimensions. D'étaler par exemple le temps sur l'axe des abscisses, de décomposer le monde en plusieurs plans (calques de la CAO, plans du SIG), que l'on peut effacer ou fondre suivant les moments. On lui demande de reconstituer des états anciens disparus (réalité virtuelle sur sites antiques), futurs (architecture), ou simplement inaccessibles à l'oeil parce que l'humain ne peut accéder à certains points de vue (par exemple, dans la présentation en réalité virtuelle de Saint-Pierre de Rome), ou parce que les phénomènes à montrer n'ont pas de réalité optique (images de synthèse des chocs de particules au Cern, visualisation du son).

Puis cela même ne suffit pas. Il faut que le champ visuel montre des entités et des relations qui ne sont pas par elle même spatiales ni temporelles. On va vers la polyvalence marquée notamment par Von Neumann.

Certaines des entités à montrer peuvent facilement s'iconiser. Certaines relations se laissent aisément spatialiser. Le haut de l'écran, par exemple, représente le "haut niveau" d'un organigramme, tandis que la base de la pyramide, comme son nom l'indique, désigne "la base" de l'entreprise. Et la gauche d'un nombre écrit porte les chiffres de poids fort. Citons les cas classiques des histogrammes, diagrammes... et plus généralement la "cartographie cognitive".

Le texte est le cas particulier le plus puissant de cette spatialisation. Elle s'y fait, en effet, de plusieurs manières combinées :
- spatialisation gauche-droite (en Occident) du temps de la parole,
- iconisation des phonèmes par des caractères discrets, choisis dans un catalogue fini, l'alphabet,
- codification linguistique des entités (mots) et de leurs relations (syntaxe), à quoi s'ajoute la macro-syntaxe des structures textuelles (interview de Jean-Luc Minel, AH No 110).

La spatialisation du texte peut se combiner avec la présentation d'une image de l'espace naturel : marquage d'objets, toponymie des cartographes.

Enfin, il y a le vaste domaine de la métaphore : figures de systèmes, lois d'analogie, évocation/connotation (réflexes pavloviens, madeleine de Proust).

Certaines métaphores ont pris une place importante en IHM :
- la métaphore du bureau (Xerox-Parc, Apple, Windows), avec sa surface plate et ses fenêtre qui sont en fait des métaphores de documents papier, avec autour d'eux les instruments du bureau : palette d'outils, barre d'état, heure, alertes ;
- métaphore du tableau de bord, de la zapette,
- métaphore des personnages (allégories..).

Accessoirement, la machine peut aussi aider (en ligne), stimuler et encourager (jeux pour petits enfants, par exemple), voire amuser (personnages auxiliaires de Windows, que d'ailleurs la plupart des utilisateurs suppriment de leurs écrans).

Sélection et architecture des présentations

Il y a des multitudes de choses à montrer, de multiples façons de les présenter. Il faut donc :
- faire des choix en quantité (ni trop, ni trop peu), en type (ce qui est pertinent), en mode (symbole, texte, vocal),
- choisir en fonction de ce qui se passe (état de l'humain, du monde, de la machine, du travail en cours, des intentions),
- construire un ensemble cohérent, un assemblage intégré, avec des principes d'architecture dans l'espace, le temps, la force.

Dans cette construction, le système peut appliquer des règles génales, des modèles prédéfinis, des feuilles de style, des conventions, standards et normes.

Protection, autorité, coopération

S'informer réciproquement, interagir... certes ! Mais l'humain et la machine peuvent être dangereux l'un pour l'autre. L'IHM doit en tenir compte. Les niveaux de protection ne seront évidemment pas les mêmes dans des environnements protégés et peu actifs physiquement (surfeur Internet) ou au contraire dans des environnements publics (DAB) ou si la machine a des effecteurs potentiellement dangereux physiquement (robot, système d'armes), ou des conséquences importantes (paiement, propriété industrielle, médiatisations politiques).  

Le système se protège

Cela commence avec les protections physiques. Depuis la maladresse qui fait renverser du café sur le clavier, la candeur d'un enfant qui fait manger de la purée au magnétoscope, jusqu'à la volonté expresse de nuire. Depuis le niveau matériel (chocs) jusqu'aux erreurs de manipulation et fichier et à la création de virus.

Les protections propres à l'IHM sont :
- cartes, blindages, clés physiques, locaux sécurisés,
- identification de l'utilisateur et prestation des seuls services qu'il a capacité d'utiliser
- alertes de demandes de confirmation pour les actions susceptibles d'avoir des conséquence sérieuses
- undo et redo
- dans certains cas, blocage des entrées du système pendant un certain temps (principe Tchernobyl),
- procédures contrôlées d'arrêt du système. Le bouton d'arrêt sur la face d'un micro-processeur ne coupe pas immédiatement le secteur, mais lance la fermeture du système ; une batterie assure l'exécution de quelques sauvegardes,
- pour les systèmes à caractère collectif, ou dont la sécurité est critique, procédures d'alarme, de téléalarme, voire mesures actives de répression contre l'agresseur, jusqu'à le mettre éventuellement hors d'état de nuire.

Protéger l'utilisateur

Les machines actuelles ont trop peu de relations "physiques" avec leurs utilisateurs, la protection actuelle est plutôt d'ordre psychologique, et l'on pense surtout aux questions de violence et de sexe à la télévision, sur Internet et dans les jeux.

Comme exemple de machines physiquement dangereuses, citons :
- le massicot d'imprimerie (et plus généralement toutes celles qui sont dangereuses pour les mains) ; la solution consiste à n'autoriser le fonctionnement qu'après s'être assuré que les deux mains de l'utilisateur sont en des points sûrs (deux boutons de mise en marche, éloignés de la lame)
- locaux dangereux : portes automatiques
- cas des robots industriels
- tous les processus de grande ampleur, par exemple chimiques ; a fortiori, les systèmes d'armes.

La machine peut aussi être psychologiquement dangereuse. D'abord simplement par excès d'utilisation, qu'il s'agisse d'un travail ou d'un jeu trop long. Certains défauts de la machine peuvent être dangereux parce qu'ils induisent en erreur (par exemple un détail du tableau de bord de l'Airbus qui a contribué à l'accident du Mont Sainte-Odile.

Par ailleurs, mais les applications sont encore rares à notre connaissance; on pourrait l'encourager à faire une pause, à faire de la gymnastique.. etc. En pratique, c'est plutôt au niveau des institutions que l'on protège, par des règlements appropriés (émissions dangereuses d'antennes), interdisant des dispositifs dangereux (téléphoner au volant ; on a parlé autrefois d'un jeu qui faisait faire de la gymnastique et poussait les utilisateurs à se surmener, la machine contrôlant leurs mouvements par exemple au moyen d'un tapis muni de capteurs; ces jeux ont été interdits)

On peut considérer l'autoprotection comme une forme élémentaire de désobéissance du système.

Obéissance et/ou initiative de la machine

En première analyse, la machine est supposée obéir à l'utilisateur, sous réserve des dangers possibles, comme nous venons de le voir.

Mais, plus la machine se perfectionne, plus sa docilité va se faire "intelligente". De toutes façons, l'utilisateur lui-même ne sait pas toujours exactement à l'avance ce qu'il veut /
- il surfe sur la toile pour trouver de l'information, mais pas forcément pour répondre à un besoin particulier ; il cherche des idées, des illustrations pour une conférence ; à la limite, il surfe pour le plaisir, ou pour tuer le temps ;
- plus généralement, on passe de la logique du besoin, dont la satisfaction est largement déterministe, ou optimisation, à une logique du désir qui ouvre de plus vastes espaces.
- parfois, elle est le partenaire ou l'adversaire dans un jeu.

En outre, si l'utilisateur est collectif, la satisfaction du problème posé ne découle pas forcément d'une compétence mais d'une délibération, que le système peut aider à se développer et à converger.

Par ailleurs, la machine sait bien de choses. A la limite, "elle est" le monde, avec ses lois, ses immenses espaces opérationnels, sont plus énorme et permanent (24x25, dit on en 2000) d'événements. Elle "en sait plus" que l'utilisateur sur ce qu'il pourrait faire, sur ce qui serait susceptible de l'intéresser... elle le connaît mieux que lui-même. Elle est devient donc une force de proposition, d'initiative. C'est la règle dans la plupart des grands jeux.

Il n'est pas nécessaire ici de s'engager dans le débat philosophique sur le fait que la machine pourrait avoir une initiative "absolue". Il suffit de penser que ces connaissances et ces procédures d'initiative ont été mises en place par des concepteurs à l'intention des joueurs. Pour ces derniers, cela revient au même, en pratique.

Autoriser, suggérer, commander, exiger ?

Allons plus loin. Dans bien des cas, la machine est en position d'autorité par rapport à l'utilisateur, même si le discours officiel dit tout le contraire.

L'esclave antique ou colonial, le serf médiéval, l'ouvrier à la chaîne, la sténo-dactylo... obéissent plus à la machine, interface pour eux de la machine sociale, qu'ils ne lui donnent des ordres.

Cela se développe dans différents domaines. Prenons quelques exemples :
- les logiciels de traitement de texte connaissent mieux l'orthographe (en tous cas celui des mots pris isolément) que la plupart des humains
- les fichiers structurés, souvent, ne tolèrent pas n'importe quel libellé dans une zone donnée, mais seulement ceux choisis dans des "listes d'autorité".

Le système peut aider, stimuler, encourager, féliciter (cette fonction est largement utilisée dans les logiciels ludiques ou éducatifs), voire récompenser. Par une présentation sélective des actions possibles (affordance), la machine est une force de suggestion.

Toute machine accomplissant des fonctions pour un corps social ne peut obéir aux ordres de son seul "pilote". Plus elle est intelligence, plus elle exerce cette "autorité" avec nuances.

Obéissance et autorité se rejoignent dans une interaction de coopération (ou de co-opétition) toujours plus dense et, espérons le, toujours plus "win-win". La machine devient un système complexe, aux multiples niveaux depuis ses interactions avec le monde matériel jusqu'à ses niveaux élevés de planification en passant par ses "comportements". L'interaction avec l'homme se noue à tous ces niveaux, et peut de moins en moins se réduire à l'instrumentalité typique de l'outil primitif.

De l'aide à l'ordre impératif

La machine aide de multiples façons : aide en ligne, accès à des serveurs. Elle alerte l'utilisateur, elle l'encourage, lui propose des actions. Elle peut aussi, tout simplement lui donner des ordres, surtout s'il s'agit d'un opérateur à bas niveau.

Ingénierie des IHM

Valeurs et objectifs généraux

Qu'est-ce qu'une bonne IHM ? Elle doit d'abord être efficace : favoriser la productivité, permettre l'emploi de toutes les fonctionnalités de la machine, ne pas introduire de retards à l'exécution, faire travailler l'humain aussi bien que la machine à leurs capacités maximales, qu'il s'agisse de puisse, de vitesse, de précision.

Elle doit être sûre : ne pas être en panne (fiabilité, disponibilité), ne pas créer de dysfonctionnements de la machine; ne pas induire l'humain en erreur ; et enfin, ne pas créer de dangers pour l'utilisateur de la machine ni pour tout ce qui est concerné par son fonctionnement (par exemple des piétons sur le parcours d'un véhicule).

Elle doit enfin, à performance est fiabilité équivalents, être aussi peu coûteuse que possible
- dans sa fabrication (matériaux, usinage, y compris coûts de recyclage),
- dans son utilisation : c'est le TCO (Total cost of ownership, dans lequel il faut inclure les frais de personnel ; il faut donc que la machine puisse être mise en oeuvre par un personnel peu qualifié et avec le minimum de formation (idéalement, formation zéro).

Elle doit aussi, si possible, être agréable, confortable, sympathique, intuitive... et belle.

Moyens généraux concourant à ces objectifs

Listons quelques moyens généraux :
- adaptation aux caractéristiques physiques et psychologiques, entretien d'un bon niveau de charge mentale
- cohérence spatiale et temporelle
- orthogonalité des commandes (une commande obtient toujours le même effet, quelque soit l'environnement et le moment auquel elle est donnée),
- intuitivité, emploi de métaphores appropriées.

Quand on va vers des machines perfectionnées, moyens et objectifs se rejoignent.

Disciplines et outils mis à contribution

Assez logiquement, après tout ce que nous avons dit, la conception de IHM peut être considéré comme une discipline en soi, ou si l'on veut un cas particulier, mais de plus en plus central, de l'ergonomie. Et elle met en oeuvre une large palettes de disciplines générales :
- l'informatique en général,
- le génie logiciel le plus général et intégration ; ingénierie de exigences ; un cas particulier, le "revamping"
- la psychologie (conception, conduite du changement) et l'ergonomie
- la médecine
- le droit et l'éthique, voire la morale
- "rhétorique" et beaux arts
- pédagogie
- à la limite, la systémique et la philosophie.

Ses outils relèvent pour une large part du génie logiciel. On remarquera que les outils de développement, en particulier la famille des "Visual" mettent en première place le dessin des interfaces graphiques. Le code de fonctionnement applicatif proprement dit ne s'écrit que dans un second temps.  

 

 

*******

Bibliographie

multimédia, multimodal