@SURTITRE:CONGRES DU CMGF

@TITRE:Mesurer les performances

en client-serveur

@CHAPO:Mesures, modélisation, simulation, capacity planning... les techniques éprouvées sur les mainframes commencent à s'appliquer au client-serveur.

@TEXTE:Finis les débats sur la validité du client-serveur! L'heure est aux mesures, car l'expérience a montré, hélas, l'importance critique des performances. Au moins dès que l'on sort des applications locales et des sites pilotes à petite échelle. Le congrès 1996 du CMGF (Computer measurement group France) n'a réuni qu'une centaine de personnes, mais les exposés ont montré que les grandes entreprises commencent à se doter des outils de gestion nécessaires aux nouvelles architectures, appuyés sur une offre de produits et de conseil.

La métrologie des grands systèmes classiques ne suffit pas (voir encadré). Cela explique la diversité des méthodes et outils mis en oeuvre par les entreprises. Mais aussi le dépassement des approches purement techniques par des méthodes comme l'analyse de la valeur. Chez PSA, par exemple.

@INTER:PSA, la mesure à grande échelle

"Un progrès non mesuré n'existe pas". C'est en partant de cette formule lapidaire que "l'exploitation des centres de traitement informatique du groupe PSA Peugeot Citroën a forgé les bases d'une politique de métrologie systématique qui a jalonné ses progrès durant ces dernières dix années". Emmanuel Mion, directeur de division des centres de traitement informatique, a su justifier cette introduction en fanfare. Il s'agit de gérer un budget de 2 milliards de F sur le périmètre européen, avec 20 000 micro-ordinateurs, 20 000 écrans, 3 000 stations CAO/CFAO, 2800 ordinateurs industriels, 3000 Mips et 11 téra-octets sur grands systèmes. Excusez du peu.

Le groupe a de plus joué sans faiblesse la carte du regroupement des moyens de traitement, ramenant toute la puissance centrale sur deux sites pour toute l'Europe, au lieu de cinquante autrefois. Parallèlement, le recours aux liaisons haut débit et au satellite (liaisons VSAT avec toutes les concessions européennes) assure la synergie de l'ensemble en contenant la facture de télécommunications.

@INTER:Au delà des outils classiques

@TEXTE:Outre la panoplie classique, Emmanuel Mion met l'accent sur quelques métriques particulières:

- gestion des changements, car ils sont une des causes principales des dysfonctionnements; avec en particulier un travail par versions dans le développement des applications;

- gestion "formelle et auditable" des incidents, avec un outil et des méthodes centralisées couvrant l'ensemble des sites et des activités;

- help-desk centralisé; pour ne pas dégrader la qualité du service, "il était indispensable que nous ayons tout prévu au départ (outils, méthodes, organisation, modes de fonctionnement, procédure de reprise des help desks existant...) et que le déploiement soit sous contrôle"; la métrologie permet ici de maîtriser la montée en charge;

- notion de démérite, utilisée par les constructeurs de véhicules pour contrôler l'évolution de la qualité statique et roulante; tous les types de défauts sont identifiés et pesés; le démériteur applique la gamme très stricte et additionne l'ensemble des poids de chacun des défauts qu'il constate; le total donne le démérite; appliquée à l'exploitation informatique, cela se traduit par une fiche de synthèse quotidienne;

- enquêtes qualité, avec une métrologie et des modes de représentation qui visualisent l'évolution de la "température" et de la "satisfaction";

@INTER:Aérospatiale: standardisation puis benchmarking

@TEXTE:"Après une période de standardisation de 1991 à 1994, il a été jugé nécessaire de faire une analyse comparative pour avoir une référence et suggérer des axes de progrès", résume Gérard Kervadec, Centre des technologies de l'information à l'Aérospatiale.

La standardisation a conduit à un poste de travail "unique et multifonctions équipé de logiciels standard (voir figure). Chaque élément fait toujours l'objet d'un référencement et s'installe à l'identique sur tous les postes. La capacité d'adaptation prime dans les choix: il faut pouvoir changer chaque élément sans remettre en cause l'ensemble du système, ce qui exclut, autant que possible, les solutions propriétaires.

Pour aller plus loin, un benchmarking commandé à Compass Analysis a port sur le site des Mureaux avec ses 1550 postes. Il s'agissait de chercher des axes de progrès grâce à une comparaison fine, indicateur par indicateur, avec les meilleurs sites mondiaux. Malgré d'excellentes notes, l'étude a mis en évidence des points à améliorer: politique de maintenance, répartition des logiciels entre clients et serveurs, télédistribution des logiciels, sécurité, niveau technologique du parc, nombre des imprimantes.

@INTER:Benchmarking et analyse de la valeur

@TEXTE:Il faut mobiliser différentes techniques, note Toufeik Choukri (Global Communication), pour obtenir les résultats souhaités. Il cite un cas où il s'agissait de réduire le temps de réponse tout en abaissant, si possible, la facture de télécommunications. Le passage au mode client-serveur s'est imposé, avec une présentation déportée. Le temps de réponse est passé d'1,22 secondes à 0,28, avec une réduction de 17% des coûts. "Les techniques ont été utilisées d'une façon complémentaire... en se basant sur les disciplines suivantes: métrologie, benchmarking, simulation de performances et optimisation topologique de réseau".

La modélisation doit différencier les processus d'entreprise et les moyens informatiques, affirme Luc Coyette (Simulog), qui s'appuie sur un cas de SAV (service après vente). Pour les processus, les fonctions métier s'expriment sous forme d'un graphe de tâches à réaliser soit par des équipes, soit par des moyens informatiques. La simulation donne une estimation de la mesure des performances : taux d'utilisation des équipes, temps d'exécution des tâches, mise en évidence de goulots d'étranglement dans l'organisation. On procède de même pour les ressources informatiques, mais la description se fait plus détaillée pour pouvoir estimer les performances en termes de taux d'occupation des ressources, de temps de réponse en transactionnel ou de débit sur les réseaux, avec les goulots d'étranglement dus à des manques de ressources.

L'analyse de la valeur permet d'intégrer les facteurs économiques à l'analyse des besoins et aux choix des solutions. Au CMGF, elle est surtout présentée par des organismes financiers. Christophe Sol, par exemple (Banque de Neuflize, Schlumberger Mallet) montre notamment comment on peut montrer "les contributions qu'une informatique interne peut apporter à une entreprise" par rapport à une sous-traitance ou infogérance.

A la Société générale, Hervé Gérard (directeur du département des projets et de l'organisation du réseau France) a transposé une méthode utilisée à la Caisse des Dépôts. Appliqué, en 1994, à un projet de "serveur central d'accords de paiement", elle a contribué... à en arrêter le développement. Six mois plus tard, l'analyse conduit à un projet recentré, objet d'un "véritable consensus". Ou plutôt un ensemble de sous-projets maîtrisables, avec des coûts de développement réduits d'un tiers et des coûts de formation réduits des deux tiers. La Banque l'a depuis appliqué à quatre autres projets, à différents stades d'avancement. Pour un coût faible (de l'ordre de 200 000F), les retours sont importants, vue la dimension des projet, dont les budgets atteignent ou dépassent souvent 100 millions de F.

@INTER:Un fil d'Ariane dans le labyrinthe

@TEXTE:Devant le foisonnement des approches, une douzaine de membres du CMGF viennent de constituer un groupe de travail ad-hoc, le GrepCS (Groupe de recherche en évaluation de performances en client-serveur). Il a commencé à élaborer une méthodologie organisée en sept phases, de l'étude d'opportunité à la gestion des incidents, en passant par des étapes comme l'étude détaillée, la recette et le pilotage-suivi. Pour chaque phase, le groupe identifie les contraintes, les ressources humaines, la documentation, la métrologie. Vaste programme, mais Géraldine Haegeli, secrétaire générale, voit ses travaux en bonne voie, et sans équivalent dans les associations soeurs, Etats-Unis compris. Souhaitons leur... d'être performants!@SIGNATURE:PIERRE BERGER

//////////////////////

@LEGENDE:La panoplie des outils s'adapte au client-serveur. Ici, le Command Center, de Candle.

@ENCADRE TITRE:Difficultés de la mesure en client-serveur

@ENCADRE TEXTE:Quatre raisons compliquent la mesure des performances en client-serveur, explique Michel Dejolier (Computer leasing consulting group):

- L'intelligence de la station de travail n'est pas nulle. Une partie de la transaction s'effectue localement.

- Le temps de propagation ne peut être négligé dans les calculs, car les chemins de liaison sont sensiblement plus complexes qu'avec les systèmes centralisés classiques.

- Le serveur peut faire appel un autre serveurs pour des fonctions spécifiques, par exemple l'accès à une base de données ou le calcul scientifiques. Ce dernier peut lui aussi faire appel à un autre serveur, et ainsi de suite.

- Les différents serveurs fonctionnent souvent sur des plates-formes différentes.

///////////////////////////////////////////////

@ENCADRE TITRE:Pourquoi mesurer?

- Pour expliquer. Une dégradation du temps de réponse peut être due à une charge réseau excessive ou à une saturation du serveur. Pour le savoir, il faut avoir collecté des données avant et pendant l'événement. Le plus difficile est de trouver les indicateurs techniques qui contribuent à la qualité de service vue par les utilisateurs.

- Définir un profil de fonctionnement normal. Par exemple la charge-type d'une ligne spécialisée sur une semaine. Elle servira de référence pour mettre en évidence les écarts significatifs.

- Optimiser les ressources, en mettant en évidence les sous-dimensionnements (segment Ethernet chargé à plus de 40% en moyenne) ou sur-dimensionnements (ligne spécialisée coûteuse utilisée à 30% de sa capacité pendant la moitié du temps).

- Observer les tendances. Une étude sur la longue durée sert à estimer le moment où il sera nécessaire d'augmenter la capacité du système.