Association francophone
pour la recherche et l'enseignement en
sciences et technologies de l'information


Stic-Hebdo

No 15. 26 avril 2004

Sommaire : Cinq questions à Jacques Printz (CMSL)| L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Entreprises | Manifestations | Détente

Abonnement/Désabt.

Accueil Asti

Accueil Gerbert

Numéros précédents

Dictionnaire


"Sur la maîtrise des systèmes, j'aimerais lancer une réflexion interdisciplinaire, qui serait possible car le Cnam comporte un puissant pôle économie-gestion. "

Cinq questions à Jacques Printz

Chaire de génie logiciel, Cnam/CMSL

Stic-hebdo : Pour enseigner le génie logiciel au Cnam, vous avez créé le CMSL , Centre d'étude pour la maîtrise des systèmes et du logiciel. Pourquoi ce mot de maîtrise, plutôt que développement ?

Jacques Printz : Les systèmes d'information (comme tous les systèmes technologiques) ont une dynamique propre. Si l'on n'y fait pas attention, leur développement diverge, et ne s'arrête qu'à l'épuisement des ressources de l'organisme qui les développe. Le nom choisi pour notre centre exprimait l'attention que nous voulions porter aux moyens qu'ont les ingénieurs pour s'assurer que les choses convergent. C'était il y a quelques dix ans, quand nous avons créé le centre avec Jean-Pierre Meinadier (que vous avez interviewé dans votre numéro 102 ).

La première chose qui me frappe aujourd'hui, quand je regarde l'informatique, avec 35 ans de recul, c'est la taille des systèmes. Quand j'étais ingénieur débutant, travaillant sur les systèmes d'exploitation,  sur Multics au MIT et ensuite chez Bull avec Gcos 64 puis Gcos 7, les systèmes qui comportaient plus d'un million de lignes de code pouvaient presque se compter sur les doigts de la main, dans le monde. La taille moyenne des applications était de l'ordre de  50 000 lignes de Cobol, voire moins. Aujourd'hui on ne compte plus les applications qui ont dépassé le million.

Du point de vue fonctionnel, les ambitions des systèmes sont passés d'applications bien particulières (une paye) à l'intégration complète des systèmes dans l'organisation qu'ils sont censés aider, dans leur business process (modèle d'affaires). 

S.H. : Mais la puissance des machines ne facilite-t-elle pas la maîtrise en masquant les difficultés techniques de détail ?

J.P. : On nous répète que les machines ont aujourd'hui une puissance phénoménale par rapport à ce qu'elles étaient... mais nous butons toujours sur des problèmes de performances globales. Si on y regarde de plus près, on trouve toujours un important différentiel entre la puissance unitaire des unités centrales et celle des entrées-sorties, qui n'ont pas suivi la loi de Moore, c'est le moins qu'on puisse dire. Pour compenser cet écart, on met en place des caches et autres dispositifs. Et l'on viole ainsi une des lois fondamentales de la programmation qui est d'éviter de dupliquer l'information, car on ouvre toujours la porte à des possibilités d'incohérence... et si l'on veut en permanence contrôler que les caches sont le reflet de la donnée de référence... on ne fait qu'aggraver les problèmes. On se crée des problèmes de traçabilité qu'on ne sait pas résoudre.

De très grandes entreprises françaises ont du renoncer à d'importants projets novateurs, car leur déploiement a achoppé sur les performances. Pour les systèmes de la "guerre des étoiles", pour le système anti-missiles, on parlait de dizaines de millions de lignes d'Ada. Il est clair que ce n'était pas faisable, que l'on était au delà de l'humainement raisonnable. Nous n'avons ni les cerveaux, ni les organisations stables nécessaires à de tels projets,  Ce qui me fait un peu peur, et j'en ai parlé dans mon livre Puissance et limites des systèmes informatisés (chez Hermès/Lavoisier), c'est "l'informatisation de la société". Les systèmes de santé, par exemple, détiennent quantité d'informations confidentielles. A la limite, n'y a-t-il pas des systèmes qu'il ne faudrait pas informatiser ? 

S.H. : Alors, quel type de solutions, de démarche, proposez-vous ?

J.P. Une caractéristique intéressante des problèmes de performances, c'est qu'ils sont diffus. Il est rare que l'on parvienne à déterminer un goulet d'étranglement qu'il suffise d'améliorer pour que tout marche bien. Quand on y parvient, d'ailleurs, c'est souvent que l'architecture est bonne, car le diagnostic y est facilité. Un des principes d'architecture, c'est qu'il faut concentrer les fonctions critiques sur quelques modules bien précis. Si par exemple on a besoin d'un accélérateur, pour améliorer le débit sur un réseau, il faut que la fonction cache soit bien identifiée comme telle et que tous ceux qui en ont besoin l'utilisent. Si la fonction se dilue un peu partout, elle devient ingérable.

Nous aimons bien ici le terme d' "architecture testable" . Il exprime que l'architecture n'est pas un objet mathématique destiné à être contemplé. C'est un concept qui est fait pour aider les ingénieurs à construire des projets cohérents et aussi pour organiser leurs équipes. Dans des projets qui comportent des millions de lignes de code, il faut faire travailler en parallèle des centaines d'ingénieurs. Ce n'est pas gérable sans une architecture de système appropriée qui facilitera la communication entre les équipes.

S.H. : La recherche française est très dynamique dans le domaine de la validation-vérification. N'est-ce pas un des grands atouts de la maîtrise des systèmes, autant et plus que l'architecture?

J.P. : C'est aussi un autre thème important (dans lequel je ne rangerai pas les questions de performances). Il ne faisait  pas l'objet d'enseignement bien identifié quand je suis arrivé ici.

Quand on regarde les techniques ou les technologies qui sont utilisées aujourd'hui pour vérifier les systèmes, puis pour les valider par rapport à leurs objectifs, il faut distinguer ce qui relève des méthodes que l'on peut qualifier de traditionnelles (tests, boites noires et boites blanches, graphes de couverture, etc.) et les méthodes formelles (preuves de programmes en particulier). Ces dernières ont bénéficié, en France, de beaucoup d'énergies intellectuelles et de ressources financières. Elles sont intéressantes pour des sous-ensembles critiques, pour les coeurs de système. Par exemple, tout système d'information comporte aujourd'hui un moniteur transactionnel, dont le fonctionnement parfait est essentiel.  Et on lui a appliqué (chez IBM pour CICS) des spécifications formelles, en l'occurrence  Z (dans sa pré-version B), de J.R. Abrial. A l'époque où j'étais responsable des compilateurs chez Bull, nous utilisions beaucoup cette technique pour construire des compilateurs. Et avec succès.

Mais les méthodes formelles ont elles aussi leurs limites. D'abord, comme elles vérifient effectivement des calculs, elles sont soumises à l'explosion combinatoire. On connaît  aujourd'hui la taille des plus gros programmes qu'elles peuvent traiter, au grand maximum 100 000 lignes de code. 50 000 lignes en pratique.

Ensuite, les méthodes de type algébrique exigent une connaissance des mathématiques d'un niveau qui n'est pas vraiment compatible avec la formation des ingénieurs, telle qu'elle est aujourd'hui, même au plus haut niveau. Je me rappelle d'un ingénieur de l'Armement qui avait été traumatisé par les cours d'informatique théorique qu'il avait suivis à Polytechnique ! Or (et l'on a parfois du mal à le comprendre, dans le milieu académique et même dans le milieu industriel), un maître d'ouvrage a besoin d'avoir confiance dans ce que fait son maître d'oeuvre. Un directeur de projet doit suffisamment comprendre ce que font ses ingénieurs. Si une technique pour construire le système s'apparente pour lui à de la magie, même si c'est de la magie à base de mathématiques, la confiance ne peut s'établir, et il y a des réactions de rejet liées aux contingences humaines.

Enfin, la logique s'est beaucoup développée à la fin du XIXe et au début du XXeme siècle, aboutissant à de belles théories (logique du premier ordre, calcul des prédicats, avec quantificateurs, etc. ). Le problème, en particulier pour le calcul des prédicats, c'est que cette logique ne permet pas de raisonner proprement sur des programmes, car elle présuppose un univers où il n'y a pas de temps, où la vitesse de calcul est infinie. Alors que le monde de l'ingénieur relève du constructivisme, soumis au temps et à ses aléas, s'appliquant à des objets imparfaits, parce qu'ils sont faits par des homme qui sont eux-mêmes imparfaits. Von Neumann s'est beaucoup intéressé à ces questions, mais n'a pas été beaucoup relayé sur ce point.

Henri Poincaré a écrit que, pour raisonner sainement sur des ensembles, il faut qu'ils soient complètement déterminés. Or, en informatique, on opère constamment dans des ensembles évolutifs, donc dans du non-prédicatif, et du coup l'on aboutit à des paradoxes. Dans le contexte de grands ministères où je suis appelé en consultation, les programmes sont soumis à la législation, que le gouvernement ou le parlement modifie constamment. Et  il faut absolument que les systèmes d'information suivent. Or ils sont énormes, il y a des dizaines de systèmes, des applications qui atteignent deux ou trois millions de lignes de Cobol,  qui matérialisent tout l'historique de la fiscalité, et qu'il faut modifier en quelques mois ! Une difficulté réellement colossale.

Il faut  donc voir ces méthodes comme des compléments aux méthodes générales. La clé de la fiabilité et de la sûreté de fonctionnement des systèmes, c'est l'architecture, qui permet de concentrer la complexité sur des pièces bien particulières du système, et d'appliquer des méthodes formelles à ces pièces seulement. Et, bien sûr, de les faire réaliser par les ingénieurs les plus compétents.

Si on regarde l'histoire des techniques sur un ou deux siècles, elles ont abouti à des objets  extrêmement complexes, par exemple un véhicule d'aujourd'hui. S'il fonctionne de manière sûre, malgré sa complexité élevée, c'est parce qu'il est bien hiérarchisé. On a réussi à créer des entités autonomes, à les faire travailler de concert. On est tenté par l'analogie avec les organismes vivants, mais la métaphore est dangereuse. Mais on peut parler, avec Herbert Simon (notamment dans son livre La science des systèmes, science de l'artificiel, qui en est à sa troisième édition)  d' "architecture de la complexité". Un grand système  c'est un ensemble de machines coopérantes. Comme on sait valider et vérifier une machine, nous avons là une bonne stratégie d'ingénieur.

S.H. : Comment traduisez-vous ces objectifs dans vos activités d'enseignement et de recherche?

J.P. Le cours de génie logiciel forme quelque 1000 étudiants chaque année (en y incluant notre convention avec l'Ecole centrale d'électronique, qui envoie ses ingénieurs chez nous pour cette spécialité). Il s'agit d'un cours de 60 heures, avec des exercices dirigés, une unité de valeurs qui va se refondre dans le système LMD et notre école d'ingénieurs du Cnam, au niveau première année du master.

L'ambition de ce cours est que ceux qui l'ont suivi aient compris trois choses :
- la gestion de projet c'est très important,
- l'architecture c'est important, et ne se réduit pas à la connaissance d'un langage de modélisation,
- la validation-vérification  et les tests,  c'est important. Il faut que les ingénieurs aient, une fois au moins dans leur vie, entendu parler de tests (40 à 50% de l'effort d'un projet est dédié aux tests, parfois plus), ce qui n'est pas le cas aujourd'hui de la plupart des ingénieurs débutants  en informatique.

Nous envisageons de mettre en place un enseignement sur les problèmes de performances, car les problèmes rencontrés sur le terrain viennent pour une part du manque de formation spécifique aux plates-formes. Quand je faisais mes études d'ingénieur, nous étions très sensibilisés aux limites : résistance des matériaux, vibrations dans un moteur, effets des courants forts... En informatique, on en a perdu l'habitude.

La manière d'enseigner a son importance. Il y a quelques années, Maurice Nivat (un des grands introducteurs de la théorie des automates en France), m'avait demandé de faire un cours industriel dans un DESS de Paris 7. J'expliquais comment, dans une société comme Bull, on utilisait cette théorie pour faire de compilateurs et des protocoles. La plupart des étudiants étaient abreuvés de cette théorie, mais n'avait aucune idée de ce à quoi elle pouvait servir dans la pratique. Quant on veut former des ingénieurs, il faut d'abord montrer les applications, les types de programmes qu'on peut construire avec une telle théorie. Après quoi l'étudiant est prêt à assimiler la théorie et son formalisme mathématique.

Et le cours se juge sur une étude de cas (je suis un adversaire du QCM). La correction représente un gros travail, mais c'est un exercice intéressant, y compris sociologiquement. On voit comment évoluent les gens. Une étude de cas permet de voir si la personne a compris quelque chose, même si elle s'est un peu trompée dans les calculs.

Quant à la recherche, elle se pratique ici dans le cadre du  Cedric, qui travaille notamment sur le mulimédia, l'optimisation combinatoire et plus généralement la recherche opérationnelle, la validation des "systèmes sûrs". Nous allons probablement utiliser la réforme LMD et l'évolution de notre école d'ingénieurs pour pousser la recherche dans des domaines comme l'architecture et la validation des systèmes complexes.

Nous essayons d'alimenter la profession en réflexions dont nous pensons qu'elle peut l'aider. Cela tient à l'existence des chaires qu'a créé le Cnam (ce dont il faut le remercier) :  en son temps la chaire de génie logiciel, puis la chaire  d'intégration de systèmes et, tout récemment une chaire de systèmes enfouis, confiée à Pierre Paradinas (qui a fait une grande partie de sa carrière chez Gemplus). Nous sommes quelques uns à regarder le système d'information dans sa totalité, parce que les vraies difficultés sont à ce niveau, plus que dans telle ou telle partie des applications, comme l'affichage de belles images, les animations élaborées sur les écrans...

Sur la maîtrise des systèmes, comme pour l'ingénierie en général, il est difficile de faire un travail utile dans le cadre d'un laboratoire de recherche académique, si prestigieux soit-il. Car les projets industriels trébuchent rarement sur des problèmes techniques, mais plutôt sur des contraintes économiques, de délais ou de qualité globale, et sur la difficulté de gérer des équipes nombreuses. J'aimerais lancer une réflexion interdisciplinaire sur ces problèmes, qui serait possible dans le cadre du Cnam puisque nous avons un puissant pôle économie-gestion.

Propos recueillis par Pierre Berger


Actualité de la semaine

Ethique et information

Une conférence publique sur les enjeux éthiques des technologies de l'information est donnée ce mardi 27 avril, à 17 heures, au Collège de France. Y participent notamment Gilles Kahn (Inria) et Jean-Gabriel Ganascia (Lip6). Cette manifestation sert de coup d'envoi à un cycle de conférences organisé dans le cadre de l'école doctorale Edite. Contact : Jean-Gabriel.Ganascia@lip6.fr

Prix de thèse Jean Lagasse

Le Laboratoire d'analyse et d'architecture des systèmes (Laas) du CNRS a créé un prix de thèse en hommage à Jean Lagasse, son directeur fondateur. Ce prix récompensera chaque année une ou plusieurs thèses de doctorat, françaises ou en cotutelle, dans le domaine des sciences et technologies de l'information et de la communication (Stic) : automatique, informatique, traitement du signal, micro-électronique, et micro et nano-systèmes (thématiques des sections 07 et 08 du Comité National). Le prix Prix est doté de 4000 euros en 2004. Les candidats sont invités à soumettre leur dossier avant le 15 juin. Pour en savoir plus.


Théories et concepts

Soft computing et transports

Un séminaire "soft computing et transports", organisé avec l'Inrets, se tiendra le 27 mai au Cnam, dans le cadre du forum "Systèmes et logiciels pour les NTIC dans le transport". Pour plus de renseignements^

Pour un grand programme européen, l'ordinateur quantique

Dans leur lettre "Automates intelligents" du 29 janvier , Jean-Paul Baquiast et Christophe Jacquemin se demandent comment se présentera l'ordinateur quantique dont certains prévoient des applications industrielles dès les années 2020 ? Sera-t-il solide, liquide ou gazeux ? Aura-t-il la taille d'un immeuble ou tiendra-t-il dans la main ? Bien malin qui aujourd'hui pourrait le dire ... Parmi les grands desseins pour l'Europe, l'ordinateur quantique devrait figurer en bonne place. A lire sur le site

La preuve par l'informatique

Une revue majeure du domaine des mathématiques a finalement accepté de publier la démonstration de la "conjecture de Kepler" proposée en 1998 par Thomas Hales, de l'Université de Pittsburgh (Pennsylvanie), sur la base de calculs informatiques. C'est en 1611 que Johannes Kepler, énonce - sans en apporter la preuve formelle - ce que tout bon marchand de fruits sait d'instinct : la meilleure façon d'empiler des oranges consiste à former une pyramide où chacune d'entre elles repose sur le creux délimité par ses voisines de la couche inférieure.

La résolution de ce problème exposée par Hales il y a six ans n'avait à l'époque pas convaincu tout le monde car elle reposait en grande partie sur des opérations effectuées par ordinateur, un instrument dont les mathématiciens se méfient comme de la peste. Pendant six longues années donc, des correcteurs se sont penchés sur les travaux de l'Américain afin d'en vérifier à la main le moindre résultat. Mais la tâche était titanesque et il a fallu trancher la question de la validité des preuves fournies en dépit des ambiguïtés liées au recours à l'informatique. Les prestigieuses Annals of mathematics ont ainsi décidé de publier la partie théorique des recherches de Hales, laissant à un journal plus spécialisé, Discrete and computational geometry, le soin d'éditer le reste. Cette décision représente un compromis qui fera date dans l'histoire des débats de plus en plus fréquents qui opposent les mathématiciens partisans de l'ordinateur et ses détracteurs. (In math, computers don't lie. Or do they ?) NYT 06/04/04

Selon nos informations, d'autres questions mathématiques sont actuellement étudiées par ce genre de méthodes, notamment la classification des groupes finis simples. Y aura-t-il de plus en plus de résultats de ce genre ? La question reste ouverte.

Un consortium pour soutenir un logiciel libre

Inédit, la lettre d'information de l'Inria: commente la création du consortium Scilab, pour soutenir ce logiciel de calcul. Au sommaire du même numéro : les défensines (peptides anti-microbiens), nombres premiers, détection des odeurs, recensement des publicités, détection automatique des lésions cérébrales, création d'images, générateur d'aléa et enfin bibliographie :
- Recherche d'information par le contenu visuel, par N. Boujemaa et F. Jurie (Eds) Editions Hermes, Technique et sciences informatiques (revue RSTI/TSI)
- Les virus informatiques : théorie, pratique et applications, par Eric Filiol, Springer (collection Iris).

Enseignement

Accord cadre Sun - Ministère de l'Education nationale

" Le groupe américain a renouvelé un accord-cadre signé il y a deux ans avec le ministère français de l'Education nationale. Il compte par ce biais accélérer la diffusion de ses solutions Java Deskstop System (JDS) - qui regroupe, entre autres, une version de Linux et la suite bureautique StarOffice - et Java Enterprise System (JES), l'offre serveur logiciel d'entreprise du constructeur (annuaire, J2EE, identité, Web, portail, messagerie, collaboration,...) dédiée à des projets Internet professionnels (portails...)." lu sur 01.net O1.net. Voir aussi : Educnet, Sun Educnet, Plan.

Autrans 2005. Le territoire de l'Internet - l'Internet des territoires

Les dates d'Autrans 2005 sont fixées: les 13, 14, 15 janvier. Le thème, "les territoires", répond à l'objectif de rassembler et confronter les initiatives régionales et locales par lesquelles les acteurs territoriaux publics, privés et associatifs s'approprient l'internet et les TIC. Il s'agira aussi, pour les participants à Autrans 2005, de partager leurs expériences, d'évaluer et de faire connaître les outils coopératifs disponibles pour le développement d'intelligences collectives.
D'autre part, Internet est lui-même un territoire que tentent d'investir de nombreux acteurs. Dans l'état actuel de son développement, il faut savoir distinguer ce qui est appropriable de ce qui est un bien commun, et savoir aussi comment protéger ce qui est à mettre en commun. Le site.

Formation continue des enseignants en pédagogie des TICE.

Deux cris d'alarme dans la Tribune libre de l'IUFM de Grenoble Au 15 mars 2004, l'organisation académique pour l'année scolaire 2004-2005 est en cours d'élaboration ; ce sont en particulier toutes les dispositions reposant sur des « moyens provisoires » qui sont en cours d 'étude. Sur ces moyens provisoires repose (entre autres) la plus grande partie du suivi des opérations TICE, qu'il s'agisse du tutorat, de l'assistance technique, ou encore de la formation continue. Les renseignements disponibles à ce jour laissent présager une réduction importante du volume général de ces moyens provisoires. Sans que les chiffres soient officiellement publiés, il semble aujourd'hui très probable que l'équipe de formation continue en pédagogie des TICE soit réduite dans des proportions fort importantes voire totalement supprimée. Si les prévisions actuelles devaient se confirmer, il pourrait ne rester aucune possibilité d'intervention non disciplinaire auprès des établissements, alors même que l'Académie prétend se poser en partenaire des collectivités dans les ambitieuses opérations de « cartable électronique » engagées en Isère et en Savoie. Le site. (A la demande d'authentification répondre en cliquant sur "annuler")

Jacques Baudé

C2i : CD-Rom

Rappelons que dans le but de développer, de renforcer et de valider la maîtrise des technologies de l'information et de la communication par les étudiants en formation dans les établissements d'enseignement supérieur, a été institué un Certificat informatique et internet (C2i).
Il est prévu deux niveaux :
- un niveau 1 d'exigence applicable à tous les étudiants et les stagiaires de formation continue. Ce premier niveau sera exigible pour la titularisation des professeurs des écoles ; seul ce niveau 1 est concerné par le cédérom téléchargeable.
- un niveau 2 faisant l'objet d'exigences plus élevées en fonction des orientations professionnelles des formations dispensées (à travers les enseignements de pré-professionnalisation et les filières professionnalisées).Le site.

TIC et LMD

Une conférence a été faite, le mardi 30 mars 2004, dans le cadre du séminaire "Mettre les TIC au service du LMD". L'objectif de ce séminaire
était de sensibiliser la communauté universitaire à la nécessaire mise en cohérence des stratégies de déploiement des TIC et de mise en ouvre du LMD
(Licence-Master-Doctorat) dans les établissements. Plus précisément, il s'agissait de mettre en valeur les réflexions en cours et les initiatives engagées pour en généraliser les acquis dans la perspective de renforcer l'association TIC et LMD. Le texte (8 pages, plus annexes, en PDF).

Au sommaire de Cyberécoles

Dans la foulée des Rencontres de l'Orme sur l'enseignement à l’heure d’Internet et des nouvelles technologies, on consultera le site de Cyberécoles. Au sommaire des dernières livraisons : l'Activ board de Promethean, la commission Thélot publie la synthèse du Grand débat, plusieurs sondages, rapports et bilans en France pour le développement des Tice...


Dans les entreprises

Développement de l'EDI

Au sommaire de VendrEDI numéro 77 : B2B automobile, Microsoft-Sun, standards WS, une architecture en kit, Udef pour assurer.

Tous les numéros peuvent être téléchargés


La recherche en pratique

Campagne 2005 des écoles thématiques

La campagne 2005 d'appel à propositions des écoles thématiques vient d'être lancée. Ouverte aux chercheurs et ingénieurs, cette modalité particulière de formation vise notamment à accélérer la diffusion des avancées conceptuelles, méthodologiques et techniques des domaines scientifiques, à favoriser l'émergence de nouvelles thématiques, à développer l'interdisciplinarité et à aider à structurer les communautés scientifiques.
Les instructions relatives à la préparation des projets sont disponibles sur le site du CNRS.
Pour vous accompagner dans l'élaboration de vos projets et la constitution de votre dossier, le conseiller formation de votre délégation est à votre disposition. Il vous communiquera la date limite de dépôt des dossiers (fin juin).
Le chargé de mission formation du département scientifique pourra également vous assister.

Carrefour des possibles 2004

- 27 avril : 12e Carrefour des Possibles à Paris au ministère de la Recherche,
- 5 mai : Carrefour Provence-Alpes-Côte d'Azur à Aix-en-Provence,
Le Carrefour des possibles est un rendez-vous régulier au service des innovateurs et des utilisateurs des technologies de l'information et de la communication.
C'est un lieu de découverte de projets nouveaux qui favorise les contacts et stimule les échanges. Le Carrefour se déroule en soirée. Pendant une heure, dix projets innovants se présentent : jeunes entreprises et laboratoires installés, associations et services publics, étudiants et créateurs, etc.
Autour d'un verre, les participants peuvent ensuite retrouver les porteurs de projets qui disposent chacun d'un espace pour détailler et démontrer leur idée. L'entrée est libre.
Le site.

Programmes d'actions intégrées

"Une action intégrée est un projet de recherche, établi conjointement par deux équipes de recherche, l'une française, l'autre étrangère, qui bénéficient après évaluation du soutien financier des deux pays." La date de clôture d'un certain nombre de ces PAI est fixée au 14 mai à minuit (heure française). Pour en savoir plus, consulter
le site de la direction des relations internationales du CNRS . et lire la brève consacrée aux PAI dans l'édition du 12 mars 2004 de SG Hebdo

La robotique a le vent en poupe (aux USA)

Tandis que les progrès technologiques ne cessent de tirer vers le bas le coût des composants électroniques, les fonds fédéraux alloués à la recherche universitaire en robotique enregistrent une hausse marquée. L'Institut de robotique de la Carnegie Mellon University (Pennsylvanie) a ainsi vu son financement augmenter de 48% depuis l'an 2000 et d'autres comme les instituts de technologie de Californie, Virginie et Géorgie ont enregistré des progressions de plus de 50% ces dernières années. Ce mouvement est en grande partie lié à l'intérêt que porte l'Armée américaine au développement de véhicules terre, mer ou air autonomes. A l'heure actuelle, la Darpa (Defense ddvanced research projects agency) soutient quelque 40 projets de recherche de ce type. Entre 1991 et 1999, le Pentagone a dépensé 3 milliards de dollars pour l'élaboration d'avions sans pilote et il devrait investir près de 10 milliards supplémentaires au cours des six prochaines années. Le Département de la Défense espère d'ailleurs s'équiper de véhicules terrestres autonomes pour un tiers de sa cohorte d'ici 2015. BG 11/04/04 (More cash flowing to robotics research). D'après boston.com. Communiqué par l'Ambassade de France.


Manifestations

Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.

Semaine du document numérique

La Semaine du document numérique se tiendra du 21 au 25 juin à La Rochelle. Cette manifestation regroupe en un même lieu 20 rencontres scientifiques. Il s’agit là d’une volonté du Réseau thématique pluridisciplinaire Document du département Stic du CNRS de fédérer les activités portant sur le document autour de manifestations (conférences, rencontres, colloques thématiques, journées, ateliers, …) en un même lieu, sur une semaine. L’objectif est avant tout de faire se rencontrer des communautés scientifiques travaillant sur un même objet dans des disciplines scientifiques aussi diverses que les informaticiens, historiens, linguistes, cogniticiens, pédagogues, ….

Les thèmes scientifiques portent principalement sur trois axes :

• Document et patrimoine : la valorisation du patrimoine est une thématique très active tant au niveau français qu’européen. Elle intéresse à la fois des historiens, des littéraires, des informaticiens. Nous proposons d’identifier dans la SDN une composante forte sur le patrimoine, tant d’un point de vue préservation et diffusion au plus grand nombre, que du point de vue analyse de contenu en vue d’une indexation, d’une recherche d’informations, d’une aide à l’expertise.
• Document et contenu : De nombreuses communautés s’intéressent au contenu du document en vue d’un traitement automatique. Il s’agit plus particulièrement de dégager des indices image, textuels, thématiques, lexicaux … en vue de la constitution d’indexes nécessaires pour la navigation, la recherche d’informations, l’indexation. Classiquement, ces études portent sur « l’indexation de documents par le contenu » dans le cadre de documents provenant du Web, de fonds documentaires actuels ou anciens, de documents métiers ou thématiques (cartes, entreprises, organisations, …)
• Document et usage : Le document numérique donne lieu à de nouveaux usages qu’il convient d’identifier, d’analyser, et d’intégrer dans les différentes phases de conception, d’utilisation, et de gestion du document. Cet apport du support numérique constitue une véritable mutation dans le mode d’interaction entre concepteurs, utilisateurs, gestionnaires des documents.

Au delà des spécificités de chaque manifestation, le RTP Doc proposera de faire un bilan des actions de recherche actuelles, et de dégager les orientations scientifiques en s’affranchissant des barrières disciplinaires.

Cette semaine est organisée par le CNRS (RTP Doc du département STIC) et le laboratoire L3i de l’université de la Rochelle. Les inscriptions sont ouvertes dès à présent : Contact :Rémy Mullot

Processus cognitifs et technologies pour l'apprentissage

Le réseau thématique pluri-disciplinaire CNRS-STIC "Apprentissage, éducation et formation" (RTP 39) organise une école thématique sur le thème "Processus cognitifs et technologies pour l'apprentissage". Cette école aura lieu au centre Maeva des Ecouges, à Autrans (Isère), du 2 au 7 juillet 2004.

Public concerné :
- Chercheurs CNRS, enseignants-chercheurs et doctorants dans le domaine des EIAH ou dont les EIAH sont un champ d'application, issus des disciplines suivantes : informatique, psychologie, didactique, sciences de l'éducation, sciences du langage, épistémologie, ergonomie, sociologie ;
- R&D industrielle, chefs de projet TICE (notamment campus numérique).
L'effectif de l'école sera limité à 80 personnes. Pour cette raison, les personnes intéressées doivent se soumettre à une procédure de pré-inscription au terme de laquelle les inscriptions seront confirmées. Une attention particulière sera apportée, lors de l'examen des candidatures, aux motivations et aux éléments du curriculum vitae attestant de l'engagement dans la recherche sur les EIAH.

Thème scientifique :
Placée sous la responsabilité scientifique de Jean-François Rouet (Laboratoire LaCo, Poitiers, cette seconde école thématique CNRS du RTP 39, mettra l'accent sur les problématique cognitives pour aborder les questions scientifiques et technologiques soulevées par la conception, l'évaluation et l'usage des environnements informatiques pour l'apprentissage humain (EIAH). Il s'agit d'un domaine de recherche largement pluridisciplinaire (informatique, psychologie, didactiques, sciences socialesŠ) et actuellement en pleine expansion. A une approche relativement cloisonnée qui a pu prévaloir pendant les dernières décennies, se substitue peu à peu une approche qui intègre à la fois les avancées de la technologie et les connaissances sur le fonctionnement cognitif et social de l'être humain. Cette évolution rapide du champ scientifique s'accompagne d'une demande sociale et industrielle en forte croissance, qui vise à mieux articuler la recherche fondamentale, les politiques éducatives et l'innovation technologique.
La première école thématique "Théories et méthodes pour la conception, l'évaluation et l'usage d'environnements informatiques pour l'apprentissage humain" qui s'est tenue à Autrans en juillet 2003 a permis aux participants de construire des outils conceptuels et méthodologiques pour l'interaction entre les disciplines fondatrices de cette nouvelle science des environnements informatiques pour l'apprentissage. L'école projetée en 2004 va prolonger cette initiative en approfondissant les aspects théoriques et méthodologiques pertinents pour l'étude des apprentissages humains.
Cette seconde école est donc centrée sur les théories cognitives et sociocognitives des apprentissages, et sur les techniques permettant d'estimer l'impact des environnements informatiques sur les conduites des individus et des groupes en situation d'apprentissage (évolution des connaissances, des compétences et des attitudes). Elle ne vise donc plus à aborder en largeur l'ensemble des considérations théoriques pertinentes au domaine, mais à traiter en profondeur l'une des dimensions clés identifiées par les travaux du Réseau Thématique Pluridisciplinaire.
Information et inscriptions . Contact : Béatrice Buccio.

La gestion des connaissances, un outil efficace pour la Logistique ?

Sole France organise en coopération avec l'Ensam l'après midi du 29 avril prochain une réunion de présentations sur le thème : La gestion des connaissances (KM), un outil efficace pour la Logistique ? à l'espace Hamelin, 17 rue Hamelin à 14 heures. Animateurs : Gilles Balmisse (Knowledge
Consult) - Marc de Fouchécour (Ensam Paris)

La réunion a pour objet la revue de l'apport aux grandes fonctions de l'ingénierie logistique et de la logistique en opérations, des méthodes basées sur le Knowledge Management, l'évaluation et la diffusion de l'état de l'art le plus avancé afin de susciter de nouvelles expériences. Elle est une occasion pour les experts et les spécialistes du Knowledge Management d'affiner la vision des champs d'application possibles de leurs disciplines à la logistique et à l'entreprise étendue.

La réunion alternera des exposés sur la problématique et des témoignages. Elle est ouverte sur inscription préalable, ce qu'on peut faire en ligne. Le site.


Le livre de la semaine

OCaml : un langage apprécié des enseignants

Apprentissage de la programmation avec OCaml. par Catherine Dubois et Valérie Ménissier-Morain. Hermès-Lavoisier. 454 pages, 110 euros.¨

Pour bien programmer, il ne suffit pas de maîtriser un des nombreux langages de plus ou moins haut niveau courants dans l'industrie. Il faut aller plus profond dans les structures et les concepts fondamentaux. OCaml met en oeuvre le "style fonctionnel" et est souvent utilisé par les enseignants dans le cadre des formations qu'il donne. L'ouvrage que publient Catherine Dubois (Cnam) et Valérie Ménissier-Morain (Paris 6) est destiné à des débutants en informatique, plus précisément en programmation. Il est également un support pédagogique pour le programmeur qui désir aborder le style ML. Les notions retenues sont disponibles dans tout dialecte de ML, en particulier Caml-Light, OCaml et StandardML.

La première partie du livre introduit OCaml, puis décrit les fonctions, les listes, les types produits (paires et n-uplets), sommes et récursifs, les données mutables, les exceptions. Elle introduit enxsuite à la modularité et au choix des structures de données. La deuxième partie propose des développements complets : alignement de séquences ADN, vérification de formules logiques, jeu Court-circuit (exemple graphique).


Détente

A l'intention des ergonomes

Nous laissons en rubrique détente, mais après tout il peut être utile à ceux qui conçoivent des IHM, ce fichier de présentation qui recense un bon nombre des "illusions d'optique" les plus connues, et d'autres moins connues. Illusions

Toi aussi tu peux tout casser

Juste pour jouer. Le graphisme est assez réussi. Jouez.

Demain, une automobile aussi peu sûre que Windows ?

Retour sur un vieux débat Voyez vous-même.

Le musée des machines qui ne peuvent pas marcher

Ici aussi, quelques classiques, mais d'autres idées moins connues. Le site.


L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Jacques Baudé, Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.