Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Actualité
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
25/11/04 DEISA : un supercalculateur virtuel pour l'EuropeI
23/11/04 No Software Patent
18/11/04 scholar.google.com : un moteur de recherche dédié aux documents scientifiques
17/11/04 Le projet de collisionneur linéaire international
17/11/04 L'avion X-43A de la Nasa atteint Mach 10
15/11/04 Getting Up to Speed: The Future of Supercomputing
15/11/04 L'Exposition Universelle d'Aichi, 2005
14/11/04 Le futur Internet de l'armée américaine
08/11/04 Course aux teraflops : la suprématie américaine
09/11/04 Génération de comportements coordonnés à partir de systèmes chaotiques
08/11/04 L'hypothétique rétrodifférenciation cellulaire
08/11/04 L'infodominance américaine et la protection des administrations publiques et des entreprises européennes
 

Novembre 2004

DEISA : un supercalculateur virtuel pour l'Europe
CJ 25/11/04

Six pays européens(1) vont mettre en commun leurs moyens de calcul afin de déployer un environnement de calcul distribué supra-national, avec pour objectif d'améliorer la compétitivité de l'Europe dans tous les domaines des sciences et des technologies qui nécessitent des calculs intenses. Une belle initiative donc que ce projet baptisé DEISA(2), constatant que jusqu'à présent seuls les centres de calcul nationaux mettaient à disposition des chercheurs leurs ressources informatiques. Or, la concurrence croissante entre l'Europe, les USA et le Japon impose de disposer de toujours plus de puissance de calcul (voir ci-dessous notre actualité du 8/11 : Course aux teraflops : la domination américaine).

Piloté par la France (via le CNRS-IDRIS (3)), le projet est financé pour 5 ans dans le cadre du 6eme Programme Cadre de Recherche et de Développement Technologique (PCRD) de la Commission Européenne. Dans une première phase, le supercalculateur réparti résultera de l'intégration en réseau de quatre calculateurs IBM français, allemands et italiens. Le système final regroupera 4000 processeurs ainsi qu'une énorme capacité mémoire pour une puissance totale de 22 Teraflops(4), plaçant ce supercalculateur en quatrième position mondiale(5)). Dans une seconde phase, d'autres systèmes IBM seront intégrés, notamment ceux provenant de Finlande, permettant d'atteindre rapidement les 30 Teraflops et plus.

Architecture du système

La future architecture du supercalculateur DEISA a été conçue pour fournir une interface simple aux utilisateurs finaux. Elle se compose de deux couches applicatives. Au niveau de la couche interne, des plates-formes de calcul distribuées semblables (même architecture, même système d'exploitation) forment ensemble un supercalculateur virtuel distribué. La plate-forme ainsi créée est un super cluster de noeuds de calcul, situés dans différents endroits et dans différents pays mais qui apparaissent comme n'étant qu'une seule et même machine pour les utilisateurs.

L'architecture du  système DEISACette première couche applicative bénéficie du système de fichier IBM Global Parallel File System (GFPS), qui permet de fédérer des systèmes de données distants de manière dynamique. Il permet de redistribuer aisément les tâches de calcul d'un noeud du réseau afin de le libérer rapidement, le rendant de nouveau opérationnel pour des opérations de calcul nationales.

La deuxième couche applicative permet de connecter différents autres types de ressources de calcul (ordinateurs vectoriels, clusters Linux, etc.) au cluster IBM central, parachevant ainsi la création d'une grille de calcul hétérogène. La première plate-forme ainsi intégrée est le superordinateur ALTIX du centre néerlandais SARA Computing and Networking Services, fabrique par SGI, et équipé de 416 processeurs Itanium. La grille hétérogène du projet DEISA sera administrée grâce au middleware(6) UNICORE, qui gérera la répartition des charges de calcul et de mémoire de façon transparente pour les utilisateurs finaux via une interface Web unifiée.

(1) France (pilote du projet), Allemagne, Italie, Royaume-Uni, Finlande, Pays-Bas. Signalons que grâce à son architecture ouverte, le programme peut s'étendre à tout moment à de nouveaux partenariats.
(2) Distribued European Infrastructure for Supercompution Applications.
(3) Institut du Développement et des Ressources en Informatique Scientifique, situé en France, à Orsay.
(4) Un teraflop = mille millards d'opération (en virgule flottante) par seconde.
(5) En se référant à la liste Top 500 des ordinateurs les plus rapides du monde.
(6) Ou encore intergiciel, en français : terme qui désigne l'ensemble des services qui étendent les systèmes d'exploitation pour fournir aux applications des fonctions de gestion de la distribution (désignation, exécution répartie, sécurité...) et de gestion des ressources distribuées (fichiers, mémoires, objets...).

Pour en savoir plus :
Site DEISA : http://www.deisa.org
Article : Les superordinateurs et la course au pétaflop (2 mars 2004) :


No Software Patents
JPB/CJ 23/11/04



Le site No Software Patents vise à rassembler les opposants à la brevetabilité des logiciels. Les 25 et 26 novembre, le Conseil Compétitivité de l'UE se réunira et tentera de ratifier formellement une proposition de «Directive sur la brevetabilité des inventions mises en oeuvre par ordinateur», qu'on désigne habituellement sous le nom de «directive sur les brevets logiciels». Le 18 mai, le Conseil était parvenu à un accord politique sur une version préliminaire mais n'a pas pris la décision formelle de l'entériner.
Depuis le 1er novembre, de nouvelles pondérations des votes sont appliquées en accord avec l'acte d'adhésion. La somme des votes des pays qui ont soutenu de manière affirmative la proposition législative du 18 mai s'élève à 216, en dessous des 232 voix exigées. Cela créerait un précédent regrettable pour la démocratie européenne si le Conseil de l'UE adoptait une position commune sur une base insuffisante. De plus les 216 votes comprennent ceux des Pays-Bas et de l'Allemagne contre la volonté des parlements nationaux de ces pays.
Il est donc encore temps, à ce jour, pour que les opposants à ce projet de directive se mobilisent pour empêcher son adoption. On trouvera sur le site No Software Patents tous les arguments en ce sens. Nous tiendrons nos lecteurs informés de la suite des évènements.

No Software Patents http://www.nosoftwarepatents.com/fr/m/intro/index.html


www.scholar.google.com : un moteur de recherche dédié aux documents scientifiques
CJ 18/11/04

logo : Google Scholar BetaLa société californienne Google lance une version de son moteur de recherche sur Internet dédiée spécifiquement aux milieux universitaires et académiques. L'objectif est de faciliter l'accès du plus grand nombre (notamment des étudiants) aux matériaux scientifiques et pédagogiques - jusque-là réservés à un cercle restreint - et de devenir un standard dans les écoles et les universités.
Ce moteur, disponible sur http://www.scholar.google.com, entend référencer l'ensemble de la littérature scientifique disponible en ligne, qu'il s'agisse d'articles, de documentations techniques, de revues, de livres... Une belle réalisation issue de la collaboration de Google avec des chercheurs et différents éditeurs scientifiques comme Nature, l'Institute of Electrical and Electronics Engineers, l'Association of Computing Machinery et Online Computer Library Center...

Ce moteur facilitera indéniablement l'accès aux publications scientifiques et techniques provenant du monde entier. Mais il ne résoudra pas la difficulté à laquelle se heurtent beaucoup de chercheurs européens: la difficulté de se faire publier par les grandes revues scientifiques qui sont encore majoritairement anglo-saxonnes. Il faudra donc que les chercheurs utilisent systématiquement la publication sur Internet, même si celle-ci n'offre pas les mêmes avantages en terme de référencement que la publication par les revues dotées de comités de lecture.

Ceci ne dispensera pas néanmoins les Européens de mettre en place un pôle fort de publication regroupant les nombreuses revues et journaux existant dans de nombreux pays, dont la dispersion actuelle ne permet pas d'atteindre un seuil de notoriété suffisant. Ils pourront suivre à cet égard l'exemple de ce qui a été fait par les physiciens, qui ont fusionné leurs journaux nationaux dans l'European Journal of Physics http://www.iop.org/EJ/journal/EJP


Le projet de collisionneur linéaire international
JPB 17/11/04

Après le Futur Grand Collisionneur à Hadrons du CERN, qui devrait entrer en fonctionnement vers 2008, le futur grand équipement en physique des particules sera le Grand Collisionneur Linéaire International. Les réunions entre physiciens se sont multipliées ces derniers mois pour définir ce projet, la dernière venant d'avoir lieu à Pékin en août 2004. L'instrument, linéaire comme son nom l'indique et non circulaire, fera entrer en collision des électrons et des positrons, qui sont des anti-électrons. Les chocs créeront des particules à hautes énergies et autres phénomènes permettant d'étudier les grandes questions encore incomprises de la physique du 21e siècle, la matière noire, l'énergie noire, les multi-dimensions et plus généralement, espère-t-on, la nature fondamentale de la matière, de l'énergie, de l'espace et du temps.

Le projet vu son coût sera international. Le CERN y participera, ainsi en France que le CNRS et l'IN2P3. La technologie choisie sera probablement allemande, développée dans le cadre du projet TESLA par le Deutsche Elektronen-Synchrotron DESY. L'emplacement fait déjà l'objet de nombreuses propositions. Il sera sans doute, selon les négociateurs, américain ou japonais, l'Europe disposant déjà du LHC. Affaire à suivre

Pour en savoir plus
Le site de l'ILC : http://www.interactions.org/linearcollider/index.html
Le projet TESLA The TeV-Energy Superconducting Linear Accelerator :
http://tesla-new.desy.de/content/index_eng.html


L'avion X-43A de la Nasa atteint Mach 10
JPB 17/11/04

L'avion X-43 A atteint Mach 10Le 2e exemplaire de l'avion sans pilote X-43A de la Nasa a réussi le 16/11/04 à battre le record de vitesse des engins mus par un moteur atmosphérique, soit Mach 10 à 110.000 pieds. Le premier avait atteint une vitesse de Mach 7 en avril dernier mais avait du être détruit en vol.

La technologie est celle du scramjet, très proche du statoréacteur expérimenté en France par l'ingénieur René Leduc après la 2e guerre mondiale. L'engin est accéléré jusqu'à Mach 4 par une fusée (en l'espèce la fusée Pegasus, elle-même portée en altitude par un B.52). Le flux d'air est alors suffisamment rapide pour que le carburant injecté s'enflamme, ce qui provoque la poussée nécessaire pour que l'avion puisse voler de façon autonome. L'avantage considérable par rapport à une fusée est qu'il n'est pas besoin d'embarquer d'oxygène. Par ailleurs, l'engin se pilote comme un avion, c'est-à-dire avec plus de souplesse qu'une fusée.

La Nasa voit là une promesse pour de nouveaux développements très prometteurs, aussi bien pour ses propres vols spatiaux que pour des applications commerciales et militaires.

Pour en savoir plus
News Nasa http://www.nasa.gov/home/hqnews/2004/nov/HQ_04373_x43a_scramjet.html


Getting Up to Speed: The Future of Supercomputing
JPB 15/11/04

Rapport : Gettin Up to Speed : The Future of SupercomputingLe rapport d'un groupe d'experts indépendants américains, Getting Up to Speed: The Future of Supercomputing que nous mentionnons dans notre brève ci-dessous sous le titre Course aux teraflops : la suprématie américaine, vient d'être rendu disponible en version préliminaire, sous le titre The Future of Supercomputing: An Interim Report. Il n'est pas encore accessible en version html ou pdf mais peut être lu cependant sur le site des National Academies, sous la forme dite de l'open book http://www.nap.edu/books/0309089956/html/. Il a été présenté à la Conférence SC2004 (The International Conference for High Performance Computing and Communication) de Pittsburg le 14 novembre.

Les décideurs européens devraient impérativement lire ce rapport et s'en inspirer, afin d'en tirer les conséquences qui s'imposent concernant nos pays. Si en effet les scientifiques et industriels américains s'inquiètent de voir les Etats-Unis risquer de perdre leur domination dans le domaine des supercalculateurs, nous pourrions penser qu'ils crient avant d'avoir mal. Que devraient dire leurs homologues de ce côté de l'Atlantique. Mais la question ici n'intéresse que les militaires en charge de la simulation des armes nucléaires. Tous les autres se rassurent en disant qu'ils pourront toujours en cas de besoin louer du temps de calcul sur les ordinateurs américains, japonais ou...chinois. Bon courage.

Pour en savoir plus
SC2004 http://www.sc-conference.org/


L'Exposition Universelle d'Aichi, 2005
JPB 15/11/04

L'Exposition Universelle d'Aichi, au Japon, du 25 mars au 25 septembre 2005, promet d'être un immense panorama des technologies les plus innovantes. 25 millions de personnes sont attendues. Les grands pays technologiques s'y préparent activement, à commencer par le Japon. De nombreuses villes japonaises seront associées au site principal d'Aichi.

Le thème choisi pour l'Exposition est La sagesse de la Nature (Nature's Wisdom). Il illustrera l'idée que la nature a depuis longtemps mis au point des solutions que les hommes devraient apprendre à mieux reconnaître et exploiter avec plus de respect. C'est sur ce principe que repose la biomimétique, qui s'efforce de développer des produits mettant en oeuvre des solutions naturelles plus ou moins transposées. On sait qu'une des applications les plus anciennes de la biomimétique, remontant à 1948, est l'invention du Velcro par le suisse George de Mestral. Il s'était inspiré de la façon dont les tiques s'accrochaient aux poils de son chien. .

Le thème Nature's Wisdom sera illustré par les projets dits des Eco-Communautés, tous orientés vers le développement durable. On montrera comment vivre en économisant et en réutilisant le plus possible les ressources naturelles. La conservation de la nature et la préservation de l'environnement feront l'objet de nombreuses propositions industrielles. Il faudra montrer que la science et l'industrie de demain pourront se développer sur ces bases mieux qu'en se livrant comme actuellement à une exploitation sans pitié des ressources naturelles.

Shangaï est retenue pour héberger l'exposition suivante, en 2010. On peut prévoir que la Chine sera très présente à Aichi.

L'Europe ne devrait pas manquer cette occasion de manifester sa maîtrise dans les technologies environnementales. Mais le JETRO (Japan External Trade Organization), Organisation Japonaise du Commerce Extérieur, présent dans les principales capitales européennes, en profite déjà pour favoriser les liens entre européens et japonais. Son bureau de Paris manifeste une activité certaine en ce sens.

Le Pavillon français, qui a choisi de se présenter "côte à côte" avec l'Allemagne (mais pas fusionné) illustrera par divers multi-média la façon dont, notamment, les collectivités locales insulaires travaillent avec les industriels à la protection et à la valorisation de la nature. Sortira-t-on de l'image très conventionnelle que les touristes japonais se font de la France?

Pour en savoir plus
Le site de l'Exposition http://www-1.expo2005.or.jp/en/index.html
Le thème Nature's Wisdom http://www.expo2005.com/expo_facts.htm
JETRO Paris http://www.jetro.go.jp/france/paris/fr/qui/ljp.html
Sur le Pavillon français, voir http://www.cefj.org/fr/membres/CR/Testu.pdf


Le futur Internet de l'armée américaine
JPB/CJ 14/11/04

Les protocoles Internet permettent soit une communication universelle entre n'importe quel utilisateur d'ordinateur disposant d'un point d'accès, soit une communication en réseau privé entre utilisateurs disposant par surcroît d'une clef d'accès. On parle généralement en ce cas d'Intranet. Les Intranets sont de plus en plus utilisés au sein des administrations, des entreprises et de communautés d'abonnés pouvant être répartis dans le monde entier. En ce cas, les messages empruntent soit les canaux publics, mais sous forme protégée ou cryptée, soit des canaux privés dont l'accès est nécessairement protégé. Dans l'Internet public, on constate que le moyen débit (1 à 2 mbps ou mégabits par seconde ) se répand de plus en plus, à des prix de plus en plus bas. En France, via surtout l'ADSL, 6 millions d'abonnés moyen-débit sont recensés fin 2004 (contre 20 millions au Japon). Mais des offres dite d'Internet rapide (15 Mbps ou plus) commencent à apparaître. La plupart des usages grand public n'ont pas besoin actuellement de vitesses plus élevées, mais la course au débit se poursuivra cependant. Dans les Intranets fonctionnant sur des réseaux privés, selon le type d'usage, des débits beaucoup plus élevés peuvent être utiles, 100 mbps ou plus. De tels débits supposent, pour être utiles, des échanges entre matériels d'entrée et de traitement des données particulièrement sophistiqués.

Image: source NSAC'est le cas en ce qui concerne les applications militaires. A cet égard, les perspectives étudiées par le ministère de la défense américaine intéressent non seulement les autres armées et polices mais aussi les industriels et les utilisateurs de l'Internet civil. Il est probable en effet qu'elles préfigureront ce que sera ce dernier dans une dizaine d'années. Le projet américain d'Internet militaire s'appelle GIG BE (Global Information Grid-Bandwidth Expansion ou Réseau d'information général très haut débit). Il a été conçu il y a six ans et les premiers essais ont eu lieu récemment. Le GIG-BE devrait devenir totalement opérationnel d'ici une vingtaine d'années. Le coût du projet est estimé à 200 milliards de dollars au cours des dix prochaines années. La Defense Information Systems Agency du Département de la défense (DISA), le décrit comme devant permettre la mise en place d'un réseau à déploiement mondial dite Net-Centric. permettant de coordonner par transferts électroniques diverses applications aéronautiques, spatiales, terrestres et maritimes de défense. Nous avions déjà évoqué ce projet à propos de l'alliance Boeing-IBM destinée à en assurer une partie des développements (cf. notre brève du 01/10/04, Alliance stratégique Boeing-IBM pour développer une technologie de guerre électronique dite Net-Centric).

Le GIG-BE doit mettre en place un environnement haut débit ubiquiste destiné à améliorer le renseignement, la surveillance et la reconnaissance, ainsi qu'à permettre le partage de l'information de commandement et de contrôle. La DISA améliorera à cette fin son actuel réseau, le Defense Information System Network (DISN), afin de lui permettre de fournir des informations à haut débit sur différents supports à des sites choisis se trouvant dans le monde entier. Environ 100 sites bénéficieront de ces capacités d'ici fin 2005. Ils sont situés aux Etats-Unis, dans le Pacifique et en Europe (sic). Les liaisons seront maillées pour renforcer la sécurité. Mais le système ne se limitera pas à cela. Tous les soldats pourront disposer d'"une image complète du champ de bataille, une vue de l'oeil de Dieu" sur le terrain, a indiqué Robert Stevens, un directeur du groupe américain de défense Lockheed Martin qui participe au projet. Le GIG fournira aux combattants sur le terrain des images mais aussi toutes les informations disponibles auprès des différentes agences de renseignement civiles et militaires américaines, concernant l'ennemi, le terrain, la météo. Le système devrait également fournir quasi instantanément des stratagèmes et des plans pour battre l'ennemi selon son attitude ou sa position à un moment donné. Le GIG-BE "permettra à des Marines dans leur véhicule blindé sur un terrain lointain, au milieu d'un orage, d'ouvrir leur ordinateur portable, de demander une imagerie de satellites espions et d'obtenir ce qu'ils cherchent en quelques secondes", a affirmé de son côté à des membres du Congrès, Peter Teets, sous-secrétaire américain chargé de l'armée de l'air (Source Yahoo ! Actualités).

Vu le coût du projet, que certains jugent pharamineux, même des consultants du Pentagone comme le bien connu Vint Cerf, un des fondateurs de l'Internet, s'interrogent sur sa crédibilité. Mais on peut penser que l'Administration américaine vise ce faisant, non seulement des applications militaires, mais les retombées civiles que les milliards de dollars investis permettront aux industriels sous-traitants de réemployer dans des produits destinés aux marchés civils, ce qui renforcera encore leur prééminence. Ne mentionnons pas non plus les bénéfices qu'apportera le réseau aux activités américaines dites d'intelligence économique.

Nul ne contestera le droit de l'Amérique de se lancer dans de tels investissements. On ne comprendrait pas par contre que les gouvernements européens ne fassent rien en contrepartie de ce projet. Il rendra obsolètes les systèmes de communication militaire mais, bien plus, il imposera aux utilisateurs Internet du monde entier les nouveaux standards et matériels de l'Internet très haut débit multimedia de demain. L'Europe a pratiquement perdu la guerre de l'Internet d'aujourd'hui. Ce n'est pas une raison pour accepter d'accroître encore sa dépendance dans l'Internet de demain. La plupart des européens ne l'ont pas encore réalisé, mais l'Internet est déjà et sera de plus en plus le sang et les poumons de la civilisation du 21e siècle. Accepterions-nous de confier la circulation sanguine et le système respiratoire de notre corps à une machine dont d'autres détiendraient les clefs?

Pour en savoir plus
Le GIG-BE, présentation http://www.disa.mil/main/prodsol/gig_be.html
Voir aussi sur le site de la NSA http://www.nsa.gov/ia/industry/gig.cfm?MenuID=10.3.2.2


Course aux teraflops : la suprématie américaine
CJ 08/11/04

Il fallait s'y attendre, les Etats-Unis ont repris la tête du classement de la liste Top 500 des ordinateurs les plus rapides du monde(1). Selon celle-ci, le BlueGene/L d'IBM (qui doit être commercialisé courant 2005) et le supercalculateur du NASA/Ames Research Center (Californie) s'octroient la première et deuxième place avec respectivement plus de
70 teraflops(2) et près de 52 teraflops, loin devant le précédant tenant du titre, le Earth Simulator japonais (35,86 teraflops) conçu par NEC.

Mais les choses bougent très vite en la matière… NEC, qui veut contrer la montée en Le SX-8 © NECpuissance des constructeurs américains, lancera dès décembre 2004 le super calculateur vectoriel SX-8, avec une puissance de calcul prévue de près de 65 Teraflops. Celui-ci sera disponible à la location dès décembre 2004 en ce qui concerne la version mono-nœud octoprocesseur(3), pour un prix de l'ordre de 1.170.000 yens (8.620 euros) par mois. La firme vise la vente de 700 SX-8 en 3 ans.

L'examen de la liste TOP 500 montre que la première machine européenne mentionnée arrive en 11ème place (Angleterre, 9,2 teraflops(4)), puis l'Allemagne (30ème position avec 5,56 teraflops), puis la France (41ème place avec 3,98 teraflops pour son ordinateur du CEA(5)), Italie (60ème, 3,23 teraflops). Notons que la Chine arrive 17ème (Shangaï, 8 teraflops), l'Arabie Saoudite 45ème (3,75 teraflops), Israël 49ème (3,75 teraflops).

Un autre enseignement est que près de 90% des machines classées dans la liste ont été construites par des firmes américaines. Mais selon certains experts, cette suprématie cacherait un petit problème à moyen terme. Un rapport signé de chercheurs et d'informaticiens du National Research Council - Getting Up to Speed: The Future of Supercomputing - fait état de la détérioration des investissements fédéraux dans le secteur des ordinateurs ultrarapides depuis plusieurs années. Là où l'administration injecte aujourd'hui 42 millions de dollars par an, il faudrait plus du triple, soit 140 millions de dollars, pour que le pays puisse maintenir sa domination au-delà de la prochaine décennie.

(1) Liste réalisée par un groupe indépendant d'universitaires spécialisé en informatique.
(2) Un teraflop = mille milliards d'opérations à la seconde.
(3) Le SX-8 sera proposé en trois configurations : deux versions mono-nœud et une version multi-nœuds.
(4) Machine située à Reading, à l'European Centre for Medium-Range Weather Forecasts (ECMWF), centre soutenu par 25 pays d'Europe.

(5) Signalons toutefois que la série de calculateurs du CEA-DAM pour le Laser MégaJoule doit dépasser la cinquantaine de teraflops en 2005... Architecturée pour poursuivre sa montée en puissance, elle devrait atteindre plusieurs centaines de teraflops en 2009.

Pour en savoir plus
Liste TOP 500 (novembre 2004) : http://www.top500.org/list/2004/11
Communiqué de presse de NEC : http://www.nec.co.jp/press/en/0410/2001.html
Rapport Getting Up to Speed : The Future of Supercomputing : http://www7.nationalacademies.org/cstb/pub_supercomp.html (voir actualité plus haut, 15/11/04
Notre article de mars 2004 Les super-ordinateurs et la course au petaflop


Génération de comportements coordonnés à partir de systèmes chaotiques
JPB 09/11/04

Le n° 2471 du NewScientist en date du 30 octobre explique comment un système de contrôle basé sur le chaos peut générer des comportements coordonnés. Il s'agit d'une expérience conduite par deux roboticiens de l'Université de Tokyo, Yasuo Kuniyoshi et Shinsuke Suzuki. L'équipe a réussi à générer un processus de marche intéressant un robot simulé doté de jambes multiples initialement non coordonnées. On sait que l'apprentissage de la marche n'a rien d'évident, que le robot ait 2 ou plusieurs jambes. Deux techniques sont généralement utilisées, la programmation a priori (qui est très lourde) ou le recours à des algorithmes génétiques permettant au robot d'apprendre seul par interaction avec un environnement donné. Mais cette dernière technique elle-même demande du temps et beaucoup de ressource informatique.

Dans l'expérience japonaise au contraire, il est fait appel à la capacité des systèmes chaotiques de faire émerger des patterns organisés, par exemple les fronts et les cyclones en météorologie. Mais pour que l'évolution chaotique, qui est imprévisible, se produise dans le sens désiré, il faut la soumettre à une contrainte extérieure. Le robot simulé des chercheurs japonais comporte 12 jambes, chacune étant commandée par une fonction mathématique chaotique alimentée en données sensorielles par un mécanisme de feed-back. Il est vite apparu un comportement coordonné mais qui ne permettait pas la marche en avant. Un poids simulé placé à une extrémité du robot a permis alors à plusieurs jambes de se coordonner pour avancer dans la direction opposée au poids, entraînant les autres jambes.

De telles solutions sont-elles en oeuvre dans les processus d'apprentissage des êtres vivants, qu'il s'agisse de la marche ou du fonctionnement du cerveau? Yasuo Kuniyoshi et Shinsuke Suzuki le pensent. D'autres chercheurs en doutent. Mais si la réponse était positive, elle apporterait beaucoup de lumière, semble-t-il, à la façon dont des systèmes simples peuvent générer des comportements complexes, lorsqu'ils sont soumis à des contraintes susceptibles de les orienter. Il n'y a rien de plus répandu dans la nature en effet qu'un comportement chaotique. Pourquoi ne pas imaginer que tout ce qui a évolué dans la nature l'a fait à partir de simples systèmes chaotiques?

Pour en savoir plus
Article du NewScientist : http://www.newscientist.com/news/news.jsp?id=ns99996582


L'hypothétique rétrodifférenciation cellulaire
JPB 08/11/04

Le n° 2468 du NewScientist en date du 9 octobre décrit une fabuleuse aventure. Ses conséquences, si elles étaient vérifiées, seraient immenses. De quoi s'agit-il? Une consultante saoudienne en immunologie, Ilham Abuljadayel, a découvert à l'hôpital militaire de Jeddah, en 1990, un peu par hasard, l'effet extraordinaire d'un anticorps (le CR3/43 fabriqué par la firme danoise DakoCytomation). Celui-ci, appliqué à des cellules sanguines leucémiques, ne les tuait pas mais les transformait en cellules souches de la moelle osseuse. En d'autres termes, l'anticorps provoquait une "rétrodifférenciation", ce qui est encore aujourd'hui considéré comme une hérésie. Les cellules souches peuvent en effet se différencier en cellules de tel ou tel organe. C'est ce qui fait leur intérêt thérapeutique. Mais on n'avait jamais vu une cellule spécialisée, et qui plus est cancéreuse, redevenir une cellule souche. Ces cellules, dans le cas étudié, se redifférenciaient ensuite en cellules sanguines bien portantes. Mme Abuljadayel s'efforça de publier ses observations mais aucune revue scientifique n'accepta de le faire. Si bien qu'après avoir breveté sa découverte, elle et son mari se tournèrent vers la petite firme britannique TriStem qui perfectionna la technique et leur permit de procéder à des essais étendus. On découvrit alors que les cellules souches obtenues par rétrodifférenciation pouvait non seulement se redifférencier en cellules de la moelle ou du sang, mais aussi dans les divers types de cellules spécialisées qu'il est possible d'obtenir à partir des cellules souches embryonnaires soumises à des facteurs de croissance identiques. De plus la rétrodifférenciation puis la redifférenciation pouvaient être entreprises à partir des cellules d'un même individu, ce qui supprimait les problèmes de rejet.

Le journal à comité de lecture Current Medical Research and Opinion accepta finalement en 2003 de publier deux articles de TriStem. L'un décrivait la production de diverses cellules fonctionnelles: neurones, cellules cardiaques, obtenues par ce procédé. L'autre relatait un essai chez la souris traitée aux immunosuppresseurs, les cellules souches humaines résultant du traitement à l'anticorps y générant divers types de cellules présentes dans le sang humain. Abrégeons ici les débats d'experts provoqués par ces publications. Finalement, des spécialistes reconnus des cellules souches se sont laissés convaincre et coopèrent désormais avec les promoteurs de la méthode initiale. Quatre guérisons apparemment durables de malades en phase terminale, atteints d'anémie aplastique (aplastic anaemia) ont été récemment obtenues au King Edward Memorial Hospital de Mumbai (Inde). Les essais thérapeutiques se poursuivent actuellement, dans le cadre d'un accord entre TriStem et l'Indian Council of Medical Research. Rien ne semble démentir les espoirs mis dans la technique.

Cependant, il faut rester très prudent sur cette rétrodifférenciation, comme nous l'indique Jean-Jacques Perrier, rédacteur en chef de la revue Vivant. Le point de départ en sont en effet des cellules leucémiques dont on ne connaît pas l'état de différenciation. De plus, le marché en croissance de la cellule souche n'est guère propice à une évaluation objective de ces travaux. Au cas pourtant où certaines perspectives étaient confirmées, non seulement les promoteurs de la découverte pourraient espérer le Prix Nobel, mais les débats éthiques et économiques concernant les cellules souches embryonnaires pourraient perdre une partie de leur actualité.

Cependant, Ilham Abuljadayel et ses collègues de TriStem ne souhaitent, disent-ils, qu'une chose, c'est que les études de toutes natures concernant les cellules souches et leur modalités de différenciation se poursuivent, par quelque méthode que ce soit. La science est loin d'en savoir assez sur ces étonnantes entités. Affaire à suivre de près, en tous cas.

Pour en savoir plus
TriStem http://www.tristemcorp.com


L'infodominance américaine et la protection des administrations publiques et des entreprises européennes
JPB/CJ 04/11/04

Dans un rapport à l'Assemblée Nationale (Rapport d'information sur la stratégie de sécurité
économique nationale
, 9 juin 2004, http://www.assemblee-nat.fr/12/rap-info/i1664.asp), le député UMP Bernard Carayon, spécialisé dans les questions d'intelligence économique, avait souligné les risques que représentent pour l'intégrité des systèmes d'information des administrations publiques et des entreprises les logiciels du marché couramment utilisés par elles. Il demandait que la France se dote des moyens de lutter contre les intrusions étrangères ainsi rendues possibles. Ce thème avait déjà été présenté dans des communications précédentes. Voir notamment Gilles Carrez (rapporteur général) et Bernard Carayon (rapporteur spécial), «Rapport fait au nom de la commission des finances, de l'économie générale et du plan sur le projet de loi de finances pour 2004», 9 octobre 2003,
http://www.assemblee-nationale.fr/12/budget/plf2004/b1110-36.asp).

Nous extrayons de ces documents les précisions suivantes :
«Les microprocesseurs peuvent être également à la source de vulnérabilités importantes pour les systèmes qui les embarquent. L'intégration toujours plus grande de fonctions “dans le silicium” conduit à la mise en place de microcodes non maîtrisés (et difficilement détectables) avec des risques latents de backdoors (failles du système) ou d'autres dispositifs de surveillance et de prise de contrôle à distance. Récemment, la polémique au sujet de la Trusted Computing Platform Alliance(1) (TCPA), visant à intégrer au processeur une partie cryptée directement utilisée par le système d'exploitation, a mis en lumière ces enjeux. Les sociétés Microsoft et Intel comptaient ainsi pouvoir maîtriser le piratage des logiciels. Cependant, ces fonctionnalités pourraient également permettre à des personnes
malintentionnées ou des services de renseignement étrangers de disposer
d'un moyen de contrôler à distance l'activation de tout ou partie des
systèmes à l'insu de leurs utilisateurs.»

Le rapporteur s'inquiétait également de la position «quasi-monopolistique» de Windows sur les systèmes d'exploitation. Remède proposé: «La montée en puissance des
logiciels libres — notamment Linux — pourrait constituer un nouvel espoir pour ceux qui souhaiteraient amoindrir l'hégémonie de Microsoft. Les systèmes d'exploitation constituent une des sources de vulnérabilité majeure des systèmes d'information : c'est par leur intermédiaire qu'il est possible de pénétrer les systèmes, en utilisant les backdoors et des
“vers” (chevaux de Troie). La France, comme la plupart des autres pays européens, présente une forte vulnérabilité technologique dans ce domaine et seule l'utilisation des logiciels libres de droit peut aujourd'hui encore constituer une parade possible.»

Autre segment des logiciels, relève ensuite le rapport, «Les applications bureautiques constituent une cible privilégiée pour accéder à l'information . La productivité des entreprises dépend, pour une large part, de ces logiciels. Microsoft a réussi à imposer un standard —
Microsoft Office — et les grands acteurs, comme Adobe, sont américains. Comme pour les systèmes d'exploitation, l'alternative à l'hégémonie américaine pourrait venir des logiciels libres. La France, pourtant fortement présente dans ce secteur avec Dassault Systèmes, reste technologiquement très vulnérable. Il conviendrait peut-être d'avancer l'idée d'une industrie nationale ou européenne du logiciel. En tout cas, il serait intéressant de mener une réflexion spécifique sur le mode de description des documents élaborés par ces logiciels pour faire émerger un format “neutre” de stockage, c'est-à-dire indépendant de l'applicatif
ayant servi à le concevoir.».

Dans une question écrite présentée lors du débat budgétaire consacré au Ministère de l'Intérieur, en date du 2 novembre 2004 (voir http://www.assemblee-nationale.fr/12/cra/2004-2005/038.asp) Bernard Carayon a étendu le champ de ses mises en garde. On retiendra notamment de son intervention, qu'il faut lire en totalité, les passages suivants :
«Deuxième point : vous avez récemment déclaré que notre pays devait doter nos services de renseignement des meilleurs outils technologiques. J'ai souligné dans un rapport adopté par la Commission des Finances la pertinence de cette observation. Parmi les différentes technologies au service de la sécurité (la biométrie – un sujet qui prend une dimension toute particulière dans le cadre des politiques de sécurité que mettent en place certains pays, les technologies de sécurité des réseaux, les interceptions, etc…), les technologies d'analyse de l'information sont arrivées chez nous à maturité industrielle. Mais l'effort national, (financier et industriel) est dispersé, freinant la standardisation et l'interopérabilité entre les services, d'autant que chaque administration conserve jalousement son pré- carré d'évaluation et de décision. Dans tous les domaines (textmining, datamining, géo-intelligence), la taille critique fait défaut.
A l'inverse, l'effort américain s'est concentré et intensifié, aboutissant à un changement de paradigme technico- opérationnel.
Deux sociétés de taille moyenne dominent le marché : Verity (US) et Autonomy (GB/US)
(2) dont le système vient d'être retenu par la DGSE…Ce choix, en tant que parlementaire, m'a surpris d'autant plus que l'arrivée sur ce marché d'IBM et de Microsoft risque de renforcer un peu plus la dépendance technologique de nos services.

Or notre retard peut être comblé, je vous l'assure, au prix d'une impulsion politique majeure et d'une mutualisation des expertises comme des investissements publics et privés ! Cette procédure pourrait ressembler, sans créer pour autant une structure supplémentaire, à ce que j'ai appelé un CEA des technologies de l'information, de la Communication et de la Sécurité.
L'enjeu est considérable et à notre portée : pour l'Etat et la protection des infrastructures critiques, pour la compétitivité de nos entreprises, pour la protection de l'intimité de la vie privée. A cet égard, et s'agissant justement des technologies d'analyse de l' information, il est urgent de conduire, derrière un leader par sa masse critique, une stratégie industrielle fédérant nos pépites technologiques. Urgent aussi, de construire une vraie doctrine de sécurité nationale à vocation duale, publique et privée, destinée à répondre aux menaces issues du terrorisme, de la guerre économique et de la cybercriminalité – trois domaines dans lesquels votre ministère entend jouer un rôle majeur.

Dans un contexte d'infodominance, c'est un devoir pour l'Etat d'assurer son autonomie d'action et de protéger la Nation. Cette politique passe par des commandes publiques, par l'élaboration de réseaux de confiance, et la création de fonds d'investissement spécialisés. La SSI constitue de surcroît un champ de coopération pour les pays de l'Union européenne : il est indispensable de placer des experts nationaux au sein de l'ENISA, l'agence européenne créée au début de cette année, de développer des standards et des investissements communs, et d'éviter ainsi, à l'avenir que des sociétés européennes comme ACOM soient rachetées par des américains comme INTEL juste après avoir mis au point un processeur au standard RISC STRONGARM grâce à des financements communautaires».

Observons pour notre part qu'Autonomy - citée par Bernard Carayon - est une société d'origine anglaise qui a notamment remporté un appel d'offres en 2002 aux Etats-Unis (et devant bien des sociétés américaines). Il s'agissait de mettre en relation les différents fichiers numériques des intranets des "entités" s'occupant de la sécurité intérieure, reliant ainsi entre elles 21 agences liées au renseignement.

Le moteur de recherche développé par Autonomy est incroyablement "intelligent" (selon les tests existant jusqu'à présent, c'est d'ailleurs le moteur le plus fin actuellement au monde, bien supérieur à google). Il ne demande aucun besoin d'indexation, le système peut traiter tout type de fichier (txt, rtf, pdf, html ou autre) et sait même transcrire automatiquement les dialogues émanant de fichiers vidéos(3) (actualités télévisées par exemple - On voit d'ailleurs tout de suite l'avantage pour le sous-titrage automatique des films : la firme Disney ne s'y est pas trompée et a acheté le système après une simple démonstration appliquée au dessin-animé "Aladin").
Autonomy développe aussi dans cet intranet général un outil qui permet de savoir quelle est la personne la plus pertinente à contacter dans le réseau sur un sujet donné. Et ceci, non pas en fonction de"l'organigramme" mais en fonction de l'originalité de ce que produit cette personne dans cet intranet. Le système envoie aussi de lui-même des informations à d'autres utilisateurs qui viennent d'être placées dans l'intranet, simplement parce qu'il "juge" que cela les intéressera, même si, à première vue, ceci peut sembler très loin des intérêts et préoccupations de ces utilisateurs. Mais en fait, le fonctionnement de l'ensemble se révèle toujours très adéquat aux besoins, selon ses utilisateurs. C'est donc une véritable machine de guerre économique.

Notes
(1) Trusted Computing Platform Alliance :
http://www.fact-index.com/t/tr/trusted_computing_platform_alliance.html

(2) Sur Verity et Autonomy, voir l'article de Bertrand Fraysse dans Challenges juin 2004 L'offensive de la CIA en France http://lemagchallenges.nouvelobs.com/articles/p227/a244747.html
(3) Ceci dépendant toutefois de l'installation de certaines "briques" dans le système, augmentant ses fonctionnalités. La force d'Autonomy réside dans ses algorithmes de "pattern-matching", basés sur la théorie de l'information de Claude Shannon, les probabilités de Bayes (systèmes bayésiens) ainsi que les recherches les plus récentes dans le domaine des réseaux neuronaux.

Pour en savoir plus
Trusted Computing Platform Alliance
http://www.fact-index.com/t/tr/trusted_computing_platform_alliance.html

Sur Verity et Autonomy, voir l'article de Bertrand Fraysse dans Challenges juin 2004 L'offensive de la CIA en France http://lemagchallenges.nouvelobs.com/articles/p227/a244747.html


Automates Intelligents © 2004

 

 


   Sur le site
Sur le web   

 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Assocation Automates Intelligents
Mention légale Mention légale CNIL : 1134148