Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Editorial
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives
La guerre mondiale du cerveau. Riposte américaine
Human Brain Project, un grand projet européen sur le cerveau humain
Relancer la coopération scientifique entre la France et l'Afrique

7 janvier 2003
Jean-Paul Baquiast et Christophe Jacquemin

Le simulateur de la Terre
(Earth Simulator)

Earth SimulatorNous avons indiqué dans notre précédent éditorial l'urgence qu'il y avait à simuler les grandes évolutions climatiques et géophysiques. Les Japonais comprennent peut-être ceci mieux que les Européens : tremblements de terre, tsunamis,cyclones les menacent en permanence. Les phénomènes générateurs, tectonique des plaques, réchauffement climatique, modification des échanges d'eaux océaniques... représentent donc pour eux des enjeux importants à déchiffrer.

Ce super-calculateur servira aux simulations de systèmes terrestres complexes, climatologiques, géophysiques ou autres. En fait, les applications seront bien plus nombreuses. Le programme du Centre pour le Simulateur terrestre (Earth Simulator Center), responsable des études, couvre l'ensemble des grands problèmes qui se posent dès maintenant pour la sauvegarde future de l'environnement terrestre et par conséquent pour celui de l'humanité. Tous les phénomènes environnementaux et biologiques pourront être simulés avec des efficacités considérablement accrues. On présente la machine comme un double numérique de notre planète. Le coût sera amorti très vite. Les scientifiques américains estiment en tous cas que leurs collègues japonais, grâce à une telle machine, gagneront de 10 à 100 fois en efficacité.

D'après les responsables du projet, la puissance et la vitesse de calcul parallèle de telles machines sont indispensables dans la modélisation de phénomènes à multiples variables. Le milieu à étudier (par exemple une zone océanique) est divisé en zones aussi petites que possible, par exemple des carrés d'un mille marin de côté, auxquels correspondent des informations saisies en temps réel par des capteurs appropriés (par exemple des bouées océaniques ou des images satellitaires ou aériennes). Le recueil et le traitement en parallèle des millions de données correspondantes dépassent très vite la capacité de calcul des plus grands ordinateurs actuels. Il faut donc l'augmenter. Selon un dicton de plus en plus répandu dans les milieux scientifiques, celui qui maîtrisera la puissance de calcul et sa croissance exponentielle maîtrisera le monde...

On comprend aussi que l'efficacité du Simulateur de la Terre dépendra non seulement de la puissance de calcul de l'ordinateur central mais aussi du réseau des capteurs saisissant les variables du milieu étudié, le plus souvent à l'échelle de la Terre elle-même. Ceux-ci devront être aussi denses et polyvalents que possible. Une coopération internationale sera nécessaire pour constituer et entretenir ce réseau. En ce qui concerne le traitement des données, le Earth Simulator Center ne donne pas de précisions particulières. Il semble que la méthode soit très classique, consistant à faire tourner des équations en grande quantité sans faire appel - autant que l'on sache - à des méthodes inspirées de l'Intelligence Artificielle.

Les Etats-Unis comptent bien réagir. IBM, dopé par un contrat gouvernemental de $290 millions, compte regagner le premier rang en 2004 avec une machine de 100 teraflops, 3 fois plus puissante que le Earth Simulator. En fait IBM construira deux super-ordinateurs, capables d’effectuer 467.000 milliards de calculs à la seconde. L’un baptisé ASCI Purple sera destiné à la recherche pour les armes nucléaires. Avec 100.000 milliards d'opérations à la seconde, il sera 8 fois plus performant que ASCI White, le précédent ordinateur du même type élaboré dans le passé par IBM. ASCI Purple, devrait être opérationnel à la fin 2004, avec 50 terabits de mémoire, ce qui représente 20.000 fois plus qu’un ordinateur classique. L’autre machine, Blue Gene/L sera utilisée dans la recherche civile, notamment en météorologie (simulation d’ouragan, prédiction d’intempéries). Il sera 10 fois plus rapide que l'Earth Simulator de NEC.
Quant à Cray, il a bénéficié d'un contrat de $90 millions pour réaliser un simulateur d'explosions atomiques aux laboratoires Sandia (Le Cray-X1 qui dégage une puissance de calcul de 52,4 téraflops, soit 52400 milliards d'opérations à la seconde).
L'un et l'autre demandent au gouvernement de financer un calculateur travaillant en pétaflops vers 2010, soit 1.000 trillions d'opérations par secondes. Si on ne sait quelle sera la part de telles futures ressources consacrée aux recherches civiles par rapport à ce que consommeront les recherches militaires, on peut toutefois penser que le civil sera largement servi, ne serait-ce que pour maintenir la prééminence scientifique américaine.

Ceci pose la question de savoir ce que fera l'Europe pour tenir sa place dans le concert des grandes puissances scientifiques qui travailleront ainsi en commun à la survie de la Terre et de l'humanité. Laisserons-nous à d'autres la prévision des grands phénomènes évolutifs, souvent de forme catastrophique, qui sont en train de se dérouler. Allons-nous renoncer à faire des études de niveau scientifique international ou nous bornerons à mendier du temps de calcul à nos amis japonais et américains ? On doit souligner que les simulations rendues possibles par de tels systèmes auront certainement un intérêt scientifique et politique général. Mais elles auront - elles ont déjà - un intérêt militaire. On sait que depuis longtemps les militaires se sont essayés à provoquer des phénomènes météorologiques pouvant être utilisés comme des armes: par exemple générer un cyclone localisé, des pluies ou des sécheresses. L'ennui des méthodes actuelles est d'une part leur imprécision, d'autre part le fait que les phénomènes peuvent difficilement être contenus sur l'objectif visé. Une connaissance plus fine des principaux mécanismes géophysiques et biologiques améliorera beaucoup l'efficacité de telles armes. Les Américains y travaillent mais aussi les Japonais. Resterons-nous en Europe sans contrepartie?  

Une autre solution

Il y aurait pourtant une autre solution. Si celle-ci mérite certainement une étude approfondie avant d'être présentée à un public scientifique, nous voudrions cependant y faire allusion ici. On a remarqué que les solutions japonaises et américaines décrites ci-dessus feront appel à la force brut de l'ordinateur - un peu à la façon dont IBM avait battu Kasparov aux échecs. C'est une méthode qui, outre qu'elle plaît aux informaticiens classiques, ne déplaît certainement pas aux constructeurs de gros calculateurs vectoriels, NEC et IBM notamment. Mais est-elle la seule envisageable ? Est-elle même la bonne ? Nous entrevoyons une méthode alternative qui serait plus intelligente, au sens propre du terme. Elle aurait aussi l'avantage d'être infiniment moins coûteuse, demandant surtout un peu d'imagination de la part de ceux qui la mettraient en œuvre. Elle s'inspire directement des travaux d'Alain Cardon relatifs à l'élaboration d'une machine pensante(1).

Comment cela pourrait-il se traduire en pratique ? Pour simplifier, disons qu'il conviendrait de transformer les différentes informations émises par les différents instruments d'observation et agents énumérés ci-dessus (données provenant de capteurs, messages échangés, analyse de photos satellitaires, etc.) en connaissance dynamique, en "grains" de connaissances autonomes cherchant à communiquer pour se voir confirmer ou infirmer. La meilleure façon de transformer une information en connaissance dynamique est aujourd'hui de l' "agentifier", c'est-à-dire lui donner le statut d'agent logiciel. Un agent logiciel est un objet informatique autonome qui communique avec les autres agents, qui tend à se développer, se grouper, s'associer ou se mettre en veille. C'est un grain de connaissance et d'action que l'on a doté de certains buts. Ces agents logiciels sont susceptibles de constituer un système multi-agents (un système multi-agents dit massif car ces agents peuvent se compter par centaines de milliers). L'"agentification" de ces informations, c'est-à-dire la façon de les rendre disponibles et actives dans les échanges, est un problème de conception délicat mais réalisable. Dès qu'une information sera émise par une source quelconque, il faudra la capturer et l'introduire dans le réseau sous une forme normalisée prédéfinie a minima, comportant les précisions nécessaires lui permettant de communiquer avec les autres et d'enrichir la connaissance générale de la situation en temps réel. Il y aurait saisie automatique de données de capteurs ou de contenus de messages mais aussi, si besoin était, saisie humaine décentralisée. Le système organiserait également aussi l'agentification des multiples données conservées en mémoire et activées en tant que de besoin, selon les méthodes du data-mining et du text-mining. On peut penser qu'avec cette méthode reposant sur l'intelligence distribuée des agents, de nombreux phénomènes (ou saillances) intéressant l'évolution de la Terre seront signalés par le système, phénomènes qui auraient échappé à l'attention des scientifiques et des politiques les plus attentifs. Les mesures préventives de catastrophes pourraient ainsi intervenir avec de précieux gains de temps.  

Concernant le matériel, il suffirait de mettre en place une architecture de processeurs multiples distribués en réseau. Ce ne serait pas une dépense insignifiante mais elle serait sans commune mesure avec le coût d'acquisition et de maintenance des grands calculateurs précités. Elle ne pose pas de problèmes de principe, notamment en termes de puissance de calcul. Aujourd'hui un simple PC peut supporter le fonctionnement simultané de milliers de processus ou agents logiciels, pouvant communiquer, s'agréger, muter et engendrer par émergence un état organisé global qui est la pensée artificielle intentionnelle à propos d'un objet d'attention.

C'est d'ailleurs dans cette direction que, parallèlement au renforcement de leurs grands ordinateurs, travaillent les Américains. Nous avons relaté dans un précédent numéro l'appel à propositions lancé par la Darpa pour la réalisation d'un "système conscient" (cognitive system).

Alors à quand une décision des autorités scientifiques européennes créant sur ce modèle un Centre Européen de Simulation de la Terre capable de rivaliser avec le Earth Simulator Center japonais et les équivalents nord-américains ?


(1) Voir notamment nos articles :
- Recension du livre d'Alain Cardon "Conscience artificielle et systèmes adaptatifs"
- Conscience artificielle et systèmes adaptatifs : minutes de la conférence donnée par Alain Cardon lors du Congrès International "Biologie et Conscience", tenu le 27 avril 2002 à Paris :
- Discussion avec Alain Cardon : Conscience artificielle et recherche fondamentale
- Interview : Alain Cardon, chercheur en intelligence artificielle (2 avril 2001)
Modéliser et concevoir une machine pensante - Approche constructible de la conscience artificielle,  Editions Automates Intelligents

© Automates Intelligents 2003

 

Collection Automates Intelligents

Sciences de la complextié et vie politique -Tome I , Editions Automates Intelligents
- acheter nos ouvrages
-
proposer vos manuscrits



 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents