Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Biblionet
Automates Intelligents utilise le logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives

Gravity's Engines

Phi, a voyage from the brain to the soul

A propos du livre Mindful Universe

La médecine personnalisée

23 mars 2003
Notes par Jean-Paul Baquiast

The next fifty years

Couverture de  "The Nex Fifty years", de John Brokman

The next fifty years
Science in the first half of the 21th century


John Brockman

Edition John Brockman
2002


Voir aussi Edge: http://www.edge.org/q2003/question03_print.html.

Un livre un peu méconnu, publié en 2002 par l'éditeur et écrivain scientifique américain John Brockman, nous paraît mériter l'intérêt. Il exprime concrètement ce que John Brockman avait appelé la Troisième culture. Celle-ci conduit les scientifiques à dialoguer avec les acteurs sociaux, créant ainsi une nouvelle classe d'intellectuels pouvant prendre le relais des littéraires, considérés au milieu du 20e siècle comme les seuls intellectuels dignes de ce nom. Si tous les décideurs de ce monde se pénétraient d'une telle culture, ils porteraient sur l'avenir un regard autrement constructif qu'ils ne le font actuellement, s'attardant à régler des problèmes ou conflits d'un autre âge.

Le livre s'intitule The Next Fifty Years, les 50 prochaines années, la science dans la première partie du 21e siècle. Il rassemble des articles originaux signés par 25 scientifiques choisis dans le cercle de relation de John Brockman. L'échantillon ne peut donc être garanti comme absolument représentatif de ce que pensent les scientifiques aujourd'hui. Mais les contributions sont toutes intéressantes,et parfois passionnantes - sauf certaines qui ne sont pas d'un niveau ou d'une originalité élevée. Les auteurs de ces articles n'avaient pas de canevas ni thème imposés. Il leur était seulement demandé de présenter ce qui leur semblait devoir être dans leur discipline le phénomène le plus important du prochain demi-siècle. Une telle formule, qui est celle de Edge, est intéressante. Si les auteurs jouent le jeu en livrant le cœur même de leur vision du monde, on obtient un panorama très diversifié de prévisions et d'opinions qui, par leur désordre de fait, correspond bien à un avenir qui ne sera certainement pas linéaire mais chaotique. Le lecteur ne sera pas non plus tenté de prendre toutes ces prévisions au pied de la lettre, comme il pourrait le faire d'un ouvrage de prospective construit d'une façon plus systématique. On sait en effet que l'avenir ne se révèle jamais, même à court terme, conforme à celui que décrivent les prévisionnistes. Ceux-ci, de toutes façons, comme le notait Ray Kurzweil, ont plutôt tendance à sous-estimer les changements, par prudence, plutôt que les surestimer…ce qui n'est pas meilleur.

Par ailleurs, John Brockman n'a pas demandé aux auteurs de se livrer à des prévisions d'ordre général, mais plutôt de rester dans le domaine des connaissances scientifiques. C'est ainsi que rien n'est dit des catastrophes toujours susceptibles de se produire dans le demi-siècle à venir : exaspération des antagonismes entre monde développé et tiers-monde, remontée dramatique des comportements mystiques, guerres éventuellement nucléaires entre Etats s'adonnant à la course aux armes de destruction massive…ou simplement, si l'on peut dire, dégradation massive des équilibres de la biosphère et de l'éco-système. Il faut donc relativiser le caractère prédictif des propos tenus par les scientifiques interrogés.

Observons aussi en introduction que certains auteurs se sont félicités du choix d'une période de 50 ans, plutôt que 20 ou 30. En 50 ans, disent-ils, les scientifiques accrochés aux théories actuelles devenues obsolètes auront disparu, et la place sera libre pour de jeunes théoriciens acceptant des bouleversements paradigmatiques beaucoup plus profonds. Le propos en dit long sur l'estime que les scientifiques d'âge mûr portent à leurs anciens. Ceux-ci sont trop souvent accrochés à ce que fut l'œuvre de leur vie, et bloquent toute évolution. En France, on dira cela sous une forme plaisante : mettons à la retraite forcée tous les membres du Collège de France (ou de l'Académie des Sciences…) et la science dans notre pays fera le bond en avant attendu en vain depuis longtemps.

Examinons maintenant, en les résumant beaucoup, ce que les principaux d'entre les auteurs ainsi rassemblés nous annoncent. La revue que nous vous proposons risque d'être un peu fastidieuse, mais c'est la contrepartie de la formule proposée par le livre.

Lee Smolin, physicien théoricien (voir notre fiche de lecture) : L'avenir de la nature de l'univers (The Future of the Nature of the Universe). L'auteur estime que dans 50 ans, les progrès de l'instrumentation en physique et en cosmologie auront été suffisants pour tester un certain nombre d'hypothèses déduites des modèles théoriques produits par les physiciens, ceci " à technologies et à budgets constants ". Dans le domaine des applications de la mécanique quantique, les calculateurs quantiques seront devenus opérationnels et permettront de nombreuses applications utilisant les états quantiques non-locaux. Une théorie quantique plus approfondie que l'actuelle en découlera probablement. En cosmologie, l'histoire des premiers instants de l'univers aura été éclaircie (voir notre éditorial) ainsi que nombre des points encore obscurs concernant les objets célestes. Mais il n'est pas certain que la matière noire et l'énergie noire auront à cette date été observées directement, non plus que les ondes gravitationnelles. En physique des particules élémentaires, les limites viendront du coût exponentiellement croissant des grands accélérateurs. Cependant les équipements actuellement programmés devraient permettre d'identifier le supposé boson de Higgs et tester les hypothèses relatives à la super-symétrie qui est au cœur de la théorie des cordes. Mais il ne sera pas encore possible d'atteindre les échelles de Planck même si certaines expériences permettent de s'en rapprocher. Lee Smolin, pour sa part, espère pouvoir expérimenter à ces échelles en s'appuyant sur des photons à très haute énergie provenant d'explosions gamma, surtout si des satellites équipés d'instruments plus sensibles sont mis en œuvre dans les prochaines années.

Deux questions risquent de demeurer sans réponse dans 50 ans : qu'est-ce qui explique les valeurs exactes des paramètres définissant les propriétés des particules élémentaires et pourquoi observe-t-on de telles différences de taille entre les constantes observées de l'univers ? Les théories de la gravitation quantique laisseront par ailleurs ouvertes de nombreuses hypothèses entre lesquelles il ne sera pas encore possible de trancher, par exemple en ce qui concerne la théorie des univers multiples…

La lecture de cet article, ainsi que l'article suivant du à l'astronome britannique Sir Martin Rees et consacré aux hypothèses relatives à la vie extra-terrestre, aux univers multiples et à l'hypothèse anthropique (que nous n'analyserons pas ici) inspirent une question banale mais que l'on ne peut éviter. Beaucoup de progrès possible dans les expériences et par conséquent dans les théories seront contraints par le manque de crédits affectés aux équipements. La physique passe aux yeux des autres chercheurs comme l'enfant gâté de la science, mais ce n'est pas encore suffisant, apparemment. Or face à des questions aussi fondamentales pour la compréhension de l'univers et de tout ce qu'il contient, on ne comprend pas que l'humanité ne puisse prélever sur des budgets infiniment moins utiles les quelques milliards de dollars qui permettraient de gagner une centaine d'années dans une meilleure compréhension du monde. Ne serait-ce pas pourtant la plus grande des urgences ? Il semble que l'on soit arrivé à une époque où les grandes questions qui ont toujours tourmenté les hommes pourraient trouver certaines formes de réponse. Pourquoi attendre encore 100 ans et priver nos enfants et petits-enfants de la joie d'y voir un peu plus clair ?

Geoffrey Miller, psychologue évolutionnaire : La science de la subtilité (The Science of Subtlety). L'auteur pronostique la fin des antagonismes entre deux sortes de matérialistes, ceux qui refusent d'admettre les émotions et autres sentiments tant que les sites et mécanismes cérébraux correspondants n'aurons pas été identifiés et ceux qui se contentent de constater l'existence chez l'homme du cerveau pour faire de celui-ci la source de l'aptitude à une conscience complexe caractérisant l'espèce humaine. Il compte pour les réconcilier sur le développement prochain des techniques permettant de cartographier le cerveau en action et, par ailleurs, dans un autre domaine d'étudier les relations entre les gènes et leurs schémas (patterns) d'expression au bénéfice des cellules nerveuses. Chaque neurone dispose de nombreux gènes dont quelques-uns uns seulement s'expriment, via le RNA et les protéines, lors de telle activité du neurone. De même, ces schémas sont différents d'une aire cérébrale à l'autre. Dans tous les cas, ils se modifient non seulement au cours de la vie du sujet, mais d'une heure à l'autre, en fonction des situations vécues. Les progrès dans ces deux catégories de technologies qui ne manqueront pas de se produire dans les 50 prochaines années ouvriront la voie à une nouvelle approche de la complexité psychologique en situation avec la complexité sociale. Les états conscients éphémères (ou les états inconscients) pourront alors aussi être pris en considération. La coupure entre nature et culture disparaîtra progressivement. De même devrait s'atténuer la croyance innée selon laquelle chacun est persuadé de disposer d'une vie riche et variée alors que celle d'autrui est jugée pauvre et linéaire.

Notons cependant que l'auteur ne nous précise pas la façon dont, pratiquement, les processus d'expression des gènes neuronaux humains pourront être mis en évidence in vivo avec le degré de finesse nécessaire. L'imagerie cérébrale rencontrera sans doute, même dans les décennies prochaines, d'importantes difficultés pour observer de l'extérieur ce qui se passe dans un cerveau. A plus forte raison l'étude de l'effet des gènes sur le comportement des neurones. Les progrès des technologies dans les 50 prochaines années seront-ils suffisants pour résoudre ces difficultés ? On pourra renvoyer le lecteur, sur cette question précise, à l'article ci-dessous de Richard Dawkins.
Sur Geoffrey Miller, voir http://www.edge.org/3rd_culture/miller/  et http://psych.unm.edu/faculty/gmiller.html

Stuart Kauffman professeur émérite de biochimie.Qu'est-ce que la vie?. L'article résume les thèses de l'auteur, déjà connues de beaucoup, sur la complexité de la vie, l'impossibilité d'en prévoir l'évolution, même en faisant la liste de toutes les préadaptations susceptibles d'ouvrir, selon Darwin, la voie à de nouvelles adaptations. L'univers ne peut être répété. Il est lié à des choix particuliers échelonnés dans le temps et non-réversibles. L'auteur ne semble pas considérer que les 50 prochaines années apporteront la capacité de reproduire la vie biologique telle que nous la connaissons actuellement. Par contre, elles permettront la réalisation de formes de vie nouvelles qui nous en apprendront beaucoup sur la relativité et la complexité des mécanismes biologiques en général. Ces formes à leur tour évolueront selon des modalités que nous ne pouvons prédire aujourd'hui.
Sur Stuart Kauffman, voir Home page http://www.santafe.edu/sfi/People/kauffman/

Richard Dawkins, généticien  L'enfant de la loi de Moore (Son of Moore's Law) . Cet article nous paraît un des plus important du recueil. L'éminent généticien (dont on peut espérer qu'il ne fait pas d'humour britannique dans ce texte) annonce en effet des choses stupéfiantes. Il estime que la Loi de Moore (doublement tous les 18 mois de la puissance des ordinateurs) s'applique aussi dans le domaine des technologies d'analyse informatisée des ADN - qu'il s'agisse des ADN humaines, animales ou végétales. En 1965, selon les calculs d'un des ses collègues, le coût de séquencement par paire de bases (par " lettre " du code génétique) était de £1.000. Il était tombé à £10 en 1975 et à £1 en 1995. Dans le cadre du Programme Génome Humain, terminé en 2000, il était de £0,1. Autrement dit, la quantité de DNA séquencée pour £1.000 s'accroîtra exponentiellement dans les 50 prochaines années, passant de 10K bases en 2000 à 10gigabases ou plus en 2050. Il s'agira de la seule technologie progressant si vite, en dehors de l'informatique, les autres ne progressant qu'à des échelles arithmétiques.

Ceci veut dire qu'en 2050 il sera possible de séquencer un génome humain individuel pour £100 d'aujourd'hui. Chaque personne pourra disposer de son génome. Les conséquences en seront considérables, aussi bien en termes médicaux qu'en termes plus généralement scientifiques et politiques. Aussi important sera le fait que pour le même prix, n'importe qui pourra acheter le génome de n'importe quel organisme vivant - ou disparu par extinction. Un premier résultat de ceci sera la mise en évidence de l'arbre phylogénétique de toutes les espèces connues.

Ceci dit, connaître le génome d'un organisme n'équivaut pas à comprendre cet organisme. Pour arriver à calculer un organisme à partir de son génome, 3 stades doivent être franchis : 1° calculer la séquence d'acides aminés d'une protéine à partir de la séquence d'acide nucléique du gène codant pour elle. On sait désormais le faire. 2° calculer le déploiement en 3 dimensions de la protéine à partir de la séquence d'acide nucléique écrite en une dimension. On peut le faire aujourd'hui dans les cas simples, mais non sans difficultés. 3° calculer le développement entier de l'embryon à partir de ses gènes et de leurs interactions, soit entre eux soit avec l'environnement. Ceci reste encore expérimental aujourd'hui. Mais les progrès avancent si vite (grâce aux travaux sur les gènes de développement ou homéotiques de type hox) que cela devrait devenir faisable sans difficulté en 2050.

La encore, les conséquences scientifiques ou pratiques de ces progrès seront immenses. On pourra calculer l'organisme adulte d'une espèce inconnue à partir de son génome. On pourra calculer de la même façon l'environnement de cet organisme, lequel a façonné le génome et se reflète " en creux " dans sa structure. Ceci sera particulièrement utile pour la reconstruction des éco-systèmes disparus. Grâce à la comparaison des génomes de différentes espèces voisines, par ex. l'homme et le chimpanzé, il sera possible de reconstituer le génome du fameux " lien manquant " entre l'homme et le singe…et le tout à l'avenant en remontant les arbres taxonomiques. C'est ce que Dawkins avait appelé écrire le Grand Livre Génétique des Morts dans son livre Unweaving the Rainbow. Mais la connaissance du génome ne restera pas théorique. Un génome d'Australopithèque reconstitué à la fois par la computation et par le génie génétique pourra être implanté dans un ovocyte humain et donner naissance à un petit australopithèque. On imagine, suggère Dawkins, les débats éthiques en résultant. Mais l'œuf à cette date pourra sans doute aussi être développé dans uns matrice artificielle. Il en sera de même des dinosaures, dont les génomes reconstitués pourront être implantés dans des utérus d'oiseaux modernes. Ainsi le rêve de Jurassic Park pourrait-il être réalisé de façon beaucoup plus efficace que ne l'avait imaginé Michaël Chrichton.
Sur Richard Dawkins, voir http://www.edge.org/3rd_culture/bios/dawkins.html et http://www.world-of-dawkins.com/default.asp et

Paul Davies, physicien théoricien. Y a-t-il eu une seconde Genèse ? L'article présente les différentes hypothèses ayant déjà été formulées relatives à l'existence d'une vie sur Mars. Il décrit les prochaines missions programmées pour l'exploration par des robots puis pour l'envoi de visiteurs humains. Une mission de 4 hommes pendant 2 ans est estimée par lui à plusieurs milliards de dollars. Mais les coûts pourraient en être diminués à certaines conditions qu'il précise. Il spécule ensuite sur les conséquences que pourrait avoir la découverte sur Mars de formes de vie, même disparues. Il rappelle ensuite les perspectives de la recherche de planètes analogues à la Terre dans le système solaire, en décrivant le projet de télescope interférométrique de grande taille (Terrestrial Planet Finder, TPS) qui pourrait être en orbite vers 2016.
Sur Paul Davies, voir http://www.edge.org/3rd_culture/bios/davies.html  et Home page http://aca.mq.edu.au/pdavies.html

John H. Holland, professeur de psychologie et d'informatique: Le futur et comment le prédire. L'auteur rappelle que les modes de prédiction classiques, consistant à extrapoler à partir des tendances actuelles, sont mis en défaut aujourd'hui par la pris en considération des systèmes adaptatifs complexes (CAS) dont l 'évolution est généralement imprévisible en détail. Or c'est le détail qui fait l'intérêt des prédictions, surtout à long terme. Néanmoins, il est persuadé qu'il est possible de faire des prédictions intéressantes en utilisant la simulation sur modèles informatiques, dont il décrit les avantages. Ceux-ci cependant, en l'état actuel des techniques, demandent des ressources informatiques et des délais tels qu'ils sont peu utilisables dans le cas de la simulation des changements climatiques par exemple. Une solution consiste à construire des blocs prédictifs se déroulant comme des jeux-vidéos, entre lesquels l'intuition du prévisionniste fera les interpolations nécessaires. Il distingue des blocs dont l'évolution se déroule à des échelles de temps de plus en plus lentes : le cadre des technologies, évoluant rapidement, en application notamment de la Loi de Moore ; le cadre social, évoluant plus lentement ; le cadre biologique enfin. L'article analyse plusieurs phénomènes susceptibles d'intervenir dans ces différents cadres d'ici 2050.
Sur John H. Holland, voir  Festschrift pour son 70e anniversaire http://www.pscs.umich.edu/jhhfest/

Rodney Brooks, roboticien. La fusion du biologique et de la machine. L'article étudie les conflits idéologiques, voire les guerres, susceptibles d'advenir dans les 50 prochaines années suite à la prise de conscience de plus en plus étendue du fait que des technologies et manipulations identiques seront applicables aux hommes comme aux machines. Les scientifiques ne discutent pas aujourd'hui le point de vue strictement matérialiste selon lequel la vie et l'esprit résultent d'interactions moléculaires. Ce modèle n'est pas encore complet, mais il le deviendra dans quelques décennies. Mais l'opinion publique, y compris celle des dirigeants, n'a pas encore pris conscience de cela, comme le montre l'interdiction d'utilisation des cellules souches embryonnaires formulée par le président G.W.Bush. Dans l'intervalle, les laboratoires comme celui du MIT vont généraliser l'ingénierie biologique (génétique) avec la même rigueur que l'ingénierie mécanique l'a été depuis 50 ans (wet lab). Le silicium, les métaux et les cellules vont être assemblés en robots capables de toutes sortes de choses, à commencer par des prothèses à commande cérébrale implantées dans les corps. Dans une vingtaine d'années, un saut culturel se produira et il apparaîtra normal d'implanter de telles prothèses dans des organismes sains, pour en améliorer les performances. Ceci s'étendra au domaine cognitif puisque la communication sans fil du cerveau avec les données sur Internet deviendra possible. Parallèlement, au plan biologique, l'ingénierie génétique devrait permettre de modifier directement les organes du corps, par exemple en favorisant le développement de nouvelles couches de neurones associatifs dans le cerveau. La programmation des enfants à naître en découlera tout naturellement. Des usines robotisées utilisant les mêmes composants que les corps remplaceront les hommes dans la plupart des tâches matérielles, laissant à ceux-ci plus de temps pour la connaissance et la pensée.

L'humanité sera ainsi incitée à se voir comme un élément parmi d'autres d'un univers artificiel aux processus de type industriel. Les questions de fond : qu'est-ce que la vie, qu'est-ce qu'un homme, qu'est-ce qu'un sous-homme, qu'est-ce qu'un surhomme, jusqu'où manipuler la vie et l'homme ? ne se poseront plus seulement dans les cercles scientifiques mais au sein de l'humanité tout entière. Les chocs culturels en résultant pourront généraliser le vandalisme, le terrorisme, voire de véritables guerres. L'homme sera obligé d'abandonner son rôle d'observateur passif du cosmos, pour adopter celui d'agent de transformation conscient de ce même cosmos (manipulator). Il aura échappé aux contraintes de l'évolution darwinienne pour entrer dans un autre monde évolutif. Il lui faudra beaucoup de sagesse pour contrôler son propre ubris et espérer atteindre en bon état l'ère des communications intra-galactiques.
Sur Rodney Brooks, voir notre article et liens http://www.automatesintelligents.com/biblionet/2002/mai/brooks.html

Peter Atkins, chimiste. L'avenir de la matière. La chimie moderne permet d'obtenir de nouveaux produits, mais aussi de nouveaux matériaux. Elle est au cœur de tout ce qui a trait à la manipulation des atomes et à leur recombinaison dans de nouvelles structures. Trois voies s'annoncent pour les 50 prochaines années. La première consiste à élaborer par informatique de nouvelles structures et matériaux de synthèse, assemblant les atomes selon des designs de plus en plus élaborés. Cela s'étendra aux ordinateurs eux-mêmes, l'ordinateur moléculaire constituant l'objectif à atteindre. La deuxième voie concernera la chimie organique. Les progrès de celle-ci laissent envisager la production d'organismes analogues aux organismes vivants, disposant d'ADN artificiels et des autres caractères de la cellule. Ils incorporeront initialement du matériel biologique mais pourront rapidement s'en passer. La production de protéines et de membranes synthétiques viables deviendra possible. Cependant, une vraie chimie organique, destinée à réaliser des organismes vivants complets, ne sera pas encore au point. Les éléments de ces organismes seront disponibles, mais il restera à les assembler. Dans la 2e partie du siècle, la fabrication de tels organismes vivants utilisant du silicium ou du germanium au lieu de carbone deviendra possible.

Certaines molécules vivantes sont cependant si complexes qu'elles ne pourront pas être fabriquer directement. On élèvera alors des organismes vivants pour les produire, ce qui donnera lieu à une " agrochimie ". Mais les plantes et bactéries pourront produire aussi à grande échelle des molécules plus simples. L'agrochimie se substituera à la pétrochimie.

La troisième voie consistera à manipuler les atomes individuellement, afin de réaliser de nouvelles molécules qui dans les conditions de la vie sur Terre n'auraient pu apparaître ou survivre. Cette fabrication de molécules sur commande fait déjà l'objet des nanosciences et nanotechnologies. Elle conduira à la production de nanomatériaux de toutes sortes., dont on connaît déjà les prototypes, mais qui se diversifieront au profit de nombreux usages inattendus aujourd'hui. Il ne s'agira pas, comme on le pense aujourd'hui souvent, de faire des nanomachines analogues aux macro-machines, mais d'exploiter les liaisons atomiques de façon à obtenir les mêmes résultats en utilisant les énergies de liaison. On pourra ainsi obtenir des bactéries qui produiront de telles machines en sous-produit de leur activité vitale. Dans les grandes constructions, les nanotubes de carbone se généraliseront, augmentant considérablement leurs performances.

Il ne semble pas cependant que des découvertes majeures puissent se produire dans la chimie des 50 prochaines années, analogues à la découverte récente des fullerènes. Mais des effets quantiques tout à fait inattendus pourront survenir et changer aussi bien les théories que leurs applications. Les ordinateurs seront de leur côté devenus si puissants qu'ils pourront, associés éventuellement en vastes réseaux (grid) aider à la réalisation de catalyseurs sous de nouvelles formes (solid, microporous). D'autres au contraire seront solubles dans des liquides.

Les techniques de l'analyse de matériaux se perfectionneront aussi considérablement : chromatographie, spectrométrie de masse, spectroscopie (qui est à l'origine des techniques de Résonances Magnétique Nucléaire). Pour résoudre la question essentielle de la forme spatiale (en 3D, protein-folding) des grosses molécules, afin par exemple d'étudier le rôle des gènes dans la synthèse des molécules, les rayons X intenses produits par les synchrotrons se substitueront aux analyses par ordinateurs, qui atteignent actuellement leurs limites.

Ainsi la chimie des 50 prochaines années aura considérablement perfectionné ses trois fonctions traditionnelles, la synthèse, l'analyse et l'observation des structures. Restera l'étude des réactions, montrant comment une substance est transformée en une autre. Les progrès de la spectroscopie permettront d'observer les réactions dans des temps de plus en plus courts (en dessous de la femtosecond (10-15 s.). Les techniques précédemment présentées pourront être appliquées dans ces conditions avec de plus en plus de précision.
Pour en savoir plus dans le domaine de la chimie, peu visitée par notre revue, le lecteur pourra consulter The Periodic Kingdom: A Journey into the Land of the Chemical Elements (Science Masters Series) de P. W. Atkins - mai 1997

Roger C. Schank, chercheur en intelligence artificielle et sciences cognitives. Allons nous devenir plus intelligemment efficaces (Are we going to get smarter ?). L'article montre le retard qu'ont en permanence les instances académiques au regard de l'évolution des technologies d'apprentissage et de formation et de leurs applications sociales. Dans un monde où les sciences et techniques vont modifier radicalement la société (comme le montrent les autres articles du recueil), va-t-on devenir plus intelligent et plus efficace ? A cet égard, les gens auront moins besoin d'informations que d'" expériences virtuelles " . Celles-ci offriront à chacun, selon son niveau, la possibilité d'expérimenter virtuellement, dans tous les domaines où de bonnes pratiques innovantes seront requises. Les jeux vidéo en ligne à multiples partenaires lui paraissent un bon exemple de ce qu'il faudra faire.
Sur Roger Schank, voir CV http://mitpress.mit.edu/e-books/Hal/chap8/author.html

Jaron Lanier, chercheur en informatique (réalité virtuelle)  et musicien. Le plafond de la complexité. L'article propose de nouvelles logiques de traitement informatique pour éviter de se voir arrêter par le mur de la complexité atteint par les logiciels actuels. Les premiers théoriciens de l'informatique et de l'Intelligence Artificielle y avaient vu des outils universels pour résoudre tous les problèmes. Aujourd'hui le relais est pris par ceux qui prédisent l'avènement d'une " singularité " résultant de la généralisation des ordinateurs et des réseaux aux capacités croissant exponentiellement. En pratique, les déceptions s'accumulent : pannes des matériels et des logiciels, impossibilité d'améliorer sensiblement la productivité de ces derniers, sauf à augmenter considérablement les coûts. Les 50 prochaines années risquent de voir la surestimation des capacités et la sous-estimation des difficultés se poursuivre. C'est le scénario dit de la Planète de la Ligne Rouge (Planet of the Help Desk), chaque humain étant occupé à assurer la maintenance et gérer les pannes des très grands systèmes. Pour éviter cela, différentes possibilités s'ouvrent. La première consistera à ne s'intéresser qu'aux informations ayant un fort potentiel sémantique. La complexité des logiciels est limitée par les capacités des programmeurs à les analyser explicitement et les gérer. On ne peut pas espérer dépasser la limite de 10 millions de lignes de code, quelle que soit l'efficacité du hardware. Il faut donc abandonner les architectures et protocoles reposant sur la gestion de bits en séquence le long de lignes de transmission. La nature ne fonctionne pas ainsi. Ainsi, on ne peut pas se référer à ce modèle pour comprendre le traitement des données fournies à l'aire visuelle du cerveau par le nerf optique. La nature opère par comparaison de schémas (patterns) et la mise en place de modèles implicite de reconnaissance et de confirmation.

Pour expliciter cela, l'auteur prend une comparaison : Si des équipes médicales différentes concevaient, séparément les unes des autres et donc de façon incompatible, qui un cœur artificiel, qui un rein ou un membre artificiel, la réalisation du corps complet supposerait d'écrire un protocole de communication inter-organes. Or ce qui fonctionne encore très bien avec Inernet deviendrait en ce cas impossible vu la complexité de la tâche. Il faudrait réécrire chacun des protocoles particuliers. Se consacrant à cette tâche, les chercheurs ne pourraient plus poursuivre leurs études et le projet s'arrêterait.

Les informaticiens ne semblent pas capables aujourd'hui de revenir sur les méthodes développées il y a plus de 30 ans pour la gestion de systèmes plus simples. Ils se bornent à accumuler par couches de nouveaux objets " encapsulés " (pour le grand bénéfice des fabricants de logiciels) de plus en plus difficiles à faire coopérer, dans des ensembles de moins en moins adaptatifs. On ne cherche pas à repenser l'ensemble. Ainsi le concept de fichier est encore un point de passage obligé de tout traitement, alors qu'il serait sans doute préférable aujourd'hui de saisir et partager l'information à partir de grains soit plus fins soit plus gros.

En reprenant son exemple de la construction d'un corps artificiel à partir d'organes conçus séparément, l'auteur propose une méthode plus globale que la réalisation (impossible) d'un protocole commun de communication. Chaque organe serait vu par les autres comme une surface définissable par un petit nombre de paramètres mesurables (température, pression, entrées et sorties chimiques, etc.). Pour communiquer avec un autre, chaque organe devrait construire un modèle de celui-ci à partir de ces paramètres. Il utiliserait ce modèle pour interpréter les informations provenant de l'autre, et s'y ajuster le cas échéant. Jaron Lanier qualifie ce processus de "statistical surface binding", que l'on pourrait traduire, sauf erreur, par "liaison entre objets par interprétation statistique de données globales fournies par ces objets". En matière de logiciels, le système d'exploitation global consisterait à faire travailler ensemble des logiciels qui reconnaîtraient, interpréteraient et le cas échéant prédiraient les autres. Ainsi l'effondrement global ne serait plus possible.

Cette procédure consistant à se représenter les systèmes complexes comme un ensemble de relations entre composants de grande taille pourrait être appliquée à la simulation des systèmes vivants. L'évolution a sans doute mis en œuvre des méthodes analogues permettant l'auto-optimisation pour atteindre les niveaux actuels de complexité, qui fonctionnent sans pannes importantes. L'évolution n'a pas exploré, sur le mode de l'informatique traditionnelle, le nombre infini des combinaisons possibles pour choisir les meilleures. Elle a procédé par héritages successifs (legacy), chaque héritage réduisant l'espace de recherche de configuration pour le choix suivant. Lorsque je dis "oui" au magistrat qui me marie, mon oui ne prend son sens qu'au regard de l'héritage qu'est l'institution du mariage. Il n'a pas le même sens que le "oui" que j'adresse à quelqu'un qui me demande si j'ai du feu.

L'article appelle en conclusion à la réalisation d'une méthode de description des systèmes complexes à partir des couches d'informations ayant des effets causaux ou déterminants sur les autres. Ainsi seraient modélisés les "héritages" que l'évolution naturelle aurait superposés pour obtenir les complexité que nous découvrons, notamment dans la biologie. Si cela n'est pas fait, il ne servirait à rien de disposer de calculateurs aux possibilités constamment et exponentiellement accrues. On n'en tirera rien.

Ndt : il sera intéressant de comparer cette approche de la complexité avec celle qui est utilisée par les chercheurs dans le domaine de la vie artificielle, en obtenant du complexe émergent par interaction darwinienne entre composants simples.
Sur Jaron Lanier voir Home page http://www.well.com/user/jaron/  et http://people.advanced.org/~jaron/general.html

Samuel Barondes, neuro-psychiatre. Les drogues, l'ADN et le divan de l'analyste. L'auteur pronostique que la psychiatrie de demain fera moins appel aux drogues et aux psychothérapies qu'à l'analyse des différences génétiques entre individus susceptibles d'affecter les comportements et les personnalités. Il s'agit de répondre à la question qui se pose en permanence : qu'est-ce qui rend tel individu sensible à tel facteur déstabilisateur alors que tel autre individu n'en souffre pas ? Certains traversent sans dommage des événements très traumatisants tandis que d'autres y succombent. Et pourquoi, en ce dernier cas, les uns réagissent par la dépression, les autres par l'anxiété et d'autres enfin par le délire schizophrénique ? On estime généralement que les facteurs prédisposant sont héréditaires. Mais de quelle façon ? Il apparaît aujourd'hui que les variants génétiques, ou allèles, sont responsables de la diversité humaine, y compris la sensibilité plus ou moins grande aux agressions. Plutôt que s'interroger sans fin sur les influences culturelles (par exemple le rôle de l'éducation), on comparera les ADN des membres d'une même famille, afin d'identifier les variants correspondant aux troubles de certains de ses membres et les comparer avec ceux d'autres familles. Ceci sera rendu possible par les progrès dont bénéficiera l'analyse des génomes (voir aussi l'article ci-dessus de Richard Dawkins). Chaque individu pourra disposer d'une carte génétique détaillée identifiant notamment les variants prédisposant à certaines maladies ou troubles. A partir de cela, des études mieux ciblées faisant appel à l'imagerie médicale ou à des drogues adaptées pourront permettre des actions préventives, par inhibition ou incitation de la production des molécules actives. Sur ces bases, rien n'empêchera la psychiatrie ou la psychothérapie plus traditionnel d'intervenir, mais elles le feront de façon mieux adaptées aux cas particuliers à traiter. C'est la connaissance de la "nature humaine" en général qui en bénéficiera. Au début du 20e siècle, nous dit l'auteur, on avait découvert avec Freund le rôle déterminant des pulsions inconscientes. Dans la seconde moitié du 20e siècle ce fut la découverte du rôle des médiateurs chimiques. Dans 50 ans, la carte ADN individuelle identifiant les variants génétiques responsables de tel ou tel trouble permettra de compléter et de mieux asseoir la consultation psychiatrique. Mais il est probable que la demande de consultations et de soins ne diminuera pas sensiblement pour autant.
Sur Samuel Barondes, voir http://www.ucsf.edu/pibs/faculty/barondes.html

Nancy Etcoff, professeur en psychologie et sciences cognitives. Scans cérébraux, diagnostics mobiles et thérapies courtes (Brain Scans, Wearables et Brief Encounters) . L'article offre une suite au précédent, en développant l'hypothèse que le besoin d'une relation thérapeutique entre patient et soignant sera toujours aussi grand dans les prochaines décennies, du fait notamment de l'augmentation de la durée de la vie et de l'accession aux soins de populations de plus en plus importantes. Mais de nombreux instruments de diagnostic et de traitement nouveaux permettront de modifier cette relation, en la rendant plus brève bien qu'aussi efficace.
Sur Nancy Etcoff, voir Edge: http://www.edge.org/3rd_culture/bios/etcoff.html

Paul W. Ewald, professeur de biologie et de médecine évolutionnaire (discipline qu'il dit avoir fondée). Maîtriser les maladies. L'auteur s'interroge sur la façon dont dans l'avenir on pourra mieux comprendre et traiter les maladies chroniques (cardiopathies, cancer, Alzheimer, schizophrénie, diabète, etc. ). Il faudra répondre à deux questions différentes. La première sera d'ordre mécanique: quel est l'agent qui provoque la maladie, génome, infection, environnement, etc. ? La seconde sera d'ordre évolutionnaire : quelles sont les pressions de sélection qui expliquent l'apparition et le développement de la maladie ?

La première approche, ne remontant pas assez haut dans les causes, ne permet que des cures ou traitements locaux (patch jobs). Mais l'histoire de la médecine montre que les grands succès thérapeutiques ont été apportés par des biologistes ou des chimistes se posant des questions plus générales sur la vie et les organismes. L'approche privilégiée par l'auteur, dans cet esprit, est la médecine évolutionnaire. Celle-ci ne doit pas se limiter à interroger l'influence du génome des patients dans l'apparition de telle maladie chronique, liée ou non à la sénescence. Elle doit aussi porter sur l'évolution des génomes des parasites et leur co-évolution avec les génomes des patients. Il apparaîtra sans doute, dans les 50 prochaines années que la plupart des maladies chroniques, y compris le cancer, sont dues à des parasites. Mais tester ces hypothèses demandera des décennies, la preuve d'un mécanisme infectieux étant très difficile à obtenir - sauf dans des cas rares et bien étudiés comme en ce qui concerne les maladies induites par le virus HIV. On ne peut espérer la même rapidité en ce qui concerne par exemple les éventuelles causes infectieuses de l'athérosclérose ou du cancer. Ceci d'autant plus que la plupart des scientifiques actuellement vivants se sont forgé une opinion sur les causes de ces maladies et ne sont pas près de les abandonner - ce qui veut dire qu'il faudra attendre leur mort pour que des collègues plus jeunes prennent le relais avec de nouvelles hypothèses.

L'article comporte un tableau des principales affections chroniques avec une date estimée (de 2010 à 2025) où leur caractère infectieux sera reconnu. Les cas les plus typiques sont discutés, notamment celui du cancer, que la plupart des carcinologues considèrent encore aujourd'hui comme résultant d'autres causes qu'infectieuses.

Les agents infectieux identifiés, il faudra développer différents types de vaccins. Mais ceci ne suffira pas. Il faudra mieux comprendre les causes qui provoquent la virulence, transformant un hôte inoffensif en pathogène (ndt : à cet égard, nous avons dans cette revue évoquée le facteur dit du quorum sensing), comme celles qui provoque la résistance aux antibiotiques.

Aujourd'hui, on se fait beaucoup de souci concernant les risques d'explosions épidémiques nouvelles telles que la fièvre d'Ebola ou les maladies à prions (ndt, aujourd'hui, la pneumonie atypique apparue à Hanoï…) alors que les vecteurs en sont difficilement transmissibles. Mais, nous dit l'auteur, il vaudrait mieux s'inquiéter du fait que les hommes meurent massivement par la faute de parasites encore inconnus provoquant les attaques cardiaques ou les cancers. C'est contre de tels parasites dévastateurs qu'il faudrait concentrer les recherches des prochaines décennies, afin de permettre à l'homme d'atteindre indemne l'âge limite que lui imposent ses gènes.

Ndt: Si ces hypothèses relatives à l'origine infectieuse de beaucoup de pathologies chroniques se trouvaient vérifiées, il s'agirait d'un vrai coup de pied dans la fourmilière médicale. On peut penser cependant que, même en ce cas, l'étude des interactions entre un hôte ou terrain déterminé et tel ou tel germe resterait indispensable. Pourquoi par exemple, dans une épidémie de grippe, la majeure partie des gens en contact avec le virus.

Sur Paul W. Ewald, voir Edge http://www.edge.org/3rd_culture/bios/ewald.html  et sur son livre Evolution of infectious disease http://www.aaabooksearch.com/Reviews/0195111397


Nous présentons de façon plus sommaire les articles suivants, qui ne nous ont pas paru d'une aussi grande originalité, tout au moins aux yeux de lecteurs aussi avertis que les nôtres :

Les mathématiques en 2050 par Ian Stewart, mathématicien et écrivain scientifique. Seuls les spécialistes apprécieront la portée des progrès prévus par l'auteur dans ce domaine abstrait.

Dans l'ombre de la culture (In the Shadow of Culture) par Brian Goodwin, biologiste. L' article est moins une prévision qu'une méditation sur la science, la vie, la conscience et les croyances.

L'échange des cerveaux (Swappable minds) par Marc D. Hauser, cogniticien et neurologue. L'article étudie les relations possibles entre les systèmes mentaux des animaux et des hommes, à la suite notamment d'expériences de génie génétique et de greffes inter-spécifiques.

Ce que les enfants apprendront aux scientifiques, par Alison Gopnik, professeur de psychologie. L'article suppose que dans 50 ans, les théories de l'apprentissage auront considérablement progressé, permettant de comprendre comment les adultes, les enfants et les ordinateurs acquièrent leurs connaissances. En conséquence les processus d'apprentissage devraient être rendus plus efficaces.

Vers une théorie du développement moral, par Paul Bloom, professeur de psychologie. L'article propose des considérations - assez suspectes à notre goût - relativement à la façon dont dans les prochaines 50 prochaines années, il sera possible de comprendre pourquoi les individus deviennent " bons " ou " mauvais ". Mais il doute que l'on puisse à cette époque faire en sorte qu'une morale élaborée l'emporte sur les déterminants primaires des comportements humains

L'avenir du bonheur, par Mihaly Csikszentmihalyi, professeur de psychologie et conseil en gestion. On peut considérer cet article comme complétant celui précité de Geoffrey Miller. Il développe différentes considérations sur la façon dont les humains devront, s'ils le peuvent, grâce aux progrès de la génétique et d'autres sciences du développement, orienter les profils et les comportements de leurs enfants ou de leurs concitoyens. Il met en garde contre les vues simplistes, en rappelant la complexité et la grande variabilité des états de conscience.

Serons-nous toujours tristes dans 50 ans, par Robert M. Sapolsky, professeur de biologie et neurologie. L'article s'interroge principalement sur la façon de prévenir la dépression dans l'avenir, soit par des actions de type pharmacologique, soit par des mesures d'ordre social ou économique.

L'avenir des théories du chaos et de la complexité par Steven Strogatz, professeur de mathématiques appliquées. L'article rappelle l'histoire de ces théories et les apports récents de l'étude des systèmes adaptatifs complexes. Il ne propose pas selon nous de perspectives très nouvelles dans ces domaines.

David Gelernter, professeur d'informatique Se connecter aux faisceaux d'information (Tapping into the Beam) ; L'article analyse les possibilités qui seront offertes dans l'avenir par la cyber-sphère, constituée de faisceaux d'informations multiples sur lesquels il sera possible de se brancher. Il s'agit d'une vue un peu théorique qui ne tient pas assez compte des différences culturelles.

Joseph Ledoux, professeur en neurosciences. L'esprit, le cerveau et le soi. L'article présente les différentes techniques, allant de l'imagerie médicale à l'usage de molécules (smart drugs) pour comprendre le fonctionnement des fonctions cérébrales et le cas échéant, agir sur elles afin de remédier à leurs dysfonctionnements. Même observation que ci-dessus.

Judith Rich Harris, psychologue. Ce qui nous rend ce que nous sommes (What Makes us the Way We are). L'auteur estime que, dans 50 ans, beaucoup des conditions dans lesquelles s'élabore la personnalité et s'acquiert la compétence individuelle resteront encore inconnues. D'où la difficulté de définir des programmes éducatifs efficaces.

Pour en savoir plus
Sur le gène homéotique hox, voir en français http://www.snv.jussieu.fr/vie/dossiers/sequences/hoxa1/hoxa1.htm


Automates Intelligents © 2003

 




 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents
Mention légale CNIL : 1134148