Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Interviews
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives
Franck Brancheri
Jean-Pierre Goux
Jean-Claude Lapraz
Jean-Pascal Capp
Henri Boulouet

Mai 2002
propos recueillis par Jean-Paul Baquiast et Christophe Jacquemin, le 12/05/2002

Discussion avec
Johnjoe McFadden

L'évolution quantique



Johnhoe McFaddenJohnjoe Mac Fadden est professeur de génétique moléculaire à l'Université du Surrey, http://www.surrey.ac.uk/qe/, auteur de l'ouvrage "Quantum of Evolution, The new science of life" que nous avons présenté dans l'éditorial de notre numéro d'avril.
Nous avons souhaité approfondir avec lui ses principales propositions, afin de donner envie à nos lecteurs d'étudier son livre et de poursuivre le cas échant ses hypothèses dans les nombreuses directions qui semblent aujourd'hui ouvertes. Les questions posées suivent dans l'ensemble le plan du livre, pour en faciliter la lecture.
On lira aussi l'article de l'auteur relatif aux phénomènes de champs électromagnétiques dans le cerveau que nous avons publié le mois dernier.

Contact :
Johnjoe Mac Fadden. PhD
School of Biological Sciences - University of Surrey - Guildford, - Surrey, GU2 7XH, UK
email: j.mcfadden@surrey.ac.uk

Automates Intelligents (AI) : Docteur McFadden, votre livre "Quantum Evolution" traite de deux questions aussi difficiles l'une que l'autre, les origines de la vie et celles de la conscience volontaire, que vous reliez par le recours permanent à la Mécanique Quantique.
Dans cette interview, nous vous proposons de nous en tenir à la première question, que nous pourrions appeler "théorie quantique de la vie". Nous reporterons à plus tard l'autre question concernant la "théorie quantique de la conscience"
(question abordée dans l'article "Le libre-arbitre expliqué?"). Si vous acceptez cette importante amputation à votre ouvrage, qui prend toute sa valeur lorsqu'on l'étudie dans sa totalité, voulez-vous pour commencer nous dire quelle définition de la vie vous pouvez nous donner ?
JohnJoe McFadden (JMF) : Je peux rappeler les définitions possibles de la vie, dont la plus ancienne remonte à l'Antiquité grecque: générer le mouvement en réponse à une impulsion ou volonté interne - ce qui, aux origines, a pu faire considérer comme vivante la pierre d'aimant. Aujourd'hui, plutôt que de mouvements, on parle d'actions: procréation, croissance, régénération, déplacement…Toutes ces actions semblent dépendre de l'exercice d'une volonté. Or la volonté, surtout quand elle est nommée libre-arbitre, paraît incompatible avec le déterminisme.

Dans le déterminisme, l'individu ne dispose pas de choix : les actions qu'il exécute ne dépendent pas de sa volonté mais de la configuration précise des milliards de particules composant son corps au moment de l'action.

Je montre dans mon livre que les actions, au niveau moléculaire, impliquent le mouvement de particules élémentaires. Des actions différentes supposent des mouvements différents. Quand un oiseau décide de s'envoler, des milliards de particules à l'intérieur de son corps doivent s'engager dans des mouvements bien définis. Une telle décision d'envol ne semble pas relever d'un déterminisme classique. C'est la raison pour laquelle les systèmes biologiques semblent si imprédictibles. Cette imprédictabilité s'étend aux conséquences sur le monde physique que peuvent avoir les prolongements matériels des systèmes vivants, par exemple un bâton de dynamite dans la main d'un homme.

Ceci étant, je n'évoque pas de forces mystérieuses derrière le vivant, ou un quelconque vitalisme, mais seulement les lois connues de la physique et de la chimie. En revanche, j'estime que les dynamiques biologiques -mobilité, métabolisme, respiration, photosynthèse, réplication et évolution- sont gouvernées non par la physique classique, mais par les lois non déterministes de la mécanique quantique (MQ). A son niveau le plus fondamental, la vie est un phénomène quantique. Ceci permet de comprendre les origines de la vie, sa nature, son évolution et, finalement, la conscience.

AI : Quels sont les ingrédients indispensables à la vie ?
JMF : On trouve divers minéraux abondants sur Terre et ailleurs : carbone, azote, oxygène, hydrogène et quelques autres, sous quelques formes qu'ils se trouvent. On a constaté que les bactéries, notamment, utilisent l'air, les roches, la végétation. La vie nécessite aussi de l'énergie qu'elle capte à partir de la lumière ou d'un grand nombre de produits chimiques énergétiques. Mais l'eau constitue ici le facteur indispensable. Peu d'organismes peuvent rester actifs au-delà de 100° C ou dans les températures de congélation, où l'eau leur devient inutilisable. Les endroits les plus désertiques, sur terre, sont les plus secs. Pour lutter dans nos maisons contre la moisissure, nous essayons d'y supprimer l'humidité. Nous verrons plus tard pourquoi l'eau est si indispensable à la vie.

Cela dit, dès que l'eau est disponible, les environnements chimiquement ou thermiquement les plus divers peuvent abriter de nombreuses formes de vie, notamment bactériennes. Il n'existe pas de processus chimique unique en œuvre dans l'ensemble des cellules vivantes. Leur diversité est au contraire surprenante. Pourquoi une telle diversité, intéressant des processus d'organisation hautement complexes, aboutissent-ils à un résultat toujours identique, c'est-à-dire la vie ? Cela me semble montrer que la vie n'est pas seulement réductible à des processus chimiques.

AI : Que pensez-vous des possibilités de vie extra-terrestres ?
JMF : Il y a peu de candidats dans les planètes du système solaire, faute d'eau utilisable. Cependant Europe, un satellite de Jupiter qui a la taille de notre lune et affiche une température de surface de -145°C, pourrait receler de la vie au sein d'une couverture de glace de plus de 150 km d'épaisseur qui ressemble à notre banquise, et qui comporte peut-être de l'eau liquide. Celle-ci pourrait provenir d'une fusion provoquée par des sources géothermiques. Europe doit disposer également de composés carbonés analogues à ceux détectés dans les autres satellites de Jupiter, Callisto et Ganymède. Les scientifiques envisagent dans le milieu de ce siècle la plongée sous la banquise d'Europe, à l'aide d'un engin robotisé qui devrait être testé prochainement dans le lac Vostok, sur la Terre.

Au-delà du système solaire, il n'y a pas de raisons de supposer que des conditions proches de celles existant sur Terre ne puissent se trouver en grand nombre. Mais il ne s'agit encore que de présomptions. De plus, les distances sont telles qu'il paraît aujourd'hui impossible de les vérifier sur place.

AI : Venons-en à la duplication, qui est le caractère le plus fondamental de la vie sur Terre… En quoi celle-ci peut-elle relever de la MQ, comme vous le disiez précédemment ?
JMF : Depuis Darwin, on sait que la duplication ne peut expliquer l'explosion de la vie à elle-seule. Il faut que s'y ajoute un mécanisme de mutation/sélection. D'où viennent les mutations ? La plupart apparaissent durant la réplication de l'ADN. L'enzyme qui a la charge de constituer de nouveaux brins d'ADN - en d'autres termes l'ADN polymérase - a pour activité principale de lier les acides nucléiques nécessaires à la fabrication de ces brins. Cependant l'enzyme ne travaille pas si elle n'a pas un cadre (template) sur lequel bâtir le nouveau brin. Les brins de l'ancien ADN sont dénoués afin de permettre à l'ADN polymérase de se glisser le long de chacun d'eux pour fabriquer le nouveau brin. Mais de temps en temps, l'enzyme fait une erreur et insère une base non conforme au modèle (1 toutes les 10.000 bases environ). Diverses causes expliquent ces erreurs, par exemple des radiations. Mais l'une d'elle est inévitable, et découle de la nature quantique intrinsèque du code génétique.

Dans son livre "What is Life" publié en 1944, Erwin Schrödinger avait proposé  l'idée que les gènes étaient des cristaux apériodiques et que les fluctuations quantiques pouvaient être source de mutations. Mais, à l'époque, on pensait que les gènes étaient des protéines car on ignorait la vraie nature du code génétique. Sa suggestion ne fut pas reprise. Cependant le généticien suédois Per-Olov Löwdin de l'université d' Uppsala remis l'attention sur la nature quantique du code génétique en affirmant qu'il pouvait être considéré comme une suite linéaire de protons. Je montre dans mon livre que les propriétés codantes de l'ADN sont dues aux liens hydrogène entre les protons et les électrons dans les bases de l'ADN. La position de ces particules détermine quels liens hydrogène peuvent se former et de ce fait quels appariements de bases sous-tendent le code génétique. Or les protons et les électrons sont des particules élémentaires quantiques et leur position relève de la MQ. Le code génétique devient un code quantique.

Comme vous le savez, le principe d'incertitude de Heisenberg interdit de connaître à la fois la position et la vitesse d'une particule quantique. Cette incertitude explique le phénomène appelé effet tunnel qui, selon la MQ permet à une particule liée à une autre par une barrière de potentiel de franchir cette barrière comme dans un tunnel, avec une probabilité non nulle, et même si elle n'a pas l'énergie suffisante. En fait, les particules quantiques ne circulent pas n'importe où. En revanche, en application du principe d'incertitude, on peut les retrouver à des endroits où normalement on ne les attend pas.

Les protons codants de l'ADN peuvent et doivent circuler par effet tunnel dans la molécule d'ADN. Ceci conduit à des structures tautomères (ndlr : qui existent sous plusieurs formes en équilibre) pour les bases de l'ADN, avec des protons codants circulant par effet tunnel d'un atome à l'autre.

Des formes tautomères de bases d'ADN peuvent s'apparier avec des bases incorrectes : A avec G et T avec C plutôt que A avec T et C avec G. Watson et Crick ont proposé que si durant la réplication de l'ADN la base de départ ou la base d'arrivée sont sous des formes tautomères, alors la mauvaise base peut être insérée dans le nouveau brin, causant une mutation. Ce processus serait responsable de 0.01% des mutations, soit une éventualité relativement commune. Ceci dit, il existe des enzymes qui éliminent de telles erreurs. Celles qui cependant échappent à ce contrôle de qualité sont d'origine naturelle, et trouvent leur source dans la MQ.

Vous voyez que ces hypothèses conduisent à relier les deux grandes découvertes du 20e siècle, celle du code génétique et celle de la MQ.

AI : Revenons, voulez-vous, aux origines de la vie. En quoi la MQ est-elle concernée ?
JMF : Comme vous le savez, on a trouvé des traces de composés carbonés organiques dus à la vie dans des roches vieilles de 3,8 milliards d'années. Ceci crée une contrainte de temps importante relativement aux délais possibles de l'évolution initiale, puisque la vie serait apparue très vite après la fin des bombardements météoritiques (en éliminant d'autres scénarios comme la panspermie).

La question cruciale est bien de savoir d'où et comment est apparue la proto-cellule. Le scénario standard envisage une émergence spontanée à partir de la "soupe prébiotique". Mais une telle émergence peut-elle intéresser une cellule complète, avec ses enzymes, ribosomes, ARN et ADN elle-même dotée d'au moins 500 gènes ? Un organisme de 500 gènes, chacun constitué de plus de 1000 bases d'ADN ne peut être apparu uniquement par hasard. Pour Hoyle et Wickramasinghe, le phénomène est aussi improbable que le serait une tornade traversant une décharge de ferraille et en faisant émerger un Airbus.

La proto-cellule doit donc avoir évolué, comme toutes les structures complexes l'ont fait ultérieurement (l'œil par exemple) à partir de solutions plus simples soumises à la sélection naturelle. Mais là se présente un gros problème. L'évolution darwinienne repose sur le gradualisme. Chaque petit pas franchi doit être viable et apporter un avantage à son porteur. Or si cela était le cas, pourquoi ne voit-on pas aujourd'hui de tels précurseurs encore en activité (comme on voit encore des organismes portant les précurseurs de l'œil cité précédemment) ? Aujourd'hui, les microbes ont besoin de plusieurs centaines de gènes pour survivre et se reproduire.

Peut-on faire appel aux théories de la complexité pour expliquer l'émergence de l'ordre à partir du désordre, comme le font des théoriciens s'intéressant aux origines de la vie ? L'ordre spontané des systèmes complexes (tels les systèmes météorologiques) ressemble à celui de la vie. Dans les deux cas, il s'agit de systèmes dynamiques plutôt que statiques, constamment renouvelés par les éléments y entrant et en sortant.

Stuart Kauffman (Santa Fe Institute)(1)  est l'un des défenseurs de cette théorie de la complexité servant à expliquer l'apparition de la vie. Dans une soupe contenant différentes sortes de molécules, il n'est pas improbable que l'une d'elle, A, catalyse la formation d'une autre, B, puis d'une troisième C, et ainsi de suite. De même, dans une telle série, il n'est pas improbable qu'à un certain moment la molécule F catalyse la formation de A, ce qui conduirait le cycle à boucler sur lui-même. Le système auto-catalytique ainsi formé se perpétuerait sans changements dans la soupe prébiotique comme une espèce d'anticyclone de réactions chimiques interagissantes. De nouveaux composés chimiques pourraient envahir le premier et provoquer des mutations, des ARN puis des membranes apparaîtraient, la première cellule serait née.

La capacité des systèmes complexes à générer un ordre spontané par auto-organisation est impressionnante (comme le montre la réaction chimique dite Belousov-Zhabotinski). L'auto-organisation peut expliquer de nombreux aspects de la biologie, notamment en écologie et embryologie. On en a donné de nombreuses simulations sur ordinateur. Mais peut-elle expliquer l'apparition de la vie? Aucun mélange chimique complexe n'a pu à ce jour générer un système auto-catalytique. Dans la vie réelle, on peut penser que tout système émergent de cette sorte serait immédiatement absorbé par de multiples réactions chimiques avec les composants de la soupe, et disparaîtrait.

Je fais une autre objection plus sérieuse. Les systèmes organisés (tel l'anticyclone) émergeant de composant physiques ne sont organisés qu'au niveau macroscopique. Au niveau moléculaire, on ne trouve que des interactions au hasard. Or les cellules vivantes sont organisées jusqu'au niveau de leurs particules élémentaires. Les structures cellulaires macroscopiques ne résultent pas d'un chaos particulaire au hasard, mais du mouvement ordonné des particules individuelles. La vie est un phénomène de petits nombres et ne peut être décrite par la théorie de la complexité s'appliquant aux grands nombres. L'ordre de la vie relève d'un tout autre mécanisme.

AI : Comment pourriez-vous décrire ce mécanisme ?
JMF : Il faut insister sur le rôle déterminant des enzymes dans la constitution et le maintien des tissus vitaux. Prenez l'exemple de l'enzyme amylase qui nous aide, lors de la mastication, à décomposer l'amidon du pain pour en tirer du glucose assimilable. Elle accélère (ou catalyse) une réaction qui, sans elle, serait trop longue pour être efficace. Pour ce faire, elle dirige les déplacements d'électrons et de protons concernés par la réaction dans des chemins spécifiques.

Notre corps fabrique des milliers d'enzymes distinctes qui interviennent spécifiquement pour accélérer les millions de réactions chimiques quotidiennes permettant son fonctionnement. Prenons l'exemple de la décomposition de l'acide lactique qui encombre les muscles lors d'un exercice vigoureux. Cet acide est le résultat d'une insuffisante combustion du glucose due à un manque temporaire d'oxygène. La décomposition du glucose, allant jusqu'à la production d'acide lactique, résulte d'une chaîne de réactions dont chacune est accélérée par sa propre enzyme. La dernière enzyme de la chaîne est la LDH (déshydrogénase lactique) qui accélère la réaction de production d'acide lactique plus d'un milliard de fois. L'action de la LDH se traduit par le transfert d'une paire d'électrons d'une molécule appelée NADH vers le pyruvate afin de le convertir en acide lactique. NADH joue le rôle d'un transporteur d'électrons négativement chargés au sein de la cellule. Ceci fait, NADH devient positif (NAD+).

La technique de la cristallographie aux rayons X montre que l'enzyme agit comme un piège. Au sein de la molécule constituant l'enzyme, il existe des sites actifs dont l'un ancre l'acide lactique et l'autre le NADH. Je n'entre pas dans les détails que vous verrez décrits dans mon livre. Disons que les liens chimiques faibles sont attaqués et que de nouveaux liens covalents sont mis en place, provoquant l'apparition d'un nouveau corps à partir de ceux composant le substrat. L'important est que la molécule d'enzyme se reconstitue immédiatement après service fait, en prélevant un proton dans l'eau du substrat. Une simple molécule d'enzyme peut donc convertir des millions de molécules de substrat. C'est ce qui la rend si efficace comme catalyseur biologique.

Comme vous voyez, l'enzyme dirige les mouvements des électrons et des protons à l'intérieur de son site actif. Elle réalise des actions dirigées ou orientées.

Poursuivons un peu l'analyse. L'adénosine triphosphate (ATP) nécessaire aux mouvements musculaires résulte de l'oxydation complète du glucose en présence d'eau. Cette oxydation se produit lors de la respiration. Celle-ci s'exécute au sein d'organelles des cellules, notamment les mitochondries. Celles-ci sont comme de petites cellules en réduction, comportant leurs propres membranes, ribosomes et même ADN. On suppose que, comme les chloroplastes des plantes, ce sont les descendantes de bactéries symbiotiques. Je décris dans mon livre la chaîne de réactions accélérées par des enzymes spécifiques de l'oxydation qui fonctionnent comme des pompes à protons générant un courant de batterie qui finalement accélère la synthèse de l'ATP par l'intermédiaire de l'enzyme ATPsynthase, laquelle fonctionne comme un moteur moléculaire. Elle tourne de 120° à chaque fois en synthétisant à chaque tour une molécule d'ATP, d'une façon d'ailleurs qui n'a pas encore été clairement identifiée.

Quoi qu'il en soit, ce que nous savons du mécanisme de la respiration nous montre que c'est l'un des phénomènes les plus remarquables de l'univers connu. Les nano-pompes électriques et les turbo-moteurs à protons qui font fonctionner chaque cellule vivante de notre corps dépassent en ingéniosité les fabrications dont nous nous flattons : l'avion à réaction, le tunnel sous la Manche et l'ordinateur.

AI :  Les machines vivantes violent-elles la seconde loi de la thermodynamique ?
JMF : Autant que l'on sache, cette loi n'est jamais violée. Chaque réaction chimique produit de l'entropie, c'est-à-dire qu'elle accroît le désordre. Or la vie semble produire de l'ordre. L'entropie déjà faible d'une cellule vivante diminue considérablement lorsque celle-ci donne naissance à un organisme complexe.

Elle ne viole pas pour autant la seconde loi. Les réactions chimiques résultant de notre consommation d'énergie (la nourriture) produisent des déchets qui accroissent l'entropie du monde en compensant la production de néguentropie par notre corps. Nous sommes donc dans des structures dissipatives au sens de Prigogine. Mais l'ordre du vivant relève-t-il de la même sorte de dynamique que celle animant les milliards de particules des systèmes complexes physiques, comme les anticyclones ou les machines à vapeur ? Certains scientifiques le croient. Pour ma part, j'estime que la vie n'est pas un mouvement au hasard.
Nous venons de voir que les enzymes ou les mitochondries dirigent le mouvement d'électrons, protons ou ions individuels dans des directions déterminées. Le changement de statut d'une seule particule dans l'ADN provoque une mutation. La thermodynamique est la science des grands nombres. Elle traite des propriétés statistiques de la matière et ne propose que des ordres probabilistes. Au niveau des particules fondamentales des systèmes physiques, tout est chaos. Au contraire, la vie relève des petits nombres et propose un ordre qui s'étend vers le bas jusqu'au niveau des particules élémentaires.

AI : Vous nous invitez, pour comprendre la vie, à nous remémorer nos classes de physique, lorsque le professeur nous enseignait les grands principes de la mécanique quantique (QM)...
JMF : Exactement. Souvenez-vous de l'expérience fondatrice des fentes de Young, qui fait apparaître des franges d'interférences sur l'écran suite à l'émission au travers de ces fentes d'un flux de photons ou d'électrons. Les interférences ne sont pas possibles dans le cas de particules classiques. L'expérience a servi à montrer que l'électron, comme toutes les particules élémentaires, est à la fois une onde et une particule. Or vous savez que dans l'interprétation classique, on ne peut mesurer à la fois la position et l'impulsion d'une particule quantique.

Richard Feynman, prix Nobel de physique et père de l'électrodynamique quantique, a dit que l'expérience des fentes de Young révélait le cœur de la MQ : "Elle contient son seul mystère. Si vous comprenez ce qui s'y passe, vous avez tout compris de la MQ". Elle révèle en effet la dualité onde-particule caractérisant à la fois, au niveau quantique, la matière et l'énergie.

AI : La MQ fait intervenir la mesure, c'est-à-dire l'observateur, quand il s'agit de décrire la réalité...
JMF : Je vais vous demander de faire un petit effort, pour me permettre d'essayer de répondre à cette observation. Introduisons donc, à ce stade, l'effet dit Zénon. Vous connaissez l'apologue d'Achille et de la tortue, proposé par le philosophe Eléate Zénon. Achille ne pouvait atteindre la tortue car celle-ci avait toujours un temps d'avance dans une série infiniment décroissante de distances. Il a fallu deux millénaires pour permettre aux mathématiciens de montrer que la somme d'une série infinie peut donner un nombre fini(2). On retrouve le paradoxe dans l'effet Zénon et dans l'effet Zénon inverse appliqués à la MQ, ce dernier décrivant comment un système quantique peut être manipulé par la mesure.

On peut se représenter l'effet Zénon inverse par une expérience simple mettant en œuvre trois lentilles polarisantes, prises dans de simples lunettes Polaroïd. Si deux de ces lentilles sont placées perpendiculairement l'une à l'autre (axe midi et axe 3 heures), aucun photon ne peut être transmis. Cependant, en insérant entre ces deux lentilles la troisième avec un angle faible (par exemple sur l'axe 1 heure) la probabilité de transmission des photons passe de 0% à environ 6%. Ceci parce que quelques photons passeront à travers la lentille à 1 heure, et en ressortiront polarisés à 1 heure. Un certain nombre d'entre eux pourront alors passer à travers la lentille à 3 heures, ce que les photons issus directement de la lentille à midi ne pouvaient faire.

Ainsi une mesure quantique oblique (légèrement déviée par rapport à l'état initial) est capable de faire tourner l'angle de polarisation des photons. Le processus peut être continué avec un nombre plus grand de lentilles. Une série de quinze lentilles orientées chacune à 1 minute de plus que la précédente (de midi jusqu'à 3 heures) donnera une probabilité de déviation du flux de photons de plus de 90%. Une infinité de lentilles donnerait une probabilité de déviation du flux de 100%.

Ceci est un exemple de l'effet Zénon inverse selon lequel une série dense de mesures d'un système quantique le long d'un parcours déterminé obligera la dynamique du système à évoluer le long de ce chemin. Cette règle s'applique à tous les systèmes quantiques.

Un point important à noter est que, bien que chaque mesure génère un signal classique, la particule mesurée doit continuer à exister au niveau quantique sous l'état superposé. C'est seulement à cette condition qu'elle pourra faire l'objet d'une nouvelle mesure quantique. L'effet Zénon inverse s'arrêtera lorsque le système quantique sera en totalité amplifié au niveau classique.

AI : Oui, mais pourquoi nous parler de l'effet Zénon inverse ?
JMF : L'effet Zénon quantique a été décrit pour la première fois par Misra et Sudarshan(3) de l'Université du Texas en1977. Ces deux scientifiques montraient comment une série dense de mesures pouvait geler la dynamique d'un système quantique. Tous les mouvements spontanés d'un atome en direction d'un chemin quelconque sont capturés par ces mesures et ramenés à la position initiale. Il s'agit d'une expérience plus facile à réaliser (à partir d'un point initial) que celle consistant à faire parcourir un chemin donné à une particule par une série dense de mesures. L'écrivain scientifique John Gribbin a pu dire qu'une bouilloire quantique soumise à une observation continue ne pourra jamais s'échauffer.

En fait les deux effets sont la double manifestation d'un même phénomène, l'aptitude de la mesure quantique à interagir et à modeler la dynamique d'un système quantique. La mesure quantique extrait de la superposition quantique de tous les états possibles une seule réalité observable dans notre monde physique.

AI : Mais, dans une cellule vivante, où se trouvent les observateurs, ceux qui procèdent aux mesures quantiques que vous évoquez ?
JMF : Vous savez que la position, l'impulsion, la polarisation et tous les autres états d'une particule quantique sont décrits par la fameuse fonction d'onde. Tant qu'aucune mesure n'intervient, la particule quantique occupe tous ces états indistinctement. Pour définir un état il faut la référence à un environnement défini par des concepts classiques qu'apporte la mesure. Celle-ci permet au système quantique d'être localisé dans un environnement externe et autorise l'utilisation de concepts classiques tels que la position ou l'impulsion. Sans la mesure, la particule existe dans un espace infini vide comme la superposition de tous ses états possibles au sein de cet espace. Pour qu'elle en sorte, il faut un échange de matière ou d'énergie entre elle et l'instrument de mesure, quel que soit celui-ci. Si cependant notre instrument de mesure était réduit à un seul électron, la mesure ne serait plus possible, car les deux particules s'entrelaceraient en un ensemble inséparable (comme l'a montré la discussion du paradoxe Einstein-Podolsky-Rosen en 1935).

Où passe donc la frontière entre l'inséparabilité quantique et les états séparés du monde classique ? L'expérience des fentes de Young, déjà citée, peut nous éclairer. Elle ne marche bien qu'avec l'utilisation d'un pinceau de lumière monochromatique, tel un faisceau laser. Il s'agit alors de lumière cohérente, tous les photons étant en phase. Si nous faisons perdre leur cohérence aux particules, par exemple en injectant un flux d'électrons dans le faisceau, les franges d'interférence disparaissent. Les états de superposition quantique se perdent. La mesure que l'on effectue en injectant des particules sur l'objet quantique à observer agit de même. Autrement dit, la décohérence, avec résolution de la fonction d'onde, est le résultat de la mesure. Il n'est même pas nécessaire d'évoquer la fonction d'onde. La décohérence suffit pour faire disparaître les franges d'interférence. A sa suite, les électrons vivent dorénavant exclusivement dans le monde classique. A toutes fins utiles, ils ont perdu leurs caractères quantiques. Tout se passe comme si une mesure quantique avait eu lieu mais sans l'intervention d'un observateur extérieur. L'environnement (les photons) ont effectivement mesuré le système quantique.

Wojciech Zurek(4) du California Institute of Technology a montré comment la décohérence est responsable du fait que le monde nous apparaît comme classique, bien que constitué de particules quantiques. Tout système physique est bombardé en permanence de flux de particules, qui provoquent la décohérence des systèmes quantiques le composant. Les franges d'interférence disparaissent et le monde n'est plus pour nous que classique. L'environnement mesure le système quantique en permanence et, si l'on peut dire, le déquantifie pour nous. Or, dans les modèles de décohérence, l'environnement n'est pas seulement l'environnement externe du système, mais son environnement interne, son degré de liberté. Les atomes d'un corps quelconque (au moins au dessus du zéro absolu (-273,15° C)) vibrent dans le désordre. Il se produit une décohérence produisant l'effet d'une mesure quantique. Si nous pouvions observer une particule isolée de ce corps, nous retrouverions l'état de superposition quantique. Mais ce n'est plus le cas pour le corps tout entier. L'état quantique n'a pas disparu pour autant mais il est devenu inobservable.

La clef de la décohérence se trouve donc dans l'interaction du système quantique avec un environnement complexe. C'est de cette façon qu'a été résolu le paradoxe du chat de Schrödinger. Celui-ci, constitué de milliards d'atomes, ne peut être dans un état superposé (à la fois mort ou vivant). Partout, y compris dans les systèmes physiques, la décohérence lessive, si l'on peut dire, les effets quantiques.

La décohérence dans les systèmes composés de particules multiples ne résout pas entièrement la question du statut de la particule isolée. Que se passe-t-il en ce cas ? Que devient en cas de mesure et donc de décohérence l'état de la particule quantique (superposée) qui n'a pas été mesuré ? Beaucoup de physiciens considèrent que la MQ ne s'applique qu'aux grands nombres, et ne produit que des résultats probabilistes. Cependant les nanotechnologies nous conduisent de plus en plus à manipuler des atomes individuellement. Les cellules font de même, depuis des milliards d'années, nous l'avons vu, en utilisant les enzymes pour activer les réactions chimiques.

Les interprétations ne manquent pas lorsqu'il s'agit de donner une image intelligible du monde quantique. Je me bornerai à citer l'hypothèse des univers multiples. Lorsqu'un électron passe à travers les deux fentes de Young, l'univers se sépare en deux. Ils cohabitent tant qu'aucune mesure n'est faite. Mais si nous mesurons le passage de l'électron à l'une des fentes, nous produisons une décohérence, et les univers se séparent. L'électron en état superposé se sépare aussi. L'un, celui qui est observé, reste avec nous dans notre univers et l'autre disparaît dans un autre univers. Cette hypothèse des univers multiples ou multivers est difficile à admettre par le sens commun. Les autres interprétations plus classiques (celle usuelle de l'Ecole de Copenhague selon laquelle l'univers n'existe pas avant l'intervention d'une mesure, ou celle postulant un retour en arrière dans le temps) ne sont guère plus acceptables par le sens commun. Bornons-nous à poser que notre incapacité à comprendre le phénomène quantique, par ailleurs totalement indiscutable, tient au fait que notre cerveau n'a pas été construit pour cela par l'évolution.

AI. : Dans votre livre, vous poussez jusqu'au bout ce modèle des univers multiples en suggérant que, dans notre univers, la vie n'est apparue qu'une fois et ne réapparaîtra jamais, toutes les autres formes de combinaisons atomiques pouvant produire des réplicateurs s'étant produites ou se produisant dans d'autres univers qui ne nous serons jamais accessibles...
JMF : C'est une hypothèse à considérer en effet, que l'on peut conjuguer avec le principe anthropique : nous vivons dans le seul univers s'étant révélé apte, parmi les milliards de milliards de possibilités existantes dans le monde quantique, à permettre non seulement l'apparition de la vie mais celle de l'homme tels que nous les connaissons dans notre univers réel. Mais d'autres vies et d'autres hommes existent peut-être dans des univers parallèles à jamais séparés du nôtre.

AI : En quoi ce rappel que vous venez de faire des principes de la MQ va-t-il nous aider à comprendre la vie, notamment la question de son origine, dont vous nous avez dit qu'elle n'était toujours pas résolue ?
JMF : Vous vous souvenez que nous avons montré, en application de l'effet Zénon inverse, en utilisant une série de lentilles Polaroïd, qu'une suite de mesures suffisamment dense, avec une faible rotation de chacune des lentilles, définissait un chemin permettant aux photons d'évoluer progressivement d'un état à l'autre. De même, une série de mesures quantiques suffisamment dense appliquées à une particule sur un chemin constitué d'une suite de positions peut déplacer cette particule le long de ce chemin. Ledit chemin peut n'être que l'un des milliards de milliards de chemins possibles, mais la mesure quantique peut forcer le système à évoluer dans cette direction mesurée. Or c'est bien ce que nous voulons lorsque nous voulons faire évoluer un acide aminé isolé tel que l'arginine le long d'un chemin unique à travers l'espace multidimensionnel des peptides pour aboutir à la synthèse d'une protéine auto-réplicatrice. Si on estime que cette protéine doit disposer d'une trentaine d'aminoacides pour espérer pouvoir se répliquer, la probabilité dans le monde classique pour que cette combinaison se réalise est proche de zéro. Mais si des mesures quantiques suffisamment nombreuses étaient effectuées le long de cette route, la probabilité augmenterait, en application de l'effet Zénon inverse.

AI : Comment cela ?
JMF : L'effet fonctionne lorsque les mesures quantiques sont obliques les unes au regard des autres. Alors l'état quantique peut être décomposé en jeux d'états orthogonaux (perpendiculaires). La mesure peut forcer l'un de ces états à devenir réel, et une dense série de mesures peut forcer le système entier le long de ce chemin mesuré. Si les mesures de position peuvent forcer les électrons à se déplacer dans un espace vide, elles peuvent aussi forcer les électrons ou les protons à se déplacer dans l'espace d'atomes ou de molécules.

Considérée ainsi, la réaction chimique aboutissant à la production du premier réplicateur devient une séquence de mouvements d'électrons et de protons à l'intérieur et entre molécules. Le déplacement dans l'espace multidimensionnel de l'ensemble des peptides devient un chemin dans un espace de positions pour les électrons et les protons. La marche vers un auto-réplicateur reste hautement improbable, mais les mesures quantiques et l'effet Zénon inverse peuvent capturer le mouvement de particules le long de cette route et en augmenter la probabilité.

Mais comment le mouvement des particules à l'intérieur et entre les molécules peut-il être mesuré ? Comme nous l'avons vu précédemment, ce sont les enzymes qui réalisent cet exploit. La position et l'impulsion précises des particules au sein des enzymes sont déterminantes pour leur activité. Les enzymes réalisent donc régulièrement des mesures quantiques de l'état de leurs propres particules.
Je montre dans mon livre comment des proto-enzymes ont pu émerger dans le monde quantique des peptides. Leur action enzymatique a réalisé des mesures quantiques des particules les composant. Ces proto-enzymes se sont retrouvées intactes après la mesure, comme nous l'avons vu. Leur état quantique a repris sa vie dans le monde quantique. Cependant toute chaîne d'électrons et de protons conduisant à un auto-réplicateur aura été irréversiblement amplifiée dans le monde classique. Le réplicateur amarre la protéine en croissance au monde classique.

Nous nous retrouvons avec une chaîne de mesures quantiques aboutissant à un réplicateur qui amplifie le système quantique jusqu'au niveau du monde classique. Ce sont les conditions de l'expérience avec nos lentilles Polaroïd. Dans la proto-cellule quantique, c'est une série de proto-enzymes qui effectue les mesures quantiques jusqu'à l'émergence d'un auto-réplicateur qui amarre le système dans le monde réel. Les mesures quantiques réalisées par des proto-enzymes le long de la route vers un auto-réplicateur ont constitué une suite de pas conduisant à l'émergence de la vie.
Il a suffi sans doute d'un petit nombre de mesures quantiques pour augmenter suffisamment la probabilité d'émergence d'un auto-réplicateur dans telle petite mare de la soupe prébiotique. L'évolution vers un auto-réplicateur hautement improbable à travers l'univers multiple de la chimie prébiotique a été guidée par la capacité des mesures quantiques à capturer les états quantiques nécessaires à l'apparition de ce premier réplicateur.

AI : Ce que vous venez de dire ne nous oblige-t-il  pas à préciser la place de la cellule, à la frontière du monde quantique et du monde réel ?
JMF : Effectivement. Prenons une cellule, par exemple la bactérie E. coli résidant dans un intestin humain. Il existe en son sein une frontière entre le monde quantique et le monde réel, qu'il faut faire apparaître. Ce sera un proton, un de ceux composant la molécule de l'enzyme beta-galactosidase, qui nous servira d'indice. L'enzyme sert à décomposer le lactose du lait en glucose et galactose. En l'absence de lait dans l'intestin, la protéine se trouve repliée sur elle-même dans un état de latence. Notre proton témoin, par exemple un noyau d'hydrogène, est attaché à un atome d'oxygène par un lien covalent. Avec l'apport d'un peu d'énergie, il pourrait être capturé par un atome voisin d'azote, avec lequel il a une affinité suffisante. A la température du corps, nous dirons qu'il y a 50% de probabilités que le proton reste attaché à l'atome d'oxygène et 50% de probabilités qu'il rejoigne l'atome d'azote. Ceci veut dire que pendant 50% de son temps, il est attaché à l'un et 50% de son temps attaché à l'autre. Ce proton habite-t-il le monde quantique ou le monde réel? En d'autres termes, sa position est-elle réelle ?

La première réponse est que notre proton est une particule quantique qui existe à l'état de superposition tant qu'il n'a pas été mesuré. Cette mesure n'a pas besoin d'être réalisée par l'observateur de l'interprétation de Copenhague(5). Ce sera l'interaction du proton avec un environnement complexe qui produira sa décohérence. Mais à quel niveau une telle interaction doit elle se produire? Le proton vit-il au-dessus ou au-dessous de la frontière avec le monde quantique ?

On peut essayer d'estimer les temps de décohérence. Je vous renvoie à mon livre pour les observations et calculs utilisables. Demandons-nous plutôt ici si l'information concernant le chemin suivi par le proton, vers l'atome d'oxygène ou vers celui d'azote, peut provoquer une décohérence.
Si la position du proton dans la molécule est sans conséquence pour la protéine ou pour la cellule, ce qui est un cas fréquent dans les cellules vivantes, des changements de position du proton ne causeront pas de modification dans la structure de la protéine ni dans le champ électrique. Ils seront insuffisants pour provoquer la décohérence. Le proton restera indéfiniment en état de superposition quantique.
Mais si notre proton par sa position joue un rôle actif dans la dégradation de la molécule de lactose évoquée précédemment, il faut qu'il soit disponible pour bombarder cette dernière. Il doit donc cesser son flirt avec l'atome voisin d'azote. L'enzyme peut donc servir à mesurer la position du proton, dès que du lactose apparaît. Nous serons nous-mêmes informés du résultat de cette mesure quand se déclencheront dans le monde classique les diverses conséquences de dégradation du lactose dans la chaîne métabolique, avec production d'ATP, mise en mouvement de la bactérie et autres phénomènes impliquant les milliards de particules constituant la bactérie et son environnement.
Si ces manifestations se produisent, le proton était bien attaché à l'atome d'oxygène. Si rien ne se produit (ce qui équivaut à une mesure nulle ou non-mesure - null measurement) c'est que le proton se trouvait attaché à l'atome d'azote. La bactérie se comporte comme un instrument macroscopique de mesure analogue à un compteur Geiger. Mais elle mesure son propre état quantique interne - tant du moins que cet état permet une mesure (c'est-à-dire, dans notre exemple, tant que du lactose a permis d'activer le proton du site actif de l'enzyme galactosidase)

Bien entendu, les mêmes phénomènes se produiront (et pourront dans certains cas être observés dans le monde réel) à propos du quelque millier d'enzymes qu'une bactérie ordinaire produit et utilise. Ces enzymes réagissent à de nombreux paramètres physiques, température, lumière, sans parler des substrats chimiques baignant la bactérie. De même, les mesures ne se limiteront pas à celle de la position, mais aussi à celle des autres propriétés quantiques de la particule, énergie, impulsion, spin, etc. Les cellules vivantes sont ainsi des détecteurs extrêmement sensibles de toutes sortes d'événements quantiques survenant en leur sein.

AI. : Vous êtes finalement en train de nous dire ici qu'il n'y a pas dans la cellule de frontière fixe entre le monde quantique et le monde réel...
JMF : Exactement. Cette frontière varie selon les niveaux hiérarchiques de la cellule, leur activité, le niveau de leurs ressources. Dès que les conditions sont favorables, la plupart des particules élémentaires de la cellule sortent de leur mode quantique, de l'état de superposition et des interférences. Elles prennent des valeurs réelles au sein du monde classique. Seules alors les particules non critiques, protégées des réactions avec l'environnement, profondément enfouies au cœur des cellules, pourront persister comme des entités quantiques.

AI : Ces propriétés quantiques de la cellule ont-elle eu une influence sur l'évolution des organismes vivants ?
JMF : Ayons bien à l'esprit que l'évolution, dans le schéma darwinien, résulte de la survenance de mutations. Au sein d'une molécule d'ADN, nous avons vu que l'enzyme ADN polymérase, responsable de la duplication du brin d'ADN, peut faire des erreurs. Il suffit qu'un proton ne soit pas attaché au bon atome d'azote mais à celui d'un tautomère pour que l'enzyme insère une base incorrecte, ce qui provoque une mutation. Mais, pour que le proton choisisse telle ou telle position, plutôt que rester en état de superposition quantique, il faut qu'une mesure quantique ait été réalisée. Elle ne peut l'être que dans les conditions d'environnement favorable, par exemple la présence de lactose. La mesure quantique conditionnelle chevauche donc ainsi le moteur de l'évolution qui est la mutation.

La fréquence des mutations dépend donc de la dynamique du proton : combien de temps passe-t-il attaché à l'azote tautomère ? Si ce temps est court, les mutations seront rares, fréquentes dans le cas contraire. Si une série dense de mesures est exécutée sur le proton dans sa position tautomère, alors l'effet Zénon le figera dans cette position. Dans les conditions favorables, c'est-à-dire dans notre exemple en présence de lactose, la cellule pourra effectuer cette série dense de mesures. Ceci accélérera donc le taux des mutations.

AI : Est-ce pour cette raison que vous parlez dans votre livre de mutations adaptatives, c'est-à-dire orientée dans le sens d'une adaptation bien définie ?
JMF : Oui. L'accélération du taux de mutation dans les environnements favorables est précisément le phénomène découvert par John Cairns quand il a décrit le phénomène mystérieux de l'augmentation du taux des mutations quand celles-ci sont favorables à la cellule. La théorie évolutionnaire néo-darwininenne classique postule au contraire que les mutations se font au hasard, sans viser une direction évolutive particulière. John Cairns a montré qu'un lot de bactéries E.coli privées de nourriture, normalement incapables de consommer du lactose, étaient sujettes à des mutations favorables à l'utilisation du lactose plus fréquentes que le lot de bactéries témoins convenablement nourries. Les bactéries E.coli sont donc apparues capables de diriger leurs propres mutations en faveur de leur survie.

Ces expériences sont encore controversées. D'autres facteurs peuvent intervenir. De toutes façons, le néo-darwinisme postulant la mutation au hasard est si ancré dans les esprits que les biologistes hésitent à accepter des hypothèses différentes. Mais d'autres expériences, comme celles du Pr. Barry Hall de l'Université de Rochester semblent aller dans le même sens. Il estime dans un article récent que la génération de mutations sélectives favorables par des moyens inconnus n'est pas à exclure.

La capacité de la cellule à mesurer la position des particules fondamentales au sein de la double hélice d'ADN sera déterminée par la composition favorable de l'environnement, en l'espèce la présence de lactose. Il se produit un effet de feed-back. Le lactose arme les systèmes de mesures de la cellule, lui permettant de mesurer la position des protons de l'ADN qui potentiellement codent pour l'enzyme beta galactosidase. La cellule peut alors procéder à une série dense de mesures qui perturbent la dynamique de ces protons et augmentent le taux de mutations. La mesure quantique augmente corrélativement le taux de mutations favorables à l'adaptation de l'organisme.

AI : Nous pourrions peut-être dire que si nous sommes là à discuter ensemble de ces questions, ce qui représente en théorie un phénomène hautement improbable, dans le relativement court temps de l'évolution, ce fut parce que des phénomènes de cette nature se sont produits tout au long de l'histoire de la vie ?
JMF : Je vous laisse la responsabilité de cette affirmation.

AI. : Quel regard portent les physiciens quantiques sur vos travaux et sur à vos emprunts à leur domaine. Matthew J. Donald, du Cavendish laboratory(6), par exemple, semble émettre quelques réserves...
JMF : Je ne crois pas que M. J. Donald ait trouvé de réelles erreurs dans le modèle que j'ai propose avec Jim Al-Khalili. Mais il ne croit pas que le processus que j'ai décrit soit possible dans une cellule vivante, à cause de la décohérence. Il faut admettre que la plupart des physiciens seraient d'accord avec Matthew Donald sur le fait que les effets quantiques sont peu probables dans les systèmes chauds et humides, c'est-à-dire dans les systèmes vivants. Mais d'autres, comme Paul Davies (7), restent ouverts à de tels phénomènes. Il faut se rappeler qu'Einstein a été presque toute sa vie hostile à la mécanique quantique. Même les physiciens peuvent se tromper.

Ce que je propose est que la structure des systèmes vivants est spécifique en ce sens qu'elle permet des effets quantiques qui seraient normalement perdus dans les systèmes inanimés. J'admet que cela constitue un challenge très fort à la charge des systèmes vivants. Mais la vie nous a surpris plusieurs fois par ses capacités dans le passé.

AI: Raison de plus pour poursuivre les recherches... Quelles suites proposez vous à vos travaux, aussi bien sur le plan théorique que pratique ?
JMF : Je pense que les expérimentations-clefs doivent viser à mettre directement en évidence des effets quantiques dans les systèmes biologiques. Une approche pourrait consister à démontrer que les biomolécules peuvent adopter des comportements quantiques, par exemple qu'une protéine ou une molécule d'ADN puisse se comporter comme des ondes en franchissant les deux fentes de l'expérience de Young.

Mais ceci nous renseignerait seulement sur la capacité des molécules biologiques à se comporter comme des objets quantiques dans des situations très artificielles. J'aimerais pour ma part voir découvrir directement les effets quantiques dans les cellules vivantes - par exemple en recherchant la séparation des photons (photon anti-bunching) dans des photons biologiques.

Sur le plan théorique, j'aimerais que quelqu'un examine sérieusement les flux d'informations à travers une cellule vivante afin d'obtenir une estimation exacte des temps de décohérence.


Notes
(1) Stuart Kaufmann, home page http://www.santafe.edu/sfi/People/kauffman/Revenir dans le texte
(2) Voir par exemple : Nicholas Falletta, Le Livre des paradoxes, Diderot Editeur, 1998 Revenir dans le texte
(3) George Sudarshan http://www.keral.com/celebrities/georgesudarshan/works.htm Revenir dans le texte
(4) Wojciech Zurek http://kaiken.df.uba.ar/LECTURES/ZUREK/ Voir aussi article http://members.aol.com/projbin/reflnuo2.htm Revenir dans le texte
(5) L'Ecole de Copenhague s'est constituée autour de Niels Bohr à l'Institut de physique de cette ville, à partir de 1913. Pour elle - et c'est encore un dogme de la mécanique quantique aujourd'hui, ce qui ne peut être mesuré n'existe pas. Seul la mesure, et du même coup l'observateur qui procède à la mesure, constituent la réalité, en la modifiant d'ailleurs de ce fait. Revenir dans le texte

(6) Sur Matthew Donald voir: http://www.poco.phy.cam.ac.uk/~mjd1014/. Sa critique du livre: http://www.poco.phy.cam.ac.uk/~mjd1014/qevrev.pdf  Revenir dans le texte
(7) Paul Davies est l'auteur de "The fifth miracle: the search for the origin and meaning of life et de God and the new physics". Voir http://www.edge.org/3rd_culture/bios/davies.html  Revenir dans le texte

Rappel
Voir aussi :
Le libre-arbitre expliqué ?
Notre éditorial d'avril 2002
Article de Johnhoe Mc Fadden : "Le Je n'est pas un robot"

© Automates Intelligents 2002

 





 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents