Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Actualité
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 

15/08/10 Réseau d'information de l'INIST

07/08/10 Nouvelle grave menace épidémique

07/08/10 Le colza transgénique américain prend la clé des champs

06/08/10 Geoengineering : la grande tromperie

04/08/10 Mission Planck de l'ESA. Premier succès

28/07/10 ITER

25/07/10 Recul américain sur le contrôle des gaz à effet de serre

12/07/10 Rosetta : premier grand succès

09/07/10 Lumières sur la rétroprogrammation des cellules adultes en cellules souches

08/07/10 Solar Impulse

06/07/10 Première photographie d'une exoplanète

06/07/10 les centenaires disposeraient de gènes spécifiques
dits "promoteurs de longévité"

06/07/10 Premier bilan de la pandémie de grippe H1N1

02/07/10 Des organismes pluricellulaires apparus voici 2,1 milliards d'années ?

29/06/10 Le vol V196 d'Ariane, 2ème lancement de l'année

29/06/10 Calcul Haute performance. La Darpa vise le quintillion d'opérations à la seconde

20/06/10 Le robot Little Dog

19/06/10 Le delta du Niger est abondamment plus pollué que le golfe du Mexique

14/06/10 Le 2e super-calculateur le plus rapide du monde est chinois

14/06/10 Changements géostratégiques majeurs possibles en Afghanistan

03/06/10 Nouvelles avancées américaines vers l'ordinateur quantique biologique

02/06/10 Simulation en vraie grandeur d'une expédition sur Mars

30/05/10 Un véhicule fonctionnant au solaire mais consommant du CO2

29/05/10 Iter, un investissement d'avenir

28/05/19 La bactérie artificielle de Craig Venter

27/05/10 L'origine de l'Homo-sapiens

Mai-juin-juillet-août 2010

Réseau d'information de l'INIST
15/08/2010

Marc Guichard, responsable du réseau d'information de l'INIST, Institut National de l'Information Scientifique et Technique, rattaché au CNRS, dispose désormais d'un site Twitter pour une information rapide des communautés scientifiques.

http://twitter.com/marcguichard


Nouvelle grave menace épidémique
Jean-Paul Baquiast et Christophe Jacquemin - 15/08/2010

Des bactéries très résistantes aux antibiotiques, présentes en Inde et au Pakistan, ont fait leur apparition au Royaume-Uni. Cette diffusion d'un gène bactérien de résistance serait liée aux voyages et au tourisme médical. Le potentiel de cette résistance "à constituer un problème pour la santé publique dans le monde est grand et une surveillance internationale coordonnée est nécessaire", estime l'équipe de chercheurs dirigée par le Dr Karthikeyan Kumarasamy, de l'université de Madras (Chennai, Inde), qui publient les résultats de leur enquête dans un article mis en ligne mercredi 11 août sur The Lancet (voir lien ci-dessous)

Les phénomènes de résistances croissantes aux antibiotiques conventionnels affectaient jusqu'ici surtout les bactéries de type Gram positif. C'était le cas des staphylocoques dorés résistants à la méticilline et les entérocoques résistants à la vancomycine. On sait ainsi qu'un ou plusieurs staphylocoques multi-résistants ont été identifiés et provoquent des infections profondément délabrantes, sans qu'il soit aisé de les éliminer. Cependant, de plus en plus de bactéries du type Gram négatif sont aujourd'hui concernées par le phénomène. Or il y a moins de nouveaux antibiotiques ou d'antibiotiques en développement actifs contre les bactéries Gram négatif, et les programmes de médicaments paraissent insuffisants pour fournir une couverture thérapeutique dans les dix à vingt ans, constatent les auteurs de l'article du Lancet.

C'est le cas pour la famille des entérobactéries, parmi lesquelles les plus connues sont Escherichia coli (colibacille), responsable entre autres d'infections urinaires ou génitales, et Klebsiella pneumoniae pouvant générer des détresses respiratoires graves. Ces deux bactéries figurent parmi les causes les plus importantes d'infections nosocomiales ou dans la population générale.

En 2009, des chercheurs avaient pour la première fois identifié un gène conférant une résistance sur des klebsielles et des Escherichia coli sur un patient suédois qui avait été hospitalisé en Inde. Ce gène code pour une enzyme appelée "New Delhi métallo-bêta-lactamase 1" (NMD-1). L'enzyme inactive certains antibiotiques et en particulier la famille des carbapénèmes, qui sont à ce jour les antibiotiques de dernier recours pour les entérobactéries multirésistantes.

Karthikeyan Kumarasamy et ses collègues ont enquêté sur la prévalence de ce gène dans des prélèvements bactériens effectués dans plusieurs pays. NMD-1 a été retrouvé dans plusieurs sites en Inde, ainsi qu'au Pakistan et au Royaume-Uni. Il était présent principalement dans des klebsielles et des Escherichia coli très résistantes à tous les antibiotiques - sauf deux utilisés dans des circonstances exceptionnelles, la tigécycline et la colistine. Les klebsielles isolées à Haryana, dans le nord de l'Inde, présentent des aptitudes à provoquer des flambées épidémiques.

L'aggravation prévisible du problème posé par les résistances bactériennes induites par la NDM-1 est un scénario "très préoccupant", indiquent les auteurs, qui se disent encore plus inquiets du fait que la plupart des isolats indiens "provenaient d'infections extra-hospitalières", ce qui pourrait signifier que le gène responsable est répandu dans l'environnement. Certes, les précautions utilisées contre de telles infections: lavage de mains, éviter légumes frais et glaces, etc., restent – et sont plus que jamais – nécessaire, mais dans des pays à forte densité humaine elles sont difficiles à appliquer.

Le tourisme médical est par ailleurs à incriminer, concernant la contamination sous forme de maladies nosocomiales. Les liens historiques entre l'Inde et le Royaume-Uni expliquent que ce dernier soit le premier pays occidental où soient retrouvées de manière importante des bactéries productrices de NMD-1. Ce d'autant que que de plus en plus de patients européens viennent subir des interventions chirurgicales ou des implantations dentaires en Inde ou au Pakistan. "Il est perturbant, dans ce contexte, de lire dans la presse populaire des articles conseillant aux patients de se rendre en Inde pour faire faire des économies au service de santé britannique, écrivent les chercheurs. Comme le montrent nos données, une telle proposition pourrait coûter à la collectivité bien plus que les économies réalisées à court terme."

Face à ce nouveau risque, la mise en place de systèmes de veille sanitaire mondialisés devient essentielle. Mais cela nécessite des infrastructures difficiles à monter dans les pays émergent. Et c’est là que l’OMS devrait jouer son rôle de gouvernance mondiale de la santé. Or l'Inde, soucieuse de protéger son tourisme médical, vient officiellement de protester. Elle se plaint d'être stigmatisée, ne fut-ce que par le nom donné au nouveau gène, New Dheli. La crise issue des suspicions de conflits d’intérêts dans le cadre de la grippe H1N1 risquent de ne pas faciliter l’action de l’agence des Nations Unies.

Question aux généticiens

Au plan biologique, il nous semble que des précisions devraient être données par les chercheurs. Les bactéries résistantes, à notre connaissance, n'apparaissent pas selon les processus de la sélection darwinienne, selon laquelle lorsqu'un nouvelle individu acquiert par mutation un gène favorable à sa survie (un gène résistant aux antibiotiques en l'espèce), il supplante très rapidement ceux qui n'ont pas bénéficié de telles mutations.

En l'espèce, il semble que le gène NDM-1 se déplace au sein des populations de bactéries, en les envahissant comme pourrait le faire un virus et en leur conférant ainsi l'immunité. Ceci rappelle – pour le non-spécialiste qu'est l'auteur de la présente brève - le mécanisme des gènes dits sauteurs et des pools de gènes qui avaient été à l'origine de la diversification des premières bactéries et archéa il y a 4 milliards d'années. Nous aimerions qu'un de nos lecteurs nous aide à préciser ce point.

Pour en savoir plus
Article de The Lancet
http://www.thelancet.com/journals/laninf/article/PIIS1473-3099%2810%2970143-2/fulltext


Le colza transgénique américain prend la clé des champs
Christophe Jacquemin - 07/08/2010

Colza transgéniqueLes plants de colza transgénique prennent la clé des champs pour se propager hors des zones cultivées.
86% des plants de colza collectés entre le 4 juin et le 23 juillet dernier au bord des routes du Dakota du nord se sont révélés être porteur d'au moins un gène conférant une capacité de résistance à un herbicide total : c'est ce que révèle une étude menée par une équipe scientifique dirigée par Cynthia Sagers (université de l'Arkansas) présentée le 6 août dernier (information notamment relayée par le site de la revue "Nature").

L'équipe a parcouru 5400 kilomètres de routes, avec un arrêt tous les 8 kilomètres pour examiner une bande de 50 mètres carrés sur les bas-côtés et compter les plans de colza.
Deux de ces plants revenus à "l'état sauvage" portaient chacun deux gènes de protection contre le glyfosate (herbicide que l'on trouve dans le Roundup commercialisé par Monsento) mais aussi contre le glufosinate, herbicide produit notamment par Bayer. Or un tel colza "double résistance" n'existe pas dans le commerce. Cela signifie que des croisements dans la nature ont "inventé" un nouvel OGM.

Ces découvertes (qui ne surprendront pas les spécialistes) ne sont vraiment pas une bonne nouvelle. Le colza conventionnel disperse facilement ses graines et a tendance à faire des repousses, ce qui est un inconvénient pour la rotation des cultures... Or la forme transgénique du colza aurait encore plus de latitude pour coloniser d'autres territoires, surtout là où le glyfosate et le glufosinate tuent les plantes concurrentes.

Mais il y a encore plus grave : le colza peut s'hybrider naturellement avec une dizaine de mauvaises herbes présentes sur le sol américain. Il paraît inévitable que ces croisements confèrent à ces "indésirables" une protection contre les herbicides.
Rappelons que l'on compte deux millions d'hectares de colza transgénique cultivés aux Etats-Unis.

Notons que tout le monde sur cette planète n'est pas forcément idiot : ces considérations avaient conduit la Commission du génie biomoléculaire à donner en 2003 un avis défavorable à la culture de colza transgénique en France.

Pour en savoir plus
Voir aussi le site de Nature : http://www.nature.com/news/2010/
100806/full/news.2010.393.html


Geoengineering : la grande tromperie
Jean-Paul Baquiast 06/08/2010

ncendies sur Moscou vus par le satellite Envisat

De plus en plus de spécialistes du climat et des sciences de l'atmosphère dénoncent l'escroquerie intellectuelle à laquelle se livrent les groupes de pression militant pour des interventions lourdes susceptibles de ralentir le réchauffement du climat. Il s'agit de ce que l'on nomme la géoingénierie. Assez curieusement ceux qui militent en faveur de ces interventions appartiennent aux mêmes organismes et clubs qui nient le réchauffement, qu'il soit d'origine humaine ou dû à des causes naturelles, telles que les variations périodiques dans l'activité du soleil. Mais l'occasion d'obtenir de fructueux contrats est trop belle pour être négligée.

Un des projets de géoingénierie les plus en vogue consisterait à injecter du dioxyde de soufre ou anhydride sulfureux SO2 dans la stratosphère. Les défenseurs de cette idée indiquent que le coût en serait infime par rapport à celui que représentent les investissements destinés à réduire les émissions de CO2. De plus, celles-ci, en cas de succès, pourraient reprendre comme avant, pour le plus grand profit des industries de l'énergie fossile.

Un minimum d'esprit critique montre qu'un tel projet serait en fait véritablement criminel, car il ferait courir à la Terre des dangers imparables. D'une part, on ne sait pas exactement quelles seraient les retombées, immédiatement ou à terme, d'une telle injection. Le SO2 n'est pas un gaz inoffensif. Par ailleurs et surtout, dans la mesure où, en cas de succès même temporaire, les émissions de CO2 reprendraient de plus belle, l'humanité serait ensuite condamnée à poursuivre les injections de SO2 indéfiniment, puisque les arrêter ferait immédiatement remonter les taux de CO2 bien au delà des normes considérées comme ne devant pas être dépassées.

Plus généralement, il serait scandaleux qu'un groupe de financiers ou d'industriels prennent la décision de leur propre chef de modifier l'atmosphère terrestre, qu'il s'agisse de faire appel au SO2 ou de n'importe quelle autre des techniques proposées par eux. Il en serait de même si la décision était prise par un petit nombre d'Etats. Or il se trouve que la Russie étudie cette perspective très sérieusement. Elle pourrait prendre prétexte des incendies actuels, dévastant ses provinces occidentales, pour procéder à des essais de grande ampleur. Un conseiller du Premier ministre Poutine, un certain Yuri Israël, a déjà obtenu l'autorisation de procéder à un épandage d'aérosol à partir d'un hélicoptère.

Aux Etats-Unis, Bill Gates et Richard Branson soutiennent des projets analogues. Bill Gates, à travers sa fondation, finance une firme nommée Intellectual Ventures qui propose le processus dit Stratoshield. Quant à Branson, il anime plusieurs projets « commerciaux » destinés à « combattre le réchauffement » à travers notamment le site « Carbon War room ». D'avance ils y récusent les protestations prévisibles des environnementalistes et des authentiques scientifiques du climat. Le discours y est extrêmement pernicieux. Sous prétexte d'engager la guerre contre les industries des énergies fossiles, le site propose des solutions « market driven » dont ils visent à détenir les capitaux. Or celles-ci ne pourraient être envisagées sans des études et des débats sérieux impliquant notamment les grandes institutions internationales.

Peut-être sera-ce en faveur de tels projets que les milliardaires américains qui viennent de décider d'affecter à des fondations la moitié de leurs fortunes, consacreront-ils leurs économies. Charité bien ordonnée commence par soi-même.

Notre photo: incendies sur Moscou vus par le satellite Envisat
http://www.esa.int/esaCP/SEMSE82O9CG_France_0.html

Intellectual Ventures http://www.intellectualventures.com/Home.aspx
Carbon War Room website http://www.carbonwarroom.com/


Mission Planck de l'ESA. Premier succès
Jean-Paul Baquiast - 04/08/2010

La mission Planck de l’ESA vient de livrer sa première image de l’ensemble du ciel. Elle apporter un nouvel éclairage sur la façon dont les étoiles et les galaxies se sont formées. Elle fournit aussi de nouveaux indices sur la façon dont, selon les hypothèses actuelles, l’Univers lui-même se serait créé après le Big Bang.

Pour interpréter le cliché ci-dessous, on se référera au site de l'ESA
http://www.esa.int/esaCP/SEMD4JRZ5BG_France_0.html


Ensemble du ciel, vu par la mission Planck


ITER
Jean-Paul Baquiast - 28/07/2010

Du 26 au 29 juillet, France Culture a consacré une série passionnante de chroniques à Winston Churchill. Voilà bien l'homme de détermination, de clairvoyance et de communication dont l'Europe aurait aujourd'hui besoin. La situation de l'Europe s'aggravant inexorablement dans l'avenir fera peut-être émerger un tel homme (une telle femme). Malheureusement on n'en voit pas aujourd'hui l'esquisse de l'esquisse. Mieux vaut alors attirer l'attention sur un projet qui, comme le fait déjà son presque homologue le grand collisionneur de hadrons du Cern, pourrait au mieux incarner le rôle international que l'Europe devrait jouer dans le monde. Malheureusement, pour bien faire, de ces projets, il en faudrait une bonne dizaine d'autres analogues.

Après révision, les sept partenaires du projet nucléaire Iter réunis à Cadarache depuis le 27 juillet, viennent de confirmer le périmètre du projet, son calendrier et ses financements. La Commission européenne a proposé le 20 juillet aux gouvernements de l'Union de couvrir le surcoût de financement de 1,4 milliard d'euros à charge de l'Union européenne pour le réacteur en 2012-2013 grâce à des fonds non utilisés du budget commun. Cette révision a été rendue nécessaire par l'augmentation globale du coût d'Iter tel qu'évalué initialement. Cette augmentation était prévisible parce qu'inévitable. Ce ne sera certainement pas la seule. Mais elle ne justifiait pas que l'Europe renonçât au projet, dont elle finance 45% du coût.

L'exemple du LHC (Large Hadron Collider - Grand collisionneur de hadrons) précité, dont les scientifiques célèbrent cet été à qui mieux mieux les premiers succès expérimentaux, montre en effet les gains directs et indirects que peut procurer un tel ensemble aux pays qui l'accueillent. Il s'agit bien d'une machine à produire en grande quantité du capital cognitif (pour reprendre l'expression de l'économiste Yann Moulier Boutang cité ici par ailleurs). Les retombées en seront nécessairement très nombreuses et importantes, même si elles ne sont pas prévisibles aujourd'hui.

Rappelons que ce projet encore expérimental vise à faire de la fusion thermonucléaire une source d'énergie illimitée et plus propre que la fission de noyaux d'atomes lourds des centrales nucléaires actuelles. Compte tenu des raisons indiquées ci-dessus, et même si pour des raisons diverses il ne tient pas toutes ses promesses, il aura pendant 20 ou 30 ans enrichi les Européens et leurs partenaires, mieux qu'aucun autre grand programme envisageable à ce jour – sauf évidemment les programmes lunaires et martiens dont l'Europe malheureusement est encore pratiquement absente. Il faudrait à l'Europe la grande voix d'un Winston Churchill pour le faire entendre.


Recul américain sur le contrôle des gaz à effet de serre
Jean-Paul Baquiast - 25/07/2010

Une nouvelle fois, Barack Obama va décevoir ceux qui le voyaient animé d'une inébranlable volonté de réforme. En l'espèce, il s'agit aujourd'hui de la question des mesures contraignantes destinées à limiter les émissions de gaz à effet de serre.

Sous la pression des sénateurs républicains, suivis en cela par les démocrates, le Sénat va renoncer à voter le système de marchés d'émission dit "cap and trade", même sous la version atténuée qui avait été adoptée. Le poids des lobbies pétroliers et industriels est tel que l'Administration va très probablement décider de s'incliner. Devant les représentants du monde entier, Barack Obama devrait alors aborder la conférence des Nations unies sur le climat à Cancun (Mexique), fin novembre, sans pouvoir confirmer les engagements pris à Copenhague fin 2009.

Cette façon de faire est en permanence celle des Etats-Unis. Sous la pression des événements et des opinions publiques, le Président Obama prend des positions conciliatrices que les représentants et sénateurs désavouent ensuite. L'administration, généralement, s'incline. Ceci introduit un manque de fiabilité dans les engagements diplomatiques américains auquel sont habitués depuis longtemps les partenaires des Etats-Unis. Il n'y a plus guère que les Européens naïfs qui prennent encore aux mots les promesses de réforme annoncées par les présidents successifs. L'électoralisme, renforcé par la corruption pratiquée par les intérêts industriels à l'égard des élus est tel que la corporatocratie américaine continue imperturbablement à mettre le monde en danger sans que rien ne puisse l'arrêter.

L'Administration va donc très probablement devoir renoncer au projet de loi en quatre parties qu'elle avait présenté, portant sur le contrôle des forages pétroliers, le développement des énergies renouvelables, les incitations fiscales pour réduire la consommation d'énergie et l'introduction d'un marché d'émission dit aussi de «droit à polluer». Même si les écologistes contestent l'efficacité de ce dernier volet, qu'il préférerait voir remplacer par des systèmes de taxes carbone, même si le "cap and trade" avait été restreint au secteur électrique, il s'agissait pourtant d'une avancée notable. L'obligation pour le secteur énergétique d'utiliser au moins 10 % d'énergie renouvelable sera également abandonnée. On voit qu'il s'agit d'un recul général devant ce qu'il faut bien appeler les pollueurs. L'objectif de réduction des émissions de CO2 de 17 % d'ici à 2020 par rapport à 2005, et de 80 % d'ici à 205, adoptée en 2009 par la Chambre des représentants, ne pourra donc pas être tenu.

Les écologistes espèrent que Barack Obama va passer par la voie réglementaire: l'EPA, l'agence pour la protection de l'environnement, déciderait de réductions obligatoires par décret. Mais cette solution, à laquelle les républicains s'opposent, ne pourrait conduire qu'à l'adoption d'un texte dont l'ambition serait de réduire de 14 % au maximum les émissions américaines, sinon même de stabiliser les émissions en l'état actuel. Quand on connaît l'importance des émissions américaines au regard de celles du reste du monde, on conçoit que le mauvais exemple donné par les Etats-Unis aura un effet dévastateur à l'égard des contraintes que les Nations Unies voudraient imposer aux autres gros pollueurs.

Si les Européens (nous employons ce terme par routine sans savoir exactement quel pouvoir politique nous pourrions mettre derrière l'expression) avaient un minimum de réactivité, ils profiteraient de ce recul américain pour combler le vide. Barack Obama avait fait du développement des énergies nouvelles la base d'une "nouvelle croissance durable". Grâce aux centaines de milliards de dollars attendus, la vente des permis d'émission devait lui permettre de financer le développement des énergies alternatives, ainsi que de réduire le déficit budgétaire. L'Europe aurait là une occasion exceptionnelle pour redéfinir sa politique énergétique dans le sens précisément que l'Amérique abandonne, celui d'une nouvelle croissance durable.

Ajoutons un point qui n'est pas que de détail : n'en déplaise aux écologistes radicaux, on ne comprend toujours pas pourquoi la France ne tente pas de faire reconnaître son industrie électro-nucléaire comme relevant des «énergies renouvelables» dont l'Europe devrait se faire le champion, ceci d'autant plus que d'autres gouvernements européens sont en train de relancer le nucléaire. Cela ne les empêcherait pas, quoi que l'on dise, de financer des énergies vertes.


Rosetta : premier grand succès
Jean-Paul Baquiast et Christophe Jacquemin - 12/07/2010

Le vaisseau spatial Rosetta a parfaitement réalisé la première partie de sa mission. Il s'agissait, en route pour la comète Churyumov-Gerasimenko, d'observer de près l'astéroïde Lutetia. Le survol à une distance de 3 000 km et à la vitesse relative de 54 000 km/h, s'est remarquablement bien passé, le 10 juillet 2010 à 17h45 CEST (Central European Summer Time).
Rosetta était alors à 450 millions de km de la Terre.

Il faut souligner la part prise par le German Aerospace Center ainsi que plus particulièrement le DLR Institute of Planetary Research et le Max Planck Institute for Solar System Research (MPS) dans toute cette mission, menée dans le cadre de l'Esa.

Plusieurs instruments ont été utilisés pour observer Lutetia : OSIRIS pour l'obtention d'images avec une résolution de 50 m par pixel, le Visible and Infrared Thermal Imaging Spectrometer (VIRTIS) destiné à mesurer la composition et la température de surface et les instruments du Rosetta Plasma consortium (RPC) destinés à observer les champs plasmiques et peut-être magnétique entourant l'astéroïde.

Le diamètre de celui-ci est de 100 km. Sa surface est particulièrement tourmentée.

Rosetta est dorénavant mise en sommeil relatif, pendant deux ans et et demi. Elle sera réactivée en mai 2014, en vue de l'atterrissage sur la comète. Elle avait déjà survolé l'astéroïde Steins en septembre 2008. Si cette mission extrêmement audacieuse réussit, on pourra féliciter ses promoteurs, qui l'avaient conçue il y a environ 30 ans.
Comme quoi l'espace exige longueur de vue et persévérance.

Pour en savoir plus
DLR Institute of Planetary Research : http://www.dlr.de/pf/en/
MPS : http://www.mps.mpg.de/
RPC : http://www3.imperial.ac.uk/spat/research/////ahomepage/rosetta_rpc


Lumières sur la rétroprogrammation
des cellules adultes en cellules souches

Jean-Paul Baquiast et Christophe Jacquemin - 09/07/2010

Les cellules souches sont devenues indispensables pour de nombreuses applications thérapeutiques. La méthode la plus couramment utilisée, parce que la plus simple au plan des manipulations, consiste à en prélever des spécimens sur des embryons aux premiers stades de leur développement. Mais aux yeux d'un certain nombre de moralistes, il est plus éthique de produire des cellules souches en «reprogrammant» des cellules adultes par un processus de rétroingénierie permettant d'obtenir des cellules souches redevenues non différenciées et pluripotentes. Si par ailleurs ces cellules souches ou les tissus obtenus après leur re-spécialisation sont utilisées au profit de l'individu fournisseur de la cellule adulte, le risque de rejet est très atténué.

La difficulté de la rétro-programmation, qui fait appel à des techniques complexes, tient à ce que peu des cellules adultes soumises à ce processus ne redeviennent des cellules souches viables. De plus on ignorait jusqu'ici par quels mécanismes complexes elles le faisaient. Connaître ces processus donnera beaucoup plus de sécurité à la production et à l'emploi des cellules souches reprogrammées à partir de l'adulte.

Or une avancée importante semble avoir été obtenue sur ce dernier point par des chercheurs de l'Université de Tel Aviv, financés en grande partie par une organisation américaine dite American Friends of Tel Aviv University (http://www.aftau.org). Une équipe dirigée par le Dr. Iftach Nachman du TAU's Department of Biochemistry a réussi à visualiser les différentes phases de la production de cellules souches à partir d'une cellule adulte. Ceci permettra de mieux comprendre comment apparaissent ces nouvelles cellules et éventuellement de choisir celles présentant les meilleures chances de réussite.

L'annonce montre à la fois l'excellent qualité des recherches menées dans les universités israéliennes, notamment celle de Tel Aviv – et aussi l'étroite coopération existant entre les chercheurs américains et les chercheurs israéliens, ceux-ci pouvant être dans une certaine mesure considérés comme des délocalisations des laboratoires américains.
Notons que cette collaboration s'exerce bien plus encore dans les technologies de défense que dans les domaines de la biologie.

* http://www.eurekalert.org/pub_releases/2010-06/afot-tbt062910.php


Solar Impulse
Jean-Paul Baquiast - 08/07/2010

Après un vol de 26 heures uniquement propulsé par l'énergie solaire et ses batteries, l'avion expérimental Solar Impulse a atterri sans encombre le 8 juillet. L'appareil, piloté par André Borschberg, a touché la piste de la base militaire de Payerne, dans l'ouest de la Suisse.
Bertrand Piccard, explorateur et fondateur du projet Solar Impulse, estime avoir réussi une démonstration sans faille conduisant, selon son expression, à la "technologie du vol perpétuel". Le prototype avait décollé mercredi matin et a poursuivi sans interruption son vol de nuit, prolongeant même l'expérience au-delà des 25 heures prévues : une première pour l'appareil et l'équipe.

L'objectif est désormais d'effectuer d'autres essais pour calibrer la machine et finalement construire un deuxième exemplaire qui devra fera le tour du monde en cinq étapes vers 2013.

Il faut saluer ce grand succès de l'équipe suisse, soutenue par des contributions nombreuses des industriels helvètes. On saluera aussi le courage du pilote. Car un accident pouvait très bien se produire, y compris de nuit et à haute altitude, où le saut en parachute reste risqué.

Certains s'interrogeront sur l'intérêt réel de cette réalisation. On ne verra jamais, diront-ils, de gros porteur utiliser les technologies ainsi développées. Raisonner ainsi serait faire montre de courte vue. On aurait pu dire la même chose à Wright ou à Blériot en leur temps. La marche de l'évolution est chaotique. Parions que les retombées du Solar Impulse seront nombreuses dans quelques années. Dommage que rien de tel ne soit encouragé, que ce soit en France ou dans d'autres pays européens.

A consulter :
Le site http://www.solarimpulse.com/
On y trouve de nombreuses informations techniques.


Première photographie d'une exoplanète
Jean-Paul Baquiast et Christophe Jacquemin - 06/07/2010

exoplaneteSi en 2008, et pour la première fois, une planète extérieure au système solaire (dite exoplanète) a été photographiée en lumière visible, orbitant autour de son soleil, l'équipe de découvreurs a attendu 2 ans pour s'assurer qu'il ne s'agissait pas d'une aberration d'observation. Jusqu'à présent la présence de telles planètes n'était révélée que par les faibles éclipses qu'elles imposaient à la lumière de leur étoile, en passant entre elle et la Terre. Les astronomes estiment qu'avec le progrès attendu des super-télescope dont l'installation est prévue dans les 20 prochaines années, de tels clichés directs deviendront courants, au moins dans la galaxie proche. Peut-être même sera-t-il possible de distinguer des détails sur les corps planétaires ainsi observés, plutôt que devoir se limiter à un point lumineux, comme c'est le cas aujourd'hui.

La nouvelle planète aurait une masse égale à 8 fois celle de Jupiter. Il s'agirait donc d'une géante gazeuse. L'étoile pour sa part aurait une masse d'approximativement 85% de celle du Soleil. Elle se trouve à quelques 500 années lumières de la Terre, dans un groupe de jeunes étoiles dite Association du Scorpion Supérieur, formé il y a seulement 5 millions d'années... à l'époque où apparaissaient les premiers hominidés. Il s'agit donc d'astres très jeunes.

La planète aurait une température supérieure à 1500° C, bien supérieure à celle de Jupiter, dont le nuage extérieur est approximativement à – 110 °. C'est le jeune âge de cette planète qui expliquerait sa température. Elle doit être encore en phase de contraction sous l'influence des forces de gravité. Elle ne devrait atteindre une température normale (analogue à celle de Jupiter) que dans quelques milliards d'années.

Les deux chercheurs principalement responsables de la découverte sont le Dr. David Lafrenière, université de Montreal et le Pr
Ray Jayawardhana, de l'université de Toronto. L'article cité ci-dessous rapporte l'histoire de leur découverte, et commente les péripéties à la suite desquelles, après une première observation faite en 2008, la planète, baptisée 1RXS J160929.1-210524 a été définitivement identifiée comme telle. Son observation donnera de précieux indices relatifs aux mécanismes de formation des systèmes stellaires jeunes.

L'observation initiale a été réalisée à l'observatoire Gemini. Ses deux télescopes disposent d'optiques adaptatives indispensables pour la précision requise. L'observatoire Gemini est le fruit d'une collaboration internationale associant 2 télescopes identiques de 8m, l'un à Mauna Kea, Hawaii, l'autre à Cerro Pachon, Chili. Depuis 2008, d'autres planètes auraient été observées directement, mais dans des conditions d'identification plus difficiles.
Un prochain article de The Astrophysical Journal précisera ces différents points.

Sur le cliché ci-dessus, la planète 1RXS J160929.1 se présente comme un faible point lumineux au NNW de l'image de son étoile, à la marge.

Pour en savoir plus
Communiqué émanant du Gemini Observatory : http://www.gemini.edu/node/11486


Les centenaires disposeraient de gènes spécifiques
dits "promoteurs de longévité"

Jean-Paul Baquiast - 06/07/2010

La revue Science publie une étude réalisée par un groupe de chercheurs de l'Université de Boston, portant sur le profil génétique de personnes très âgées (centenaires). Ces centenaires se révèlent en bonne santé jusqu'à des âges avancés, 93 ans en moyenne. Ils ne devraient pas cela à l'absence de variants génétiques supposés induire des maladies chroniques ou dégénératives. Sur ce plan ils ne sont pas mieux lotis que les autres individus. Par contre, ils disposeraient d'un nombre d'ailleurs réduit de variants génétiques spécifiques, supposés être des promoteurs de longévité. Ces gènes combattraient l'influence des gènes inducteurs de morbidités.

On mesure l'importance d'une telle découverte, si elle était confirmée. Que sont exactement ces gènes ? Comment agissent-ils ? Le mode de vie du sujet a-t-il une influence sur leur expression ? Comment se servir des tests génétiques les mettant en évidence pour prédire les durées de vie et, parallèlement, invalider les prévisions de probabilité de mortalité résultant des tests actuels qui reposent sur l'identification de variants associés à la morbidité ? Dernière question enfin : pourrait-on introduire de tels gènes dans les génomes de sujets jeunes ? Il serait évidemment nécessaire aussi de voir si les animaux comportent des gènes inducteurs de longévité analogues.

Pour en savoir plus
Article de Technology Review :
http://www.technologyreview.com/biomedicine/25693/?ref=rss&a=f
Article de Science :
http://www.sciencemag.org/cgi/content/abstract/science.1190532


Bilan de la pandémie de grippe H1N1
Jean-Paul Baquiast - 06/07/2010

Le bulletin épidémiologique hebdomadaire (BEH) du 29 juin 2010 de l'Institut de veille sanitaire (InVS) revient longuement sur le déroulement de la pandémie H1N1 et les enseignements à tirer de cette expérience inédite ’’dans l’histoire de la santé publique moderne’’.

Il s’agit d’un numéro triple (n°24-25-26) de 32 pages avec plusieurs thèmes abordés. http://www.invs.sante.fr/display/?doc=beh/2010/24_25_26/index.htm

Il débute par l’éditorial de la Directrice de l’InVS Françoise Weber qui revient d’abord sur les aspects contrastés de cette épidémie :

«L’épidémie a donc été peu grave pour le plus grand nombre. En comparaison de la grippe saisonnière, elle a, cependant, été d’expression clinique plus sévère pour une partie des malades et a touché une population beaucoup plus jeune.»

«L’expérience nous invite maintenant, surtout pour un virus aussi susceptible de varier que le virus grippal, à élargir encore la palette de nos scenarii, tout en prenant en compte le fait qu’une pandémie peut être tout à fait bénigne dans la majorité de la population mais se révéler d’une gravité particulière dans certains de ses sous-groupes, porteurs ou non de facteurs de risque.»

Ce document qui semble aussi objectif et scientifique que possible devrait être lu par tous. On rappellera que la grippe est toujours là et que les prochaines campagnes de vaccination ne devront pas forcément être négligées.

On trouvera un commentaire mesuré de ce document sur Agoravox, signé Guennebaud, mathématicien, ancien chercheur au CNRS
http://www.agoravox.fr/actualites/sante/article/bilan-de-l-institut-de-veille-77976

Sur le même site Joël de Rosnay et Bernard Etcheparre comparent le principe de précaution au principe d’attrition, ou du risque subi au risque choisi. http://www.agoravox.fr/tribune-libre/article/du-principe-de-precaution-au-77992. Disons qu'à notre avis, en matière de pandémie, aucune société développée ne devrait consciemment prendre le parti du risque choisi, si elle peut éviter de le faire


Des organismes pluricellulaires apparus voici 2,1 milliards d'années ?
Jean-Paul Baquiast et Christophe Jacquemin - 02/07/2010

Recontsturction virtuelle de la morphologie externe et interrne d'un spcimen fossile du site gabonais
Image : Albani et Mazurier CNRS. Reconstruction virtuelle (par microtomographie) de la morphologie externe (à gauche) et interne (à droite) d'un spécimen fossile du site gabonais

Selon une étude publiée par le CNRS, des organismes pluricellulaires seraient apparus voici 2,1 milliards d'années, c'est-à-dire jusqu'à 1,5 milliard d'années plus tôt que scientifiquement attesté jusque là.

La découverte est annoncée dans le dernier numéro de la revue Nature. Selon des experts également cités dans ce numéro, elle "pose plus de questions qu'elle n'apporte de réponses" (voir liens ci-dessous)

L'auteur principal de l'étude est le chercheur Abderrazak El Albani de l'Université de Poitiers. Avec une équipe internationale, il a découvert au Gabon plus de 250 fossiles de 7 millimètres à 12 cm de longueur qui pourraient faire remonter l'apparition des organismes multicellulaires à plus d'1 milliard d'années en arrière par rapport à ce qu'on pensait.

Rappelons que les premiers organismes vivants identifiés, voici plus de 2 milliards d'années, étaient des cellules sans noyau, dites procaryotes. Il s'agissaqit de bactéries et d'archées. Sont venues ensuite des cellules dites eucaryotes dotées d'une membrane et d'un noyau abritant les chromosomes. Les formes de vie pluricellulaires sont constituées de cellules eucaryotes. Jusqu'à la récente découverte, c'est le fossile Grypania spiralis, datant d'environ 1,6 milliard d'années qui était considéré comme l'ancêtre identifié des multicellulaires.

Avec les fossiles retrouvés sur le site de Franceville au Gabon, l'existence des eucaryotes pluricellulaires aurait débuté voici 2,1 milliards d'années et non 1,6 milliard comme supposé avec Grypania. De taille trop grande pour être les résidus de simples unicellulaires primitifs, les contours des fossiles évoquent, selon Abderrazak El Albani, les formes d'organismes vivant en suspension dans l'eau ou tout près du fond océanique.

Mais d'ores et déjà des paléontologues discutent cette découverte. "Interpréter réellement des anciens fossiles est une affaire particulièrement difficile", selon Philip Donoghue (Université de Bristol, Grande-Bretagne) et Jonathan Antcliffe dans un commentaire publié dans Nature, référencé ci-dessous.

A supposer que la découverte soit authentifiée, on devine qu'elle posera de nombreuses questions: ces organismes étaient-ils photosynthétiques et sinon de quoi tiraient-ils leur énergie (à une époque où l'oxygène était encore très rare)? Sont-ils apparus seulement là et pour quelle raison précise ? Pourquoi ne se sont-ils pas répandus à grande vitesse comme leurs successeurs de la faune du Burgess? Il conviendra en tous cas, comme le recommande El Albani, de protéger le site des nombreux curieux et pilleurs qui vont s'y abattre.

Nous nous efforcerons de vous informer des suites de l'affaire, aujourd'hui présentée par les médias comme révolutionnaire.

Pour en savoir plus
Nature : http://www.nature.com/nature/journal/v466/n7302/covers/index.html
Discussion : http://www.nature.com/nature/journal/v466/n7302/full/466041a.html
Discussion dans NatureNews
Article de Wired : http://www.wired.com/wiredscience/2010/06/early-multicellularity/
Sur Grypania spiralis, voir http://en.wikipedia.org/wiki/Grypania


Le vol V196 d'Ariane 5 le 27 juin, deuxième lancement de l'année
Source ESA - 29/06/2010

Ariane 5Le 27 juin 2010, le lanceur lourd Ariane 5 a placé comme prévu deux nouveaux satellites sur leurs orbites de transfert: le satellite de télécommunication Arabsat 5A et le satellite multi-missions sud -coréen COMS.

L'orbite visée avait une altitude de 250 km en périgée et 35.958 km en apogée. Elle était inclinée de 2° sur l'équateur. Les satellites y furent injectés respectivement 26 minutes et 32 minutes après le décollage.

Arabsat-5A sera positionné sur une orbite géostationnaire au dessus de l'équateur à 30°5 E. en vue d'assurer des services de télécommunications et de retransmission de TV sur le Moyen Orient et l'Afrique du Nord. COMS, en orbite géostationnaire à 128°, 3 E, embarque 3 instruments dédiés à la météorologie, l'observation des océans et les télécommunications.

La charge utile emportée pour ce vol était de 8.393 kg au total.

Arianespace et la base de Kourou ont planifié 5 autres lancements du lanceur lourd en 2010.

Pour les curieux et les poètes, voici le chronométrage des opérations de lancement:
temps t: mise à feu du moteur principal cryogénique
temps t + 7 sec : mise à feu des propulseurs auxiliaires (boosters) à carburant solide
temps t + 8 sec: décollage
temps t + 2min 20 sec : séparation d'avec les boosters
temps t + 3min 9 sec: séparation d'avec la coiffe protectrice
temps t + 8 min 55 sec: extinction du moteur principal
temps t + 9 min 03 sec: séparation du moteur principal d'avec le 3e étage et la charge
temps t + 9 min 07 sec: mise à feu du moteur cryogénique du 3e étage
temps t + 24 min 40 sec: extinction du moteur du 3e étage. A ce moment le lanceur avait atteint la vitesse de 33.898 km/h et l'altitude de 581,8 km soit l'orbite de transfert
temps t + 26 min 9 sec: séparation d'avec Arabsat-5A
temps t + 32 min 38 sec: séparation d'avec COMS
temps t + 49 min 52 sec: fin officielle du vol. Congratulations dans la salle de contrôle.


Calcul Haute performance. La Darpa vise le quintillion (1,000,000,000,000,000,000) d'opérations par seconde
Jean-Paul Baquiast et Christophe Jacquemin - 29/06/2010

Nous avons relaté [voir ci-dessous notre actualité du 14/06] le projet chinois visant à dépasser le pétaflop en matière de calculateur dits "extra scale" ou haute performance. Comme prévisible, le département de la défense américain n'allait pas rester en arrière. La Darpa dispose déjà ou disposera prochainement d'une série de systèmes dits Omnipresent High Performance Computing (OHPC).

Ceux-ci visent à réduire, tant par le hardware, le software que par les algorithmes, le besoin en ressources-machines, en temps et complexité de programmation, en sécurité, etc. Au delà, ces systèmes recherchent à développer les capacités d'auto-gestion et auto-réparation à tous les niveaux.

Les progrès en ce sens recherché par les ordinateurs actuels reposent sur l'augmentation de la vitesse, la diminution des besoins en énergie et la densification des positions de mémoire dans les transistors. Mais ils se heurtent aujourd'hui à un mur tenant à leur incompatibilité. L'augmentation de la vitesse exige des intensités inacceptables de courant et la réduction des voltages au contraire multiplie les risques d'erreurs. Quant aux transistors, on connaît leurs limites prévisibles. Les protocoles d'interconnexion enfin deviennent si consommateurs qu'ils dépassent les coûts de la programmation.

Dans le cadre de l'OHPC, la Darpa vise donc l'UHPC (Ubiquitous High Performance Computing (UHPC) . Il s'agira de réaliser des architectures et protocoles basses énergies pour les fonctions logiques, les mémoires, l'accès aux données et leur transport. On visera par ailleurs systématiquement l'auto-maintenance et la sécurité à tous les niveaux. Le traitement massivement parallèle sera privilégié. Un OS « self aware » gérera les performance temps réel, la fiabilité et les ressources système. La Darpa espère disposer de prototype UHPC vers 2018.

Pour en savoir plus
Article de Network World http://www.networkworld.com/community/node/62808
OHPC
Appel d'offres pour l'UHPC http://www.darpa.mil/tcto/solicitations/BAA-10-37.html


Le robot Little Dog
Jean-Paul Baquiast et Christophe Jacquemin - 20/06/2010

Nous avons déjà présenté sur ce site le robot Big Dog de Boston Dymamics. Financé par la Darpa du ministère américain de la défense, il s'agit d'un robot quadrupède semi-autonome de la taille d'un âne. Il pourrait être chargé de diverses missions militaires et civiles en terrain varié, là où les véhicules à roues seraient immobilisés.

Little dogMais la Darpa et General Dynamics ont voulu réaliser, dans le même esprit, un robot plus petit, baptisé Little Dog. Des chercheurs de l'Université de Californie du Sud l'ont doté d'un plus grand nombre encore de capacités motrices.

Le point important est que le robot dispose de capacités d'apprentissage automatique lui permettant de s'adapter à des surfaces très différentes et d'améliorer ainsi ses performances. Plutôt que, comme Big Dog, tenter de se tirer de situations périlleuses, Little Dog, plus malin, évite de se mettre dans de telles situations.

Little Dog pèse environ 2,5 kg et mesure 5 inches soit une douzaine de cm. Il comporte, malgré cette taille réduite, une gamme de divers sensors, 3 moteurs dans chaque jambe, une caméra et le logiciel d'apprentissage (machine-learning algorithm). Il s'agit comme on le voit d'un véritable chef d'oeuvre de miniaturisation, montrant que les minis-robots très adaptatifs ont un grand avenir devant eux.

Les personnes impressionnables ne sont pas encouragées à fréquenter ces créatures, ni Big Dog ni Little Dog. Pour les non-avertis, comme le montrent les vidéos, il s'agit de véritables cauchemars à pattes. Que feront nous lorsque notre environnement sera envahi de semblables êtres, plus intelligents en apparence que nous dans l'exploitation des ressources du terrain... humains inclus ?

Pour en savoir plus
Big dog : http://www.youtube.com/watch?v=W1czBcnX1Ww
Little Dog : http://www.technologyreview.com/blog/editors/25248/


La presse internationale découvre que le delta du Niger est abondamment plus pollué que le golfe du Mexiquee
Jean-Paul Baquiast - 19/06/2010

Il fallait la pollution au large des côtes américaines, et tout le mouvement d'opinion qui l'accompagne, pour que la presse internationale (en fait quelques rares journaux) redécouvre que ce phénomène est devenu depuis presque 50 ans endémique dans le delta du Niger (Nigeria). Il met en cause des quantités de pétrole bien supérieures, réparties dans des zones humides tout aussi sensibles, et avec des dégâts écologiques bien plus grands. La seule différence est que la population locale y est par milliers de personnes engluée et que nul ne s'en préoccupe.

D'après les estimations actuelles, la quantité de brut répandu et qui continue à se répandre dans le delta équivaut à un Exxon Valdez chaque année. Il y a quelques mois, un pipe appartenant à la Royal Dutch Shell s'est rompu et n'a été réparé qu'après deux mois. Il en fut de même d'un puits off shore appartenant à Exxon Mobil. Mais plus généralement les conduites et les équipements rouillés fuient à qui mieux mieux, sans que les compagnies n'engagent les dépenses nécessaires pour les réparer.

Elles se donnent l'excuse d'un terrorisme latent, mené par divers mouvements armés d'opposition. Mais lorsque ceux-ci deviennent dangereux pour les bénéfices des compagnies, ils sont repoussés. Quand leurs seules victimes sont les populations, ils ne gênent plus personne.

Les populations elles-mêmes n'ont aucun moyen de quitter les zones détruites par le pétrole. Les pécheurs continuent tant bien que mal à y pêcher, les femmes et enfants à patauger dans les nappes... quand les femmes ne sont pas violées par les gardes armés des compagnies.

La zone fournit 10% des importations de brut américaines. Il ne faut donc pas espérer que Barack Obama partira en guerre contre les compagnies exploitant le pétrole nigérien comme il l'a fait aux Etats-Unis. Les associations environnementalistes, faiblement soutenues par les Nations-Unies, peuvent bien tenter d'alerter l'opinion, rien ne se passe et rien dans l'avenir ne se passera. Le pétrole et les lobbies politico-industriels pétroliers représentent un cancer qui pourrit tout, à commencer par les Etats et populations qui ont le malheur de détenir des gisements.
(source New York Times)


Le 2e super-calculateur le plus rapide du monde est chinois
Jean-Paul Baquiast et Christophe Jacquemin - 14/06/2010

Un super-calculateur baptisé le Dawning Nebulae et basé au centre de calcul national de Shenzhen, en Chine, a été reconnu comme le second calculateur le plus rapide du monde lors de l'évaluation semestrielle mondiale des 500 machines les plus rapides qui s'est tenue à l'International Supercomputer Conference (ISC) de Hambourg en mai dernier. Sa vitesse est de 1,27 petaflops soit mille trillions (mille fois mille milliards) d'opérations par seconde.

Le super-calculateur le plus rapide du monde demeure le Cray Jaguar basé au laboratoire national d'Oak Ridge dans le Tennessee. Il a été mesuré à 1,75 petaflops. L'année dernière, la Chine ne tenait que le 5e rang, avec une machine installée au centre de calcul de Tianjin, aujourd'hui rétrogradée au 7e rang.

Les Etats-Unis demeurent dominants dans le domaine des super-calculateurs, tant pour la fabrication que pour l'utilisation. Ils disposent de 282 des machines les plus rapides. Mais la Chine vise à les rattraper puis les dépasser, avec des machines utilisants des composants conçus et réalisés sans appel aux productions étrangers. Ce n'est pas encore le cas du Dawning Nebulae qui est basé sur des puces fournies par Intel et Nvidia. Mais ils espèrent prendre le premier rang l'année prochaine, avec un calculateur entièrement chinois. Pour le moment, ils disposent d'un parc dont la puissance dépasse celle de tous les super-calculateurs européens réunis.

Le but à terme, tant pour la Chine que pour l'Amérique, est d'obtenir entre 2018 et 2020 des machines mille fois plus rapides que les plus rapides actuelles. Quand on sait le rôle essentiel de ces calculateurs pour toutes les applications scientifiques et industrielles, ceci pratiquement sans exceptions, on mesure les ambitions de la Chine mais aussi la domination persistante des Etats-Unis, face à un retard européen grandissant.

Pour en savoir plus
L'ISC de Hambourg en mai 2010 http://www.hpcwire.com/specialfeatures/isc09/features/Bigger-and-Better-ISC-Moves-to-Hamburg-41842587.html?page=1
Voir aussi http://article.wn.com/view/2010/05/30/International_Supercomputing_Conference/


Changements géostratégiques majeures possibles en Afghanistan
Jean-Paul Baquiast - 14/06/2010


Selon Un article publié ce jour par le New York Times, des géologues de l'armée américaine viennent de confirmer une hypothèse qui avait été à l'origine émise par des géologues soviétiques du temps de l'occupation russe: des réserves considérables de minéraux rares se trouveraient en Afghanistan. Mais il ne s'agit peut-être pas d'une vraie nouvelle pour le Pentagone. La connaissance de ces richesses expliquerait l'intérêt si grand et ancien des Etats-Unis pour cette région ingrate.

Quoi qu'il en soit, Il s'agirait de fer, cuivre, cobalt, or lithium et autres terres rares indispensables aux industries de pointe, pour une valeur estimée de mille milliards de dollars. Si l'annonce se confirmait, on pourrait penser que leur exploitation pourrait faire du pays un des centres miniers les plus riches du monde. Le sort de l'Afghanistan, des Afghans et de la région toute entière en serait transformé.

Pour le moment, aucune infrastructure et aucun savoir faire n'existent sur place. Il faudrait plusieurs années pour tirer profit de ces gisements. Le gouvernement Karzaï, averti, semble réagir avec prudence. Mais déjà les pays et entreprises intéressés ne manquent pas pour se proposer de l' « aider ». Déjà de grandes entreprises américaines du secteur, avec l'appui du Pentagone, sont en train d'acquérir des points forts pour de futures extractions. Les Chinois ne seront pas en reste. On peut penser que les Chefs des zones tribales et les Talibans, de leur côté, feront tout pour conserver la maîtrise des zones minières et prélever leur part des profits d'exploitation. Si l'économie du pays qui repose actuellement sur le trafic du pavot, peut espérer être radicalement transformée par l'exploitation de ces richesses, cela ne se fera pas, dans le climat actuel, sans une recrudescence de corruptions, combats et possiblement guerres avec les voisins. Plus immédiatement, les experts font valoir les risques majeurs pour l'environnement découlant d'extractions et de raffinages visant au profit immédiat.

En attendant, la nouvelle ne restera pas sans conséquences géopolitiques immédiates. Barack Obama y verrait dit-on une façon inespérée de sortir du guêpier afghan, c'est-à-dire d'une guerre que de plus en plus de chroniqueurs sérieux considèrent dorénavant comme perdue et nécessitant un retrait immédiat (voir à cet égard un autre article du New York Times "The courage to leave"). Mais répétons-le, les conflits actuels ou potentiels entre les Etats-Unis et l'ensemble des Etats de la région pouvant prétendre à un titre ou un autre leur interdire de monopoliser les richesses découvertes, comme ils l'ont toujours fait des réserves pétrolières, ne vont pas s'atténuer. Nous allons nous trouver de nouveau dans un cas d'école illustrant l'effet structurant, dans le bon ou mauvais sens du terme, des compétitions darwiniennes entre ce que nous nommons les "corporatocraties anthropotechniques".

Sur un plan plus immédiatement scientifique, cette affaire montre le retard des technologies d'observation de la Terre dans la tâche majeure visant à identifier les réserves minérales des zones désertiques et inhabitées qui couvrent encore l'essentiel des surfaces terrestres et sous-marines du globe. Mais qui dit identification ne dit pas exploration aimable par des géologues désintéressés. Il faut y voire l'amorce de reconfiguration belliqueuse des frontières et des organisations sociales au sein des pays concernés...et des autres.

Article du New-York Time
http://www.nytimes.com/2010/06/14/world/asia/14minerals.html


Nouvelles avancées américaines vers l'ordinateur quantique biologique
Jean-Paul Baquiast et Christophe Jacquemin - 03/06/2010

Nous avions signalé, dans un article intitulé "L'optimisation de la fonction chlorophylienne à partir de processus quantiques naturels" sur une petite algue verte marine, la Chroomonas. Celle-ci dispose d'organes piégeant les photons, nommés des antennes. Les antennes comportent un tissu de molécules pigmentaires qui captent la lumière à différentes longueurs d'onde. Plus vite l'énergie lumineuse traversera l'antenne en activant les molécules adéquates, plus vite elle pourra être utilisée pour produire de l'énergie. On pensait jusque là que le parcours des photons se faisait au hasard, avec une certaine perte de temps et d'énergie. Mais l'équipe de Toronto a pu montrer, en utilisant des techniques très précises, que les antennes coordonnent le plus efficacement possible les transferts d'énergie le long de plusieurs pigments moléculaires. L'équivalent de q.bits sont produits et sondent l'état des chemins possibles. Ils déterminent celui qui est le plus rapide et qui permet de minimiser la perte d'énergie. La cohérence quantique est maintenue à cette fin le temps nécessaire, soit 400 femtosecondes (4 × 10-13 seconde) le tout à la température de 21°C. Il s'agit d'un temps très court mais suffisant, les distances à parcourir étant infimes.

Ces recherches avaient été initialisées par une équipe américaine, en 2007, conduite par Graham Fleming et Gregory Engel. Ils avaient déjà montré que les Bacteriochlorophylles, des pigments photosynthétiques présents dans les bactéries sulfureuses vertes pouvaient exploiter la cohérence quantique pour optimiser le transfert de l'énergie lumineuse absorbée.

Aujourd'hui elles sont confirmées par une équipe du Lawrence Berkeley National Laboratory et de l'université de Berkeley, incluant Graham Fleming (photo, à droite Graham Fleming). L'équipe montre que la protéine photosynthétique Fenna-Matthews-Olson (FMO) présente dans les bactéries sulfureuses vertes utilise l'intrication de photons persistant sur une durée de quelques picosecondes pour transférer de la façon la plus efficace possible, avant qu'elle ne se disperse, l'énergie captée par les organes de la bactérie vers ses centres de réaction.

Ceci confirme les espoirs mis en l'utilisation de tels processus, convenablement optimisés, dans des systèmes artificiels généralisant la photosynthèse, ainsi que dans des calculateurs quantiques.

On notera que ces recherches sont financées par l'U.S. Department of Energy's Office of Science et par la Defense Advanced Research Projects Agency (DARPA). Ceci en dit long sur leur intérêt stratégique.

Pour en savoir plus
Article du Berkeley Lab Entangling the Quantum Entanglement Behind Photosynthesis: Berkeley scientists shine new light on green plant secrets
http://newscenter.lbl.gov/feature-stories/2010/05/10/untangling-quantum-entanglement/
Sites de Graham Fleming www.cchem.berkeley.edu/grfgrp/
site de Birgitta Whaley www.cchem.berkeley.edu/kbwgrp/
site de Mohan Sarovar www.cchem.berkeley.edu/kbwgrp/mohan/Site/Welcome.html


Simulation en vraie grandeur d'une expédition sur Mars
Jean-Paul Baquiast et Christophe Jacquemin - 02/06/2010

Avec une participation majoritaire de scientifiques allemands et russes, l'opération Mars500 entreprise par l'Esa entre dans une phase décisive. Un séjour de 520 jours en confinement complet est organisé. Il se déroulera au sein de l'Institut russe pour l'étude des problèmes biomédicaux à Moscou (Institute for Biomedical Problems ou IBMP). Un container étanche embarquera un équipage international de 6 volontaires ayant accepté d'expérimenter les conditions d'une future expédition sur Mars: 250 jours pour aller, autant pour revenir et une vingtaine de jours sur place. De nombreuses expériences seront menées, y compris pour résoudre des situations d'urgence. L'image jointe représente le sas d'entrée.

L'équipe Mars 500Ceci peut paraître anodin. L'opération tournera peut-être court par abandon. Nous pensons cependant qu'elle marque, dans une certaine mesure, une nouvelle phase dans le développement de l'espèce humaine. Des individus et des modes d'organisations poussant aux limites les résistances des organismes et des systèmes seront expérimentées. L'avenir de l'homme et de l'intelligence dans le cosmos est à ce prix. Pour quoi faire, demanderont les sceptiques? La réponse est si évidente que nous la formulerons pas ici. Il faut en tous cas saluer ceux qui, au détriment de leur confort actuel, acceptent de "sacrifier" plus d'un an de leur vie au service de cet idéal.

On saluera aussi en ce cas la coopération exemplaire entre les scientifiques européens et les russes. Elle pourrait en se poursuivant entraîner des conséquences de grande ampleur.

Pour en savoir plus
Article de Mars daily
http://www.marsdaily.com/reports/520_Days_On_A_
Simulated_Flight_To_Mars_999.html


Un véhicule fonctionnant au solaire mais consommant du CO2
Jean-Paul Baquiast et Christophe Jacquemin - 30/05/2010

La YeZLors de la Shanghai Expo 2010, Shanghai Automotive Industry Corporation (SAIC) a proposé un concept car (même pas un prototype) étudié en coopération avec General Motors et Volkswagen. il s'agit de la YeZ, ce qui signifie « feuille » en Mandarin. Cette voiture serait réellement révolutionnaire en ce sens qu'elle convertirait en électricité, grâce à des cellules photo-électriques placées sur le pavillon et activant une série de réactions chimiques, le CO2 et l'eau présents dans l'atmosphère. De l'oxygène serait rejeté.

S'agit-il d'une galéjade? Pourquoi en effet ne pas utiliser directement l'électricité produite par les cellules photo-voltaïques? Il ne semble pas en tous cas que des précisions aient été apportées sur le rendement prévu des opérations ou le coût des composants. Par ailleurs, les délais pour obtenir un démonstrateur concluant paraissent devoir excéder la décennie.

Néanmoins l'idée est intéressante. Nous pouvons en retenir que s'ils s'en donnent la peine, les industriels asiatiques pressés par le besoin de diminuer les nuisances des véhicules traditionnels, aboutiront à des solutions compétitives. Les industriels européens, comme cela semble le cas en ce qui concerne la YeZ, auront tout intérêt à s'associer à eux.

* Voir http://news.cnet.com/8301-17938_105-20005538-1.html


Iter, un investissement d'avenir
Jean-Paul Baquiast et Christophe Jacquemin - 29/05/2010

Les autorités de tutelle du programme international Iter destiné à démontrer la faisabilité de la production d'énergie électrique par fusion nucléaire ont confirmé ce qui avait déjà été annoncé: une augmentation des délais et surtout des coûts. Pour nous, il s'agit d'un argument justifiant non de ralentir ou abandonner le programme, mais de le poursuivre voire de l'accélérer.

Ces augmentations, pour des motifs tenant à une sous-évaluation des investissements nécessaires et à la modification des spécifications techniques pour tenir compte des technologies d'aujourd'hui, sont en effet assez compréhensibles dans un tel projet. Elles tiennent en partie d'ailleurs à la hausse des matières premières et produits finis nécessaires.

Le budget global devrait doubler par rapport aux 4,7 milliards initialement annoncés. L'Union européenne est la principale contributrice économique. A ce titre, elle devrait voir sa part passer de 2,7 à 7,2 milliards sur les dix années dédiées à la construction. Les autres pays faisant partie du projet, la Chine, la Corée du Sud, les Etats-Unis, l'Inde, le Japon et la fédération de Russie, devront aussi voir leur contribution augmentée. Seuls les Etats-Unis, pour de complexes raisons politiques, ont menacé de cesser leur participation.

Rappelons qu'Iter n'a pas vocation à produire de l'énergie de façon commerciale, mais à démontrer la faisabilité de la fusion sur Terre au sein d'un plasma confiné. Cette étape achevée, un premier réacteur nucléaire de fusion, Demo, devrait être implanté au Japon pour apporter la preuve de la faisabilité industrielle du concept à l'horizon 2050.

Dans le contexte de crise économique actuel, nombreuses sont les voix s'élevant pour demander que le projet soit arrêté, ou tout au moins séquencé dans le temps, ce qui aboutirait pratiquement à sa mort. On comprendrait à la rigueur ce discours quand il émane des lobbies anti-nucléaires (encore que la fusion devrait en principe permettre d'échapper en grande partie aux problèmes nés de la fission). Mais que des gens ayant un minimum de perception stratégique puissent eux-aussi demander d'abandonner un programme dont les retombées, immédiates et à terme, sont et seront infiniment supérieures aux coûts, ne rassure pas sur le bon sens des prétendus experts.

Offrir des emplois de haute qualification au coeur de l'Europe, obliger à développer des technologies et matériaux jugés encore extrêmement complexes, créer un foyer international de coopération scientifique qui pourra devenir à terme aussi important que le LHC, jeter enfin ce faisant les bases d'une véritable révolution énergétique, représentent, notamment pour l'Europe, des enjeux tels que nul ne devrait les discuter. Préférerait-on voir gaspiller des milliards et cumuler les risques, comme le font les compagnies pétrolières en ce moment, en poursuivant des programmes de forage océanique dit profonds et ultra-profonds. Si l'Europe abandonnait Iter, on serait en droit de dire qu'elle se résout à ne plus jamais être qu'un parc de populations vieillies et sans ambitions, aux rêves partagés entre la plage et le football.

Notes
(1) L'agence Iter France http://www.itercad.org/projet.php rappelle que le projet français Laser Mégajoule (LMJ) en construction près de Bordeaux et le projet international ITER diffèrent tant sur le plan des acteurs que du financement ainsi que dans les applications et les technologies mises en oeuvre. Le Laser Mégajoule, financé sur le budget du ministère de la Défense, est un programme de simulation qui permet de garantir la dissuasion nucléaire en l'absence d'essais en grandeur réelle. Il ne s'inscrit donc pas dans les mêmes perspectives que le projet international ITER dont les objectifs sont uniquement civils.
Les conditions permettant d'obtenir des réactions de fusion sont complètement différentes sur le Laser Mégajoule et sur ITER. La réaction de fusion de l'hydrogène en hélium est obtenue dans le premier cas au moyen d'une impulsion laser très brève sur le Laser Mégajoule, conduisant à des pressions très élevées. Avec ITER, la réaction de fusion apparaîtra dans un plasma maintenu à hautes températures, à basse pression et confiné par des champs magnétiques pendant des temps longs. Il n'y a donc pas lieu, en principe, à recherche commune entre les deux procédés.
(2) Position de la commission européenne concernant Iter
http://www.eurosfaire.prd.fr/news/consulter.php?id=4542
(3) Présentation de Iter par wikipedia http://fr.wikipedia.org/wiki/International_Thermonuclear_Experimental_Reactor


La bactérie artificielle de Craig Venter
Jean-Paul Baquiast et Christophe Jacquemin - 28/05/2010

Schéma moléculaire de la  Bactérie artificielleCraig Venter et son équipe ont annoncé le 20 mai 2010, lors d'une conférence organisée par la revue Science, avoir réalisé la première bactérie artificielle, dotée d'un génome entièrement synthétique. Ce «produit» a été fabriqué par voie chimique à partir de la séquence du génome d’une bactérie, Mycoplasma mycoides (agent de la pneumonie des bovidés). A partir du génome de celle-ci, entièrement séquencé, les chercheurs ont synthétisé chimiquement des morceaux de ce génome, long de plus d’un million de caractères.

En 2008, Craig Venter avait déjà réussi, avec son équipe, à fabriquer un génome bactérien entièrement synthétique en collant des séquences d’ADN synthétisées bout à bout afin de reconstituer le génome complet de la bactérie Mycoplasma genitalium. Ce génome avait ensuite été transplanté dans une autre bactérie, mais sans que celle-ci puisse fonctionner. Pour créer leur nouvelle cellule contrôlée par un génome artificiel, les chercheurs se sont appuyés sur ces deux techniques élaborées en 2008.

Le génome qu’ils ont fabriqué est la copie d’un génome présent dans la nature, celui de la bactérie Mycoplasma mycoides, mais il comporte des séquences d’ADN supplémentaires. Il a ensuite été transplanté dans une autre bactérie, Mycoplasma capricolum, qui a été ensuite activée. Bien que quatorze gènes aient été supprimés dans la bactérie receveuse du génome synthétique, celle-ci ressemblait à la bactérie origine, bien que débarrassée de son propre génome. Une colonie de bactéries ayant les propriétés du génome synthétique s'est alors développé.

L'annonce a été accueillie avec beaucoup d'enthousiasme par les promoteurs de la vie artificielle. Selon eux, si ces techniques pouvaient être généralisées, la conception, la synthèse, l’assemblage et la transplantation de chromosomes synthétiques ne seraient plus des obstacles aux progrès de la biologie synthétique . De nombreuses applications pharmacologiques ou industrielles deviendraient alors possibles à grande échelle.

Il s’agit sans aucun doute d’une percée scientifique importante, tant à cause du nombre d’obstacles surmontés que de la méthode mise au point. On ne cédera pas à la tentation de rejeter de telles recherches au nom du principe de précaution. On constate cependant que beaucoup de biologistes ramènent (jalousie ou non) l'évènement à des proportions plus modestes. C'est le cas de John Horgan dont nous publions ci-dessous le commentaire sur un blog de la revue Scientific American.

Mais au delà d'un principe de précaution primaire, un nombre plus grand encore de chercheurs et de philosophes mettent en garde sur les risques de contamination et de destruction de la biodiversité pouvant résulter de la généralisation de ces pratiques, mises dans toutes les mains. Les risques ne seront pas moindre si de telles recherches – comme c'est déjà le cas sans doute – se poursuivaient dans des laboratoires militaires. On sait que ceux-ci, pour des raisons diverses, sont loin d'être étanches.

Nous joignons à cet article un commentaire éclairé de notre collègue et ami Hervé Le Crosnier, de l'Université de Caen.

Pour en savoir plus
Communiqué de presse du Craig Venter Institute
Craig Venter has neither created--nor demystified--life
par John Horgan

Voir aussi un commentaire dans Nature de ce qu'est la vie au regard de la vie synthétique
http://www.nature.com/news/2010/100524/full/news.2010.261.html

Ne pas ouvrir la boîte de Pandore de la biologie synthétique, par Hervé Le Crosnier.


Origines de l'Homo sapiens
Jean-Paul Baquiast - 27/05/2010

De nouvelles hypothèses obligent à compliquer l'histoire du genre Homo et plus récemment celle de l'Homo sapiens. Il y a d'abord l'analyse des restes fossiles découverts il y a quelques années et attribués à une nouvelle espèce d'australopithèques, Australopithecus sediba (image). On pensait jusqu'ici que les australopithèques étaient trop éloignés de leurs descendants présumés du genre Homo pour être rattachés à ce genre. Mais l'A. sediba semble appartenir à la fois à un australopithèque vivant entre -3 et -2,5 millions d'années, l'Australopithecus africanus et des Homo primitifs identifiés en Ethiopie à partir de – 2,3 mda. Il serait comme eux dotés de pommettes et molaires moins développées. La frontière entre les Homo et les australopithèques devient donc de plus en plus difficile à tracer (voir Science, 328, 195, 2010).

Par ailleurs il semble avéré aujourd'hui que, loin de s'être développés et éteints sans échanges génétiques avec les Homo sapiens, les néanderthaliens (Homo sapiens neanderthalensis) ont au contraire eu, à partir du moment où les Homo sapiens ont commencé à migrer hors d'Afrique il y a environ 100.000 ans, différentes occasions de se mélanger, culturellement sans doute et surtout génétiquement.

Ce sont les recherches, déjà mentionnées sur notre site, conduite par une équipe du Max Planck Institute for Evolutionnary Anthropology à Leipzig qui le suggèrent. Le Pr. Svante Pääbo qui la dirige affirme que le génome de l'homme moderne comprend de 1 à 4% de gènes communs avec les néanderthaliens. Ceci voudrait dire que les deux espèces d'Homo se seraient rencontrées plusieurs fois entre -100.000 et -40.000 années.

D'autres études, notamment celles de Jeffrey Long à Albuquerque, indiquent que les ancêtres des Eurasiens modernes ont acquis la biodiversité génétique qui les caractérise en se mélangeant, non seulement avec les néanderthaliens, mais avec d'autres espèces d'Homo considérées aujourd'hui comme éteintes: Homo erectus, Homo floresiensis (Indonésie) et même une hominidée découverte récemment en Sibérie, ayant vécu entre -50.000 et -30.000 ans et qui ne serait ni sapiens ni néanderthalienne. Svante Pââbo qui étudie actuellement l'ADN d'un de ses doigts l'a nommée provisoirement l' «X.woman».

Tout ceci montre que les idées simplistes sur les filiations et les échanges de gènes seront progressivement nuancées au fur et à mesure que se préciseront nouvelles découvertes et analyses. Il paraît difficile en tous cas d' imaginer qu'une nouvelle espèce, dite Homo sapiens sapiens, soit surgie toute armée et dotée des immenses qualités que nous voulons lui attribuer, d'une brouillard confus d'espèces primitives. Pourra-t-on même encore parler d'espèces dans ces divers cas?

Pour en savoir plus
Sur l'A.sediba, voir http://en.wikipedia.org/wiki/Australopithecus_sediba
Sur l'X Woman, voir http://m.wrvo.npr.org/news/Science/125129322?singlePage=true


Automates Intelligents © 2010

 

 


   Sur le site
Sur le web   

 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Assocation Automates Intelligents
Mention légale Mention légale CNIL : 1134148