septembre
- octobre - novembre 2010
Processus
cérébraux mis en oeuvre
dans la communication langagière
Jean-Paul Baquiast et Christophe Jacquemin
24/11/2010 
A
un tout autre niveau de résolution que celui faisant l'objet
des recherches du Pr Stephen Smith citées dans la brève
précédente, le dernier congrès Neuroscience
2010 a présenté les résultats de nouvelles
recherches concernant la communication langagière entre animaux
supérieurs.
Concernant
les humains, la visualisation par neuro-imagerie des câblages
cérébraux complexes impliqués dans la production
du langage a fait apparaître des éléments nouveaux,
dont pourront bénéficier les méthodes thérapeutiques
visant à remédier aux déficiences langagières
dont souffriraient 46 millions d'américains.
Les points suivants ont été mis en évidenc
e:
- le réseau des connexions neuronales nécessaires
à la compréhension du langage est bien plus étendu
que précédemment imaginé. Il déborde
sensiblement les aires de Broca et de Wernicke traditionnellement
associées au langage. L'aire de Broca est la zone de production
des mots parlés tandis que l'aire de Wernicke est responsable
de leur compréhensio ;
- le bégaiement est associé à une activité
neuronale anormale se produisant chez des personnes bègues
même lorsqu'elles se bornent à lire et écouter.
Il résulterait donc d'anomalies dans le traitement du langage
en amont de celles affectant sa production (ou locution) ;
- les personnes bègues de sexe masculin disposent de connections
cérébrales différentes de celles caractérisant
les personnes bègues de sexe féminin. NDLR: Ceci ne
ravivera sans doute pas pour autant la vieille querelle relative
aux éventuelles différences entre cerveaux qui seraient
liées au genre ;
- le traitement neuronal des mots d'un langage donné lorsque
ceux-ci sont prononcé avec la prononciation (ou accent) généralement
pratiquée par le locuteur de ce langage n'est pas le même
que celui mis en oeuvre lorsque ces mêmes mots sont prononcés
avec un accent étranger. Ceci pourrait expliquer les difficultés
d'adaptation des personnes n'ayant pas acquis dès la petite
enfance l'accent caractérisant un langage qui n'est pas le
leur, même lorsqu'elles en maîtrisent parfaitement les
spécificités de vocabulaire et de grammaire ;
- les cerveaux des oiseaux chanteurs sont capables de percevoir
les messages contenus dans les chants d'oiseaux de leur espèce,
même lorsque ces chants sont couverts par de forts bruits
parasites. Ceci pourrait expliquer l'effet dit de cocktail par lequel
nous pouvons dans une assemblée bruyante identifier les seuls
mots et phrases qui nous intéressent.
Pour en savoir
plus
Article
http://www.eurekalert.org/pub_releases/2010-11/sfn-cec111610.php
Neuroscience
2010 http://www.sfn.org/am2010/
Nouvelles
méthodes pour l'étude
des synapses corticales
Jean-Paul Baquiast et Christophe Jacquemin
24/11/2010 
Une
nouvelle méthode de neuro-imagerie développée
à Standford permet désormais de localiser et dénombrer
les neurones et leurs connexions (les synapses) dans un échantillon
de tissu nerveux. Dans l'expérience relatée par l'article
référencé ci-dessous, il s'agit d'un échantillon
de cerveau de souris. Les observations ont mis en évidence
la grande variété et la relative évolutivité
dans le temps des connexions, responsables des divers aspects des
fonctions cérébrales, chez l'animal comme chez l'homme.
L'article rappelle ce que nos lecteurs connaissent déjà
sans doute. Le nombre de neurones dans un cerveau sain adulte est
d'environ 200 milliards. Chacun d'eux peut entretenir plusieurs
dizaines de milliers de connexions synaptiques avec ses voisins.
Il existe une dizaine de types différents de synapses, utilisant
des neuromédiateurs différents. Selon le professeur
Stephen Smith, responsable de l'étude, il existe 125 trillions
de synapses dans le seul cortex cérébral humain, soit
le nombre d'étoiles que comptent 1.500 galaxies comparables
à la nôtre. Leur densité est si grande que les
microscopies classiques les plus pénétrants ne permettent
pas de les détailler. La méthode développée
dans le laboratoire du Pr Smith permet au contraire de naviguer
en 3D dans l'image obtenue.
Une synapse est comparable à un microprocesseur, doté
de capacité de mémoires et d'éléments
de traitement de l'information. Elle contient plus de 1000 molécules
dont chacune joue le rôle d'un relais individuel (switch).
Un cerveau humain comprend autant de tels relais que tous les ordinateurs,
routeurs et connections Internet existant aujourd'hui sur Terre.
Ceci pourrait signifier que le « cerveau global »
dont l'humanité se vante aujourd'hui de disposer est à
peine mieux équipé que le cerveau d'un des 6 milliards
d'humains vivant aujourd'hui. Quoiqu'il en soit, on voit que les
capacités potentielles de mémorisation du cerveau
sont quasi infinies. Malheureusement la façon d'accéder
aux souvenirs ainsi emmagasinés n'est pas encore disponible.
On devine les nombreuses applications qui pourront résulter
des observations permises par ces nouvelles méthodes, soit
dans l'étude des fonctions neurales, soit dans l'identification
de certaines formes de neuro-dégénérescence.
Il est très probable qu'elles intéresseront aussi
les laboratoires travaillant pour la défense ou la publicité,
en vue de définir d'éventuelles méthodes de
contrôle des comportements et de formation des idées.
Article
http://med.stanford.edu/ism/2010/november/neuron-imaging.html
A
la découverte du Tuatara, prédécesseur des
dinosaures
Jean-Paul Baquiast - 24/11/2010 
Selon
Wikipedia (cf. lien ci-dessous), nous citons: "Le
sphénodon (Sphenodon punctatus et Sphenodon guntheri) ou
tuatara ou encore hattéria, est aujourdhui lunique
représentant de lordre des rhynchocéphales (aussi
appelé rhynchocephalia, sphénodontes ou sphenodontia),
qui était florissant il y a 200 millions d'années.
Malgré la ressemblance, ce n'est pas un lézard, mais
un proche parent des Squamata qui regroupent les lézards
et les serpents. Cet animal possède un troisième il
et représente un témoignage de la séparation
des lignées ayant abouti aux lépidosauriens (dont
les lézards, serpents et sphénodons font partie) d'une
part et aux archosauriens (oiseaux et crocodiliens, entre autres)
d'autre part. Ce reptile ne se trouve qu'en Nouvelle-Zélande,
où il est endémique. Les sphénodons forment
la branche divergeant le plus précocement dans l'arbre phylogénétique
actuel des amniotes. Le cerveau et le mode de locomotion présentent
des états de caractères ancestraux d'amphibiens et
l'organisation du cur est plus simple que chez les autres
reptiles".
L'analyse
du génome du tuatara a montré que quelques régions
de son génome évoluent à une vitesse inhabituelle.
Voir un article
dans la revue Cell . Il dispose aussi d'une hémoglobine
différente de celle des autres reptiles, lui permettant de
mieux résister au froid. Ce sont peut-être ces propriétés
qui expliqueraient l'exceptionnelle capacité de ces animaux
à traverser les âges. On comprend donc que ce "plus
qu'ancien" fossile vivant soit (efficacement, espérons
le) protégé en Nouvelle Zélande. Il mériterait
selon nous bien plus d'études et surtout de commentaires
qu'il n'en reçoit aujourd'hui de la part des biologistes
et des enseignants.
La Nouvelle Zélande, de par son isolement il y a 80 millions
d'années du continent primitif le Gondwana, héberge
d'autres espèces qui sont elles aussi des fossiles survivants:
le kiwi, le kapako, perroquet nocturne incapable de voler et le
weta, cricket géant de la taille d'une main d'homme.
Pour en savoir
plus
Le
sphénodon http://fr.wikipedia.org/wiki/Sph%C3%A9nodon
Le
kapako http://parrotquest.com/the-kakapo-parrot-of-new-zealand/
Les
weta http://en.wikipedia.org/wiki/Weta
Un auto-apprentissage par le toucher et la vue chez le robot AMAR
Jean-Paul Baquiast et Christophe Jacquemin - 24/11/2010 

Dans
le cadre du projet PACO-PLUS, des chercheurs européens de
l'Institut de technologie de Karlsruhe ont développé
un robot humanoïde nommé AMAR III qui opère sur
le principe de la reconnaissance corporelle. Le système utilise
une communication en aller et retour entre les «mains»
du robot, ses «yeux» et son processeur central. AMAR
peut ainsi résoudre des problèmes dont la solution
n'avait pas été programmée à l'avance
par ses concepteurs. Confronté à des ordres de l'opérateur
impliquant de nouveaux objets, il réussit à répondre
à ces ordres en fonction des objets concernés et de
l'environnement précis où il se trouve.
Dans la vidéo présentée par l'article de Phys
Org référencé ci-dessous, le robot effectue
des manipulations complexes à l'intérieur d'une cuisine.
Le processus impliqué peut être décomposé
en trois phases : comprendre des commandes verbales, se donner des
représentations des objets et des actions concernés,
utiliser ces représentations pour répondre aux commandes
par l'intermédiaire de ses entrées-sorties sensorielles.
Certains éléments de la démarche ont été
pré-programmés pour réduire les temps de l'apprentissage
par essais et erreurs auquel se livre le robot, mais le processus
d'auto-apprentissage est bien celui résumé ici.
Selon le responsable du projet, le Dr Tamim Asfour, le principal
objectif de celui-ci est de construire un système capable
d'élaborer des représentations des objets opérant
au niveau des organes des sens et de les combiner avec une planification
de l'action et une communication verbale interactive avec un opérateur
extérieur (humain voire non-humain).
Ce mode d'action simule la façon dont les humains (nouveaux
nés et jeunes enfants) perçoivent leur environnement.
Elle dépend de leur capacité à interagir avec
les objets de celui-ci en termes physiques, à partir des
instructions verbales données par un parent. L'objet du programme
quadriennal PACO-PLUS de l'Unité de recherche cognitive de
la Commission européenne est de réaliser des robots
avancés capables d'opérer dans le monde réel
en communication avec des humains.
Pour en savoir plus
PACO-PLUS :http://paco-plus.org/
Article
de PhysOrg (avec vidéos) :
http://www.physorg.com/news/2010-11-armar-iii-robot-video.html
Des
atomes d'anti-hydrogène isolés au Cern
Jean-Paul Baquiast - 24/11/2010 
Des
atomes d'anti-matière (en fait anti-hydrogène) ont
été isolés pour la première fois à
fin d'expérimentation par l'appareil ALPHA (Antihydrogen
Laser Physics Apparatus) du laboratoire de physique des particules
du Cern (photo ci-contre). Ce sont ces mêmes particules que
va traquer dans l'espace le Professeur et prix Nobel Samuel Chao
Chung Ting en utilisant l'«Alpha Magnetic Spectrometer»
AMS-02 qu'il a mis au point également au Cern (voir article
ci-dessous).
Le Cern et d'autres laboratoires ont produit depuis quelques années
diverses anti-particules, notamment l'anti-électron (positron)
utilisés par la tomographie par émission de positrons,
et l'anti-hydrogène. Mais dans le cas référencé
par Nature, les atomes d'anti-hydrogène sont isolés
dans une enceinte les empêchant d'interagir avec la matière.
Ceci permettra de tester leurs propriétés, notamment
pour savoir si l'anti-matière répond aux mêmes
forces fondamentales que la matière ordinaire, au regard
du théorème CPT (charge conjugation/parity/time reversal)
qui est fondamental dans le modèle standard des particules
élémentaires.
Pour
en savoir plus
Article
de Nature
http://www.nature.com/nature/journal/vaop/ncurrent/full/nature09610.html
Article
du NewScientist
http://www.newscientist.com/article/mg20827874.500-antihydrogen-trapped-at-long-last.html
Les gisements de terres rares ne sont pas si rares
que le suggère le terme
Jean-Paul Baquiast - 24/11/2010 
Nous
avons rappelé dans un
précédent article
la question géostratégique posée par la détention
de minerais et dépôts de terres rares. Elle tient essentiellement
au fait que, pour des raisons économiques, la plupart des
pays utilisateurs ont laissé la Chine monopoliser leur production.
Aujourd'hui, compte-tenu des menaces que fait peser la Chine sur
l'accès à ces produits, les autres grands pays se
réveillent. C'est le cas aux Etats-Unis, où un Geological
Survey vient de confirmer l'existence d'importants dépôts
exploitables.
Bien
mieux, il semblerait que dans les" boues rouges" sous-produits
de la production d'aluminium se trouvent nombre d'éléments
appartenant à la catégorie des terres rares, parfaitement
réutilisables. Ceci donnerait un avenir inespéré
aux décharges sauvages réalisées notamment
en Europe de l'Est, qui constituent une menace permanente pour l'environnement
et le voisinage.
Pour
en savoir plus
US
Geological Survey http://www.usgs.gov/newsroom/article.asp?ID=2642&from=rss_home
Boues
rouges, terres rares et produits de fission www.robindesbois.org/.../boues_rouges/bauxite_extraits_rad_nat_techno.pdf
L'étonnante
aventure du Professeur et prix Nobel
Samuel Chao Chung Ting
Jean-Paul Baquiast - 17/11/2010 

Photo: l'AMS 02,
accompagné du Pr Ting est chargé sur un Galaxy de
l'US Air Force à destination de Cap Canaveral.
On
suivra ces prochains mois la suite d'une étonnante aventure,
commencée il y a 16 ans, celle de l' «Alpha
Magnetic Spectrometer» AMS-02, et du Pr Ting qui l'a menée
contre vents et marées depuis le début. Il s'agit
d'étudier en orbite terrestre les rayons cosmiques afin d'y
découvrir des traces de la supposée matière
noire censée compenser à l'échelle cosmique
le manque de masse de la matière ordinaire observable.
Si
le spectromètre était capable de confirmer que différents
mystérieux signaux recueillis par divers satellites correspondaient
bien à des particules d'anti-matière, on pourrait
en déduire que se trouvent quelque part des quantités
considérables de celle-ci, anti-étoiles ou anti-galaxies,
susceptibles de les émettre en interagissant avec de la matière
ordinaire.
Le Pr Ting est âgé aujourd'hui de 74 ans. Il dirige
au Cern un laboratoire consacré à la détection
et à l'étude des rayons cosmiques. Il avait réussi
à convaincre des milliers de donateurs de financer un nouveau
et puissant détecteur, destiné à opérer
dans l'espace, contrairement à ceux présentement installés
sous terre.
Le
spectromètre une fois construit au Cern, le Pr Ting a réussi
à convaincre la Nasa de le convoyer malgré son poids
(8 tonnes), lors d'un des derniers vols de navette, prévu
en principe pour février 2011, vers la Station spatiale internationale
où il sera arrimé.
Il restera à identifier ne fut-ce qu'une des particules recherchées,
un noyau atomique plus lourd que l'anti-hélium par exemple.
L'expérience sera suivie de près par les physiciens
du LHC, du fait que l'appareil, générant des champs
magnétiques 4000 fois plus puissants que le champ terrestre,
complètera utilement les recherches de particules actuellement
menées au sein du LHC. Peut-être en résultera-t-il
une véritable révolution dans la compréhension
actuelle de la texture de l'univers.
Si
rien ne se produit, les adversaires du fantasque Pr Ting, nombreux
apparemment aux Etats-Unis (allez savoir pourquoi) , auront beau
jeu d'affirmer qu'il ne fallait pas se fier à ses intuitions.
Ainsi va la science.
Pour en savoir plus
Pr. Ting http://web.mit.edu/physics/people/faculty/ting_samuel.html
Article de l'Esa
http://www.esa.int/esaCP/SEMZE8BO3DG_index_0.html
Les
projets scientifiques de la Nasa retardés ou compromis par
les restrictions budgétaires
Jean-Paul Baquiast - 17/11/2010 
Sous
la pression des Conservateurs américians, dont l'étroitesse
d'esprit politique le dispute à une sorte de haine viscérale
de la science, les budgets de la Nasa seront sérieusement
rognés dans les prochaines années. Ceci retentit déjà
sur les projets scientifiques les plus intéressants au regard
de l'astronomie et de la cosmologie.
Ainsi le James
Webb Space Telescope, (JWST) destiné à remplacer le
télescope Hubble, dont les apports ont été
véritablement révolutionnaires, paraît menacé.
Il comportera un miroir dépliable de 6,5 mètres, destiné
à observer les galaxies primordiales. Selon de nouvelles
estimations budgétaires, son coût aujourd'hui évalué
à 5 milliards de dollars pourrait atteindre 6,6 milliards.
Si par ailleurs, la date de lancement prévue devait être
respectée, soit 2014-2015, il faudrait dépenser 500
millions supplémentaires. La
Nasa estime que le Congrès refusera d'autoriser ces dépenses.
Un autre programme
encore en suspens est le Wide-Field Infrared Survey Telescope WISE),
ou télescope d'observation en infrarouge destiné à
étudier l'énergie noire et les exoplanètes.
Son coût est moins élevé, soit 1,6 milliard,
ce qui le rend préférable aux yeux d'une majorité
d'astronome. Mais là encore, la décision n'est pas
prise.
La Nasa réfléchit
à la possibilité de délocaliser les dépenses
relatives au JWST de sa division astrophysique, au profit d'une
division spécifique, qui pourrait recueillir des fonds provenant
des fondations.
On pourrait
penser que, vu l'intérêt de ce programme pour l'ensemble
des communautés scientifiques, les autres agences spatiales
mondiales se grandiraient en faisant des offres de participation.
Encore faudrait-il que la Nasa accepte une plus grande mutualisation
des opérations.
Pour en savoir plus
JWST
http://www.jwst.nasa.gov/
WISE
http://www.nasa.gov/mission_pages/WISE/main/index.html
Le
LHC remonte toujours plus en amont dans le temps cosmologique
Jean-Paul Baquiast et Christophe Jacquemin - 09/11/2010 
Selon
le bulletin d'information du CERN, l'accélérateur
de particules LHC(1) est en train de produire les températures
les plus élevées jamais obtenues expérimentalement.
Ce sont celles mesurées les 7 et 8 novembre derniers au sein
de ce que l'on pourrait appeler des mini-big bangs résultant
de collisions frontales, non plus entre des atomes mais entre des
ions de plomb. Les ions sont des atomes électriquement chargés,
ayant perdu leur neutralité électrique à la
suite de la perte ou de l'ajout d'un ou plusieurs électrons.
Les températures atteindraient 10 trillions de °C.
A
ce niveau d'énergie, les noyaux des atomes fondent en un
mélange de quarks et de gluons, dit plasma quark-gluon. La
formation d'un tel plasma est prédite par la théorie
de la chromodynamique quantique (QCD). Elle prévoie qu'au
fur et à mesure que l'on remonte l'histoire de l'univers,
l'interaction forte qui maintient les quarks ensemble pour former
les protons et autres hadrons, tend vers zéro.
Ce plasma avait été étudié en détail
au sein du Relativistic Heavy Ion Collider (RHIC)
à Upton, New York. En février 2010, les chercheurs
ont fait état de températures de 4 trillions de °C,
résultant de la collision d'ions d'or. Le LHC a donc atteint
des températures 2,5 fois supérieures. Le détecteur
de 10.000 t. Alice du LHC (A Large Heavy Ion Experiment) pourra
étudier l'univers en l'état qui était le sien
un millionième de second après le big bang.
La grande presse va s'inquiéter. Jusqu'où remontera
le LHC dans sa quête des hautes énergies ? Un nouveau
big bang ? Les physiciens du Cern considèrent qu'ils en sont
encore loin. Les énergies dont ils disposent paraissent encore
bien trop faibles pour cela.
(1)
Large Hadron Collider (Grand collisioneur de hadrons).
Source
LHC actualités (voir les animations)
http://www.lhc-france.fr/spip.php?article527
Quatre véhicules sans pilote d'Italie à Shanghai
Jean-Paul Baquiast - 08/11/2010 
Le
laboratoire VisLab de l'Université de Parme développe
des systèmes de conduite sans pilote pour véhicules
faisant appel à divers senseurs et à l'intelligence
artificielle. Sur financement de l'European Research Council, elle
a réalisé un raid de Parme à Shanghai impliquant
4 véhicules qui par ailleurs ne faisaient appel qu'à
l'énergie solaire.
Le voyage les a conduit jusqu'au Pavillon italien de l'exposition
universelle de Shanghai à travers une dizaine de pays très
différents. Les véhicules transportaient chacun deux
chercheurs du laboratoire, mais ils se pilotaient automatiquement.
Les humains ne sont intervenus que très exceptionnellement.
Le
pilotage de chacune des voitures était assuré par
4 scanners à énergie solaire et sept vidéo-caméras
travaillant en coordination. Il était uniquement visuel,
ne disposant pas de cartes prévues à l'avance. Le
système de vision artificielle assistée, nommé
GOLD, pour Generic Obstacle and Lane Detector, faisait lui-même
les choix de direction et de vitesse. Ceux ci étaient transmis
aux organes par le PC central. La vitesse était limitée
à 60 km/h.
On
constate qu'un laboratoire européen, sans disposer des financements
considérables de la Darpa (Département américain
de la défense) a pu réaliser des véhicules
sans pilote moins sophistiqués mais néanmoins comparables
à ceux que met au point l'armée américaine.
Pour en savoir
plus
Le
voyage http://www.viac.vislab.it
Le
chef de projet, Alberto Broggi http://vislab.it/Users/view/3
Plusieurs
milliards de planètes habitables dans la Galaxie
Jean-Paul Baquiast et Christophe Jacquemin - 30/10/2010 
La
Voie lactée compterait plusieurs milliards de planètes
de la même taille que la Terre. Certaines sont potentiellement
habitables, révèle une étude publiée
le 28/10 par la Nasa (voir référence ci-dessous) .
Selon
la Nasa, le résultat de ce travail est le fruit du recensement
planétaire le plus étendu et le plus crédible
de ce type jamais effectué.
Les
données récoltées indique que notre Galaxie,
qui contient plus de 100 milliards d'étoiles, compte au moins
46 milliards de planètes de la même taille que la Terre.
Il ne s'agirait donc pas de géantes gazeuses. Une bonne partie
d'entre elles se trouverait dans la "zone habitable" ni
trop chaude, ni trop froide, où l'eau peut exister à
l'état liquide.
Beaucoup
de planètes, dites super-Terres, ne sont pas dans ce cas.
Une autre étude de la Nasa décrit les conditions "infernales"
qui y règnent vu leur proximité avec leur soleil.
Concernant
les planètes habitables, le philosophe pourra méditer
sur le fait qu'une grande partie d'entre elles héberge vraisemblablement
de la vie, et certaines des formes de vie semblables ou supérieures
à l'espèce humaine.
L'univers
visible, rappelons-le par ailleurs, contient plus de 100 milliards
de galaxies, dont beaucoup seraient des spirales analogues à
la Voie lactée.
Sources
Planètes
habitables
http://www.nasa.gov/home/hqnews/2010/oct/HQ_10-279_Keck.html
Planètes
infernales
http://news.sciencemag.org/sciencenow/2010/10/hellish-super-earths-likely-prev.html
Autres
lancements pour le compte des opérateurs de télévision
Jean-Paul Baquiast - 30/10/2010 
Arianespace
prépare un nouveau lancement double utilisant le lanceur
lourd Ariane 5. Il devrait intervenir le 25 novembre 2010. Ce sera
le 5e pour cette année.
La
mission installera un satellite Intelsat 17 fabriqué par
Space Systems/Loral pour le compte de la société américaine
Intelsat. Positionné au 66e degrés Est, il desservira
une partie de l'Asie, de l'Europe et de l'Afrique.
Le
deuxième satellite nommé HYLAS 1 a été
réalisé par EADS Astrium for l'opérateur britannique
Avanti Communications. Il offrira des services large-bande destinés
principalement aux zones rurales européennes (schéma).
Il dispose d'un système original conçu par l'Inde
permettant d'adapter les ressources distribuées aux variations
dans la demande de trafic à terre.
Rappelons que
le 20 octobre, un Soyouz opéré par la filiale Starsem
d'Arianespace a mis en orbite une grappe de 6 satellites Globalstar
de seconde génération à partir du cosmodrome
de Baïkonour.
Perte
du satellite W3B de Eutelsat
Jean-Paul Baquiast - 30/10/2010 
Eutelsat
Communications a fait connaître le 29/10/2010 la perte de
son satellite W3B, à la suite d'une mise en orbite réussie
réalisée la veille par une fusée Ariane. Une
anomalie dans le sous-système de propulsion du satellite
a été détectée trop tardivement.
Le
W3B était un satellite de 5,3 tonnes fabriqué par
le groupe Thales Alenia Space. Il était destiné à
assurer la couverture télévision de l'Europe centrale
et de l'Océan Indien, ainsi que des accès haut débit
Internet téléphone mobile en Afrique. Il devait remplacer
3 satellites actuellement en service. Ceux-ci seront donc maintenus
opérationnels jusqu'à mi-2011. A cette date, un nouveau
satellite, W3C, devrait être mis en place. Eutelsat inaugure
par ailleurs un nouveau programme W3D, destiné à un
lancement en 2013.
Eutelsat
était convenablement assurée, ce qui n'a pas empêché
une baisse du titre en bourse. Le spatial sera toujours une activité
à hauts risques.
Un
marqueur du cancer
Jean-Paul Baquiast et Christophe Jacquemin - 21/10/2010 
Les
biologistes recherchent depuis longtemps la présence d'une
molécule facilement détectable qui annoncerait la
présence d'un cancer au stade précoce. Or, un article
du New England Journal of Médecine daté du
21 octobre (voir http://www.nejm.org/doi/full/10.1056/NEJMoa1001283)
annonce que des résultats très prometteurs viendraient
d'être obtenus en ce domaine. Les responsables en sont une
équipe de chercheurs de l'Inserm dirigée par Nicolae
Ghinea (Unité 955) et une équipe américaine
dirigée par Aurelian Radu, de l'école de médecine
du Mont-Sinaï à New York (A noter : l'article
du NewScientist annonçant ce résultat «oublie»
totalement l'équipe française...).
A partir de 1300 malades atteints de onze cancers différents
à divers stades de la maladie, les scientifiques ont pu montrer
que tous les patients portaient une marque biologique commune. Les
tumeurs présentaient de manière systématique
une protéine qui est le récepteur à la FSH
(follicle-stimulating hormone), une hormone d'origine hypophysaire.
En l'absence de cancer, cette protéine se retrouve uniquement
au niveau des organes reproducteurs (ovaires, testicules).
Dans
leurs travaux, les chercheurs ont détecté la présence
de récepteurs à la FSH sur les parois internes des
vaisseaux qui irriguent la tumeur. En revanche, ils n'apparaissent
pas dans les tissus sains, à l'exception des organes de la
reproduction.
Cette piste pourrait mettre sur la voie d'un marqueur universel
du cancer, utile pour le dépistage ou le diagnostic. Elle
pourrait aussi proposer de nouvelles voies thérapeutiques :
le réseau vasculaire est indispensable à la croissance
des tumeurs. C'est d'ailleurs souvent grâce à sa présence
que l'on détecte les tumeurs. Une molécule dirigée
contre ces récepteurs pourrait bloquer la croissance tumorale,
comme l'ont déjà montré des recherches menées
avec des médicaments dits angiogéniques qui luttent
contre la prolifération vasculaire.
Identification
de la plus ancienne galaxie observable à ce jour
Jean-Paul Baquiast - 21/10/2010 
Des
observations et calculs réalisés conjointement par
les équipes du télescope Hubble de la Nasa et une
équipe française conduite par Matt Lehnert de l'Observatoire
de Paris, travaillant sur le télescope de 8.2 m de l'European
Southern Observatory au Chili, ont permis d'attribuer à une
ou plusieurs galaxies primitives un très faible écho
lumineux jusqu'à présent non identifié. L'objet
baptisé UDFy-38135539 serait âgé de 13,1 milliards
d'années. Autrement dit, il remonterait à l'époque
ou le plasma primitif né du Big Bang se serait résorbé,
laissant passer la lumière.
Nous
soulignons ce point dont la presse a parlé abondamment pour
mettre en évidence l'intérêt des coopérations
entre astronomie spatiale et astronomie terrestre. Dans cette dernière,
les investissements consentis par les Européens se révèlent
très payants. Il faut continuer, malgré la crise.
Voir
http://www.newscientist.com/article/dn19603-dim-galaxy-is-most-distant-object-yet-found.html
La
course à la photosynthèse artificielle
Jean-Paul Baquiast et Christophe Jacquemin - 21/10/2010 
A la suite de diverses expériences prometteuses, le Département
américain de l'énergie vient d'affecter $122 millions
pour la mise en place d'un Joint Center for Artificial Photosynthesis
(JCAP) en Californie. Le pays qui gagnera la course à la
photosynthèse artificielle (ce que certaines bactéries
avaient inventé sur Terre il y a 2 ou 3 milliards d'années)
gagnera la course à l'énergie bon marché et
(en principe) non polluante. On ne peut que regretter l'absence
d'intérêt, à notre connaissance, en Europe,
pour cette question.
Voir JCAP http://solarfuelshub.org/
Le
Melas Chiasma martien
Jean-Paul Baquiast - 21/10/2010 

Il
s'agit de la vue en perspective d'une vallée martienne effondrée,
dont le fond serait à 9 km au dessous des plateaux environnants.
Les clichés proviennent du German Aerospace Centre (Deutsche
Zentrum für Luft- und Raumfahrt; DLR) qui est responsable de
la Caméra stéréo à haute résolution
embarquée
sur la sonde européenne de l'ESA Mars Express. Pour plus
de détails, voir l'article ci-dessous.
Voir
http://www.dlr.de/en/desktopdefault.aspx/tabid-1/117_read-26969/
Une
solution peut-être en vue concernant la mort des abeilles
Jean-Paul Baquiast et Christophe Jacquemin - 16/10/2010 
Un
article publié par le site public en ligne PLoS One indique
que des recherches récentes pourraient peut-être résoudre
le mystère relatif aux épidémies décimant
depuis quelques années les populations d'abeilles des deux
côtés de l'Atlantique. Selon une équipe de chercheurs
associant des scientifiques de l'US Army et des entomologistes civils,
le phénomène d'effondrement des colonies, dit Colony
Collapse Disorder (CCD) pourrait être du à la combinaison
d'un champignon et d'un virus. Les chercheurs ont trouvé
de petits éléments d'ARN appartenant à des
virus propres aux abeilles, associés à des spores
de deux parasites Nosema apis and Nosema ceranae. Ils infectent
les viscères des insectes. Le problème est que ces
éléments se retrouvent aussi bien dans les colonies
en bonne santé que dans les colonies déclinantes ou
mourantes. On les trouve cependant systématiquement chez
les abeilles mortes. Le processus précis de contamination
reste à découvrir. Néanmoins de fortes présomptions
laissent à penser que le coupable pourrait être en
vue.
Restera
cependant à rechercher si les conditions de l'environnement
interviennent pour favoriser le développement actuel de l'infection.
Cette association de parasites résulte-t-elle d'un phénomène
évolutif darwinien qui aurait pu se produire en d'autres
temps et lieux ou a-t-elle été favorisée, sinon
induite par des facteurs propres aux apicultures et agricultures
actuelles ?
Voir
PLoS One
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0013181
Voir
aussi le NYT
http://www.nytimes.com/2010/10/07/science/07bees.html?_r=1
Le graphène à l'actualité du Prix Nobel de
physique
Jean-Paul Baquiast et Christophe Jacquemin - 07/10/2010 

Le
hasard fait bien les choses... Dans notre article du 27/09/2010
"Nouvelles considérations sur
le temps", nous avions signalé les hypothèses
révolutionnaires sur l'espace-temps, développées
par le physicien Petr Horava à propos des propriétés
du graphène. Nous écrivions: «Les atomes
de graphène sont de très petites particules et les
mouvements des électrons qui s'y meuvent peuvent être
décrits par les équations de la mécanique quantique.
Comme par ailleurs ils se déplacent à des vitesses
très inférieures à celle de la lumière,
il n'est pas nécessaire de tenir compte des effets relativistes.
Le temps n'intervient donc pas. Si cependant l'on refroidit le graphène
aux alentours du zéro absolu, les mouvements des électrons
y accélèrent considérablement, comme les distances
parcourues, si bien qu'il faut faire appel aux théories de
la relativité, et donc au facteur temps, pour les décrire
correctement».
Il est vraisemblable que beaucoup de ceux qui ont découvert
les hypothèses de Petr Horava ont en même temps découvert
le graphène. Or depuis l'attribution du prix Nobel de physique,
le 5 octobre, aux chercheurs russes André Geim et Konstantin
Novoselov pour leurs travaux sur le graphène, il ne sera
plus possible d'ignorer ce corps ni ses propriétés
assez extraordinaires. Il s'agit d'un cristal de carbone bidimensionnel
ou monoplan (formé d'une seule couche d'atomes), extrêmement
fin mais néanmoins très résistant. Il est transparent
et bon conducteur de l'électricité et de la chaleur.
Les deux Prix Nobel avaient entrepris leurs recherches sur le graphène
à l'université de Manchester Leurs premiers travaux
ont été publiés en 2004. Ils avaient obtenu
une feuille de graphène à partir de graphite, structure
cristalline de carbone qui compose les mines de crayons. Depuis
lors, le nombre d'équipes scientifiques travaillant sur ces
résultats s'est multiplié, ainsi que les publications.
Sur le plan fondamental, ce sont d'abord les propriétés
de ce corps qui retiennent l'attention. Ses électrons ne
se comportent pas de la même façon que ceux des autres
matériaux. Leur étude, comme l'a montré notamment
Petr Horava précité, relève selon les conditions
de la mécanique quantique ou de la relativité. Sur
un plan plus général, il serait intéressant
de comprendre les processus naturels ou de laboratoire au terme
desquels est apparu un tel corps. Il dérive du carbone, qui
est lui-même un corps aux propriétés d'une grande
richesse. Mais s'agit-il, comme on le dirait en biologie, d'un « monstre »
ou relève-t-il d'une famille de corps aux propriétés
voisines. Pour trouver des réponses à ces questions,
on pourra lire la note référencée ci-dessous
de l'Académie Royale des Sciences de Suède, ainsi
que les publications qu'elle cite.
Au-delà de ces aspects fondamentaux, ce sont surtout les
applications du graphène qui retiennent l'attention des chercheurs.
Il devrait permettre de créer de nouveaux matériaux
et de produire des composants électroniques innovants. Les
transistors au graphène seront plus rapides que ceux conçus
à partir de silicium. D'autres applications pourraient également
concerner les écrans tactiles ou les panneaux solaires.
Enfin, du fait de la résistance du graphène, l'industrie
devrait pouvoir produire des accessoires fins et légers qui,
entre autres, amélioreront les performances des avions et
des satellites.
Pour en savoir plus
Fiche
wikipedia (en cours de mise à jour) http://fr.wikipedia.org/wiki/Graph%C3%A8ne
Dossier
de l'Académie Royale des Sciences de Suède
http://static.nobelprize.org/nobel_prizes/physics/laureates/2010/sciback_phy_10.pdf
Politique
spatiale américaine pour 2010 : le rapport de la Secure World
Foundation "Sustainability, International Engagement and Stability
in Space"
Jean-Paul Baquiast - 04/10/2010 
Victoria
Samson, chef du bureau de Washington de la Secure World Foundation
(SWF), a dirigé un rapport consacré à la politique
spatiale des Etats-Unis, qui vient d'être publié le
29 septembre dernier sous le titre "Sustainability, International
Engagement and Stability in Space (Durabilité, Engagement
international et Stabilité en matière de spatial).
Peu
connue des médias, la SWF se présente officiellement
comme une fondation privée dédiée au maintien
de l'accès de tous à un espace sécurisé
et pacifique. Elle vise à soutenir tous les projets spatiaux
pouvant avoir des retombées humanitaires et protecteurs de
l'environnement. Elle coopère avec un grand nombre d'acteurs
industriels et scientifiques s'intéressant à l'espace
pour les mêmes raisons.
Il
n'est pas nécessaire de se livrer à beaucoup d'investigations
pour constater qu'en dehors de ces nobles objectifs, elle vise aussi
à maintenir un réseau d'informateurs et de groupes
de pression au service de la politique spatiale américaine.
Celle-ci cherche à protéger la "full spatial
dominance" que les Etats-Unis ont décidé
d'assurer depuis les origines dans les domaines spatiaux civils
et militaires. Ceci suppose entre autres de connaître et,
lorsque cela est possible, de contrôler de l'extérieur
ou de l'intérieur les activités des acteurs spatiaux
non américains.
Il
suffit de lire le rapport émis par le bureau de Washington
de la Fondation, référencé ci-dessous, pour
constater qu'il reprend et justifie toutes les ambitions géostratégiques
de la Maison Blanche, du DOD et de la Nasa en matière spatiale.
En
dehors de considérations sur la gestion des débris
satellitaires en orbite basse ou géostationnaire, on y trouve
des phrases telles que (p.3) "An international
approach to cooperative space efforts, as outlined in the NSP, also
represents the United States of renewed interest in working within
international fora on space security and sustainability issues.
For example, the State Department is charged with coordinating U.S.government
efforts to - Strengthen U.S. Space Leadership-in order
to reassure allies of U.S.commitments to collective self-defense;
identify areas of mutual interest and benefit; and promote U.S.
commercial space regulations and encourage interoperability with
these regulations".
Sous-jacent
à ce rapport est la préoccupation de voir les économies
budgétaires que vient de décider l'Administration
Obama en réduisant notamment les crédits de la Nasa,
nuire au leadership spatial américain. Le lecteur peut se
rassurer à la lecture du rapport. Ce rassurant leadership
sera maintenu.
Pour en savoir plus
Rapport : http://www.secureworldfoundation.org/images/ObamaAnalysis.pdf
SWF
:
http://www.secureworldfoundation.org/
SWF: Activités
http://www.secureworldfoundation.org/index.php?id=4&page=About_Us
Le
Human Connectome Project (suite) 
Jean
Paul Baquiast et Christophe Jacquemin - 01/10/2010
Dans
un précédent article, "The
Human Connectome Project et la Connectomique", nous
avions annoncé le lancement d'un projet visant la réalisation
d'une carte complète des connexions neuronales du système
nerveux central. Elle permettra d'envisager les multiples connexions
correspondant à une fonction mentale simple, au lieu de se
focaliser sur quelques millimètres carré de tissu
cortical.
Une première étude a reposé sur la participation
de 130 sujets, chacun d'eux chargés de tâches plus
ou moins complexes, tout en étant observés par MRI
(résonnance magnétique).
On
apprend aujourd'hui que les National Institutes of Health (Etats-Unis),
en charge du projet ont financé un budget de 40 millions
de $ sur 5 ans pour scanner les cerveaux non plus de 130 mais de
1.200 volontaires afin de construire la base de données recherchée.
Ils espèrent ainsi mieux préciser la carte neurale
du cerveau et en déduire les causes de certaines déficiences
ou maladies.
De
nouvelles techniques d'imagerie seront expérimentées.
L'objectif en sera d'obtenir des cartes à la fois structurales
et fonctionnelles du cerveau. Le grand nombre et la diversité
des sujets acceptant de servir de cobayes permettront de faire apparaître
les différences normales d'un cerveau en bonne santé
à l'autre. On pourra ensuite comparer ces données
à celles provenant de sujets affectés d'autisme et
de schizophrénie.
Parallèlement,
les chercheurs collecteront les données pour les verser dans
la base des données génétiques et comportementales
provenant des participants. Ils testeront leurs capacités
motrices, sensorielles et cognitives. Le tout sera évidemment
rendu anonyme.
La
base de données est destinée à être proposée
à tous chercheurs sur la planète intéressés
à la recherche des facteurs génétiques et environnementaux
influençant la structuration du cerveau. Les chercheurs espèrent
pouvoir détecter les types de connectivité qui font
les différences de capacité entre individus, par exemple
le don pour les mathématiques ou l'aptitude à une
mémoire performante.
On
devine que ce projet fera naître des inquiétudes. Ne
va-t-il pas susciter des conclusions ou des applications hâtives
? Mais si l'on veut vraiment comprendre ce qu'est le cerveau et
comment il fonctionne, de telles recherches, convenablement encadrées
au plan éthique, paraissent indispensables.
Pour
en savoir plus
Article de Technology Review : http://www.technologyreview.com/biomedicine/26347/?p1=A2
Nouvelles
avancées vers le calculateur quantique ?
Jean-Paul Baquiast et Christophe Jacquemin - 01/10/2010

Le
principe du calculateur quantique repose sur l'intrication de systèmes
quantiques séparés, dits qubits. L'intrication de
2 qubits (ou plus) produit une superposition d'états permettant
de conduire des opérations en parallèle.
Pour qu'un tel calculateur puisse être efficace, il devrait
comporter des centaines ou milliers de qubits. Le maximum atteint
jusqu'ici est de 12. Mais dès ce niveau, les chercheurs craignent
d'éprouver des difficultés pour comptabiliser les
résultats et corriger les erreurs.
Dans le numéro 467 de Nature, deux équipes
signalent l'intérêt d'une approche différente.
Il ont réussi à intriquer des qubits faits de circuits
superconducteurs, technologie utilisée dans l'industrie des
composants électroniques. Ceux-ci sont considérés
comme les candidats les meilleurs pour construire un calculateur
quantique.
Les auteurs ont réussi des intrications à 3 qubits
avec de tels dispositifs. Longtemps considérée comme
difficile à obtenir par rapport à l'intrication de
2 qubits, elle présente l'avantage de permettre la correction
des erreurs quantiques. Cette correction est essentielle dans ce
type de calculateur car ses composants peuvent changer d'état
et perdre de l'information beaucoup plus facilement que les composants
électroniques ordinaires. Ainsi un rayon cosmique de passage
pourrait à tout moment faire passer un qubit de l'état
1 à l'état 0, sans que les utilisateurs du calculateur
s'en aperçoivent. En effet, mesurer les bits pendant le calcul
pour contrôler leur état provoquerait la destruction
de l'intrication. Au contraire, l'intrication de 3 qubits rend possible
le contrôle de l'état de deux d'entre eux pendant que
le calcul se poursuit sur le troisième.
Pour construire leur système, l'équipe dirigée
par Rob Schoelkopf de l'Université Yale a utilisé
des fils d'aluminium superconducteurs refroidis à 1°
du zéro absolu. Les circuits étaient liés de
telle façon que le courant s'écoulant dans l'un influençait
les autres. L'intrication était générée
par des rafales de micro-ondes capables de modifier l'état
des circuits. L'intrication obtenue résulte d'un état
global dit GreenbergerHorneZeilinger (GHZ) : tous les
qubits sont dans une superposition d'états où ils
se trouvent tous 3 simultanément dans l'état 1 ou
l'état 0.
La
seconde équipe, dirigée par John Martinis de l'Université
de Californie a réussi, outre un état GHZ, à
créer un état dit W dans lequel un qubit à
une valeur de 1 et les deux autres une valeur de 2, ou réciproquement.
Des doutes ont cependant été émis sur l'intérêt
pratique de tels dispositifs, obligeant à travailler près
du zéro absolu. A terme, Il faudra certainement trouver autre
chose. Rappelons aussi que certains chercheurs mettent tout simplement
en doute la possibilité d'obtenir des qubits ou état
de la matière ainsi nommés.
Pour en savoir plus
DiCarlo, L. et al., Nature 467, pages 574-578 (2010) :
Preparation
and measurment of three-qubit entanglement in a superconducting
circuit
Neeley, M. et al., Nature 467, pages 570-573 (2010) :
Generation
of three-qubit entangled states using superconducting phase qubits
L'ACM
SIGGRAPH et les robots marcheurs
Jean-Paul Baquiast et Christophe Jacquemin - 28/09/2010 
L'
ACM SIGGRAPH, "Association for Computing Machinery's Special
Interest Group on Graphics and Interactive Techniques" vise
à "grouper les personnes et
entreprises ayant un intérêt commun pour la théorie,
la conception, la réalisation et l'application du graphisme
numérique et des techniques interactives (en sciences, ingénierie,
médecine, exploitation des ressources, commerce, industrie,
éducation, art et autres domaines) dans le but de faciliter
la communication et la compréhension entre l'homme et la
machine". Elle existe depuis 1973,
et se développe régulièrement.
Le
SIGGRAPH 2010 s'est tenu à Los Angeles du 27 au 29 juillet.
Le prochain se tiendra en août 2011 à Vancouver. A
Los Angeles, les chercheurs Martin De Lasa, Igor Mordatch et Aaron
Hertzman y ont présenté les algorithmes évolutionnaires
les plus récents permettant à des figures animées,
puis ultérieurement à des robots, de marcher comme
des humains (voir l'article de MacGregor Campbell Walk
like a human et la vidéo
associée dans le NewScientist du 7 août
2010)
Le
chapitre français, dont l'INRIA est membre, est très
actif.
Pour
en savoir plus
SIGGRAPH : http://www.siggraph.org/
SIGGRAPH
2010 : http://www.siggraph.org/s2010/
Chapitre
parisien : http://paris.siggraph.org/
Article
de l'INRIA : http://www.inria.fr/actualites/2010/siggraph.fr.html
Le
Google Lunar X prize
Jean-Paul Baquiast et Christophe Jacquemin - 25/09/2010 
Les
Français sont si peu intéressés par l'Espace
que nul écho n'est donné à plusieurs évènements
mondiaux qui en ce début octobre mettent en évidence
les enjeux de l'exploration spatiale pour les Etats, pour les industries
spatiales et en principe pour l'humanité.
Le
premier de ces événements est la World Space Week
ou semaine spatiale mondiale, organisée par l'ONU du 4 au
10 octobre 2010. Toutes les organisations, étatiques, universitaires
et privées, sont invitées à y participer. L'objectif
affiché est l'organisation coordonnée d'évènements
« mettant en évidence la contribution des sciences
et technologies spatiales à l'amélioration de la condition
humaine ». Pour les puissances spatiales, se sera l'occasion
de promouvoir leurs programmes, leurs ressources humaines et technologiques,
leur vision du rôle de l'Espace dans les prochaines décennies.
Un
second événement, tout aussi significatif en termes
géostratégique, est la tenue du Google Lunar X prize
Summit dans l'Ile de Man les 4 et 5 octobre 2010. Google s'était
associé il y a 4 ans avec la Fondation Xprize pour offrir
un prix de 30 millions de dollars destiné à récompenser
la première équipe entièrement privée
qui sera capable d'envoyer un robot sur la Lune. Le robot devra
y accomplir un parcours de 500 mètres et retransmettre sur
la Terre des images, vidéos et données. L'objectif
n'est pas à la portée du premier venu. Il suppose
la mise au point et/ou l'utilisation de lanceurs, orbiteurs et alunisseurs,
sans mentionner le robot lui-même et les télécommunications
associées. Le budget de l'ensemble dépasse largement
les 30 millions du prix. Les équipes devront donc nécessairement
coopérer avec des agences spatiales publiques ou des industriels
de l'espace bien établis. Quoiqu'il en soit, 21 équipes
se sont inscrites, dont l'une italienne et l'autre catalane (voir
http://www.googlelunarxprize.org/lunar/teams).
La
Fondation Xprize repose principalement sur les contributions des
deux géants des télécommunications Cisco pour
les réseaux et BT (British Telecoms) Global services pour
les services associés. Son objectif est d'encourager des
projets industriels ou universitaires innovants dans les secteurs
de l'énergie, des transports, des bio et cognotechnologies.
L'espace est considéré à juste titre par cette
fondation comme un enjeu stratégique.
Google
pour sa part vise à se diversifier dans tous les domaines
porteurs d'avenir, comme nous l'avons rappelé dans un article
publié sur ce site. Avec Google Earth, il avait montré
depuis déjà plusieurs années son intérêt
pour les applications satellitaires et le GPS.
Google
comme la Fondation X Prize s'inscrivent ainsi de façon spectaculaire
dans la politique actuellement décidée aux Etats-Unis:
désengager la Nasa des projets spatiaux, en réduisant
sensiblement ses crédits, et encourager des entreprises privées
capables de prendre le relais tout en bénéficiant
de l'expérience et parfois des équipes de la Nasa.
Ainsi, comme nous le rappelons dans notre
éditorial, la Nasa semble avoir pratiquement renoncé
à prendre en charge une prochaine mission lunaire, de même
qu'elle a pratiquement renoncé à entretenir la station
spatiale internationale et les liaisons par navette avec cette dernière.
Concernant la compétition pour le Google Lunar X prize, la
Nasa, toute honte bue, vient d'annoncer qu'elle désirait
bénéficier de l'expérience acquise par la ou
les équipes gagnantes, et qu'elle était prête
à en payer le prix, soit 10 millions versés à
chaque équipe répondant à un cahier des charges
fixé par elle. Ceci devrait lui permettre de s'informer de
l'état de l'art dans un domaine où les références
passées de la Nasa, aussi glorieuses soient-elles, ne lui
permettent plus de s'affirmer. Le fait que le Google Lunar X prize
Summit pour 2010 se tienne à l'Ile de Man, connue non par
son expérience spatiale mais par ses compétences en
termes de paradis fiscaux, n'est pas anodin. Il s'agit d'une nouvelle
touche donnée à la politique de privatisation de l'Espace
actuellement mise en oeuvre par l'Amérique et par les Européens.
Nous
avons indiqué dans l'éditorial précité
que, pour ce qui les concerne, la Chine et l'Inde tiennent à
conserver la maîtrise gouvernementale sur la politique spatiale.
Il s'agit pour ces puissances d'un enjeu géostratégique
et civilisationnel majeur. Les entreprises privées n'en seront
pas exclues, mais la direction devrait rester dans les prochaines
décennies définie par la nation et les institutions
publiques qui l'incarnent.
Pour
en savoir plus
Le
Google Lunar X prize http://www.googlelunarxprize.org/
Xprize
Foundation http://www.xprize.org/
BT Global Services et Cisco
World
Space Week 4/10 octobre http://www.worldspaceweek.org/
En
français: http://www.worldspaceweek.org/intro_-_french.html
Des
pré-néandertaliens industrieux ...et
rouennais
Jean-Paul Baquiast - 18/09/2010 
Dans
l'édition du Monde du 18 septembre, notre confrère
Stéphane Foucart rapporte et commente la découverte
faite sur le site de Tourville-la-Rivière (Seine-Maritime)
par des chercheurs de l'Institut national de recherches archéologiques
préventives (Inrap). Différents fossiles de grands
mammifères aujourd'hui éteints, datés d'environ
200.000 ans, ont été retrouvés dans des gravières
correspondant à l'ancien lit de la Seine. Ils auraient été
apportés là par le courant et rapidement recouverts
de limons qui auraient assuré leur conservation.
A
proximité se trouvaient les restes d'un atelier de débitage
d'outils en silex que viennent d'exhumer les chercheurs de l'Inrap.
Ces outils sont caractéristiques des populations pré-néandertaliennes
et néandertaliennes qui hantaient la région il y a
200 000 ans. Ils représentent une technique déjà
sophistiquées de taille en pointe, dite «Levallois».
Selon le préhistorien Jean-Philippe Faivre (Inrap, Laboratoire
Pacea), responsable de la fouille depuis 1980, cet atelier avait
permis de confectionner de quoi découper les nombreux cadavres
accumulés sur la berge, afin, soit de consommer la viande,
soit plus probablement d'utiliser peaux, os et viscères.
Selon les chercheurs, les hominiens ayant procédé
à ces activités ne pouvaient être que des néandertaliens,
les seuls présents sur notre territoire à ces époques.
Peut-être même s'agissait-il de pré-néandertaliens,
dans la mesure où l'origine exacte des néandertaliens
reste discutée. Quoiqu'il en soit, ils étaient particulièrement
industrieux, ce qui confirme le caractère évolué
de ces hominiens (dits parfois homo sapiens neandertalensis).
Rappelons cependant que les australopithèques africains,
plus vieux de quelques 2 millions d'années, sont désormais
considérés comme des utilisateurs d'outils de pierre,
dont ils se seraient servi pour découper des charognes ou
faire des lanières (voir à ce sujet l'essai de Timothy
Taylor, The Artificial Ape, How technology changed the course
of human évolution cité sur ce site http://www.admiroutes.asso.fr/larevue/2010/110/livresenbref.htm.
Pour
en savoir plus
Un article de
l'excellente revue Hominidés
http://www.hominides.com/html/actualites/taille-de-silex-neandertal-tourville-la-riviere-0343.php
Colloque
Ecologie 2010
JPB - 18/09/2010 
Pour
la première fois en France, un grand colloque d'écologie
scientifique a eu lieu du 2 au 4 septembre 2010 au Palais des Congrès
(Corum) de Montpellier. La discipline étudie les relations
entre les êtres vivants et les milieux où ils vivent.
Initialement très spécialisée, elle entretient
désormais des relations avec d'autres disciplines, des géosciences
à l'économie et la géopolitique. L'importance
du changement climatique a beaucoup pesé dans cette ouverture.
L'analyse du "Système Terre" selon Alain Franc,
de l'INRA et co-organisateur du colloque, a beaucoup progressé
grâce à la multiplication des moyens d'observation
à l'échelle de la planète. Elle est couplée
à une vision globale de la biosphère.
En
France, lécologie scientifique est très vivante.
Elle soutenue par de nombreuses universités et plusieurs
organismes de recherche. Elle sest structurée en diverses
thématiques animées par des réseaux. De nombreux
fronts de connaissance et questions sociétales actuelles
nécessitent la rencontre de toutes ces thématiques.
Lancé
à linitiative des réseaux ComEvol, EcoVeg, GDR
Traits, JEF, PPD, et REID (voir le site pour plus de détails),
ce colloque a pour objectif de stimuler la dynamique scientifique
en réunissant les différents acteurs de lécologie
scientifique.
* http://www.ecologie2010.fr/
* http://www.sfecologie.org/2010/symposium-sfe-ecologie-2010/
Passage
d'astéroïdes dans la banlieue de la Terre
le 8 septembre 2010
08/09/2010

Ces
deux objets font partie des milliers sinon millions d'autres gravitant
dans le système solaire. Ils ont été identifiés
le 5 septembre par le Catalina Sky Survey de Tucson, Ariz., lors
d'une observation de routine. L'information a été
confirmée par le Minor Planet Center de Cambridge, Mass.
L'astéroïde le plus proche est passé à
79.000 km de la Terre.
Il
n'est pas facile de simuler précisément les conséquences
qu'aurait eu son entrée directe dans notre atmosphère.
En l'état actuel des technologies, il serait impossible de
dévier de tels objets en cas de route de collision.
Pour
en savoir plus
Article
de Space Daily
http://www.spacedaily.com/reports/Two_Asteroids_To_Pass_
By_Earth_Wednesday_999.html
Des
bombes à retardement dans les océans 
Jean-Paul Baquiast- 08/09/2010
Il
s'agit des milliers d'épaves coulées, principalement
durant la seconde guerre mondiale, dans pratiquement toutes les
mers du globe. Ces navires se dégraderont progressivement
dans les prochaines années, étant en train d'atteindre
la limite de résistance de leurs structures. Les épaves
non encore détruites relâcheront du carburant de soute,
du pétrole et le cas échéant d'autres cargaisons
dangereuses. Les quantités ne sont pas considérables,
au cas par cas. Mais cumulées, on estime qu'elles pourraient
atteindre 10 à 20 fois ce que vient de relâcher le
puits de pétrole de BP dans le golfe du Mexique.
Beaucoup
de ces épaves se trouvant sur les plateaux continentaux,
notamment dans des milieux tropicaux fragiles, et non dans les fosses
océaniques, les dégâts seront considérables.
Malheureusement il faut compter plusieurs millions d'euros pour
dépolluer une épave non immédiatement accessible.
Qui paiera ?
Un
article
qui vient d'être publié par le NewScientist
inventorie les différentes études menées
à ce sujet par les nations maritimes ces dernières
années, et discute les solutions possibles. Pour notre part,
nous n'en voyons guère susceptibles d'être conduites
à l'échelle qu'il faudrait. Une nouvelle fois, les
océans et les espèces marines seront victimes des
humains.
Nouvelles
menaces de contamination par la grippe aviaire
Jean-Paul Baquiast - 08/09/2010 
Il
est facile de faire des plaisanteries sur les menaces que comporte
l'actuel virus H1N1, lequel s'est révélé à
ce jour assez bénin pour l'homme.
Ce n'est pas une raison pour ne pas prendre au sérieux le
beaucoup plus redoutable virus H5N1 de la grippe aviaire, mortel
pour l'homme à 60%. Des chercheurs indonésiens viennent
de constater, dans ce pays où il sévit de façon
endémique, qu'il pourrait se transmettre plus facilement
qu'auparavant des volailles aux porcs. Chez ceux-ci cependant, il
ne passe pas encore d'individu en individu, mais la perspective
est loin d'être exclue. Le virus semble en train de muter.
De plus, des porcs infectés pourraient être porteurs
sains, donc indétectables. En ce cas, la contamination des
humains pourrait se faire à grande échelle, vu les
similitudes entre le porc et l'homme.
Les experts médicaux pour qui les plus grands dangers menaçant
l'humanité tiennent à l'apparition de virus et germes
mutants mortels ne devraient donc pas à la légère
se voir accuser de travailler pour les laboratoires pharmaceutiques.
Pour
en savoir plus
New Scientist :
http://www.newscientist.com/article/dn19414-bird-flu-jumps-to-pigs.html
Des
cellules vivantes éventuellement d'origine extraterrestre
?
Jean-Paul Baquiast et Christophe Jacquemin - 05/09/2010 

Godfrey
Louis, physicien de l'université Cochin de science et technologie
près de Kérala, au sud de l'Inde, avait recueilli
en vue d'examen des échantillons d'une mystérieuse
pluie rouge tombée en 2001 pendant deux mois dans la région.
Nous avions signalé ce phénomène.
La couleur rouge de ces pluies s'était révélée
due à la présence de nombreuses cellules analogues
à des globules rouges, mais sans correspondance précise
avec des formes de vie existant sur Terre. Certains avaient vu là
un exemple de panspermie, c'est-à-dire d'ensemencement de
l'atmosphère terrestre par des germes venus de l'espace.
La panspermie
est une hypothèse un peu facile mais qui n'est pas à
refuser totalement, permettant d'expliquer l'apparition de la vie
sur Terre il y a plus de 4 milliards d'années. Elle est facile
car elle n'explique pas la présence de cette vie éventuelle
dans le cosmos.
A
l'époque Godfrey Louis avait étudié ces cellules,
dans lesquelles il n'avait pas identifié d'ADN. Elles auraient
pu être des globules rouges sanguins, mais ceux ci sont détruits
par l'eau de pluie. Leur origine était donc restée
inconnue. Il avait suggéré en 2006, dans le journal
Astrophysics and Space, qu'il pouvait s'agir de particules d'origine
extraterrestre, pouvant provenir d'une comète qui se serait
désintégrée en haute atmosphère. Une
explosion aurait été entendue à l'époque,
pouvant correspondre à ce phénomène.
Depuis Godfrey Louis a poursuivi l'étude de ces cellules,
conjointement avec le Pr. Chandra Wickramasinghe de l'Université
de Cardiff, un des pères, avec le physicien Fred Hoyle, de
l'hypothèse de la panspermie. Aujourd'hui, ils viennent de
publier le résultat de ces études, qui est assez stupéfiant.
Les cellules (voir photo) se reproduisent sans ambiguïté,
mais seulement à des températures voisine de 121°
C, température à laquelle ne survivent sur Terre que
de rares bactéries extremophiles.
Cette découverte devra évidemment être vérifiée
avec les différents moyens actuels de l'étude des
molécules biologiques. D'ores et déjà, comme
le montre le débat ouvert sur le site de la Technology Review,
des objections plus ou moins pertinentes peuvent être faites.
Mais les auteurs de la publication n'en démordent pas et
n'abandonnent pas l'hypothèse extraterrestre.
Bien plus, mais il n'est pas certain que l'argument confortera leur
dossier, Wickramasinghe remarque que les cellules rouges controversées
émettent lorsqu'elles sont soumises à la lumière
une fluorescence semblable au spectre de divers émissions
observées dans la galaxie. L'une de celle-ci provient du
Rectangle Rouge, un nuage de poussières et de gaz entourant
une étoile jeune dans la constellation Monocerous.
Entre une découverte véritablement bouleversante et
un simple scénario pour un bon roman de SF, l'avenir dira
ce qu'il faudra retenir. Les deux possibilités ne s'excluraient
d'ailleurs pas. A vos claviers.
Pour
en savoir plus
Article
de Technology Review http://www.technologyreview.com/blog/arxiv/25699/
Voir
aussi arxiv.org/abs/1008.4960:
Growth And Replication Of Red Rain Cells At 121oC And Their Red
Fluorescence
Survie
de l'homme en apesanteur. Une étude inquiétante
Jean-Paul Baquiast - 05/09/2010
Une
étude conduite par Gilles Clément de l'Université
de Toulouse a porté sur les dossiers médicaux de six
astronautes européens ayant effectué des séjours
de plus ou moins longues durées dans la station russe Mir,
entre 1988 et 1999. La publication des résultats a été
retardée de 10 ans à la demande des intéressés.
Il reste qu'aujourd'hui aucune autre étude de cette sorte
n'a été faite, concernant par exemple les séjours
sur l'ISS. L'étude de Toulouse concerne donc toute sa valeur,
d'autant plus que les conditions des séjours de longue durée
en apesanteur n'ont guère été modifiées.
Or
le diagnostic est inquiétant et jette un doute sur la possibilité,
sauf changements technologiques radicaux, d'envisager des vols à
longue distance, par exemple vers Mars ou l'un de ses satellites,
et moins encore des séjours sur place. Ces missions dureraient
plus d'un an et selon les résultats de l'étude, mettraient
tellement en danger le potentiel physique des astronautes qu'ils
ne pourraient plus faire aucun travail utile une fois débarqués
sur la planète. Ils y subiraient évidemment une gravité
certes moindre que la pesanteur terrestre, mais néanmoins
notable.
Malgré
la sélection ultra-sévère à laquelle
sont soumis les candidats astronautes, on a constaté à
leur retour sur Terre, après des séjours variant entre
14 et 189 jours, que leur corps, adapté à l'apesanteur,
ne pouvait plus supporter sans une longue réacclimatation
le retour de la gravité. Le coeur, les muscles et les articulations
s'étaient adaptés à l'absence d'effort. Les
exercices prévus à bord ne suffisaient pas pour maintenir
leur potentiel. Les muscles avaient ainsi perdu au moins 30% de
leur puissance, devenus comparables à ceux d'un octogénaire.
Il
est donc urgent dorénavant de prévoir différents
dispositifs permettant de maintenir en état des équipages
destinés à des explorations planétaires. Celles-ci
ne sont pas encore vraiment à l'ordre du jour, mais la préservation
du potentiel humain devrait dès maintenant faire l'objet
de recherches approfondies
Pour
en savoir plus
Gilles
Clément
http://www.cerco.ups-tlse.fr/fr_vers/annuaire/gilles_clement.htm
Automates
Intelligents © 2010
|