Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Actualité
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 

13/09/09 Nouvelle estimation du rythme de mutations chez les humains

09/09/09 Pour une intelligence artificielle capable de se dépasser

11/09/09 Le Zinc serait-il indirectement à l’origine de la vie ?

09/09/09 Hadopi 2 et pandémie : ne coupez pas l'éducation en ligne!

20/08/09 Un pas de plus vers la création d'organismes entièrement synthétiques

18/08/09 Vers des anti-viraux polyvalents ?

17/08/09 Les béta-tests de Nao

25/07/09 Bienvenue dans l' «Internet interplanénatire"

24/07/09 Inauguration en Espagne du Grand Télescope Canaries

23/07/09 Les différentes cellules d'un même organisme n'ont pas nécessairement le même ADN

07/06/09 Lancement de la National Ignition Facility à Livermore (Californie)

07/06/09 Avancée en matière de navigation intragalactique

07/06/09 Utilisation miliatire des tags et répondeurs pour la localisation des cibles

07/06/09 Iter : un scénario moins ambitieux mais sans doute plus réaliste

03/06/09 Serge Haroche, médaille d'or 2009 du CNRS

03/06/09 Le Centre d'analyse stratégique s'intéresse à la biologie synthétique

Juin-Juillet-Août-Septembre 2009

Nouvelle estimation du rythme de mutations chez les humains
Jean-Paul Baquiast - 13/09/2009



Locations of the four confirmed mutations in the family. The two sequenced chromosomes are indicated by red highlights. Each mutation is shown by a lightning bolt of a different colour, and multiple lightning bolts of the same colour mean that the mutation could have occurred in any of these positions. (Credit: Image courtesy of Wellcome Trust Sanger Institute)

Une équipe internationale a fait connaître le 01/09/2009 (en cours de publication dans la revue Current Biology) le résultat d’une étude portant sur les mutations génétiques ayant affecté une même séquence d’ADN du chromosome sexuel masculin Y (environ 10.000.000 nucléotides) prélevée chez deux individus mâles non parents vivant dans un village isolé de Chine. Il était à peu près certain qu’ils descendaient par les mâles d’un ancêtre commun séparé d’eux par 13 générations.

Nous n’entrons pas dans le détail de la recherche, qui a fait appel aux techniques de séquencement direct les plus modernes. On se bornera à retenir le nombre estimé des mutations pour l’échantillon, soit 4. Ceci correspond grossièrement à des évaluations moins précises faites auparavant par les généticiens.

Il en ressort que l’ADN de chaque individu est porteur d’environ 100 à 200 mutations nouvelles, soit 1 mutation pour quelques 15 à 30 millions de nucléotides(1). La plupart de celles-ci n’entraînent pas de conséquences visibles, ni sur la santé ni sur l’apparence. Quand elles affectent les chromosomes sexuels, elles sont évidemment transmissibles à la descendance.

Il ne nous parait pas possible cependant de tirer de grandes conséquences de l'observation qui vient d'être faite. Rappelons que la génétique traditionnelle caractérise une espèce, l’espèce humaine comme les autres, par le partage d’un génome commun. Celui-ci n'évoluerait que dans le cadre des mutations affectant telle ou telle portion de l'ADN. Or, selon les hypothèses récentes selon lesquelles l’espèce n’a de signification que statistique, et ne saurait être considérée comme une réalité génétique en soi, on a pu montrer(2) que les caractéristiques de l’individu, ou phénotype, ne peuvent être déduites directement du génome. Ce que Jean-Jacques Kupiec a nommé l’expression stochastique ou aléatoire des gènes permet des combinaisons de protéines très différentes à l’intérieur d’une même population dont les membres présentent des traits suffisamment semblables pour qu’ils puisent être regroupés en une espèce commune. Mais parler de traits globalement semblables ne signifie pas des individus rigoureusement comparables. A la naissance (avant que n’interviennent les différenciations culturelles) aucun individu ne ressemble rigoureusement à un autre. Si les circonstances s’y prêtaient, chacun d’eux pourrait donc diverger assez vite d’avec les autres.

Ceci conduirait selon nous à relativiser l’importance du nombre des mutations affectant les ADN. L’apparition chez les phénotypes de nouveaux caractères (visibles ou invisibles), transmissibles lors de la reproduction sexuelle, peut en effet provenir selon le schéma classique de mutations affectant les nucléotides de l’ADN. Mais elle peut aussi provenir de l’expression aléatoire de gènes identiques. Ce qui compte finalement est la sélection par les différents [niveaux de milieux] des caractères donnant aux phénotypes les meilleures chances de survie. C’est ce que Jean-Jacques Kupiec appelle l’hétérosélection.

(1) L'article ne précise pas à partir de quelle origine ce calcul est fait: début de la vie de l'individu ou début de l'autonomisation d'un ADN caractéristique de l'homo sapiens. Mais peu importe en ce qui nous concerne ici.
(2) Jean-Jacques Kupiec, L'origine des individus, Fayard.
Voir aussi notre article.

Pour en savoir plus
Article de Science Daily
http://www.sciencedaily.com/releases/2009/08/090827123210.htm


Pour une intelligence artificielle capable de se dépasser
Jean-Paul Baquiast et Christophe Jacquemin - 11/09/2009

Dans un article de la Technology Review daté du 4 septembre 2009, le chercheur en intelligence artificielle du MIT Edward Boyden s’interroge sur la façon de doter un robot, supposé déjà très intelligent, d’une capacité à dépasser sans cesse ses propres acquis. Ce type de réflexion pourrait paraître assez loin de nos préoccupations quotidiennes, voire quelque peu naïf, mais comme toujours, ce que l’on peut dire d’un robot s’applique parfaitement au fonctionnement de l’intelligence humaine actuelle et aux mécanismes de prises de décisions politiques s’y référant.

Edward Boyden rappelle que les processus purement intellectuels, détachés des contingences apportées par l’existence d’un corps et de motivations découlant d’affects fussent-ils primaires, ne peuvent à eux seuls obliger une intelligence à se surpasser, afin de repousser toujours plus loin l’état de ses connaissances ou de ses performances.

Un premier danger, selon lui, menacerait une intelligence très supérieure, ce serait celui de se satisfaire de ce qu’elle a compris, en se désintéressant des moyens d’améliorer, même médiocrement, la situation dans laquelle se trouve le corps qui l’héberge. De ce fait, elle renoncerait à mettre en pratique ses connaissances. Boyden imagine par exemple que des extraterrestres particulièrement évolués pourraient modéliser en détail l’existence d’autres vies que les leurs, sur d’autres planètes, s'enlevant ainsi le désir d’y aller voir physiquement.

Un autre danger menacerait selon lui une intelligence très supérieure, fut-elle décidée à agir et à ne pas se satisfaire de la contemplation intellectuelle de ce qu’elle a découvert. Ce serait l’incapacité à choisir entre les multiples voies qui s’offrent à qui est capable d’envisager les tenants et les aboutissants innombrables d’une démarche quelconque. Là encore, tel l’âne de Buridan, l’intelligence supérieure se ramènerait d’elle-même sans cesse au point qu’elle aurait atteint, faute de se décider à explorer tout du long une des options possibles, en négligeant les autres.

Le titre de l’article est “La Singularité et le point fixe”. Boyden rappelle que la singularité repose sur une récursion mathématique : inventez une superintelligence et celle-ci inventera une intelligence encore supérieure. Mais un processus itératif peut aboutir à un autre résultat : ramener constamment à un point fixe. Un point fixe est un point que l’on retrouve toujours en appliquant une fonction donnée à des points voisins. Autrement dit, il s’agit d’une impasse évolutive.

Pour notre auteur, c’est un peu ce qui caractérise les sociétés technologiques évoluées. A titre d’image, il évoque les populations nombreuses d’humains qui se satisfont désormais de la pratique des jeux vidéo ou de l’exploration du web sans buts définis. Il ne nous dit pas comment il compte faire pour éviter que des intelligences artificielles tombent dans ces travers. Mais c’est à nous d’y réfléchir. Des processus récursifs simples, sur le modèle d’un algorithme du type : «je suis un Je doté d’une conscience volontaire. Que pourrais-je faire pour exploiter cette propriété ?» devraient faire l’affaire.

Article http://www.technologyreview.com/biomedicine/23354/


Le Zinc serait-il indirectement à l’origine de la vie ?
Jean-Paul Baquiast - 11/09/2009

L’expérience classique de Miller et Urey, réalisée en 1953, avait montré qu’une atmosphère supposée analogue à celle de la Terre primitive, contenant un mélange de méthane, d’ammoniaque, d’hydrogène et de vapeur d’eau, pouvant produire des acides aminés précurseurs de la vie sous l’influence de décharges électriques. Mais il n’avait pas été possible de montrer comment ces acides auraient pu s’assembler en éléments capables de réplication tel que l’ARN.

Aujourd’hui, Armen Mulkidjanian de l’Université d’Osnabrück, Allemagne et Michael Galperin des U.S. National Institutes of Health ont présenté une nouvelle hypothèse et les moyens de la vérifier dans deux articles publiés sur le site Biology Direct (voir références ci-dessous).

Ils sont partis de l’hypothèse selon laquelle l’atmosphère primitive n’était pas celle imaginée par Miller et Urey, mais simplement une atmosphère principalement constituée de CO2, avec un peu d’hydrogène et d’azote, analogue à celle se trouvant sur Mars et Vénus. Ceci semble conforme aux vues actuelles selon lesquelles cette atmosphère provenait principalement de phénomènes éruptifs très actifs à ces époques (–4,5 millions d’années environ). Il s’agissait d’une atmosphère neutre et non fortement réductrice comme celle de Miller et Urey. Mais dans ce cas, il fallait expliquer comment cette atmosphère de C02 avait pu donner naissance à la vie.

Aujourd’hui, les cellules végétales font appel à la photosynthèse pour extraire le carbone du C02 et rejeter de l’oxygène. L’énergie utilisée est celle de la lumière solaire. Mais la fonction chlorophyllienne qui permet cette réaction fut un acquis de la vie et n’existait pas avant que celle-ci se forme. Existait-il sur la Terre primitive des corps capables de jouer le rôle de la chlorophylle, c’est-à-dire réduire le CO2 et produire des composés organiques à base de carbone, en utilisant la lumière solaire ?

Les chercheurs proposent une réponse apparemment si simple que l’on pourrait s’étonner de constater qu’elle ne soit venue à l’idée de personne avant eux. Selon leur hypothèse, le composé nécessaire à la réduction du CO2 fut le sulfure de zinc (ZnS) dit aussi blende ou, en anglais, phosphor (à ne pas confondre avec le phosphore). Ce corps est connu pour ses propriétés phosphorescentes. Il se forme spontanément sous de fortes pressions, telles celles rencontrées dans les sources hydrothermales. Il est utilisé aujourd’hui par de nombreux animaux dotés d’organes phosphorescents, dont l’intérêt en termes de compétitivité n’est d’ailleurs pas toujours facile à démontrer.

Pour Mulkidjanian et Galperin, les continents primitifs exposés au soleil et à la forte pression d’une atmosphère où dominait le CO2 ont pu favoriser la création de sulfure de zinc. Il s’agit de ce que Mulkidjanian nomme l’hypothèse du ZNworld ou monde du zinc(1). Ce sulfure de zinc éclairé par la lumière solaire aurait alors, comme la chlorophylle, réduit le CO2 et permis la construction des composés organiques nécessaires à la vie primitive. Reste à expliquer pourquoi ces composés n’ont pas été détruits à peine formés et à montrer qu’un tel processus pourrait éventuellement être reproduit aujourd’hui en laboratoire. Les deux chercheurs proposent dans leurs articles des directions de recherche en ce sens. En attendant, ils signalent la surprenante proportion de zinc dans les protéines biologiques « archaïques » liées à la constitution des ARN et ADN.

En attendant, les astrobiologistes qui s’intéressent à la possibilité de vie sur d’autres planètes ont reçu cette hypothèse avec beaucoup de faveur.

(1) Les légionnaires français stationnés avant la seconde guerre mondiale à Djibouti l’avaient sans le savoir anticipé, ayant imaginé le célèbre Palmier en zinc à l’ombre duquel ils buvaient des bières et pour les plus raffinés des blue lagoons (photo récente)

Pour en savoir plus
http://www.biology-direct.com/content/4/1/27
http://www.biology-direct.com/content/4/1/26


Communiqué de l'Internet Society France :
Hadopi 2 et pandémie : ne coupez pas l'éducation en ligne !

09/09/09

Nous publions ce communiqué qui met en évidence une nouvelle incohérence de la loi dite Hadopi 2 (que l'on ne présente plus). Automates Intelligents

Paris, 09 septembre 2009

Les solutions proposées pour affronter la pandémie grippale mettent au jour l'inanité des dispositions contenues dans la loi dite Hadopi 2, à commencer par la coupure de l'accès pour toute une famille.

Prochainement proposée au vote du Parlement, cette loi fait suite à la loi Hadopi 1 qui a été partiellement invalidée par le Conseil constitutionnel. Dès le début de la discussion relative à ce premier texte, le chapitre français de l'Internet Society a contesté que la coupure à Internet puisse être une sanction acceptable.

Pour faire face aux fermetures d'établissements, le gouvernement voudrait proposer des cours de substitution par Internet. En attendant que les classes puissent rouvrir normalement, Internet permettra ainsi à nos enfants de continuer à apprendre.

Or, si les dispositions de la Loi Hadopi 2 étaient en vigueur aujourd'hui, l'accès au net de milliers de famille pourrait être suspendu et leurs enfants privés de facto du droit à l'éducation.

Peut-on punir une famille entière, pour les errements supposés d'un de ses membres (ou de ses voisins) ? Quelle législation nationale, pour préserver les profits de quelques artistes et industriels du divertissement, priverait des milliers de familles de l’accès au réseau?

La pandémie grippale vient rappeler qu'on ne peut pas prétendre entrer dans la société du 21e siècle avec des conceptions disciplinaires d'un autre âge. La société de la connaissance qui s'annonce est une société ouverte, où l'échange direct entre les individus est créateur de richesse et de sens. En votant l'Hadopi 2, les parlementaires français voteront pour le monde d'avant-hier.

La suspension d'Internet ne peut pas être la sanction au téléchargement illégal ou au défaut de sécurisation de sa connexion. L'Isoc France demande aux députés français de penser au présent et l'avenir de nos enfants, au moment du vote.


Un pas de plus vers la création d'organismes entièrement synthétiques
Jean-Paul Baquiast et Christophe Jacquemin - 20/08/09

Craig Venter, le pionnier bien connu de la génomique, avait annoncé en 2007 avoir construit en laboratoire, nucléotide par nucléotide, un chromosome composé de parts empruntées au génome de la bactérie Mycoplasma genitalium. Il l'avait baptisé Mycoplasma genitalium. Restait à montrer que ce chromosome pouvait se reproduire dans les conditions de la vie. Pour ce faire, l'équipe avait implanté un chromosome artificiel analogue (inspiré de M.mycoides) dans une levure afin de profiter de certains de ses mécanismes reproducteurs. Il fut ensuite réimplanté dans une autre bactérie voisine, M. capricolum.

Mais l'opération n'avait pas réussi. Le génome modifié fut immédiatement identifié comme étranger et détruit. Pour contrer ce rejet, l'équipe de Craig Venter a d'abord isolé et désactivé l'enzyme de M. capricolum responsable de la destruction de l'ADN importé. Elle a ensuite pour plus de sûreté isolé et désactivé les enzymes de la bactérie responsable de la reconnaissance des éléments étrangers. Celle-ci était désormais devenue "aveugle". Aujourd'hui, le transplant semble en voie d'être toléré. Restera à démontrer que la nouvelle bactérie pourra se reproduire de façon robuste.

Pour Craig Venter, il s'agira d'un succès susceptible de révolutionner la biologie moléculaire. On notera qu'il reposera, entre autres, sur le transfert d'un gène d'un organisme procaryote dans un organisme eucaryiote (à noyau) avant le retour dans un procaryote. La méthode devrait permettre dans un premier temps d'introduire des génomes entièrement synthétiques dans les génomes bactériens, connus comme particulièrement résistants aux modifications. Les génomes synthétiques peuvent être réalisés plus facilement que des génomes modifiés par les voies traditionnelles du génie génétique. Le passage par la levure doit faciliter leur implantation. Mais il faut éviter leur reconnaissance et leur destruction par la cellule destinée à les héberger.

La réussite de l'opération en cours, attendue dans un mois environ, devrait aboutir à la création d'un organisme entièrement nouveau. En étendant cette méthode, Craig Venter espère pouvoir bientôt fabriquer des organismes synthétiques capables de fonctions entièrement nouvelles, telles que produire des carburants biologiques ou de l'hydrogène(1).

Il restera à montrer avec quelle fidélité les chromosomes artificiels produiront des cellules conformes aux modèles que les chercheurs voudront obtenir. Le schéma néo-darwinien rigide selon lequel un gène produit un caractère et un seul est désormais critiqué de toutes parts. Jean-Jacques Kupiec, comme nous l'indiquons dans d'autres articles, propose d'y substituer le schéma de l'expression stochastique des gènes. Autrement dit, les gènes artificiels produiront inévitablement (à supposer qu'ils réussissent à se dupliquer) des descendants plus ou moins différents. Ce sera l'environnement qui sélectionnera les plus aptes.

On peut penser que Craig Venter jouera au début ce rôle de filtre. Mais que se passerait-il si certains variants lui échappent. On ne manquera pas de reprocher à ces expériences d'être les premiers pas permettant de créer des vies synthétiques potentiellement dangereuses, non seulement pour les bactéries existantes, mais pour les espèces supérieures et les humains.
______________________________________________

Note

(1) Ajoutons que parallèlement, des chercheurs de la Harvard Medical School viennent de mettre au point un dispositif baptisé MAGE (multiplex automated genome engineering) visant à modifier simultanément des douzaines de gènes dans l'ADN d'une bactérie afin de créer des millions de mutants différents, parmi lesquels ils isoleront les souches les mieux à même de produire un résultat désiré.
Ceci permettra d'éviter les longs et laborieux tâtonnements du génie génétique traditionnel. Avec les méthodes anciennes, quand l'on veut obtenir un résultat donné, par exemple la production d'une enzyme, il faut isoler le gène qui en est responsable avant de le modifier. Comme en pratique, ce sont plusieurs gènes qui interviennent dans un même processus, il faut les identifier puis les modifier les uns après les autres, au risque de mal interpréter leurs interactions.
Nous renvoyons à l'article de "Nature" pour la description du procédé MAGE. Retenons que de cette façon, on pourra en quelques jours et à des coûts faibles modifier des génomes entiers. Il s'agira d'un outil puissant au service de l'ingénierie génétique.
* http://www.nature.com/nature/journal/v460/n7257/full/nature08187.html

_______________________________________________

Pour en savoir plus
Article de NewScientist : Genome smuggling is step towards synthetic life
Craig Venter Institute : http://www.jcvi.org/
Voir sur le site l'article sur ce sujet, et l'historique.

Lire aussi notre article d'archives : "Vers une vie artificielle" (25 septembre 2008)


Vers des anti-viraux polyvalents ?
Jean-Paul Baquiast et Christophe Jacquemin - 18/08/09

Les théoriciens du complot s'en donnent à coeur-joie aujourd'hui en soupçonnant les firmes pharmaceutiques de grossir les risques de pandémie grippale afin de faire financer par les Etats aussi bien leurs recherches que leurs usines de fabrication. Certains vont plus loin et accusent ces firmes de collusion avec les laboratoires travaillant pour la défense. On les suspecte de mettre intentionnellement en circulation des virus nouveaux résultant de manipulations génétiques afin de créer de nouveaux marchés.

Tout est possible, et cette éventualité n'est pas à rejeter d'emblée. Cela-dit, il nous semble que les virus naturels sont suffisamment nombreux pour qu'il ne soit pas nécessaire d'en créer de nouveaux.
Par ailleurs et surtout, il n'est pas anormal que les laboratoires pharmaceutiques cherchent à trouver de nouvelles protections contre eux, sous forme de vaccins ou d'anti-viraux. Des erreurs et accidents sont toujours possibles, mais globalement ces traitements paraissent préférables à l'inaction, comme la prônent certaines sectes. Il reste que la santé ne devrait pas faire l'objet de spéculations économiques et boursières. Dans des pays où le sens du service public revenait d'actualité, on pourrait très bien concevoir de confier les recherches sur les vaccins et traitement d'urgence à des laboratoires publics non intéressés aux résultats. Ils feraient sans doute aussi des erreurs, mais elles n'auraient peut-être pas la même ampleur que celles pouvant survenir de la part de gens visant l'augmentation continue de leurs bénéfices. Les firmes pharmaceutiques s'en tiendraient aux produits de beauté, que nul n'est contraint à acheter (1).

Ceci dit, l'information qui suit ne concerne pas les vaccins mais les anti-virus. Selon un article récent publiée par le NewScientist, un certain Michael Goldblatt, qui avait dirigé le programme de biodéfense de la Darpa avant de créer sa propre entreprise de biotechnologie, Functional Genetics, à Gaithersburg, Maryland, vient d'annoncer être sur la voie d'un nouvel anti-virus qui serait polyvalent, autrement dit susceptible d'être efficace contre la plupart des virus existants voire de futurs virus mutants, le tout sans créer d'accoutumance. Le procédé consiste à inhiber, virus par virus, les quelques dizaines de protéines présentes dans les cellules de l'hôte, nécessaires à la reproduction du virus sans être vitales pour la cellule.

Les essais en cours semblent donner de bons résultats. Resteront de longs délais avant d'obtenir des protections susceptibles d'être utilisées à grande échelle et sans risques pour les hôtes. Mais si, comme le souligne l'article, cette technique quasi miraculeuse se révélait fiable, il s'agirait d'une percée aussi importante que celle de la pénicilline dans la lutte contre les maladies contagieuses. Encore faudra-t-il de longs essais afin de vérifier son efficacité. Si cela était le cas, il s'agirait d'une retombée intéressante des travaux des scientifiques ayant travaillé pour la défense.

(1) Note de Christophe Jacquemin sur les vaccins:

On ne doit pas oublier que le processus vaccinal risque d'affaiblir le système immunitaire. Trente fabricants de vaccins dont Novartis, Sanofi, Solvay, GSK se sont réunis à Genève en mai dernier sous l'égide de l'OMS. L'objectif affiché était alors de produire 4,9 milliards de doses vaccinales contre le H1N1.

Outre la possibilité de contenir certains composés chimiques comme l'éthylène glycol (substance contre la congélation) le phénol, voire certaines antibiotiques, ou aussi un adjuvant, la principale composante d'un vaccin est, soit un virus mort, soit un virus vivant qui a été atténué (donc rendu inoffensif). Mais selon certains spécialistes -médecins et chercheurs - utiliser un tel virus n'est pas forcément sans danger à cause du risque de "commutation" de ce virus, c'est-à-dire le passage du patrimoine génétique d'un virus mort ou atténué, à des cellules saines qui peuvent alors reproduire une forme virale mutante plus virulente et tueuse.

L'adjuvant utilisé pour le vaccin sera du MF59 (par exemple chez Novartis -si c'est approuvé par la FDA), ou du ASO3 (pour Glaxo), tous deux contenant du squalène (molécule d'huile [un isoprénoïde à trente atomes de carbone et 50 atomes d'hydrogène]).

Or, si le système immunitaire reconnaît naturellement le squalène comme étant une molécule produite par notre propre corps (on en trouve par exemple dans le sébum humain, le cerveau et le système nerveux), il existe un "bon" et un "mauvais" squalène : tout dépend de la façon de l'introduire dans l'organisme. L´injection est une voie d´entrée anormale qui incite le système immunitaire à s´attaquer à tous les squalènes présents dans l´organisme, et non pas seulement à l´adjuvant du vaccin.

Il faut savoir que les vétérans de la guerre du Golfe ont reçu des vaccins contre le charbon qui contenaient du squalène. Le MF59, adjuvant squalène utilisé par Novartis, était une composante non autorisée du vaccin expérimental contre le charbon. Depuis, il a été associé aux maladies meurtrières dont souffrent d´innombrables soldats ayant participé à la guerre du Golfe.

Pour certains, le squalène serait responsable de la production de maladie auto-immunes (qui peuvent mettre plusieurs années à être décelées). Il aurait contribué à la cascade de réactions appelées "syndrome de la guerre du Golfe (GWS)" chez les soldats. Parmi les symptomes : arthrite, fibromyalgie, lymphadénopathie, éruptions cutanées, fatigue chronique, maux de têtes chroniques, perte de cheveux anormale, étourdissements, perte de mémoire, convulsion, problèmes neuropsychiatriques, anémie, sclérose en plaques, diarrhée chronique, transpirations nocturnes, températures subfébriles...

L'adjuvant pourrait donc créer des déficiences immunitaires, ce qui va compliquer encore plus les choses si la commutation mène à un virus muté.

Signalons aussi que Kathleen Sebelius, secrétaire d'Etat américaine à la santé, aurait signé très récemment un décret libérant les laboratoires de toute responsabilité en cas de poursuites judiciaires. Comme cela se fait souvent Outre-Atlantique, c'est un fonds public d'urgence sanitaire qui prendra en charge les éventuelles contreparties financières.

Pour finir, rappelons aussi qu'il est souvent bon d'avoir une bonne mémoire... C'était en 1976.... Cette année-là, le gouvernement américain déclarait que la grippe porcine ferait des milliers de morts... (voir vidéo ci-dessous).

Il revient donc à chacun d'être vigilant. Mais comment avoir tous les tenants et aboutissants ? Alors, en cas de vaccination, il faudrait exiger la signature d’un "consentement éclairé" dans lequel seraient clairement expliqués les bénéfices et les risques, ainsi que la façon de procéder en cas de demandes de réparation pour effets secondaires.


Pour en savoir plus
Article de New Scientist
Functional-genetics : http://www.functional-genetics.com/


Les beta-tests de Nao
17/08/2009

Plate-forme beta-test de NaoUn de nos correspondants, Fabien Sauleman, nous envoie le message suivant, que nous vous transmettons:

Je voulais vous signaler l'existence de mon blog dans lequel je tiens un suivi de la beta test du robot Nao pour laquelle j' ai la chance d'avoir été retenu:
http://droidstation.wordpress.com
Vous pouvez vous servir de mes billets et de mes vidéos, elles sont là pour ça.

Rappelons qu'à la fois intelligent et communicant, Nao est un robot humanoïde de 60 cm de haut, entièrement programmable grâce à son ordinateur embarqué et destiné à des applications variées dans des domaines tels que l'éducation, les divertissements, l'assistance à domicile ou la sécurité. La commercialisation des premiers modèles, destinés aux laboratoires et universités, a commencé à l''automne 2008 ; celle grand public est prévue pour la fin de cette année.

Pour en savoir plus
Aldebaran Robotics :
http://www.aldebaran-robotics.com/pageProjetsNao.php


Bienvenue dans l' «Internet interplanétaire»
Jean-Paul Baquiast - 25/07/2009

Le futur réseau dit de l'Internet Interplanétaire dispose désormais d'un premier « nœud » permanent. Il est situé dans l'espace, à bord de la Station Spatiale Internationale (ISS). Il permettra d'envoyer des données à partir d'engins spatiaux avec la même commodité que le téléphone ou l'Internet entre interlocuteurs terrestres . Aujourd'hui, il faut réserver des créneaux pour ce faire, dans les réseaux dédiés aux expéditions spatiales, notamment le Deep Space Network de la Nasa dont les antennes nécessitent une refonte complète. Demain, le nouveau système permettra de transmettre des flux de données librement, entre la Terre, les astronautes et les différents satellites en orbite, notamment les satellites météorologiques d'alerte.

C'est l'entreprise américaine BioServe Space Technologies qui a installé à bord de l'ISS le calculateur, les modules et les logiciels nécessaires. Le nouveau programme est déjà entré en service, envoyant des données scientifiques obtenues sur la station. Les délais d'échange sont divisés par 3. Une application permet de restaurer automatiquement des informations éventuellement perdues.

L'Internet Interplanétaire n'utilise pas le protocole terrestre TCP/IP pour connecter les machines, mais une procédure dite delay-tolerant networking (DTN), tolérante aux interruptions tenant notamment aux passages des satellites derrière des planètes ou aux pertes de puissance temporaires de leurs émetteurs. Dans ce but, les nœuds conservent automatiquement les données non transmises, jusqu'à ce qu'un nouveau nœud disponible soit détecté.

La Nasa, qui pilote ce programme, espère avoir définitivement mis au point le protocole DTN pour 2011. L'ISS est actuellement utilisée pour mettre le programme à l'épreuve et le débogger. Un second nœud sera ajouté ultérieurement à bord de l'ISS. Des discussions sont en cours pour en installer d'autres dans les laboratoires orbitaux européen et japonais reliés à l'ISS.

On se posera inévitablement bientôt la question d'éviter le piratage de ce réseau par d'éventuels malfaisants. Les transmissions des satellites militaires ont évidemment leurs propres sécurités.

* BioServe Space Technologies : http://www.colorado.edu/engineering/BioServe/


Inauguration en Espagne du Grand Télescope Canaries
Jean-Paul Baquiast - 24/07/2009

Dans le domaine de l'observation astronomique, l'Europe s'est toujours montrée très performante, sans doute au premier rang des puissances scientifiques, ceci aussi bien par les observatoires à terre que satellisés. Elle vient de confirmer ce rang avec l'inauguration, le 23 juillet 2009, en Espagne, du GTC (Grand Télescope Canaries) présenté comme le plus grand et le plus moderne télescope optique-infrarouge du monde.

Le GTC, installé sur l'île de la Palma, dans l'archipel des Canaries, restera l'instrument le plus puissant dans cette gamme d'ondes jusqu'à l'arrivée de la prochaine génération de télescopes, qui auront entre 30 et 40 mètres de diamètre. Il est constitué de 36 segments qui forment une superficie équivalente à un miroir circulaire de 10,4 mètres, pour une superficie de collecte de lumière de 81,9 m2.

Cette réalisation dépasse par la taille le Keck américain, installé à Hawaï, les quatre VLT européens installés au Chili, et les Gemini chiliens et hawaïens. L'objectif est de produire des images comparables à celles des télescopes spatiaux, mais de meilleure qualité, vue la taille supérieure du GTC. Cependant, contrairement aux télescopes orbitaux, le GTC sera nécessairement perturbé par l'atmosphère terrestre (malgré sa localisation sur le site exceptionnellement protégé du Teide) et les émissions diverses provenant de la Terre.

Le promoteur du projet est l'Institut d'astrophysique des Canaries (IAC). Sa genèse remonte à la fin des années 1980. Le GTC a coûté 104 millions d'euros (somme très faible au regard des résultats attendus), dont 90% ont été versés par l'Etat espagnol avec une forte contribution de fonds européens. Le reste est apporté par le Mexique et l'université de Floride aux Etats-Unis.

Le GTC disposera d'outils originaux : Osiris, qui permet d'observer des phénomènes visibles à l'oeil nu, comme les supernovas et la CanariCam, caméra d'avant-garde en termes de technologie infrarouge qui permet d'observer les objets froids de l'espace, c'est à dire invisibles à l'oeil nu, comme les étoiles en formation ou les galaxies les plus lointaines. D'ici la fin 2010 sera aussi mis en route Emir, un outil novateur combinant les capacités d'Osiris et de CanariCam. En 2010 également débutera Frida, un outil mexicain permettant de neutraliser les perturbations de vision causées par les turbulences atmosphériques. Il est prévu d'installer sur le GTC un nouvel outil tous les 3 ou 4 ans.


Les différentes cellules d'un même organisme n'ont pas nécessairement le même ADN
Jean-Paul Baquiast - 23/07/2009

Une étude de scientifiques québécois (Dr. Morris Schweitzer, Dr. Bruce Gottlieb, Dr. Lorraine Chalifour et al.) vient apporter un argument de poids à la théorie de l'ontophylogenèse présentée par Jean-Jacques Kupiec et plusieurs fois mentionnée dans notre revue. Ils ont montré que chez un même patient, les cellules du corps n'ont pas nécessairement le même ADN. Cette croyance universellement répandue découlait du préjugé selon lequel le programme génétique détermine rigoureusement les différents développements de l'organisme, y compris évidemment en ce qui concerne le point essentiel qu'est l'ADN de chacune des cellules du corps. Or selon l'hypothèse de l'expression stochastique des gènes dite aussi du darwinisme cellulaire, l'expression finale dépend de façon probabiliste des interactions aléatoires des cellules avec leur environnement. Ici, l'environnement serait, soit l'organisme tout entier avec lequel chaque organe interagit, soit le milieu exterieur avec lequel l'organisme entier ou certains de ses organes interagissent. De ces interactions différentes découlent des ADN adaptés aux situations différentes et ne présentant dont pas rigoureusement la même organisation.

Selon les scientifiques québecois, l'habitude d'utiliser les cellules du sang pour déterminer le génome des cellules de l'organisme d'un patient a longtemps masqué la diversité des génomes. C'est en recherchant les causes génétiques d'une prédisposition aux aneuvrismes aortiques adbominaux que les chercheurs ont été conduits à prélever des cellules spécifiques aux tissus concernés et à constater qu'elles n'avaient pas le même génome que les globules du sang du même individu. L'observation a ensuite été étendue et généralisée.

Cette découverte, dont on peut s'étonner qu'elle n'ait pas eu lieu plus tôt (effet du conformisme intellectuel imposé par la biologie moléculaire classique?) aura de nombreuses conséquences thérapeutiques, permettant d'adapter les traitements aux types de tissus concernés. Elle aura aussi des conséquences considérables sur la validité des banques d'ADN existantes. Pour bien faire, il faudrait les multiplier afin d'obtenir des profils génétiques correspondant à la diversité des situations réelles. Peut-être vaudrait-il d'ailleurs mieux renoncer à de telles banques, pour privilégier l'observation des patients eux-mêmes. Mais le coût ne serait pas le même.

Au plan épistémologique, il est inutile de souligner l'importance de cette découverte, si elle était confirmée. Moins que jamais on ne pourra défendre l'idée que toutes les cellules d'un même organisme disposent du même ADN, par la grâce d'un programme génétique s'appliquant rigoureusement. En dehors de la thérapeutique, les applications d'un tel changement, par exemple en sociobiologie, dans les croyances fondant encore l'empire des gènes, devraient être considérables. L'épigénétique s'ouvrira ainsi de nouveaux espaces de recherche considérables.

Pour en savoir plus
Article de ScienceDaily: DNA Not The Same In Every Cell Of Body: Major Genetic Differences Between Blood And Tissue Cells Revealed
http://www.sciencedaily.com/releases/2009/07/090715131449.htm


Lancement de la National Ignition Facility à Livermore (Californie)
Jean-Paul Baquiast et Christophe Jacquemin - 07/06/2009

La fusion thermonucléaire artificielle est produite de deux façons : la fusion par confinement magnétique et la fusion inertielle.
La première est réalisée au sein d'enceintes dites tokamaks et nécessitent de puissants champs magnétiques pour isoler les plasmas.
La seconde utilise un faisceau de lumière laser concentrée sur une bille de combustible de quelques millimètres de diamètre. La première solution est actuellement en cours de développement à grande échelle dans le cadre du projet international de réacteur expérimental Iter, prévu à Cadarache (France). La seconde est utilisée sur de nombreux sites, notamment en France dans le cadre du programme Laser Mégajoule du CEA militaire.

Nous avions déjà indiqué (voir actualité ci dessous) que les responsables du programme Iter redéfinissaient actuellement le déroulement du projet, compte tenu de diverses contraintes notamment économiques. Un scénario dit 1 permettra à moindre coût d'expérimenter une version aux spécifications réduites. Dans le même temps, les Américains viennent d'annoncer le lancement à Livermore (Californie) d'un réacteur à fusion inertielle de grande taille. C'est le célèbre Lawrence Livermore National Laboratory qui est en charge de l'appareil.

Ce projet estimé à 3,5 milliards de dollars est connu sous le nom de National Ignition Facility ou NIF. Il comporte 192 lasers dont les émissions seront concentrées sur une éprouvette contenant de l'hydrogène de la taille d'une tête d'allumette. Les atomes d'hydrogène ainsi chauffés fusionneront en atomes d'hélium tout en produisant de l'énergie.

Selon le directeur de la NIF, Ed Moses, la réalisation de ce dispositif, qui a demandé une douzaine d'années, a occupé 3.000 entreprises et 7.000 travailleurs. Il comporte aujourd'hui 60.000 points de contrôle, soit 30 fois plus que la station spatiale. Il s'agira du plus puissant réacteur à fusion inertielle existant au monde. Il est prévu pour durer 30 ans. Les applications prévues sont nombreuses : militaires d'abord, pour simuler les explosions thermonucléaires, énergétiques ensuite. Il s'agira là d'une part d'obtenir un modèle de centrale nucléaire à fusion et d'autre part de tester les matériaux et autres dispositifs destinés à entrer dans la composition des centrales à fission de 4e génération, où les Etats-Unis comptent bien obtenir de nombreux marchés dans les 20 prochaines années. Le laser pourrait aussi avoir des applications en matière d'analyse des processus stellaires de fusion.

Les lasers ont été mis à feu pour la première fois en février 2009. Il faudra encore une année pour atteindre le point de fusion. Mais rien ne garantit, comme le concèdent les responsables, que cet objectif se révèle accessible. Le projet a été très critiqué, parce que représentant une dépense inutile et risqué. Il a été caricaturé sous le nom de National Almost Ignition Facility. Mais les promoteurs du programme répondent qu'avec le réchauffement climatique, ce projet sera un atout majeur pour l'Amérique.

Nous partageons évidemment cet avis. Aussi bien Iter que la NIF seront essentiels demain lorsqu'il s'agira de remplacer les énergies fossiles. On doit absolument rapprocher les coûts des bénéfices beaucoup plus importants qui sont attendus.

Ajoutons qu'en ce qui concerne l'Europe, le démarrage de la NIF présente une raison supplémentaire de ne rien concéder sur Iter. Ce devrait être aussi une raison de poursuivre et renforcer le laser Mégajoule implanté à Bordeaux. Ses applications civiles pourraient être aussi importantes que son rôle dans la simulation des explosions thermonucléaires.


Avancée en matière de navigation intragalactique
Jean-Paul Baquias t- 07/06/2009

Des chercheurs français proposent une solution révolutionnaire pour naviguer en 3 D dans la galaxie. Il s'agit de retrouver les avantages de la géolocalisation terrestre permise par des batteries de satellites circumterrestres (GPS ou Galiléo). Mais, comme de tels satellites cessent d'opérer dès que l'on s'éloigne de leurs orbites (à quelques centaines de kilomètres de la Terre), les chercheurs Bertolomé Coll et Albert Tarantola, de l'Observatoire de Paris, proposent de se repérer sur des sources émettrices si lointaines qu'elles en paraîtront fixes.

Pour cela, ils ont sélectionné les signaux de 4 pulsars : 0751+1807 (3.5ms), 2322+2057 (4.8ms), 0711-6830 (5.5ms) and 1518+0205B (7.9ms), qui génèrent des émissions radio régulières d'une milliseconde. Ces sources dessinent grossièrement un tétraèdre centré sur le système solaire.

Bertolomé Coll propose de définir l'origine de ces coordonnées à 0h le 01/01/01 au foyer du radiotélescope de Cambridge dit Interplanetary Scintillation Array. Le système de coordonnées une fois établi, un engin spatial pourrait déterminer sa position avec une précision de quelques nanosecondes, soit environ 1 m.

Connaissant l'impérieuse nécessité pour les engins spatiaux de se situer avec précision dans la galaxie, cette proposition économique et semble-t-il fiable parait presque trop belle pour être crédible.

Pour en savoir plus
http://arxiv.org/abs/0905.4121: Using Pulsars to Define Space-Time Coordinates


Utilisation militaire des tags et répondeurs pour la localisation des cibles
Jean-Paul Baquiast - 07/06/2009

Dans un article précédent, nous avons mentionné le rôle essentiel que prennent désormais dans les forces armées américaines les drones ou UAV (Unmanned Armed Vehicles). Ceux-ci sont de plus de plus dotés de capacités robotiques les rendant aptes à opérer sans contrôle humain, fut-il distant. Les UAV emportent différentes armes destinées à des frappes très sélectives, visant un immeuble, un véhicule, un homme bien déterminés. On considérait généralement que pour ce faire, des agents appartenant à des troupes spéciales à terre localisaient en temps réel les objectifs au profit des drones.

Depuis quelques années cependant, la CIA et d'autres agences américaines ont fait développer des étiquettes électroniques ou répondeurs, sur le modèle des puces RFID utilisées dans le commerce, permettant d'identifier des cibles à relativement longue distance et sans imposer la présence d'un indicateur humain lors de l'attaque. Il suffit de taguer, si besoin longtemps à l'avance, les dites cibles. S'il s'agit de véhicules ou d'humains, ceux-ci emporteront avec eux le répondeur qui causera leur perte le moment venu. Ces technologies, classées Secret Défense, répondent au nom de TTL pour Tagging tracking and locating devices.

L'information à leur égard commence à circuler. Un article de Wired, cité en note, en propose un recensement intéressant. Il semblerait que les TTL ont depuis déjà plusieurs années été utilisés en Irak, avant de l'être aujourd'hui au Pakistan et en Afghanistan. Ils auraient permis l'élimination discrète d'un certain nombre de responsables parmi les "insurgés" et autres chefs talibans, dans des conditions qui apparaissaient mystérieuses lorsque ces éliminations avaient été rendues publiques. L''US Army considère qu'elle dispose là d'une "arme secrète" de grande valeur. Des centaines de millions de dollars ont été dépensés par la Darpa pour développer les produits correspondants. .

Il s'agit de réflecteurs radar, de puces RFID, de balises permettant le "homing", tous dispositifs extrêmement puissants bien que miniaturisés, de façon à pouvoir être dissimulés dans des objets très ordinaires, jouets, vêtements, journaux. Ce sont des versions militaires dérivées de produits existant déjà dans le commerce, pour l'identification radio et internet des objets dits intelligents. Des industriels travaillant pour la défense, tels EWA Government Systems Inc ou Sandia National Laboratories produisent des versions duales de ces dispositifs, dont l'usage dans la société civile se répand de plus en plus.

Les versions militaires sont évidemment plus coûteuses et plus performantes, puisqu'elles peuvent être activées à des distances de plusieurs kilomètres, à travers divers obstacles tels que murs ou parois de véhicules. Des teintures (dye) invisibles, sensibles aux détections, dont seraient marquées à leur insu des personnes suspectées de terrorisme, sont par ailleurs étudiées. Le complément des tags sont des capteurs susceptibles d'être utilisés manuellement et surtout d'être embarqués à bord des UAV et les missiles radio-guidés.

Au-delà de ces TTL, la 2006 Quadrennial Defense Review du Pentagone a recommandé d'étudier diverses techniques chimiques d'identification des individus, notamment par leurs odeurs personnelles ou les émanations provenant de blessures corporelles, susceptibles aussi bien d'aider à rechercher des victimes dans une catastrophe que des "terroristes" en fuite dans un environnement urbain.

L'article de Wired est diversement accueilli par les internautes. Les uns s'inquiètent à juste titre des risques pour les droits individuels découlant de la généralisation de telles méthodes appliquées à la vie civile. Les autres au contraire considèrent que, si elles peuvent servir au repérage et à la destruction des "bad guys" (vaste rubrique), ce sera une excellente chose. A la limite, ils blâment Wired d'en faire publiquement état.

Pour en savoir plus
Article de Wired :
http://www.wired.com/dangerroom/2009/06/inside-the-militarys-secret-terror-tagging-tech/
Notre article sur les UAV : http://www.admiroutes.asso.fr/larevue/2009/97/UAV.htm


Iter : un scénario moins ambitieux mais sans doute plus réaliste
Jean-Paul Baquiast - 07/06/2009

Face à la montée des coûts de développement du programme Iter, destiné à réaliser les premiers éléments d’un réacteur international à fusion nucléaire, les responsables du projet discutent actuellement d’un “scénario 1” qui sera vraisemblablement adopté en juin-novembre 2009. Les réductions budgétaires et la hausse des prix de certains composants obligeraient à définir un planning de réalisation plus long que prévu, et aux spécifications réduites.

Dans le cadre du scénario 1, le réacteur expérimental sera initialement construit sans certains composants cruciaux mais coûteux. Il s’agirait notamment du bouclier interne servant de protection et aussi de banc de test pour de nouveaux matériaux destinés à résister aux neutrons rapides qui seront générés. L’installation d’autres dispositifs permettant d’utiliser du deutérium et du tritium comme combustible sera retardée. Iter ne fera appel dans un premier temps qu’à des plasmas d’hydrogène.

Norbert HoltkampLes scientifiques et ingénieurs, dirigés par Norbert Holtkamp, principal deputy director general), considèrent que ce scénario est le seul réaliste. Il permettra de vérifier que le dispositif sera opérationnel avant que l’on y injecte du tritium, qui en rendra beaucoup de parties inaccessibles.

Il faut ajouter que les modalités administratives de gestion du projet rencontrent beaucoup de difficultés de mise en place, compte tenu du caractère international de l’opération. Enfin, comme prévisible, des jalousies latentes et procès d’intention entre pays partenaires ne cessent de nuire au déroulement du programme, au moins au niveau politique. Les Etats-Unis sembleraient faire montre d’une particulière agressivité. Rappelons que c’est l’éminent scientifique français Robert Aymar, responsable jusqu’alors du Tokamak du CEA à Cadarache, qui a réalisé le premier dessein du futur système.

Nous pensons pour notre part que toutes ces difficultés ne devraient pas être une raison pour réduire à l’excès les ambitions du projet, ni en performances ni en délais. Le réchauffement climatique grandissant rend l’énergie de fusion de plus en plus vitale pour l’humanité. Quelques milliards de plus ou de moins ne devraient pas entrer dans la balance coûts-avantages.

Inutile de dire que les anti-nucléaires de toutes origines font plus que jamais campagne pour l'abandon du programme Iter, en mêlant allègrement les enjeux de la fusion et ceux de la fission.

Pour en savoir plus
Article de Nature : http://www.nature.com/news/2009/090527/full/459488a.html
Site ITER : http://www.iter.org/default.aspx


Serge Haroche, médaille d'or 2009 du CNRS
Jean-Paul Baquiast - 03/06/2009

sERGE hAROCHELa Médaille d'or 2009 du CNRS a été décernée au physicien Serge Haroche. Cette distinction récompense une personnalité scientifique dont les travaux ont contribué de manière exceptionnelle au dynamisme et au rayonnement de la recherche française. Serge Haroche est spécialiste de physique atomique et d'optique quantique. Il est l'un des fondateurs de l'électrodynamique quantique en cavité, domaine qui permet, par des expériences conceptuellement simples, d'éclairer les fondements de la théorie quantique et de réaliser des prototypes de systèmes de traitement quantique de l'information. Professeur au Collège de France depuis 2001, Serge Haroche dirige le groupe d'électrodynamique des systèmes simples au sein du laboratoire Kastler Brossel (École normale supérieure/Université Pierre et Marie Curie/CNRS).

Ce scientifique s'est fait récemment connaître du grand public par la mise au point d'un "piège à photons" permettant d’observer un seul photon à la fois, sans le détruire. Avec Michel Brune et leurs collègues du laboratoire Kastler Brossel, ils ont emprisonné dans un boitier aux parois réfléchissantes, refroidi à une température proche du zéro absolu, un photon isolé, ceci pendant quelques centièmes de seconde. Le photon pendant cette période, a rebondi 1 milliard de fois et parcouru 40.000 km.

Boîte à photonsLe photon, particule élémentaire ou quantum de la lumière, est normalement détruit lorsqu’il est observé, le détecteur absorbant son énergie. L’équipe a mis au point une boîte à photon qui permet de l’étudier sans le détruire. Il s’agit d’une cavité composée de deux miroirs supraconducteurs, séparés de seulement 2,7 cm et refroidis à une température approchant le zéro absolu (–273°C) (photo)

Au lieu d'introduire dans cette boîte des atomes capables d’absorber les photons, comme dans les dispositifs habituels, les chercheurs ont choisi des atomes qui ne peuvent pas absorber l’énergie du grain de lumière. En revanche, le champ électrique du photon modifie légèrement l’orbite des électrons autour du noyau de l’atome. Ainsi, en repérant cette subtile différence, ils peuvent détecter le passage du photon dans la boîte et le mesurer plusieurs fois de suite. Le photon apparaît et disparaît soudainement dans la cavité. Il se produit alors un saut quantique : le photon passe d’un état à un autre de façon inattendue. Ces sauts avaient été observés avec des électrons, des ions mais jamais avec des photons .

Serge Haroche est par ailleurs un fervent défenseur de la recherche fondamentale. Comme beaucoup de grands scientifiques, il déplore la politique gouvernementale actuelle, qui vise en priorité les résultats économiques (NDLR: lesquels ne sont d'ailleurs pas toujours au rendez-vous). La richesse d'un pays repose pour lui dans le nombre et la qualité de ses chercheurs et de ses enseignants. Supprimer des postes et généraliser des conditions de travail misérables ne rend pas service à la collectivité. Nous ne pouvons qu'approuver ce diagnostic.

Pour en savoir plus
Communiqué du CNRS : http://www2.cnrs.fr/presse/communique/1606.htm
Wikipedia : http://fr.wikipedia.org/wiki/Serge_Haroche
Sur la "boite à photons"
Communiqué du CNRS : http://www2.cnrs.fr/presse/communique/1049.htm
Article dans Nature Quantum jumps of light recording the birth and death of a photon in a cavity, Sébastien Gleyzes, Stefan Kuhr, Christine Guerlin, Julien Bernu, Samuel Deléglise1, Ulrich Busk Hoff, Michel Brune, Jean-Michel Raimond, Serge Haroche, Nature, 15 mars 2007


Le Centre d'analyse stratégique s'intéresse à la biologie synthétique
Communiqué

Les Notes de Veille 2009 n°136 et 137 du Centre d'analyse stratégique viennent de paraître.
http://www.strategie.gouv.fr/article.php3?id_article=997
Au Sommaire : La biologie synthétique - De la bioingénierie à la bioéthique
La biologie synthétique est un nouveau domaine de recherche en plein essor, à l'interface entre la biologie moléculaire et les sciences de l'ingénieur. Son principe est d'utiliser des composants biologiques connus (gènes, promoteurs, protéines, etc.) pour modifier le comportement des cellules à des fins utiles. Ses applications potentielles vont de la synthèse de médicaments à la production de biocarburants en passant par la création de biomatériaux. Ce domaine pose cependant de nombreuses questions économiques, sociales, environnementales et éthiques à la hauteur de ses applications.

Note de Veille n° 136 (Juin 2009)
Vers une bioindustrie de synthèse ?
La biologie synthétique consiste à organiser des éléments d'information génétique (des gènes, leurs éléments de régulation et leurs partenaires) pour créer des fonctions biologiques nouvelles. Ainsi, on ne considère plus la cellule et son patrimoine génétique comme une entité vivante mais comme une librairie de fonctions, qu'on peut réorganiser selon les finalités souhaitées. Les opérations programmées peuvent être des fonctions spécialisées, utiles pour une application, ou bien un moyen d'acquérir des connaissances biologiques nouvelles. Les applications potentielles de la biologie synthétique sont d'ores et déjà variées et prometteuses. Elles mobilisent de nombreux acteurs, essentiellement américains, qui, des laboratoires publics et privés aux industriels de la chimie, de l'énergie, de l'agriculture ou encore de la pharmacie, en passant notamment par des start-up synthétisant des fragments d'ADN, jettent les bases d'une bioindustrie de synthèse.
http://www.strategie.gouv.fr/IMG/pdf/NoteVeille136-1.pdf

Note de Veille n° 137 (Juin 2009)
Les enjeux des futurs organismes vivants synthétiques
À l'instar d'autres technologies, la biologie synthétique nous ferait entrer, selon certains spécialistes, dans une nouvelle ère, celle de la « biolithique », où le vivant devient l'outil. Chaque avancée de la recherche biologique contient son lot d'interrogations sur les implications juridiques (propriété intellectuelle), sanitaires, environnementales, sociales et éthiques des applications possibles de ces découvertes. Que voulons-nous faire de ces technologies du vivant ? Quels risques sont acceptables ? Quelles conséquences ces représentations nouvelles peuvent-elles avoir sur nos systèmes de valeurs, notre conception de la vie ? À ces questions anciennes, le développement de la biologie synthétique donne de nouvelles dimensions. Par les enjeux majeurs qu'elle recouvre en matière de sécurité, de protection et de contrôle, cette technologie émergente amène à repenser les relations entre la vie et le « pouvoir ».

Les enjeux de la propriété intellectuelle : quelle alternative aux monopoles sur la vie synthétique ?
De la biosûreté à l'éthique : de nouvelles questions posées par la biologie synthétique ?
Quelles régulations de la biologie synthétique ?
http://www.strategie.gouv.fr/IMG/pdf/NoteVeille137-1.pdf


Automates Intelligents © 2009

 

 


   Sur le site
Sur le web   

 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Assocation Automates Intelligents
Mention légale Mention légale CNIL : 1134148