Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Actualité
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 

20/04/11 L'eau douce, le bien le plus rare et le plus précieux

14/04/11 Plateforme AFIA à Chambéry en mai

04/04/11 Le diagnostic de la sécurité dans les réacteurs nucléaires

04/04/11 Qualification de l'Ensemble de Lancement Soyouz (ELS) à Kourou

02/04/11 L'homo Orcus

31/03/11 Les réserves d'énergie libre ne sont pas inépuisables

31/03/11 Contamination radioactive. Risques d'accumulation

29/03/11 Robots d'intervention sur sites fortement radioactifs

29/03/11 La solution des éoliennes flottantes

10/03/11 Impact d'astéroïdes sur Mars

10/03/11 Ravitaillement en vol des drones de haute altitude

10/03/11 Des drones à voile pour démazouter la mer

28/02/11 Des nanoparticules pour simuler des vaccins

28/02/11 Dernière mission de la navette Discovery

27/02/11 La téléconnection globale

27/02/11 Piloter ne voiture par la pensée

27/02/11 Le décrochage prévisible de la science américaine

27/02/11 Un robot oiseau-mouche

26/02/11 L'illusion de posséder trois bras

26/02/11 Marathon pour robots humanoïdes au Japon

février-mars-avril 2011

L'eau douce, le bien le plus rare et le plus précieux
par Jean-Paul Baquiast et Christohe Jacquemin - 20/04/2011

Le livre de Laurence C. Smith, ("The World in 2050", Dutton, 2010) auquel nous avons déja fait allusion explique clairement que l'eau douce est déjà et sera de plus en plus un bien rare, d'autant plus menacé qu'il est indispensable à l'ensemble des acivités humaines. D'ores et déjà, l'agriculture en épuise dangereusement les réserves. Le changement climatique les rendra de plus en plus insuffisantes.

L'Europe, pour une partie de son territoire, dispose encore d'une situation hydrique relativement favorable. Il serait scandaleux de mettre cet avantage en péril pour le profit des intérêts gaziers et des consommations dispendieuses encouragées par ceux-ci.

Nous ne pouvons donc que nous indigner de voir publier des articles en faveur du gaz de schistes, comme le fait le journal Les Echos, le 18 avril dernier.
L'article attaque avec des arguments indéfendables ceux qui se félicitent de voir remis en cause en France (pour combien de temps?) les permis d'exploration de gaz de schistes. Qu'un journal se prétendant sérieux publie un tel texte montre bien les intérêts puissants qui ne s'avouent pas battus.

Ne nous faisons pas d'illusions, le combat de l'interdiction n'est pas encore gagné.

PS au 22/04.: Rendu public jeudi 21 avril, le rapport d'étape sur les enjeux économiques, sociaux et environnementaux des huiles et gaz de schiste commandé par le gouvernement se révèle très favorable à la poursuite des travaux de recherche et d'exploration. Le gouvernement montre bien son double jeu, consistant à continuer à favoriser des intérêts économiques destructeurs tout en faisant patienter les opposants. La liste des titres des experts auteurs du rapport n'impressionnera que les imbéciles. Le document peut être téléchargé, ce jour, à partir de http://www.developpement-durable.gouv.fr/Mission-d-inspection-sur-les-gaz.html

Voir aussi notre article "Gaz et huile de schiste,
catastrophe environnementale annoncée ?
"


Plateforme AFIA 2011 à Chambéry
en mai prochain

par Jean-Denis MULLER
Vice-président de l'AFIA, président de la plateforme AFIA 2011
14/04/2011

La plateforme de l'Association Française pour l'Intelligence Artificielle (AFIA) réunit, tous les deux ans, les chercheurs francophones en Intelligence Artificielle.
Cette année, un effort important a été fait pour présenter les applications concrètes de l'IA, avec un ensemble d'animations grand public : exposition, démonstrations, conférences-débats, café de la science...

L'AFIA se tient à disposition des lecteurs de ce site pour tout renseignement complémentaire.
On trouve l'affiche des événements grand public ici : http://afia2011.org/dotclear2/index.php?pages/Affiche

06 86 87 12 56 - http://www.afia2011.org


Le diagnostic de la sécurité dans les réacteurs nucléaires
par Jean-Paul Baquiast et Christohe Jacquemin - 04/04/2011

A juste titre, on reproche actuellement à l'opérateur nucléaire japonais TEPCO de ne pas donner beaucoup d'informations sur ce qui se passe au coeur des réacteurs de la centrale de Fukushima Daiichi, dont certains devraient souffrir de fusion partielle. Ceci tient en partie au fait que nulle technique actuelle ne permet d'y aller voir, la chaleur et les radiations détruisant tous les capteurs que l'on pourrait imaginer d'y introduire. Pour faire face à cette difficulté, les spécialistes doivent alors faire appel à des techniques d'autopsie qui sont proches de celles utilisées par les enquêteurs sur la scène d'un crime. Il faut rassembler de nombreux indices disparates, les soumettre à des traitements informatiques sophistiqués et proposer des diagnostics qui restent hypothétiques tant que l'auteur du délit n'a pas été clairement mis à jour - ce qui peut demander des années....

Les industriels du nucléaire tels qu'Areva ont développé depuis longtemps de tels logiciels, qu'ils proposent actuellement à leurs collègues japonais, que l'on découvre aujourd'hui démunis à cet égard. Ce fut l'accident de Three Mile Island, devant lequel les régulateurs américains s'étaient retrouvés aveugles, qui a obligé au développement de tels logiciels. Ils prennent en compte une grande quantité d'observables, des plus simples au plus complexes, par exemple la nature et la radioactivité des gaz et des particules successivement émises par un réacteur au fur et à mesure que s'aggrave la fusion de son coeur et l'écoulement du corium en résultant.

Les programmes d'analyse des risques et de la gravité des accidents, dits codes de sécurité, («safety codes») sont utilisés pour planifier les mesures de sécurité devant être adoptées au fur et à mesure que s'aggrave la situation, notamment les précautions pour protéger les travailleurs, l'étendue de la zone à évacuer, etc. Ces programmes, assez curieusement, sont confidentiels. Ils relèvant de la propriété de leurs développeurs. Leur utilisation est jugée trop stratégique pour être laissée disponible au profit de tous ceux qui prétendraient observer la situation de sécurité sur le très grand nombre de centrales nucléaires actuellement en opération dans le monde.

Malgré l'augmentation de la fréquence des incidents de faible gravité, les gouvernements se veulent avant tout rassurants, afin de ne pas créer de panique dans le public. Si les autorités nucléaires voulaient aggraver le rejet de cette forme d'énergie, elles ne procéderaient pas autrement.

* Pour plus de détails sur les codes et leur utilisation, on peut se référer à cet article du "New York Times" : http://www.nytimes.com/2011/04/03/science/03meltdown.html?_r=1

© Automates Intelligents


Qualification de l'Ensemble de Lancement Soyouz (ELS) à Kourou
par Jean-Paul Baquiast - 04/04/2011

Le site de lancement Soyouz de Kourou, l'ELS, vient d'être qualifié bon pour le service. Il a été officiellement remis par l'Esa à Arianespace, après avoir passé avec succès les épreuves de réception. La construction avait commencé en Février 2007, les spécialistes russes venus du Kazakhstan ayant été installés en 2008. Les éléments des deux premiers Soyouz sont arrivés par mer en novembre 2009 afin d'être assemblés sur place. Le Cnes avait été retenu comme maître d'oeuvre principal.

Le site est identique à ceux du Kazakhstan et de Russie, mais mis aux normes de sécurité européenne. Un portique mobile de 45 m destiné à la protection des charges a été notamment ajouté. De nouveaux tests incluant le lanceur seront entrepris afin que le premier lancement effectif puisse avoir lieu fin 2011. Il s'agit d'une coopération importante, tant sur le plan industriel que stratégique, entre l'Europe et la Russie.

La Russie de sont côté, disposera d'un nouvel astroport dans la région de l'Amour, la base spatiale Vostochny, qui s'ajoutera à celles de Plesetsk et Baikonour. Elle tient compte de l'expérience acquise à Kourou. La construction commencera mi 2011 et devrait être terminée vers 2015.

http://www.spacedaily.com/reports/Soyuz_Launch_Site_Ready
_For_First_Flight_999.html


L'homo Orcus
Jean-Paul Baquiast - 02/04/2011

Il s'agirait d'un hominidé vivant encore parmi nous, y compris dans les forêts du pays basque, déjà peuplées du loup et de l'ours. Le récit documentaire réalisé par Éric Audinet et Patrick Glotin.est remarquable. Il a fait l'objet d'un film et d'une émission sur Planète le 1er avril 2011 (et d'autres rediffusions).

Il serait intéressant d'effectuer un sondage pour mesurer la proportion des spectateurs qui auront été convaincus de l'existence de cette espèce humaine encore inconnue, qui éventuellement scruteront avec appréhension les ombres de la nuit autour de leur jardin avec la peur de le voir s'y profiler.


Les réserves d'énergie libre ne sont pas inépuisables
Jean-Paul Baquiast & Christophe Jacquemin
31/03/2011

Les défenseurs des énergies renouvelables présentent celles-ci comme des sources inépuisables, susceptibles à l'extrême de satisfaire tous les besoins énergétiques actuels de l'humanité, voire de nouveaux besoins fussent-ils en forte croissance.

Axel Kleidon, biochimiste au Max Plank Institute de Iena, vient de montrer que cette croyance est erronée. Remplacer notamment les combustibles fossiles et l'énergie atomique par des éoliennes ou des panneaux solaires entraînerait une diminution sensible de l'énergie fournie par le vent et la lumière solaire au reste du globe, océans et terres émergées. Ainsi des éoliennes en grand nombre pourraient modifier gravement le régime des vents. La multiplication des panneaux solaires empêcherait de réfléchir la lumière (dont ils n'utilisent qu'une petite partie), contribuant ainsi au réchauffement. C'est l'ensemble de la biosphère qui en serait perturbé. Or c'est essentiellement de celle-ci (énergie verte) que l'homme tire sa subsistance. On pourrait sans doute appliquer les mêmes raisonnements à la géothermie.

Axel Kleidon appuie ses propositions sur la thermodynamique loin de l'équilibre. On a trop tendance à oublier que la deuxième loi de la thermodynamique, précisée voici bientôt deux siècles par Sadi Carnot, est incontournable. Générer de l'énergie à partir d'un gradient thermodynamique signifie extraire de l'énergie d'un autre gradient. Or la seconde loi fixe des limites indépassables à la quantité d'énergie ainsi obtenue. Appliquée au système thermodynamique complexe qu'est la Terre en relation avec l'énergie solaire, cette approche montre que les limites dans les capacités d'extraction de l'énergie dite libre sont vite atteintes.

Les optimistes diront que les générateurs éoliens ou solaires ne deviendront jamais si nombreux qu'ils puissent perturber les équilibres thermodynamiques naturels - ceci d'autant plus que leur production plafonnera vite car faisant pour le moment appel à des matières premières qui seront de plus en plus rares. Il reste que les calculs de Axel Kleidon devraient désormais être pris en compte dans la définition du mix énergétique auquel l'humanité fera globalement appel dans les décennies prochaines. On constatera à nouveau qu'en toutes hypothèses, l'énergie la plus sûre sera celle que l'on économisera.

Sources
* Axel Kleidon. How does the earth system generate and maintain thermodynamic disequilibrium and what does it imply for the future of the planet ? http://arxiv.org/abs/1103.2014
* Voir aussi Mark Buchanan:
http://www.newscientist.com/article/mg21028063.300-wind-
and-wave-energies-are-not-renewable-after-all.html?full=true

* Wikipedia : http://fr.wikipedia.org/wiki/Deuxi%C3%A8me_principe_
de_la_thermodynamique


Contamination radioactive. Risques d'accumulation
31/03/2011

Le danger potentiel lié aux fuites de particules radioactives provenant de la centrale japonaise de Fukushima ne tient pas seulement à leur importance instantanée mais à leur durée. Les particules ne sont pas détruites et s'accumulent. Dans certaines zones, même éloignées du Japon, elles pourraient atteindre des niveaux dangereux, tant que les émissions n'auront pas été stoppées. Or pour le moment, rien de tel ne peut être espéré, les autorités japonaises semblant dépassées.

En France, par exemple, la Commission de Recherche et d'Information Indépendantes sur la Radioactivité (CRIIRAD) a détecté un faible taux d'iode 131 dans l'eau de pluie. Celle-ci n'est pas dangereuses, mais l'inquiétude demeure quant à l'accumulation de ces doses de radioactivité sur le sol, dans l'eau et dans la chaîne alimentaire. Tant que la centrale relâchera des isotopes radioactifs, la contamination de l'air se prolongera. La CRIIRAD estime que cumulée sur les 15 jours à venir, la retombée en iode 131 pourrait atteindre plusieurs centaines de Becquerels par mètre carré. Le taux reste encore faible mais commence à ne plus être négligeable.

L'iode 131 est émis sous forme de gaz, puis une partie se fixe sur des particules d'air. On considère que 80% de ce polluant radioactif se présente sous forme de gaz dans l'air.


Robots d'intervention sur sites fortement radioactifs
Jean-Paul Baquiast et Jacques Maudoux
29/03/2011

Nombre de personnes au fait des performances de la robotique moderne se demandent pourquoi les Japonais si férus de robotique n'utilisent pas de tels auxiliaires pour remplacer ou compléter les humains dans les zones les plus contaminées de la centrale de Fukushima. On se souvient que les Soviétiques avaient fait appel à des robots sur le site de Tchernobyl. Mais il s'agissait de machines très primitives, vite incapacités par la chaleur, les poussières et les radiations. Aujourd'hui, la robotique moderne pourrait-elle faire mieux?

La firme américaine iRobot de Rodney Brooks a envoyé au Japon 4 robots, deux légers et portables dits Packbot (http://www.irobot.com/gi/ground/510_PackBot) et deux plus lourds, destinés en principe aux armées et non encore mis en vente, des Warrior (
http://www.irobot.com/gi/ground/710_Warrior/). Ces robots dépendent d'un contrôle à distance assuré par un opérateur humain. Des câbles en fibre optique peuvent prendre le relais en cas de détérioration des liaisons radio. IRobot a formé des spécialistes japonais, mais on ne sait si les robots ont été mis en service.

Manifestement, les Japonais, notamment la compagnie TEPCO, actuellement mise en accusation dans l'opinion pour son imprévoyance, ne souhaitent pas jusqu'à ce jour faire appel à ce genre d'assistance étrangère, montrant ainsi qu'ils n'avaient pas pensé à se préparer. On peut douter il est vrai de la capacité à maintenir le contrôle dans une ambiance hautement radioactive. Les capteurs actuels sont bien trop sensibles.

En France cependant, le groupe Intra (http://www.groupe-intra.com/pages2/intervention/moyens1.htm), spécialisé dans les travaux publics et les chantiers lourds, a développé des robots spécifiquement étudiés pour intervenir dans des zones dangereuses, éventuellement fortement radiatives. Leurs concepteurs les estiment il est vrai mieux adaptés à des tâches de décontamination et nettoyage (par exemple de combinaisons ou d'outils contaminées) que pour des opérations de déblaiement ou l'exploration.

Il est très probable que dans l'avenir, Areva, fortement impliquée dans la sécurité nucléaire et qui vient d'ailleurs d'être sollicitée par le Japon, va s'appuyer sur cette actualité pour faire développer une filière de robots lourds susceptibles d'entreprendre des opérations complexes sur des sites en crise nucléaire ouverte.


La solution des éoliennes flottantes
Jean-Paul Baquiast & Christophe Jacquemin - 29/03/2011


Les industriels et les écologistes ne sont pas encore d'accord sur l'intérêt des éoliennes de nouvelle génération au regard du bilan carbone/matières premières qu'elles présentent par rapport à d'autres sources d'énergie renouvelables. Mais il est quasi certain cependant que de plus en plus de pays encourageront leur mise en place. Il est donc intéressant de rechercher les solutions les plus avantageuses compte tenu des critères généralement admis pour déterminer ce que l'on nomme le «mix» énergétique.

Pour les pays disposant d'accès à des mers suffisamment profondes, comme c'est le cas généralement en Europe, il apparaît que la solution des éoliennes flottantes amarrées à des bouées représente une option préférable à celle des éoliennes sur plateformes implantées dans des eaux littorales. Elles peuvent être situées relativement loin des côtes, dans des zones où les vents sont forts et réguliers, à l'écart des eaux très fréquentées. Elles peuvent par ailleurs être montées à terre avant d'être remorquées sur place. Le cas échéant, elles peuvent être déplacées ou ramenées à terre pour maintenance.

La plus accomplie de telles éoliennes-bouées semble être le modèle Hywind conçu par la firme norvégienne Statoil. Il s'agit d'un modèle encore susceptible de nombreuses améliorations, mais qui paraît d'ores et déjà très performant. La tour émergée est de 65m, le diamètre du rotor de 80m et le flotteur immergé de 100m. L'ensemble, même soumis à des vents forts n'oscille que de quelques degrés au sommet. Il est mouillé à 8 miles depuis fin 2009 au large de l'ile de Karmoy, à l'ouest de Stavanger. La puissance produite est de 50% de la puissance potentielle qui est de 2,3 megawatts. Son poids est de 200 t. Rappelons que l'EPR de Areva est prévue pour délivrer 1.600 megawats.

Statoil envisage après 2 années d'essais de proposer des turbines moitié moins lourdes, sensiblement moins coûteuses et développant 5 megawatts. Des fermes de 15 megawatts seraient rentables pour des pays tels que l'Espagne, le Portugal et le Japon. Pour la Grande Bretagne qui compte réaliser 25% de son mix énergétique avec l'éolien, le nombre de turbines à installer sera considérable. Tout ne pourra pas être confié à des éoliennes à terre ou sur des plates-formes continentales. La solution des bouées au large s'imposera.

Pour en savoir plus
http://www.goodideas.statoil.com


Impact d'astéroïdes sur Mars
10/03/2011

Cette image a été obtenue par l'orbiteur européen Mars Express. Elle montre un cratère d'impact sur Mars, situé à 21 degrés S / 55 degrés E., probablement produit par un train d'astéroïdes (d'où la forme allongée).

Les dimensions de ce cratère sont considérables :
78 km de long, 10 à 25 km de large pour une profondeur de 2 km.

Pour en savoir plus
http://www.marsdaily.com/reports/The_Scars_Of_Impacts_
On_Mars_999.html


Ravitaillement en vol des drones de haute altitude
10/03/2011

«High altitude long endurance (HALE) unmanned aircraft systems (UAS)» : c'est le nom donné par Northrop Grumman, la Darpa et la Nasa à une série d'essais pour ravitailler en vol les drones destinés à réaliser des observations à très haute altitude (plus de 15.000 m).
Il s'agira pour cela d'utiliser des drones ravitailleurs, afin de minimiser les risques. Un premier test vient d'être réussi en janvier.

Les appareils utilisés sont pour le moment le Global Hawk de la Nasa et le Northrop Grumman Proteus. On imagine les difficultés à résoudre, même si l'opération n'est pas entièrement automatisée. Dans l'avenir, le réseau d'observation dont dispose déjà l'Air Force et la Nasa pourra être densifié et rendu permanent à moindres frais.


Des drones à voile pour démazouter la mer (par Etienne Gernez)
10/03/2011


Le projet Protei a été développé à la suite de la pollution du golfe du Mexique due à la catastrophe de la plateforme BP Deepwater Horizon. Bien d'autres zones maritimes polluées en surface d'une façon dense pourraient bénéficier d'un tel programme. Protei est mis au point selon la formule intéressante de l'Open source, permettant aux développeurs de mutualiser leurs expériences.

Il s'agit de réaliser des drones à voiles peu coûteux et semi-autonomes, capables de remonter au vent et de draguer les filets de pétrole dérivant sous le vent. Ils traînent des boudins absorbants qui peuvent en suite être collectés et traités avec le minimum de main-d'oeuvre.

Pour en savoir plus
Protei : https://sites.google.com/a/opensailing.net/protei/home
Article : http://www.good.is/post/protei-an-open-source-fleet-of-oil-spill-
cleaning-robot-drones/


Des nanoparticules pour simuler des vaccins
28/02/2011



On s'interroge souvent sur le rôle thérapeutique des nanoparticules, dont on dénonce au contraire les effets toxiques. L'exemple d'un tel rôle thérapeutique vient d'être démontré, en réponse à une question jusqu'ici sans réponse : comment est acquise l'immunité post-vaccinale pouvant se prolonger pendant des décennies dans le cas de certaines maladies virales comme la variole ou la fièvre jaune ? On est surpris de découvrir que les scientifiques n'en avaient pas encore une explication claire. Les vaccins utilisent des virus atténués qui stimulent la production d'anticorps. Mais pourquoi l'immunité demeure-t-elle si longtemps après la vaccination initiale, c'est-à-dire après la disparition du vaccin ?

Des biologistes du centre de vaccination de l'Université d'Emory, Atlanta (Emory Vaccine Center http://www.vaccines.emory.edu/) ont réalisé des nanoparticules analogues en taille et en propriétés au virus de la fièvre jaune. Ces particules induisent une immunité à vie chez la souris. Elles sont faites de polymères biodégradables et comportent des composants qui activent deux parties différentes du système immunitaire. Elles peuvent être utilisées de façon polyvalente, en face de divers virus ou bactéries.

Le vaccin contre la fièvre jaune a été développé dans les années 1930 par le prix Nobel Max Theiller. L'équipe de l'Université Emory avait il y a quelques années montré que ce vaccin stimulait des récepteurs nommés Toll-like Receptors ou TLRs (du nom de la protéine induite par le gène Toll chez la drosophile - voir article de Wikipedia référencé ci-dessous) dans le système immunitaire. Ces récepteurs se trouvent aussi bien chez les insectes que chez les mammifères et de nombreux autres animaux. Il s'agit de molécules exprimées par les cellules et qui sont sensibles à certains éléments structurés des virus, bactéries et parasites. Elles sont indispensables à l'activation du système immunitaire, après contact avec le virus.

Les TLRs seraient ainsi l'équivalent d'un sixième sens dont le corps serait doté. Ils disposeraient d'une sensibilité particulière à l'égard des virus et bactéries, dont ils détecteraient la présence afin d'informer le système immunitaire. Mais pour obtenir la meilleure réponse immunitaire possible, les stratégies vaccinales ont intérêt à activer plusieurs sortes de TLRs. Or les virus et les vaccins nécessaires ne sont pas toujours disponibles ou pas disponibles en quantité suffisante. L'objectif était donc de créer une particule synthétique qui puisse avoir la même propriété. C'est ce qui vient d'être fait.

L'équipe a réalisé une particule synthétique qui devrait pouvoir servir de plateforme pour construire des vaccins améliorés intéressant des infections existantes ou émergentes. Elle comporte un composant propre aux parois cellulaires des bactéries et un autre simulant les effets de l'ARN viral. Elle est par ailleurs biodégradable. Elle se comporte donc en activateur du vaccin plus efficace que l'alun jusqu'ici autorisé. Chez la souris, la particule stimule la production d'anticorps contre le virus de la grippe ou la bactérie de l'anthrax avec une efficacité plusieurs fois supérieure à celle du vaccin seul. Par ailleurs les cellules ainsi immunisées persistent dans les ganglions lymphatiques pendant au mois 18 mois, soit la durée de vie moyenne de la souris. Des résultats comparables seraient obtenus chez le singe.

Pour en savoir plus
Article de Nature: doi:10.1038/nature09737 S.P. Kasturi et al. Programming the magnitude and persistence of antibody responses with innateimmunity. Nature (2011).
Voir aussi:
Article de Eurekalert :
http://www.eurekalert.org/pub_releases/2011-02/eu-vnc022111.php

Sur les TLRs, article de Wikipedia :
http://en.wikipedia.org/wiki/Toll-like_receptor


Dernière mission de la navette Discovery
28/02/2011

La navette américaine Discovery a réussi son dernier accostage avec la Station Internationale (IST) le 26 février. Ceci au terme d'une manoeuvre audacieuse, sinon risquée qui a communiqué à l'IST un fort roulis long à s'amortir. En livrant le module japonais HTV, elle a complété la gamme des contributions internationales à l'ensemble, qui comprennent donc les vaisseaux russes Progress et Soyouz, l'ATV européen (voir notre brève ci-dessous) et le robot canadien Dextre installé en 2008. L'ensemble pèse dorénavant 540 tonnes.


La navette a par ailleurs livré un personnage très attendu, le Robonaut 2 ou R2, robot humanoïde réalisé par General Motors et la Nasa, qui deviendra un hôte permanent de l'IST.

Le programme des navettes se terminera en avril avec la dernière mission d'Endeavour et en juin avec celle d'Atlantis. Il s'écoulera ensuite un nombre d'années indéterminé avant que l'Amérique puisse disposer d'une liaison avec l'IST. Tout reposera dorénavant sur les Russes et le cas échéant aussi sur l'Esa si celle-ci décidait de transformer l'ATV en capsule habitable. Cette véritable «démission» de la Nasa en dit long sur le recul de l'influence des Etats-Unis dans les grands programmes spatiaux. Beaucoup la considère comme une véritable défaite de l'américanisme au regard de l'influence montante des pays émergents.

* Sur Robonaut2, voir http://robonaut.jsc.nasa.gov/default.asp


La téléconnection globale
27/02/2011

"Téléconnection globale" : nous pourrions traduire par ce terme le concept de Telecoupling présenté au symposium de l'American Association for the Advancement of Science du 18 février par le Pr Jack Liu, directeur du Human-Nature Lab/Center for Systems Integration and Sustainability de l'Université du Michigan. Il ne s'agit pas de décrire des phénomènes devenus banaux comme la multiplication des liens par Internet ou les liaisons wi-fi à courte distance entre divers objets communicants. Le concept est beaucoup plus ambitieux. Il veut rendre compte de la façon dont l'humain quelque peu branché se trouve impliqué du fait de la multiplication et de la diversification des processus coactivés d'échange, dans un grand nombre d'événements proches ou distants susceptibles de déterminer dans le détail ses comportements et ses pensées.

La téléconnection globale ("Telecoupling of Human and Natural Systems”) décrite lors du symposium s'établit dorénavant, selon les intervenants, entre les humains et les systèmes naturels, systèmes biologiques, géophysiques, climatiques. Il fait éclater les frontières et permet à la planète tout entière de s'inter-connecter à des échelles et selon des modes jusqu'ici impossibles. Les systèmes peuvent se trouver reliés d'un bout du monde à l'autre, sans considérations de temps et de lieux. Ceci illustre bien le concept que nous avons nous-mêmes développé de «systèmes anthropotechniques».

Ceci entraîne des conséquences en matière de protection de l'environnement et de la biodiversité. On pensait jusqu'alors que les liens entre causes et effets s'établissaient à une échelle locale, faute de vecteurs globaux de connexion. On découvre maintenant qu'il n'en est rien. Les facteurs locaux demeurent importants, mais ils ne sont plus prédominants.

On estimera sans doute que le concept de Telecoupling ne paraît guère original s'il est défini en ces termes généraux. Tout en fait dépendra des domaines et des instruments qui seront choisis par les chercheurs pour mettre en valeur sa pertinence. De nouvelles dynamiques doivent alors être identifiées et faire l'objet d'une information convenable afin qu'il en soit tenu compte par ceux qui cherchent à comprendre l'évolution globale.

* source http://news.msu.edu/story/8936/&topic_id=13


Piloter une voiture par la pensée
27/02/2011

Selon la revue britannique New Scientist, des chercheurs de l'Université Libre de Berlin ont développé une automobile dont la vitesse et la direction seraient commandées directement par le cerveau du conducteur. La voiture, une Passat, est dotée de différents instruments de pilotage automatique, tels que différents types de radars et des caméras stéréoscopique. Sans intervention du conducteur, elle peut d'elle-même détecter et éviter les obstacles dans un rayon de 200 m.

Le conducteur est ici équipé d'un casque approprié comportant 16 capteurs électroencéphalographiques et peut reprendre le contrôle de façon purement mentale, c'est-à-dire sans toucher au volant. Pour ce faire, les capteurs utiliseraient certains patterns d'ondes cérébrales émises par le cerveau du conducteur. Les chercheurs, semble-t-il, n'ont pas donné de précision sur la nature de ces patterns.

Le casque d'une valeur de 300 $ et son logiciel ont été réalisés par la société américaine Emotiv . Celle-ci se propose de commercialiser de tels dispositifs à bas prix pour de nombreuses applications ludiques ou thérapeutiques. Il est intéressant de noter que dans ces domaines, la technologie permet d'utiliser des mécanismes cérébraux encore mal connus. Ils ont été observés expérimentalement dans certaines conditions, mais leurs bases neurales précises restent encore à explorer.

Pour en savoir plus
Article de New Scientist :
http://www.newscientist.com/blogs/onepercent/2011/02/
mind-control-puts-you-in-charg.html

Emotiv, Brain-computeur interfaces : http://www.emotiv.com/



Le décrochage prévisible de la science américaine

27/02/2011

Caroline Wagner, chercheuse de la Penn State University (USA), a présenté le 18 février 2011 au congrès annuel de l'American Association for the Advancement of Science des conclusions pessimistes concernant le développement prévisible des sciences et des technologies aux Etats-Unis. Pour la prochaine décennie, elle prévoit l'émergence d'un «Système scientifique global» dans lequel l'Amérique sera certes un des grands acteurs mais n'en sera plus le leader. Différents indices permettent d'étayer ce jugement, notamment le nombre des articles publiés par les chercheurs. Ce sera moins le nombre de ces derniers qui diminuera dans l'absolu, mais l'apparition de nombreux autres concurrents, notamment en Chine et en Inde.

La Chine devrait ainsi publier en 2015, selon la tendance actuelle, plus d'articles que les Etats-Unis, et ceci dans tous les domaines de la science. Leur qualité, qui laisserait encore à désirer, devrait s'améliorer rapidement.

Caroline Wagner considère que les solutions actuellement envisagées par l'administration Obama pour remédier à cette perte relative de compétence (augmenter les crédits de recherche) ne suffiront pas. Il faudrait ouvrir davantage la recherche américaine en l'associant avec celle des autres parties du monde. Ceci implique "partage de compétence", c'est-à-dire encourager la constitution d'équipes communes avec des universités concurrentes. Le développement des échanges par Internet ne peut à cet égard remplacer les échanges physiques. Mais pour le moment, outre les coûts dus aux transports et à l'hébergement, différents obstacles s'y opposent, notamment les mesures de contrôle dites «anti-terroristes» imposées par la National Security Agency (NSA).

Ajoutons pour notre part que vue la façon dont les services américains en charge de la guerre économique conçoivent les échanges internationaux entre chercheurs, on peut comprendre que les pays émergents soient peu tentés de collaborer avec les universités américaines.
Notons par ailleurs que le rapport n'a pas mentionné la recherche européenne comme susceptible de représenter une quelconque menace pour la science américaine. Nous nous demandons bien pourquoi...

Référence :
http://www.eurekalert.org/pub_releases/2011-02/ps-uwn020311.php


Un robot Oiseau mouche
27/02/2011

Un petit robot aérien, imitant à s'y méprendre dans son vol (voir vidéo) un oiseau-mouche ou colibri vient d'être réalisé pour le compte de la Darpa par la société AeroVironment. Baptisé “Nano Hummingbird”, le robot est doté de deux ailes battantes à grande vitesse simulant celles d'un colibri, qui lui servent aussi bien pour la sustentation que pour le contrôle du vol. Il emporte avec lui sa propre source d'énergie et une vidéo caméra. Radio-contrôlé par un opérateur au sol, il accomplit différentes figures parfaitement comparables à celles d'un véritable oiseau. Ceci le rend difficilement identifiable. L'envergure du robot est de 16 cm. Il pèse 20 g.

Dans un premier temps, il est prévu des missions d'observations, particulièrement à l'intérieur d'immeubles disposant d'ouvertures à travers lesquelles cet oiseau-mouche pourra pénétrer et où l'opérateur humain se repérera grâce aux images obtenues par la caméra.

Le robot vient de passer avec succès tous les tests de réception imposés par la Darpa à l'entreprise. On pourrait se réjouir de cette réalisation, qui pourrait servir de plateforme pour développer de nombreuses applications pacifiques. Evidemment la Darpa lui assigne des finalités militaires, notamment localiser à terme avec précision un objectif à l'intérieur d'un immeuble, afin de guider un tir de missile entraînant le moins de dégâts collatéraux possibles.

* Voir http://www.avinc.com/resources/press_release/aerovironment_
develops_worlds_first_fully_operational_life-size_hummingbird


L'illusion de posséder trois bras
26/02/2011

Des neuro-scientifiques du Karolinska Institutet de Stockholm ont réalisé une illusion perceptive au terme de laquelle une main droite en caoutchouc, placée à côté de la vraie main droite d'un sujet est ressentie par ce dernier comme un membre surnuméraire appartenant à son propre corps. Ceci pourrait conduire à développer des solutions non-invasives pour l'assistance aux paralysés.

La main artificielle doit être entièrement visible par le sujet et proche de la sienne. Dans ce cas, des attouchements sur la main artificielle sont transmises par la peau dans les mêmes conditions que des attouchements sur la vraie main. La main artificielle emprunterait certains des processus multisensoriels liés à la main réelle, en les dupliquant. D'où l'impression de posséder deux mains droites. Pour les scientifiques, ceci apporte la preuve de la grande malléabilité des représentations du corps que peut générer le cerveau, considérées jusqu'à présent au contraire comme extrêmement rigides.

Nous pensons que cette découverte mériterait de nombreux commentaires, vu son caractère quasi révolutionnaire. On peut s'étonner d'ailleurs qu'elle n'ait pas été faite plus tôt

* Ref.: Guterstam A, Petkova VI, Ehrsson HH (2011) The Illusion of Owning a Third Arm. PLoS ONE 6(2): e17208. doi:10.1371/journal.pone.0017208 (open access)
http://www.plosone.org/article/info%3Adoi%2F10.1371%2F
journal.pone.0017208


Marathon pour robots humanoïdes au Japon
26/02/2011

Organisé par par la firme Vstone Co en coopération avec la ville d'Osaka, le premier marathon pour robots "Robo Mara Full" s'est déroulé au Japon le 23 février dernier àOsaka.
Le parcours était de 42 Km, à réaliser en 4 jours, la piste de 100 m étant abritée sous un hangar. Les compétitions s'adressaient à des robots bipèdes d'une quarantaine de cm, mus par des batteries rechargeables.
Nous n'avons pas de détails sur le degré d'autonomie des compétiteurs. Rappelons cependant que la marche bipède représente à elle-seule un challenge important pour un robot.

* Article de Physorg et video


Automates Intelligents © 2011

 

 


   Sur le site
Sur le web   

 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Assocation Automates Intelligents
Mention légale Mention légale CNIL : 1134148