Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Biblionet
Automates Intelligents utilise le logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives

Gravity's Engines

Phi, a voyage from the brain to the soul

A propos du livre Mindful Universe

La médecine personnalisée

16 Mars 2001
Note par Jean-Paul Baquiast

Alain Cardon

Couverture du livre : Conscience artificielle et systèmes adaptatifs - Alain Cardon

 Alain Cardon  
Conscience artificielle et systèmes adaptatifs
Eyrolles, décembre 1999, 384 pages

Alain Cardon est professeur d'informatique à l'Université du Havre, directeur du laboratoire d'informatique de cette Université, et membre du LIP6 de l'Université Paris VI.
Il est l'auteur de nombreuses publications et communications scientifiques, notamment sur les systèmes adaptatifs, la production du sens et les Systèmes Multi-Agents.

http://scott.univ-lehavre.fr/~cardon/


Nous ne vous présentons, dans cette rubrique, que des ouvrages passionnants, c’est une affaire entendue. Ceci dit, celui-ci, «Conscience artificielle et systèmes adaptatifs», nous paraît l'être particulièrement. Il s’agit ni plus ni moins que de la recette pour fabriquer, demain, aujourd’hui même peut-être, ce rêve de tous les hommes depuis qu’ils construisent des machines, une conscience artificielle sinon équivalente, du moins comparable à la conscience humaine, une conscience capable, notamment, d’un libre-arbitre comparable au nôtre.

Imaginez qu’un de vos amis chercheur en intelligence artificielle vous invite un matin à rencontrer dans son garage une intelligence artificielle qu’il vient de réaliser. Vous n’y croiriez évidemment pas, penseriez qu’il plaisante ou se trompe. Mais il vous expliquerait sa démarche. Après avoir étudié tout ou presque tout de ce qui s'est publié sur la conscience et l’esprit ces dernières années, il aurait défini un certain nombre de concepts, de topologies et d’algorithmes originaux permettant, en gros, de simuler avec des outils informatiques le fonctionnement de l’esprit humain conscient. Mais il n’aurait pas essayé de copier davantage la nature, ni de programmer instruction par instruction les innombrables éléments de son prototype de conscience. Il aurait fait appel à ce qui constitue dorénavant le deus ex machina de l’intelligence artificielle, les systèmes multi-agents* mis en concurrence darwinienne. Ceux-ci auraient fait tout le travail informatique pratique et produit un premier modèle de conscience, à laquelle votre ami vous inviterait à frotter la vôtre pour compléter l’apprentissage de la machine (et sans doute aussi pour mieux comprendre le fonctionnement de votre esprit, et notamment de ce que vous persistez à appeler votre « libre-arbitre », sans avoir encore bien compris de quoi il s’agissait en termes neurologiques ou physiologiques).

C’est un peu le sentiment que vous ressentez en fermant le livre d’Alain Cardon. Celui-ci, bien évidemment, ne prétend pas avoir réalisé une conscience artificielle. Mais il a réalisé un tel travail de débroussaillage, accumulé tellement d’analyses et de propositions, que le chemin paraît tout pavé. Quelques travaux de thésards, nous dit-il in fine, et la chose serait faite. Comme il le répète plusieurs fois, ce n’est pas un cerveau biologique qu’il propose de construire, c’est un système informatique. Mais si celui-ci est capable de passer le test de Turing, c’est-à-dire dialoguer avec nous sans que nous puissions le distinguer d’un de nos semblables, que pouvons nous demander de plus.

Le livre n’est pas facile. On ne voit pas très bien d’ailleurs à qui il s’adresse. Des informaticiens voudront sans doute davantage de précisions. Le grand public décrochera tout de suite. Disons que les lecteurs devraient se recruter plus particulièrement chez les philosophes, psychanalystes, neurobiologistes, biomathématiciens, sociologues, roboticiens, cogniticiens et mathématiciens énumérés dans la 4e de couverture. Encore faudra-t-il que ceux-ci acceptent l’enjeu de la «lectio difficilior» qui s’impose. L’auteur ne fait aucune concession à la vulgarisation, encore que toutes les formules mathématiques et les éléments de programmation en soient exclus (sauf quelques allusions savantes à la mathématique du chaos et à la théorie des catastrophes de René Thom). Mais la culture scientifique d’Alain Cardon est si vaste, complétée par ce que nous pourrions appeler une énorme dose de réflexion personnelle, qu’elle oblige à courir à grands pas encyclopédiques derrière lui pour suivre le fil de ses démonstrations, et garder le cas échéant un peu de sens critique. De plus, il introduit pour organiser les espaces à partir desquels se construira la conscience artificielle, des concepts originaux (nous a-t-il semblé) tels que les «formes filaires» marquant l’émergence des faits de conscience, les «formes denses» représentant des faits de conscience plus intégrée, les «attracteurs de prégnance» permettant «de structurer dynamiquement l’espace d’engagement», c’est-à-dire sauf erreur d’initialiser des actions...et bien d‘autres.

En fait ce livre est à la fois particulièrement enrichissant et particulièrement déroutant, pour le profane. Il est enrichissant car il évoque avec un minimum suffisant de précisions d’innombrables connaissances qu’il faut avoir en esprit concernant les disciplines évoquées ci-dessus. Mais il est particulièrement déroutant car à partir de là il nous conduit dans un monde où tout surprend ceux habitués à traiter de la conscience en termes psychologiques ou même neurologiques. Raison de plus d’ailleurs pour le lire et le méditer, car beaucoup de découvertes y attendent ces mêmes psychologues et neurologues, concernant les mécanismes proprement dits, ou les fonctions.

L'ouvrage commence par une analyse détaillée des thèses actuelles ou récentes expliquant le fonctionnement du cerveau et de la conscience. L’auteur en montre les diverses insuffisances. Aucune d’elle n’est suffisamment précise, nous dit-il, et on le croit volontiers, pour que l’on puisse démonter et remonter les mécanismes profonds de la conscience, qui demeurent encore en grande partie mystérieux. Ces thèses fournissent pourtant suffisamment d’éléments pour qu’il lui paraisse possible de construire sans plus attendre une conscience artificielle, en utilisant les méthodes les plus récentes utilisées par les ingénieurs dans la réalisation des automates adaptatifs - méthodes dont il a une pratique approfondie notamment par ses contributions aux travaux du LIP6, le phare français en la matière. C’est cette construction qui fait la partie véritablement révolutionnaire, pensons-nous, du livre. Nous ne pouvons ici, faute de place et sans doute aussi de compétence fine, vous résumer cette partie. Il faudra véritablement vous y attaquer vous-même, crayon à la main, si vous utilisez encore cet instrument.

La conscience artificielle qu’il nous est proposé de réaliser ne sera pas l’imitation d’une conscience humaine, pour une raison simple, tenant précisément au fait que les mécanismes détaillés de celle-ci ne sont pas connus. Mais l’on simulera cependant les grands traits, à peu près connus, du fonctionnement du cerveau humain et de la conscience, en utilisant les technologies informatiques les plus récentes. Il sera ainsi possible d’obtenir une conscience artificielle dont le niveau de performances sera fonction des moyens déployés pour la réaliser. Comme toujours en matière de vie artificielle, la réalisation d’un artefact, même imparfait comparé aux solutions de la vraie vie, devient un élément essentiel pour mieux comprendre celles-ci. Mieux, dans certains cas, il n’est pas exclu que la vie artificielle, s’étant développée selon des lois non prévues au départ par ses promoteurs, fasse apparaître des solutions différentes et plus performantes que celles de la vie réelle.

Ceci nous conduit à poser plusieurs questions qui nous paraissent de première importance, dans la démarche qui est la nôtre : faire connaître les perspectives de la vie artificielle, et en encourager les applications. Nous aimerions discuter de ces questions, non seulement avec l’auteur, mais avec les représentants d’autres disciplines. Les voici :

  • Quel a été l'accueil fait à l'ouvrage par la communauté scientifique , en France et à l'étranger? Nous n'avons pas d'informations à ce sujet, sans doute parce que nous sommes mal informés. Les publications d'Alain Cardon et de son équipe concernant les systèmes multi-agents sont connues, mais le livre marque un tel pas en avant qu'il n'a pas dû rester inaperçu. Le fait qu'il ait été publié en français n'a pas du servir sa diffusion, peut-on craindre.
     
  •  La méthode proposée par Alain Cardon est si convaincante, les procédures à suivre pour produire une première conscience artificielle paraissent avoir été si bien analysées, qu’il serait inadmissible de ne pas se mettre tout de suite au travail. Commencer à réaliser systématiquement une conscience artificielle devrait devenir - y compris par ses retombées économiques - un grand programme international, de l’ampleur du projet génome humain. Le temps ne semble plus être à des projets de recherche partiels, mais à une réalisation d’ensemble, attaquant sur tous les fronts à la fois. Si certaines technologies ne sont pas encore au point, elles pourraient le devenir du fait des investissements suscités par ce programme. Certes, les informaticiens ne mésestimeront pas la charge de travail que représenteraient, même avec les facilitations permises par les algorithmes génétiques, agents intelligents et autres systèmes auto-adaptatifs, la réalisation et l’intégration de tous les ensembles et sous-ensembles évoqués par l’auteur. Mais en contrepartie, que de progrès en perspective. Aussi bien, serait-il intéressant d’avoir de l’auteur des fourchettes d’estimation des coûts de réalisation d’un premier prototype de conscience artificiel aux performances significatives pour juger du bien-fondé de la démarche qu’il propose. Hugo de Garis a bien obtenu des crédits substantiels de Starlab pour son projet Cam-brain. Pourquoi pas Alain Cardon d'un autre bailleur de fonds?
     
  • La réalisation d’une conscience artificielle est proposée ici au plan de ce que serait une conscience individuelle, c’est-à-dire la conscience d’un automate en situation, le cas échéant dialoguant avec d’autres automates. Mais il nous a paru que la méthodologie conseillée pourrait être transposée, en termes différents, au profit d’un objectif lui-même différent : réaliser le modèle d'une conscience humaine collective. Ceci n'oblige pas en principe à entrer dans le secret des neurones, mais plutôt dans celui des comportements épigénétiques plus ou moins modélisables en informatique, semble-t-il. On sait que dans les groupes humains, comme dans toutes les sociétés animales, fonctionnent divers processus assurant le fonctionnement (et parfois les dysfonctionnements) du groupe. Ceux-ci sont généralement inconscients, ou mal compris des consciences des individus composant le groupe. On peut soupçonner cependant que certaines formes de conscience collective existent, s’ajoutant et transcendant les consciences individuelles. On citera ces espèces d’agents que Richard Dawkins a nommé les mèmes. On pourra aussi parler des divers phénomènes de foule ou de ceux très vivants dans les sociétés non-occidentales, transes ou possessions diverses manifestant une forme d’émergence à la conscience individuelle d’un inconscient collectif. Or pour rendre les sociétés et groupes humains plus conscients, et partant capables de comportements plus rationnels, pourquoi ne pas réaliser avec les hommes qui les composent, et les technologies adéquates, des prototype de conscience artificielle collective** ? Les deux projets de conscience pourraient d’ailleurs être conduits en parallèle.
     
  • Le grand projet évoqué ci-dessus de conscience artificielle prendrait toute sa valeur, et s’enrichirait d’autant en retour, s’il s’accouplait à un projet miroir, que l’on pourrait nommer "Conscience humaine". L’idée en serait simple dans son principe : reprendre et rapprocher les divers travaux de neurologie, physiologie, génétique, cognitique auxquels nous faisions allusion en introduction, afin de leur faire franchir le pas décisif qui leur manque encore pour donner une image aussi exacte que possible de ce qu’est la conscience humaine dans son environnement social. Il faut bien dire en effet que malgré la grande pertinence des travaux américains récents, dont nous avons précédemment rendu compte, ceux de Dennett, Damasio, Edelman, Freeman, et de leurs prédécesseurs, la conscience, et surtout le libre arbitre, restent encore loin d’être expliqués, ce qui laisse un champ excessif à toutes les fantaisies d’ordre mystique. Ce serait pourtant bien utile de s’attaquer sérieusement à cette question, quand on voit les dégâts provoqués dans la biosphère par l’insuffisance de prise de conscience des facteurs déterminants les comportements collectifs et individuels. Il ne faut pas craindre l’effet réducteur de telles études, car plus la science pourra fournir d’explications au phénomène de la conscience, plus les mécanismes générateurs de celle-ci s’enrichiront du fait de cette nouvelle connaissance. Gagnant en complexité, ils échapperont de nouveau à l’analyse. L’évolution se fera peut-être dans le sens de plus de connaissance, au lieu de prendre la forme, comme dans de nombreuses parties du monde aujourd’hui, de retour à l’obscurantisme.

* L’auteur nous rappelle, p. 307 de son livre, la définition de l’agent proposée par Ferber (1995) «entité réelle ou abstraite capable d’agir sur elle-même et son environnement, qui dispose d’une représentation partielle de cet environnement, qui dans un univers multi-agents peut communiquer avec d’autres agents, et dont le comportement est la conséquence de ses observations, de sa connaissance et des interactions avec les autres agents». Alain Cardon préfère parler de « Système Multi-agents » ou SMA, dont il est un spécialiste mondial reconnu. Un SMA est «un ensemble d’agents situés dans un environnement composé d’objets qui ne sont pas des agents. Les agents appréhendent les objets et les actions des autres agents, réalisent des actions diverses en utilisant les objets disponibles de leur monde et en unissant leurs actions pour définir des comportements collectifs».
Ainsi se trouvent bien distingués les «objets », entièrement définis par le programmeur, et non susceptibles d’évolution, et les agents qui, notamment en population, peuvent échapper totalement au programmeur, et réaliser des actions de plus en plus performantes, dans le cadre d’une sélection darwinienne s’exerçant dans un cadre non complètement défini à l’avance par ce même programmeur. Les agents, dans cette perspective, peuvent se substituer à ce dernier, et accomplir pour son compte des tâches trop compliquées ou longues pour lui. Ils peuvent également produire des résultats tout à fait inattendus, utiles ou nuisibles, ce qui constitue leur principal mérite en terme d’heuristique.

Les virus informatiques auto-adaptatifs peuvent être considérés comme des agents. On sait également le rôle que British Telecom tente de donner à des agents (comparés à des fourmis ou «ants») pour la maintenance en local de son réseau mondial de télécommunication.

** Voir à cet égard l’Entreprise neuronale, de Alan Fustec et Jacques Fradin, Editions d’organisation 2001 qui adopte en partie cette approche, et dont nous vous donnerons ultérieurement un compte-rendu.


Pour en savoir plus :
Voici deux présentations de son livre par l'auteur

- http://www-poleia.lip6.fr/~cardon/ :
Toute approche constructive de la conscience nécessite de définir un système et de préciser son mode de fonctionnement permettant de faire apparaître des représentations à propos de diverses choses du monde dont le système a le souci.

Comment un système, après avoir appréhendé des informations de l'environnement et généré un souci, peut-il concevoir une chose du monde qu'ainsi il dévoile, en sachant qu'il a effectivement conçu une représentation de cette chose, c'est-à-dire en en ayant conscience ? Ce problème peut être formulé de la manière suivante : Dans quel cadre, par quelle démarche et en s'appuyant sur quel modèle et quelle architecture peut-on concevoir et réaliser un système produisant des représentations signifiantes de choses de son monde, avec une intention à le faire et de telle sorte que la représentation soit perceptible pour le système lui-même ?

Ainsi posée, le problème de la conscience artificielle prend place dans un champ largement pluridisciplinaire et la solution constructible ne semble pas évidente.

La génération du sens par et pour un tel système revient à le doter d’une capacité de génération propre de représentations. Nous nous appuierons sur la notion de processus interprétatif et de sémiotique triadique et nous utiliserons un modèle basé sur des espaces de formes réifiant les représentations selon les seules capacités réorganisationnelles de morphologies plastiques.

Plus précisément, pour générer une forme faisant sens et selon une visée, le système doit construire simultanément la représentation de la chose du monde visée et percevoir en-soi, c’est-à-dire par et dans son organisation même, cette forme intentionnellement générée. L'émergence du sens apparaît comme produit par un processus de générations concordantes, d’une part d’une forme émergente de caractère strictement calculatoire et valant pour la chose du monde à représenter, et d’autre part de l’interprétation de cette forme par la génération d'une autre typiquement expressive et valant pour l'appréhension située et significative de la première. Ce processus double, déclenché par une visée génératrice, qui étend dynamiquement la sémiotique triadique, se stabilise un instant avec la concordance des formes engendrées, comme un système dynamique loin de l'équilibre, dans une certaine réorganisation réalisée sous la conduite d'entités prégnantes propres au système et formant sa culture.

En nous appuyant sur les caractères génératifs de ces espaces de formes, nous présenterons ensuite, pour réaliser effectivement le système, une architecture typiquement adaptative qui utilise de vastes organisations d'agents logiciels avec capacité de reproduction, et en réifiant ces organisations par des réseaux neuromimétiques, dans un processus bouclé.

Nous pensons que l'étude des systèmes adaptatifs générant intentionnellement du sens est utile pour l'Informatique, qui y trouve un nouveau champ de problématique, et nécessaire à l'investigation de l'esprit. Elle permet la validation d'hypothèses de construction, de fonctionnement et d'évolution de systèmes organisationnellement complexes. Ces hypothèses peuvent utilement être mises en relation avec les caractères de l'esprit humain, ce que l'observation neurobiologique ne réalise pas directement et ce que le discours philosophique ne fait que poser en termes existentiels.


- http://www.service-public.com/complexe/rio/part2/13.html

On considère habituellement les systèmes informatiques comme réagissant automatiquement à des sollicitations, en suivant des programmes définis par leurs concepteurs. On s’intéresse aujourd’hui à des systèmes dont les programmes ne sont que des générateurs, qui vont par eux-mêmes produire de nouveaux programmes, qui vont le faire en se réorganisant de façon à maintenir un équilibre organisationnel satisfaisant dans un système ou un ensemble de systèmes, qui vont se comporter envers leur environnement par adaptation continue et non par simple réaction. Les éléments générateurs de ces systèmes sont des agents logiciels, les systèmes sont auto-adaptatifs et leur comportement est un processus de réorganisation intentionnelle. On peut dire que les formes stables constituant leurs états émergents s’apparentent à de la production artificielle de sens. Il s’agit de l’introduction effective de la complexité organisationnelle en Informatique. La modélisation de ces systèmes nécessite une approche sémiotique et leur architecture se base sur une boucle systémique complexe. La problématique n’est plus celle de l’utilisateur devant l’outil informatique mais du partenaire devant un système auto-adaptatif autonome, et distribué sur l’Internet.

Automates Intelligents © 2001

 




 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents
Mention légale CNIL : 1134148