Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Du côté des labos
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives
2010-2011
2009
2008
2007
2006
2005
2004
2003
2002
2001
2000
1999
En guise d'introduction

27 Avril 2002
Logo Colloque Biologie et conscience

Conscience artificielle
et systèmes adaptatifs

Intervention d'Alain Cardon (alain.cardon@lip6.fr)
lors du Congrès International Biologie et Conscience (27 avril 2002, 14h)
(Alain Cardon est directeur du Laboratoire d'Informatique de l'Université du Havre et chercheur permanent au LIP6, Université Pierre et Marie Curie)

Transcription et mise en forme par Christophe Jacquemin

Il est conseillé d'imprimer préalablement ce texte et de le lire au fur et à mesure de la présentation des diapositives (format powerpoint, 116 Ko, ne fonctionne hélas que sous Internet Explorer).
Cliquez sur chaque diapo pour passer à la suivante

Mesdames et Messieurs

Je vais avoir la redoutable tâche de présenter la vision de la conscience à partir de l'intelligence artificielle, donc en informatique.
Première remarque : l'informaticien n'est pas un ingénieur. C'est un scientifique qui fait des modèles et qui réalise des systèmes. Et l'informatique n'est pas l'ingénierie des ordinateurs mais la science des modèles calculables(1).

Diapo 2 : Le plan de mon exposé, sera, comme toute démarche d'un scientifique spécialiste des systèmes, de poser le problème, de le cerner en utilisant quelques principes, de proposer une conception et de la discuter. Ensuite, on pourra envisager de construire effectivement le système.
Pour un système qui doit ressentir et penser artificiellement, un système générateur d'émotions, il faudra se poser la question de savoir quel est l'élément minimal de conception - car un informaticien construit : il ne se contente pas d'observer et il construit effectivement. Et comment peut-il faire se générer de la pensée artificielle dans une architecture logicielle ?

Diapo 3 : Le domaine de l'artificiel, pour un informaticien, est celui de sa pratique quotidienne. Analyser la question, analyser le problème et en faire un modèle constructible. Il s'agit toujours, d'abord, de modélisation.
Concevoir un système, c'est d'abord le modéliser, c'est savoir comment on va pouvoir le créer, comment on va le fabriquer, de quelle manière on va s'y prendre pour le fabriquer. Ensuite, il s'agira de le construire effectivement, concrètement, et enfin de le mettre en expérimentation dans son environnement d'usage, de le délivrer aux utilisateurs. Cette mise en expérimentation nécessitera de reprendre toute la démarche, de l'analyse à la réalisation. Donc on va boucler sur l'analyse : il en manquait, il n'y en avait pas assez. Et ceci est la démarche qui est la notre en intelligence artificielle: construire des systèmes d'une façon que nous nommons "incrémentielle".

Diapo 4 : Mais pour construire, il faut savoir quel est très précisément le problème qui est posé. Et l'énoncé de ce problème particulier; tel que je peux me le poser, est fort compliqué. Il s'agit de concevoir, avec des entités spécifiquement informatiques, c'est-à-dire des concepts venant de l'informatique et qui se réalisent sous forme de programmes, un système qui génère des émotions - et donc il faudra que ce système ait un corps. Il faudra qu'il produise des faits de conscience, c'est-à-dire qu'il se représente d'une certaine façon - et pour son compte, je dis bien et pour son compte, certaines choses de l'environnement, donnant à ces choses de la signification, dans l'espace et dans le temps, et en ayant un souci à penser. Ce dernier point, le souci à penser, sera la question la plus dure car la plus profonde.
Comment un système construit, qui se base sur des calculs, peut-il avoir une envie à penser à quelque chose, ici et maintenant ? Comment un système artificiel pourra-t-il avoir un souci à générer une pensée à propos de quelque chose, à vouloir penser, et se servir, d'une certaine façon, de sa mémoire, qui n'aura pas grand-chose à voir avec la mémoire adressée des ordinateurs, mais qui sera sémantique et sélective ?

Diapo 5 : Avant de passer au modèle que je vais proposer, voici quelques questions préalables :
- C'est quoi penser artificiellement ? Je ne me pose pas du tout la question de savoir ce que c'est pour moi que penser - je ne sais d'ailleurs pas y répondre, mais il s'agit de définir ce qu'est penser artificiellement, et je peux peut-être y arriver parce qu'un système se conçoit totalement, se construit, se comporte d'une façon que l'on peut entièrement décrire et suivre.
- Est-ce que penser est seulement du raisonnement - ça, on sait bien faire en informatique, c'est ce qu'on appelle de l'inférence, c'est à dire travailler sur l'équivalent du logos, déduire, induire : on a fait cela depuis très longtemps et lorsqu'on s'applique en Intelligence Artificielle, on a des résultats patents ;
- Quel est le rapport en l'objet et la chose pensée pour un système artificiel, pour un robot qui distinguerait quelque chose du monde ?
Et la question fondamentale est la suivante : est-ce que je vais y arriver, est-ce qu'on peut ramener le fait de penser à la production d'un certain système ? La définition d'un système est extraordinairement précise : c'est un ensemble fini d'entités en relation, d'entités qui forment un tout, qui sont agrégées et qui sont encapsulées, entouré d'un bord qui le délimite et qui assure sa permanence. C'est quelque chose qui est donc fini, qui n'est pas du tout infini, qui ne subit pas d'action à distance : c'est quelque chose qui existe, par son organisation et son action comportementale. C'est descriptible.

Diapo 6 : Alors, pour ce système à réaliser, je vais choisir la voie systémique : je pose le fait que je peux construire d'une certaine façon un système qui va générer des sortes d'états que l'on appellera des pensées artificielles et qui aura une conscience, artificielle, de lui-même. Un exercice de style ? Peut-être ! Un exercice de construction qui sera en référence, spécifiquement, avec la pensée humaine et la conscience humaine. Directement en référence tout en étant bien différent. Cela s'en rapprochera, cela aura à voir avec, mais c'est un problème d'informatique, strictement d'informatique.
Alors, on pourra débattre longtemps de cette relation entre pensée et conscience humaines et pensée conscience artificielles, puisque nous aurons construit une machine, qui est une certaine mécanique très sophistiquée, et cela, usuellement, on a l'intuition que ça ne pense pas. Nous, êtres humains, maîtres de notre monde, nous souhaitons le rester, définitivement, et les machines, quoi qu'on y fasse, doivent rester des machines, c'est-à-dire à notre service...

Diapo 7 : Alors les éléments de conception du système ? Il n'y a pas seulement de l'informatique là-dedans : disposer d'un corps, ça c'est de la robotique. Depuis un certain nombre d'années, pas beaucoup, peut-être dix, nous pensons que le travail sur les émotions et la conception artificielle ne peuvent être fait qu'avec des machines dotées d'un corps muni de beaucoup de capteurs et d'effecteurs (des milliers). Ce sont des robots rares à trouver, très chers, des robots de recherche bien éloignés des robots ménagers. On a besoin  ici de corporéité : il ne peut exister de conscience, même artificielle, en dehors d'un substrat matériel qui lui donne un ancrage.
Ensuite, disposant de ce corps, on doit disposer d'un système émotionnel qui le fait être corps. Ensuite, on peut disposer d'un système générateur de pensée. Cela, c'est la vision que peut avoir Damasio (NDR : voir notre fiche de lecture de son livre "Le sentiment même de soi") sur le proto-Soi et le Soi. Et puis enfin, on doit poser des hypothèses de faisabilité, parce qu'une fois qu'on aura conçu ce système, il faudra voir si cela tient la route et si c'est effectivement calculable sur des grappes de processeurs liés à des systèmes de contrôle/commande.

Diapo 8 : Passons aux distinctions conceptuelles que l'on peut faire avant de concevoir :
- le système n'est pas seulement réactif. Il ne fait pas que réagir et optimiser une trajectoire, comme pour un missile guidé, mais il faudra qu'il prenne des initiatives qui lui appartiendront en propre, qui ne seront pas le fait seulement du hasard. Il éprouvera des émotions et des sensations, ressenties, pour son compte. Il aura une certaine structure et une certaine organisation, telle la notre. C'est-à-dire que faire, en informatique, des systèmes organisés, ce n'est pas tout à fait ce que nous faisons aujourd'hui, quand on fait des systèmes de contrôle/commande pour des suivis de trajectoires... Systèmes totalement rigides, prédéterminés, prédictibles. Là, pour un tel système, il s'agira de sortir de cadre et d'entamer une sorte d'informatique un peu révolutionnaire, typiquement adaptative et évolutive.
Quelle relation pourra-t-on établir entre pensée et formulation langagière ?
Et enfin, quels sont les mouvements et les comportements motivés d'une telle architecture lorsqu'elle sera en mouvement ?
Pour un tel robot, ce n'est pas seulement produire, pour celui qui l'observe, l'impression qu'il marche, qu'il fait quelque chose, qu'il a envie d'aller là. Non, c'est vraiment un système qui devra avoir une intention à agir avant que d'agir.
Et puis le problème le plus difficile : comment  peut-on régler l'intentionnalité, c'est-à-dire comment peut-on générer des faits de conscience qui sont des actes de signification à propos de choses distinguées dans le réel.

Diapo 9 : Passons aux éléments de conception :
- Ils se définissent puisque l'on s'appuie sur la corporéité du robot et l'on s'y appuiera même totalement. On considère un robot multicapteurs, des milliers de capteurs, de senseurs et d'effecteurs, c'est-à-dire un robot extraordinairement complexe. On a besoin de beaucoup d'informations venant de tous ces capteurs, on a besoin d'évaluer le gradient de l'entrée des informations (leurs variations), sans arrêt, sans cesse, pour pouvoir contrôler de manière concrète, effective, le système qui va introduire des émotions et des sensations et puis finir par faire s'activer des procédures.
- Concevoir une architecture logicielle générant des émotions nécessite de bien savoir ce qu'est une émotion artificielle, pour une architecture logicielle. C'est un mouvement organisationnel qui a une certaine durée, une certaine intensité, une certaine fréquence, une certaine régularité. Cela se représente bien par une certaine courbe d'effet.
- Et idem pour le système générateur de pensée...

Diapo 10 : Nous aurons alors un système de ce type :

Diapositive n° 10

Il y a le robot, qui a des capteurs et des effecteurs -un robot du genre de ce que fait Rodney Brooks aux Etats-Unis, un robot extraordinairement performant. Nous aurons aussi un système générateur d'émotions et un système générateur de pensées.

Je me place clairement sur la voie ouverte par Antonio Damasio - en suivant ses travaux sur le proto-Soi et sur les systèmes de pensées, ce qui nécessitera, pour les pensées, de préciser ce qu'est l'intention, c'est-à-dire "le vouloir penser à quelque chose". Alors que pour l'émotion, le comportement est plutôt un peu plus réactif au stimulus.

Décrivons maintenant le système générateur d'émotions et donnons quelques indications sur le système générateur de pensées. Mais vu le temps qui m'est imparti, je ne pourrais aller très loin sur ce second système.

Diapos 11 et 12 : A partir de quoi procède-t-on dans ce système  générateur d'émotions ? A partir du neurone formel ? Certainement pas. Si on conçoit  le système à ce niveau-là, on ne s'en sort pas (problème de taille !). De la même manière, si on espère résoudre le problème du fonctionnement du cerveau à partir du niveau moléculaire, on n'y arrivera pas facilement. Peut-être un jour, mais en tous cas dans très longtemps. Si on espère concevoir ce que c'est que la fonction culturelle d'une cathédrale en  l'observant avec un microscope, on n'y arrivera pas non plus.  Pour tout problème, il y a une notion de grain de conception permettant, ou non, sa compréhension.
Quel est  donc l'élément minimal ? Pour moi, concepteur du système, ce n'est certainement pas au niveau de la structure physique qu'il faut se placer. Il y a un corps matériel, en effet, et puis je dois choisir, trouver une  architecture très plastique faite d’entités autonomes, communicantes et fortement agrégatives pour la génération des émotions et des pensées. Tel serait un système artificiel qui pourrait s'organiser, s'auto-organiser, évoluer.

Diapo 13 : Passons au choix de l'élément de base.
L'élément de base qui est retenu ici est quelque chose qui, en informatique, est assez récent : c'est l'agent logiciel. Il n'a strictement rien à voir avec l'agent humain. C'est une entité dite active, qui est capable d'agir sur son environnement. C'est en fait un programme, strictement un programme. Il est composé d'un ensemble d'instructions et de structures de données compliquées... mais c'est un programme. C'est un programme qui est proactif, qui travaille pour son compte, c'est-à-dire qui a des buts à lui, qu'il peut réviser et doit atteindre. Donc c'est un programme mais qui, contrairement à ce que fait un programme classique, fera des choses pour son compte, avec des buts rationnels. Il sera évolutif : il pourra évoluer en communiquant avec d'autres agents, en prenant éventuellement des informations capteurs sur l'architecture matérielle et en en envoyant aux effecteurs.

Donc on peut poser que l'entité logicielle, pour un système de ce type, se place à un niveau de grain relativement gros qui est très supérieur à l'instruction, qui est une espèce de petit système, qui pourra s'exécuter sur un processeur, à un certain moment et pour une certaine raison. Cet agent, que j'ai appelé aspectuel, représente un caractère symbolique  précis. Il représente aussi ce qu'il fait, quelque chose qui est interprétable par nous qui pouvons le suivre et qui surtout correspond à ce qu'on va lui faire faire dans le système. Cet agent est donc aussi une action, une véritable activité et que nous ne comprenons pas obligatoirement.
Donc, et ceci est fondamental, il  y a deux choses en ce qui concerne l'agent. Cette entité a deux faces, ce qui va tout changer. Un tel agent est nettement au-dessus de l'objet, cette entité informatique qui est si rigide et si fixée et dont l'autonomie est insignifiante. C'est autre chose. C'est une entité d'action dont celle-ci a une signification propre.
En utilisant de nombreux agents, on obtient une autre entité logicielle d'une autre nature encore, un ensemble, une organisation d'agents qui peuvent d'une manière sociale, communiquer, évoluer, se tuer, s'agréger, se commander, se multiplier, se reproduire, évoluer, se comporter... On aura une organisation d'agents aux caractères comportementaux spécifiques.

Diapo 14: L'agent aspectuel est un programme qui a des connaissances, des connaissances données sous forme  de règle du type "si quelque chose, alors faire un effet à la suite de ce quelque chose", des communications et des actions avec son environnement, avec des objets ou avec d'autres agents avec qui il va communiquer. Il a un comportement qui est strictement rationnel, qui lui est donné par un automate comportemental à états

L'agent aspectuel

Et cet agent est en fait un programme équivalent à une machine de Turing. Ce n'est certainement pas avec cela, avec seulement cela, que l'on pourra construire une machine pensante.

Diapo 15 : Et puis !
En quoi une organisation de ce genre, organisation d’agents, peut-elle représenter les caractères d’une émotion ? Eh bien il faut représenter, pour avoir des émotions, des processus et pas seulement des effets. Il faut représenter de l'action en train de se dérouler, ce que l'informatique ne sait pas trop faire, car ce que l'on fait habituellement en informatique, ce sont des traitements, produire et exhiber des résultats de calculs. Mais le calcul est ici en train de se faire et c'est l'action du calcul que l'on souhaite présenter. Comment doit-on procéder pour réaliser cette représentation ?

Il nous faut dans le modèle représenter des processus en cours d'exécution, c'est-à-dire des agents en train de travailler, des agents logiciels en train de communiquer, telles les aires neuronales du cerveau sont en train de communiquer entre elles dans les images à la caméra à positrons. Il faut dès lors représenter une fonction en cours de calcul et pas seulement le résultat de la fonction calculée : une fonction qui se calcule, pendant qu'elle calcule !

Diapo 16 : Alors, le composant de base... ?
C'est représenter à la fois les agents et les actions organisationnelles des agents. Et cela, c'est ce que l'on peut faire à partir de l'agent logiciel. Nous devons avoir une structure d’auto-observation des calculs en cours opérés par les agents.

On a une organisation d'agents, qui représente des caractères typiques du robot en train de capter des informations, par exemple la façon dont les capteurs reçoivent telle information sonar, la façon dont des mots sont perçus et analysés. Tous ces calculs sont effectués par des centaines de milliers d'agents aspectuels. Mais avec cela, on ne fait pas grand-chose. Il s'agit d'un système qui éventuellement produit de bons résultats auxquels on peut s'attendre. Mais il les produit comment et pourquoi ces calculs ? Il faut observer comment ils sont effectués. Et cela est nouveau : c'est une notion qui vient des théories de la morphogenèse émises par René Thom il y a un certain temps : observer les formes, dégager les formes comportementales d'une organisation d'entités proactives et exprimer la signification de ces formes. On a une organisation d'agents qui s'activent et on va observer ce comportement, pour chaque agent et pour l'ensemble. On va suivre la forme de cette organisation.

Diapo 17 : Passons alors à la morphologie d'un paysage d'agents. Ce sont des choses sur lesquelles je travaille déjà depuis sept à huit ans.
Il s'agit de l'autocontrôle d'une organisation massive d'agents (des centaines de milliers d'agents) par une autre organisation, par des agents appelés agents de morphologie analysant in-line les caractères organisationnels du premier ensemble d'agents en train de se réorganiser. Et l'on retrouve ici la notion de forme d'une organisation en train de se mouvoir, en train de s'activer. Il y a donc un système double ou si l'on veut à double face. En fait, deux systèmes couplés : celui qui fait les calculs et celui qui observe que les calculs sont en train de se faire(2).

Diapo 18 : Les caractères morphologiques d'une organisation d'agents, qu'est-ce que c'est ? Q'uest-ce qu'une organisation d'agents logiciels en train de s'activer, en train de faire ses calculs ? Imaginons la souplesse d'une machine massivement parallèle avec des processeurs multiples en train d'observer ce qui se passe sur certains de ses processeurs, observant les activités et les inactivités des différents processus...
- Comme caractère, il y a par exemple la vitesse de développement comportemental d'un, comment son comportement évolue de l'éveil à l'action sociale, comment il atteint ses buts. C'est un caractère technique particulier.
- Il y a aussi l'activité sociale de l'agent. En quoi il est seul ou non, s'il trouve ou non des alliés. Que représente-t-il de singulier, de non partagé et qui n'aura aucun effet dans l'activité des autres agents ?
- Il y a aussi l'intensité et la domination d'un agent par rapport aux autres. En quoi un agent est leader ou soumis...
- .....
Il y a dix caractères. Il s'agit de caractères d'une organisation d'agents dont le principe de fonctionnement suit complètement un processus darwinien.

Diapo 19 : Déjà, il faut que les agents s'agrègent  pour pouvoir dégager, par leur regroupement, un ensemble de caractères. Mais parce que ce sont des agents, qui sont actifs, proactifs, communicants, autonomes et qui peuvent agir, ils ont un certain nombre de caractères précis qui sont ceux que je définis dans un espace morphologique, qui caractérisent l'organisation en train de s'activer.


Passons sur les dimensions de l'espace morphologique, sur les dix dimensions de cet espace qui sont complexes à justifier. On dispose d'une organisation d'agents aspectuels qui agit, et on est capable de mesurer continûment son effort organisationnel, comme si on avait un formidable Big Brother en train de regarder la société en train de s'activer, point par point et globalement, pour en estimer les tendances, la cohérence, les agrégations et les ruptures...

Diapos 20, 21 et 22 : Voilà un exemple de ce qu'est la détermination d'une morphologie : une organisation d'agents, avec des caractères qui se distinguent, que l'on projette sur un espace affine en plan successifs de dimension 2.
On voit visiblement qu'il se passe un certains nombre de choses dans l'organisation, qui peuvent la caractériser comme étant cohérente, non cohérente, agrégative, se coupant en morceau... Nous avons une appréciation géométrique de ce qui se passe dans l'organisation aspectuelle.

 
Représentation d'un paysage d'agents

Remarquons que le terme "géométrique" veut dire "en dehors de toute sémantique". Les agents aspectuels ont de la signification, mais leur organisation est observée de manière essentiellement géométrique, par des formes.
 
 Diapo 23 : Donc nous avons dans le système des agents d'interface qui vont agir sur les effecteurs puis sur les senseurs du robot ; des agents aspectuels (ceux qui vont donner de la signification aux activations). Des agents de morphologie vont regarder comment évolue toute l'organisation des agents aspectuels.
Et l'on a ainsi une boucle entre des agents qui agissent et une morphologie qui observe cette activité.
Et cette morphologie qui observe l'organisation aspectuelle va pouvoir modifier l'action de l'organisation qu'elle observe : il va y avoir un processus de couplage très fort entre les deux organisations, une rétroaction débouchant sur un certain état d'équilibre.
 
 

Dimensions de l'espace morphologique

Diapo 24 : On aura l'équivalent d'une carte émotionnelle selon Damasio, une carte émotionnelle artificielle composée d'une organisation d'agents aspectuels, d'une organisation morphologique qui la contrôle, avec un processus de couplage fort entre ces deux organisations. Celle-ci forme vraiment un processus miroir qui fait que lorsque l'organisation commence à bouger, eh bien l'organisation morphologique le verra et éventuellement pourra l'empêcher, ou on pourra l'amplifier, ou encore dans un autre endroit pourra éventuellement faire agir des patterns de reconnaissance de formes et bien d'autres choses, des patterns de morphologie, qui contrôleront l'organisation aspectuelle pour la faire aller dans certaines directions, pour donner des tendances précises au comportement aspectuel. Il s'agit d'un processus d'autocontrôle.

Ceci, cette organisation double, aspectuelle - morphologique, n'est qu'une carte particulière, et dans la machine pensante, il y en aura des milliers. Il y aura des milliers de structures couplées organisation aspectuelle - organisation morphologique.
Alors cette carte émotionnelle, ce composant logiciel formé de deux organisations couplées, est un composant qui est adaptatif, autocontrôlé, centré sur un rôle (que l'on a programmé comme catégorie dans les agents aspectuels), coopératif et synchronisable avec d'autres cartes. Nous le nommons composant adaptatif de conception.

Diapo 25 : Passons maintenant à la structure générative des émotions.
Nous avons un système avec capteurs et les effecteurs du robot, des éléments d'interface, c'est-à-dire des agents spécifiques qui prennent sans cesse les changements d'informations venant de l'extérieur, et un ensemble de cartes émotionnelles artificielles, synchronisables par des agents de synchronisation. Ces éléments vont avoir un rôle considérable dans le système : il vont faire basculer celui-ci, en quelque sorte, au-devant de lui-même dans son fonctionnement. Ils vont permettre son action anticipatrice. Ces agents de synchronisation vont en fait prendre les décisions suivantes : ces cartes qui agissent et qu'ils observent ont la même morphologie; ces groupes morphologiques sont semblables, cette carte là a un aspect organisationnel semblable à cette autre bien que les sémantiques données par les agents aspectuels soient totalement différentes. Les éléments de synchronisation pourront opérer des mises en conformité, des associations de cartes par unification de leurs rythmes d'activation. Par exemple, il s'agira de coupler systématiquement des cartes représentant du son et de l'image, ou de coupler des cartes représentant du mouvement repéré avec une notion de distance pour la fuite…

Diapos 26 et 27: Le système générateur de pensée.
Ce système est le plus compliqué car l'enjeu n'est pas mince : définir un Soi artificiel et amener un système à penser aux choses du monde. Ce système aura une architecture inspirée de la précédente (inspirée de l'architecture des cartes émotionnelles).

Dans le système générateur de pensées, le problème de la conception est extraordinairement difficile. On a choisi de considérer une architecture inspirée de la précédente pour suivre le cas du vivant, mais il y a plus, beaucoup plus dans le Soi que dans le proto-Soi et l'architecture sera sensiblement différente. Il faut introduire les concepts calculables qui correspondent à la solution de problèmes très profonds.

Diapo 28 : Et ce beaucoup plus, cela revient à résoudre des questions extrêmement difficiles :

1- Qu'est-ce qui peut conduire à penser artificiellement ici et maintenant à cette chose ? Penser, ce sera organiser des ensembles d'agents, des structures à double aspect, aspectuel - morphologique, organiser le contrôle par les morphologies, et ceci d'une façon très fine. Pour une émotion, c'est assez simple lorsqu'on dispose du composant adaptatif. On reçoit un stimulus, on l'interprète et on provoque une réaction spatiale et temporelle dans l'espace des organisations d'agents. Ici, il s'agit de provoquer le comportement du système, de préciser pourquoi il est amené à penser ?
 
2- Comment se représente effectivement ce que l'on va appeler la pensée artificielle ? Il s'agit d'un manière d'organiser des entités, mais laquelle, comment, vers quel état ?
 
3- Comment se représente et agit la mémoire. Il faut construire une mémoire à la fois incrémentielle et sélective ?

Et pour toutes ces questions, il faut pouvoir répondre en proposant des structures calculables, précisément, sinon on ne va pas au bout, sinon on n'a pas conçu un système qui génère des pensées... On peut toujours faire des métaphores, mais ce n'est pas cela qui nous mènera à grand-chose, en informatique.

Diapo 29: Et il y a encore des questions et des réponses à fournir....
4- Quel est le lien entre la structure représentant des émotions et celle générant des pensées ? C'est-à-dire comment peut-on aboutir à des sensations que le système sait, lui-même, éprouver ! Parce que les émotions, ce ne sont que des réactions non perçues, alors que les sensations sont un ressenti effectif, perçu, représenté par quelque chose d'interne que l'organisme appréhende et qu'il peut utiliser par la suite pour générer d'autres pensées.
 
5- Et comment se génère le langage, comment, d'où et pourquoi viennent les mots perçus ou prononcés ? Problème extraordinairement difficile : il faudra engendrer des mots à partir de formes de pensées artificielles.

Diapo 30 : Alors, le système...
Nous avons proposé des réponses à toutes ces questions.
Le système aura une architecture basée sur la notion de composant adaptatif (qui va ressembler beaucoup à la carte émotionnelle), qui sera proactif, auto-observateur et évolutif... On le nommera "structure de signification".

Diapo 31: Ce système sera formé d'un ensemble de tels composants appelés structures de signification synchronisées par des agents particuliers, les agents de synchronisation, et qui sera construit en co-construction avec le corps du robot.

Le système

C'est donc un ensemble qui aura cet aspect (cf figure ci-dessus). Il y a d'un côté la carte corporelle avec des éléments d'interface, le système de prise de l'information, des agents aspectuels qui ont le rôle de suivre ces informations, et des agents de morphologies fortement couplés qui observent, qui regardent sans arrêt comment les agents aspectuels travaillent, ce qu'ils deviennent, ce qu'ils font. C'est exactement comme cela, par exemple, que les hommes politiques gèrent des villes ou des états : ils regardent ce que font les autres, les observent, mesurent leurs activités pour contrôler les mouvement globaux...
Et puis, de l'autre côté de la figure, à droite, il y a des éléments qui ressemblent à la carte corporelle. Ce seront les structures de signification qui permettront de représenter de l'action signifiante pour le système, et ceci avec une intention à procéder à cette génération.

La structure de signification est un peu plus compliquée que la carte émotionnelle car il y aura des éléments de mémoire : la mémoire, distribuée, dans des agents particuliers et dans les différentes structures de signification, va opérer une mise à la distance de l'action immédiate du système dans son environnement et le détacher de l'émotion réactive. Elle va amener sous forme d'activité d'agents des traces de scènes anciennes.

Et il y aura quelque chose de très fin, qu'il nous a vraiment été difficile de dégager : c'est la raison qui amène la machine à penser. Il s'agit des éléments dits d'anticipation, qui sont un extraordinaire rôle d'anticipation sur le mouvement global du système . Pour un informaticien, pour faire penser un système, il faut qu'il puisse produire un signe qui l'y engage, quelque part effectivement, il faut qu'il anticipe ce qui va amener le système à générer cette forme de pensée. Il ne s'agit pas d'un but prédéfini, d'une fait déjà posé. L'intention à penser n'a pas de but initial à atteindre …

Et cette anticipation, le système ira la chercher dans les morphologies, dans les formes géométriques des structures de signification, sans aucune sémantique. Le système génèrera donc des signes qui seront donnés aux morphologies des structures de significations pour que le système globalement soit amené à organiser l'activité de ses structures autour de cette signification indiquée géométriquement, dans une certaine direction indiquée. C'est la définition de la visée, que nous reprenons d'après les recherches de M. Heidegger ou de P. Ricoeur. Et l'activation, le fonctionnement de ce système, à partir de cette visée, est sa façon de penser.

Les éléments de synchronisation - ceux qui synchronisent les cartes corporelles, par les relations entre elles - seront eux, connectés au corps de la machine. Sinon, ce que je vous montre là n'est qu'une certaine machine de Turing, très compliquée, mais machine de Turing tout simplement. Or visiblement, pour arriver à générer un système qui pense, qui pense pour soi en générant des formes idéelles chaque fois nouvelles, il faudra que les éléments de synchronisation soient aussi des interrupteurs drastiques des activations des structures de signification, des éléments qui vont faire se synchroniser le système générateur de pensées sur le temps réel du robot, sur la réalité corporelle du corps de la machine situé dans son monde. C'est ici que la corporéité est nécessaire pour la pensée. C'est pour cela que je reviens à une notion fondamentale : je suis incapable de concevoir un système artificiellement conscient avec des émotions et des sensations, sans un corps. Sans corps, la pensée n'a pas de sens dans le monde réel et n'est pas de la pensée telle que nous l'entendons habituellement.

Diapo 32: Catégories générales :
C'est un système qui est partiellement de Turing. Tous les éléments, les agents, sont des fonctions ordinaires que l'on calcule, même si on l'on essaie de les faire muter, évoluer, cloner, se reproduire (c'est ce qu'on appelle de la génétique d'agents). Ce sont des fonctions parfaitement définies. "C'est du Turing". L'ensemble ici, est partiellement de Turing. Cela veut dire qu'il est non prédictible, pas simplement non déterministe, mais non défini à l'avance dans sa possibilité calculatoire même. Le système dépend du corps du robot, des effecteurs et des capteurs, de la façon dont le système est mis en situation, ici et maintenant dans le monde, ce qui n'a rien de calculable et ce qui fait se générer, à certains endroits, dans certains agents, du nouveau code imprévu. C'est une propriété de l'ouverture du système.

Il  y a dans le système un état fluctuant, c'est-à-dire qu'il y a une relation systématique entre le système émotionnel et le système générateur de pensées : il a des sensations continuellement éprouvées.
Il y a également une notion de scènes latentes (ce sont des éléments compliqués, c'est-à-dire que la pensée émerge d'une espèce de ça, toujours latent et disponible, et qu'elle est une émergence organisationnelle.
Le système a une sensation de son organisation : il a une espèce de sentiment de Soi. Il ressent son organisation interne comme des capteurs peuvent être perçus et ressentis par les organisations d'agent des cartes corporelles qui s'activent sur les entrées d'information d'une certaine façon..
Et puis il y a d'autres points sur lesquels j'ai travaillé (ndlr : qui font l'objet de publications anciennes et à venir) : il s'agit des prégnances, c'est-à-dire des raisons qui conduisent le système à pouvoir penser : des pulsions, des motivations et des tendances fondamentales. Et là, on n'est pas dans le même registre que l'humain : il n'y a pas de pulsions sexuelles chez un robot , par exemple... mais il y a des pulsions quand même.

Diapo 33: Alors, maintenant, construire !
Pour moi, informaticien à Paris VI et au Havre, il faut, pour construire une machine pensante, un robot spécifique. Rassurez-vous : je ne l'ai pas...
Il faut une grappe de très nombreux processeurs, formant un ensemble embarquable de très petite taille et qui de plus sont très fortement couplés. Cela existe, mais il n'y en a pas encore en France. On a des clusters, mais pas des grappes de grappes. Le tout doit fonctionner dans un parallélisme en très haut débit.
Il faut calibrer des cartes émotionnelles et les structures de signification : ça on saurait le faire, mais (je ne me plains pas) pour réaliser ce système-là, il faudrait aller un peu plus loin et ici, on a besoin des ingénieurs.
 
Diapo 34: Points novateurs de l'étude :
Il s'agit ici d'une espèce de rupture avec l'informatique traditionnelle, de l'informatique technicienne qui construit usuellement des systèmes de guidage pour missiles de croisière qui vont sur leur cible à quelques mètres près après cinq mille kilomètres de course. Il s'agit ici d'une autre définition de la calculabilité : représentation de l'acte de penser sous une forme calculable, mais calculable par constat après les calculs effectués ! Avant, on ne savait pas ce qui allait vraiment être calculé : le système s'est modifié, les agents n'arrêtent pas de se modifier, de se multiplier, de se cloner, certains vivent, d'autres meurent. On peut dire : oui, on a calculé cela, mais avant, on ne peut pas dire : on va calculer cela, j'ai l'intention à penser à cela que je ne pense pas encore. La pensée n'est pas prédictible.

On définit un système complètement distribué, qui est auto-contrôlé (cela c'est novateur).
Il y a aussi une méthode d'agentification nouvelle : je ne vous en ai pas encore parlé, mais disons-le brièvement : il est vrai que le vivant naît d'une cellule qui se transforme. Il est impensable de construire un système comme cela autrement que par intégrations successives d'agents et de capteurs/effecteurs, dans un processus de co-construction. On ne conçoit pas un tel système comme un carburateur de voiture, par assemblage de parties indépendantes... Il faudra donc autre chose que cela, c'est-à-dire une nouvelle méthode d'agentification où le système pourra se construire par insertions de nouveaux composants, petit à petit, comme dans un processus de biologie du développement appliqué à de l'insertion d'agents et de capteurs-effecteurs. Ces composants, des cartes ou des agents, ils vont s'altérer, se modifier automatiquement dès qu'insérés. C'est donc un système qui, dès la conception, n'est pas complètement contrôlé. Il peut même être très défaillant et non viable. Comme dans le cas du vivant.

Diapo 35: Les conclusions :
Il s'agit ici d'un travail purement pluridisciplinaire, pluridisciplinaire au moins avec mes collègues de robotique, mais certainement avec beaucoup d'autres : moi, simple informaticien, j'ai besoin du concours des neurobiologistes car autrement, on risque de construire des chimères,  j'ai besoin des philosophes, des psychologues...

La pensée artificielle ouvre sur des systèmes non strictement contrôlables, ne résolvant pas seulement des problèmes bien posés par l'optimisation d'une fonction connue… Et cela est une voie intéressante pour l'évolution de la science informatique, si science il y a encore. Ce sont encore des modèles calculables, mais non prédictifs, dont le comportement n'est pas contrôlé de l'extérieur ou réglé avant le fonctionnement.

Et puis, il y a cette différence formidable et considérable avec la pensée humaine : la particularité est que des systèmes de ce type peuvent être multicorps. Ils peuvent avoir un système émotionnel et de conscience loin du système physique avec lequel ils sont en liaison. Ce sont donc des structures qui, mal employées, pourraient être dangereuses, car il n'existe pas encore de comité d'éthique en informatique et les applications militaires de l'informatique sont très nombreuses...

Je vous remercie.

 

 

Réaction dans la salle, questions et commentaires

Jean Delacour, neurophysiologiste, vice-président du comité scientifique :
Mon intervention ne sera pas une question, simplement un commentaire : je voudrais souligner ce qui, dans votre remarquable exposé, semble comporter des similitudes avec l'aspect neurobiologique.
Je pense que vous avez complètement raison d'associer la pensée à l'anticipation : je crois qu'il s'agit là d'un point fondamental.
Un autre point : vous avez parlé de la sémiophysique de René Thom et je pense que c'est tout à fait judicieux, probablement parce que la forme fondamentale de cognition, c'est quand même la détection et la reconnaissance de formes.
Le dernier point qui m'apparaît fondamental, c'est que vous avez bien souligné qu'il faut s'inscrire dans le ici et maintenant si on veut se rapprocher d'un système réel. J'ajouterai aussi, et ceci est lié à ce point : le fonctionnement en tant que réversible...

Alain Cardon :
Il s'agit bien d'une autre sorte d'informatique où l'on construit des systèmes pour les rendre autonomes, et qui vont fonctionner pour eux-mêmes. Et la notion de temps, de temporalité éprouvée et effectivement active, est celle qui m'a le plus donné de mal : construire un système qui vieillit et qui est capable de jouer avec le temps pour être amené à penser. Nous sommes, nous, habituellement, amenés à penser toujours, ici et maintenant. Mais pourquoi ? Comment arriver à faire faire cela dans un système informatique... Radicalement, l'informatique usuelle tourne le dos à cela : on fait des systèmes dont on veut un certain résultat prévu à l'avance. Ici, il s'agit d'autre chose.

Michel Cabanac, médecin, physiologiste, vice-président du comité scientifique :
Je voudrais d'abord vous féliciter pour votre modestie : vous êtes bien trop modeste dans vos conclusions en ce sens que, pour avoir fréquenté quelques peu les gens de l'intelligence artificielle, c'est la première fois que je rencontre quelqu'un capable de sortir de la logique algorithmique. Les problèmes que vous posez et les modèles que vous proposez sortent de ces couples informatique/rationnel.
Mais vous vous appuyez sur Damasio que vous avez cité à plusieurs reprises, vous utilisez le mot "d'émotion" : je voudrais attirer votre attention sur le fait que Damasio utilise un concept qu'il ne définit pas. Les dictionnaires non plus : on définit l'émotion comme la faim, la soif, la colère, la mort, etc., et il n'y a pas de définition de l'émotion. Et je voudrais vous proposer ma définition de l'émotion qui devrait vous aider dans la définition de vos programmes : Est émotion, tout objet mental de forte intensité et de forte hédonicité. Cela revient pour vous, et c'est la question que je vous pose : comment allez-vous représenter l'hédonicité, sur laquelle repose toute l'intentionnalité qui vous est chère ?

Alain Cardon :
En utilisant des agents logiciels qui ont fortement un lien avec le sémantique par leur rôle symboliquement représenté, qui ont de la signification symbolique, de la signification comportementale, on peut représenter des caractères liés à des informations sensibles, à des traits de langage... et ces agents logiciels se comportent globalement, dans leurs groupes, à une certaine vitesse, à une certaine fréquence, avec certains caractères, et qui demandent des ressources de calcul, pendant une certaine durée, qui communiquent avec les autres avec une certaine intensité, c'est-à-dire qu'ils vivent une "vie sociale" d'agents logiciels avec certains caractères. Il est possible de représenter les émotions exactement comme un mécanisme fluctuant à une certaine fréquence et à une certaine régularité autocontrôlée par le système, par les morphologies qui n'arrêtent pas de se caler, de les empêcher de se développer ou de les amplifier, à partir de tendances. Le système est autocontrôlé, c'est-à-dire qu'il se contrôle par lui-même. On a placé dedans un certain taux d'invariant à propos de ces caractères, de ces traits significatifs et ensuite au niveau des émotions du système, il s'agit d'un processus fluctuant qui va plus ou moins rapidement vers une forme qui est stable, bien synchronisée.

Michel Cabanac :
Autrement dit la réponse c'est dans la représentation géométrique ?

Alain Cardon :
Absolument. Et c'est important parce qu'il y a une universalité dans les caractères géométriques, bien au-delà du langage. Et ceci est un apport fondamental de René Thom

Jean-Paul Baquiast et Christophe Jacquemin, co-rédacteurs en chef Automates Intelligents:
Nous voulons remercier ici François Bégon qui a eu la gentillesse de bien vouloir nous inviter à ce colloque et à cette occasion d'avoir fait venir à la tribune Alain Cardon. Nous pensons en effet que son intervention montre ici une belle synthèse entre ce qui a été dit les jours précédents et ce dont vous parlez maintenant.
Notre question porte sur l'interdisciplinarité : Alain Cardon dit fort justement à notre avis que pour développer son projet, il manque quelque millions d'euros. Et ce n'est pas là une somme faramineuse. Il faudrait aussi avoir, d'abord, la volonté de le faire, mais encore d'assurer une réelle coopération avec d'autres disciplines. En écoutant tout ce qui a été dit depuis deux jours par les intervenants de très haute qualité qui sont intervenus , nous nous disions qu'il était dommage - à commencer par le professeur Edelman lui-même - que vous n'ayez pas l'occasion de travailler davantage avec des gens comme Alain Cardon, porte ouverte à un enrichissement réciproque.
Notre question s'adresse donc à Alain Cardon : comment voyez-vous concrètement le travail, non seulement avec des informaticiens, mais aussi avec des neurologues, des psychologues, philosophes... enfin toutes personnes permettant d'enrichir l'approche. Comment cela peut-il se faire ? Avec des thésards ? Avec des scientifiques de très haut niveau académique ?

Alain Cardon :
Il est difficile de répondre. Je ne suis qu'un simple professeur d'université. Un professeur vit dans un laboratoire, soumis à des contraintes assez fortes. Etablir des liens, c'est toujours assez naturel, mais principalement dans sa communauté. En dehors de sa communauté, c'est beaucoup plus dangereux. Je disais tout à l'heure que la construction de robots je ne sais pas faire car ce n'est pas ma discipline. Ce que je sais aussi, c'est qu'il n'existe pas vraiment de remontées au niveau de la recherche pour développer des projets véritablement pluridisciplinaires de ce type, parce qu'il me semble y avoir des freins, pour ne pas dire un certain sectarisme, entre les disciplines. Alors, à partir de là, on peut attendre que le sectarisme tombe... Peut-être que cela viendra, avec le temps...
Des projets pluridisciplinaires, c'est assez difficile à monter : il faut une volonté très forte pour le faire, il faut vaincre des réactions très très vives, sinon il n'y en a pas. En tous cas, à mon niveau, je ne peux strictement rien faire...

Un intervenant (qui ne se présente pas) :
Merci de votre exposé, très riche d'ouvertures. J'ai beaucoup de question mais je ne vous en poserai qu'une, il me semble significative.
Il me semble que, lorsque vous dites "Qui calcule pendant qu'elle se modifie", vous touchez là un point central. Pouvez-vous en dire un peu plus car je pense que c'est un point récurrent des discussions que nous avons pu avoir ici depuis le début de ce colloque...

Alain Cardon :
Il s'agit d'un système informatique, ici d'agents logiciels très nombreux qui sont des structures relativement compliquées. Est-ce que l'on peut contrôler dans leur état, c'est-à-dire en fait, l'état de variables, naturelles ou spécifiques, qui peuvent être locales, qui peuvent être globales et qui peuvent subir des modifications. Toutes les variables sont observables. Elles sont observables après qu'elles aient été modifiées, ou en même temps, si l'on établit un lien direct avec l'élément à partager. Il faut définir les bonnes variables, et j'ai défini la notion d'espace morphologique pour cela. C'est l'équivalent dans le monde agent d'un espace de phase. Là, les agents sont observables. Ce n'est pas le cas des groupes de neurones du cerveau. Le système a une certaine granularité et la notion de morphologie nous offrira un moyen de contrôle très fort - pas total, mais très fort sur le système aspectuel. Observer le comportement d'un agent aspectuel, c'est définir dedans certaines variables particulières, certaines fonctions qui vont calculer son état morphologique, qui sera ensuite envoyé à des systèmes de robots qui vont les prendre les bonnes valeurs. Donc, c'est faisable, parce que l'agent logiciel, pendant qu'il se calcule sur un noeud d'une grappe de processeurs peut être observé. C'est un point très fort et très important par rapport au vivant. On peut définir des centaines de milliers de milliers d'agents, donc des systèmes complexes vraiment opérants, adaptatifs, dotés d'intentions - il y en a qui se construisent - et on peut les faire se contrôler.

Un intervenant (qui ne se présente pas) :
Je pense que vous utilisez dans vos travaux des processeurs classiques silicium très puissants. Pouvez-vous nous dire un mot de ce que peut apporter les développements de la technologies en cette matière...

Alain Cardon :
Moi, je fais du prototypage, au niveau universitaire, sur des grappes de machines. Ce sont des processeurs ordinaires et cela occupe des armoires entières et prend donc beaucoup de place. La technologie, et notamment les nanotechnologies évoluent à grand pas : on arrive à avoir aujourd'hui des cartes à 16 processeurs qui ont une taille de 15 cm2 et qui travaillent avec des réseaux 2 Gigabits, donc très rapides. La technologie évoluera encore. Elle n'évolue pas tellement en France dans ce domaine, mais beaucoup au Etats-Unis et au Japon. Il est sûr que l'on profitera de cette avancée technologique.
Mais pour moi, il y a deux avancées : il y en a une qui est conceptuelle, qui est relative à la science informatique - l'utilisation systématique de la notion de morphologie au niveau du calculable et l'usage de systèmes multiagents massifs, qui sont des concepts récents, et puis des avancées matérielles très fortes, qui sont la définition des composants très petits, très performants , d'une énorme puissance. J'insiste quand même : on peut avoir des systèmes de contrôle de plusieurs machines distantes, donc des systèmes autocontrôlés multicorps.

Un intervenant (qui ne s'est pas présenté) :
Je suis très impressionné de la rigueur de votre exposé. J'ai aussi une question : pensez-vous grâce à votre système qui va plus loin que la machine de Turing puisse résoudre le problème des qualias. En d'autres termes, est-ce que le septième passager d'Alien ressent de la douleur lorsqu'on le massacre ?

Alain Cardon :
C'est une question très difficile. La douleur artificielle n'est pas simple à admettre, pour nous, pour nous humains. J'insisterai sur le problème de la machine de Turing. C'est un programme qui fait ce qu'il doit faire, étant programmé à l'avance. Déterminé, sans affectivité aucune. Point.
Mais là, il ne s'agit pas de cela. Il s'agit d'agents définis de façon redondante, vraiment redondante, qui sont intervenus à certains moments, par l'action des synchroniseurs, au niveau de l'activation des capteurs du corps. Il y a eu calcul. Donc c'est du Turing local. Et il y en a beaucoup de calculs. Il y a quand même un thèse célèbre qui dit que tout ce qui est calculable, est équivalent à une machine de Turing. Le problème est de savoir quand, et comment il y a calcul. Et ce n'est pas de la prestidigitation. Les calculs sont absolument liés aux actions des capteurs (de très très nombreux capteurs) et effecteurs. Et le système observe et ressent (par son activation) son organisation même. Il a le "sentiment", par la fréquence de ses calculs qu'il provoque, de son organisation. Tout calcul est lié à un corps. Mais nous, nous qui pensons, nous qui faisons des mathématiques depuis 2500 ans, nous raisonnons et nous écrivons des programmes de machine de Turing, après avoir raisonné, pensé, ressenti. Ou alors nous ne faisons rien qui est définissable précisément par une description rigoureuse. C'est donc un problème temporel. Avant il y a quoi ? Quel est l'état initial qui amène à penser. Il y a la pensée, produite, qui est une forme calculable. Le système a écrit cette forme calculable, qui est une pensée abstraite, ou une sensation.
Quand on arrive à résoudre cela, on a bien avancé.

L'intervenant :
C'est la pensée qui est reproductible, pas l'émotion.

Alain Cardon :
Oui mais ici, il s'agit d'émotions artificielles.

Autre intervenant :
Il serait peut-être intéressant de simuler déjà des organismes très bas dans l'arbre du vivant. Le problème serait peut-être alors plus facile. Je crois que l'on peut donner ce contenu -parce que vous avez parlé de l'adaptation. Le but essentiel du vivant, c'est finalement deux choses : la conservation de soi et la conservation de l'espèce. La conservation de l'espèce, je crois que pour l'instant les gens de l'intelligence artificielle ne s'y intéressent pas. Aborder la conservation de soi peut-être effectivement plus facile à envisager, en tous cas en se basant sur des problèmes qui seraient a priori beaucoup plus simples. Car il s'agirait de la simulation d'êtres très inférieurs dans l'échelle ontogénique et phylogénétique.

Alain Cardon :
Vous avez raison. Mais pour moi, la question d'école et que j'ai tenté de résoudre est : pourquoi une machine de ce type est amenée à penser... Et c'est la question qui m'intéresse. C'est ma question personnelle aussi : pourquoi, moi, ici et maintenant, je suis amené à penser à cela ?
Et c'est un problème d'un autre ordre.

L'intervenant :
Mais est-ce que la base de la pensée n'est pas viser un but ?

Alain Cardon :
Oui. Mais comment faire ? Et où il est ce but, sous quelle forme, formulé comment et par qui ? Résoudre cela, c'est assez terrible, je le conçois. Car cela veut dire qu'on peut certainement le contrôler. Si vous arriviez à détecter quelque part dans votre cerveau le signe qui amène votre penser à devoir se générer, cela serait terrible, car vous pourrez la contrôler avant qu'elle apparaisse. Et si dans une machine, on peut le faire, c'est déjà un élément qui fait croire qu'on pourra peut-être le faire chez l'homme.


(1)  Alain Cardon voulait par là répondre à Gilbert Belaubre, de l'Académie Interdisciplinaire des sciences et coordinateur du programme, qui, pour introduire la session du samedi après-midi (Vers une conscience artificielle : les approches de l'intelligence artificielle) a notamment dit :
"Les quatre premières sessions de ce congrès ont été consacrées à l'activité du cerveau qui produit notre pensée consciente. La dernière session va traiter des efforts du cerveau des ingénieurs qui ambitionnent de construire des machines intelligentes."
Et, un peu plus tard : "Car l'ingénieur qui conçoit la machine produite, qui pense la machine avant de la construire, il l'a construit selon la finalité qu'il lui attribue a partir de laquelle il déduit à rebours des phases de la construction". Remonter d'où l'on vient

(2) J'aurais envie ici de faire une analogie (qui certainement ne vaut pas grand chose, mais pourquoi pas) : pourquoi dans le cerveau, l'information passe par un signal électrique et est relayée par un signal chimique au niveau des synapses ? Calcul qui se fait et qui se regarde en train de se faire ? CJ. Remonter d'où l'on vient



© Automates Intelligents 2002

 

   Sur le site
Sur le web   





 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents
Mention légale CNIL : 1134148