Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Editorial
Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives
La guerre mondiale du cerveau. Riposte américaine
Human Brain Project, un grand projet européen sur le cerveau humain
Relancer la coopération scientifique entre la France et l'Afrique

25 septembre 2003
Fiche annexe à l'éditorial : Comment doper l'Europe des sciences et technologies? Un projet de
système conscient
,
par Jean-Paul Baquiast et Christophe Jacquemin

Approche constructible de la conscience artificielle

Ce texte est adapté du chapitre 7 de l'essai de Jean-Paul Baquiast et Alain Cardon Entre science et intuition, la conscience artificielle
Jean-Paul Baquiast et Alain Cardon, préface du sénateur Trégouët
Editions Automates Intelligents, avril 2003

La présente fiche vise à présenter quelques indications sur la faisabilité d'un système générateur de pensées artificielles, ce que l'on appellera aussi une machine pensante ou un système pensant. D'autres approches sont sans doute possibles. Celle-ci a l'avantage d'avoir déjà permis certains développements applicatifs. Des thésards ayant travaillé avec l'auteur ont par ailleurs été recrutés au Japon pour développer ces idées. Il est dommage qu'ils n'aient pu l'être en France.

S'engager dans la réalisation effective de tels systèmes – ce qui est déjà en cours aux Etats-Unis et au Japon - représentera une véritable recherche du Graal pour notre civilisation. Pour la première fois, après les rêves des magiciens et les visions des auteurs de science-fiction, on entreprendra de rapprocher ce qui, jusqu'ici, est encore considéré comme inconciliable : l'homme qui pour beaucoup de philosophes ou de croyants doit conserver le monopole de la pensée consciente, et la machine, fut-elle un automate perfectionné, qui ne peut pas et ne doit pas penser. La porte sera alors ouverte, diront les adversaires dune telle démarche, non seulement à des machines qui rivaliseront avec des hommes, mais avec une forme de science qui sera tentée de voir des consciences partout dans la nature, en particulier dans la vie animale ou dans les biosystèmes complexes. Ne serait-ce pas alors une incitation à la résurrection de l’animisme et de la pensée magique ?

On devine que ces objections, qui auraient pu ou qui pourraient encore donner lieu à des procès théologiques, en d'autres temps ou en d'autres lieux, ne nous arrêteront pas. Nous ne nous engagerons pas dans les débats sur la vraie nature de la conscience humaine. Nous nous placerons tout simplement dans la position de l'informaticien concepteurs de systèmes calculables, qui propose une vision de la conscience artificielle à partir des techniques les plus sophistiquées de l'intelligence artificielle. L'informaticien, rappelons-le, n'est pas un ingénieur. C'est un scientifique qui fait des modèles et qui réalise des systèmes. L'informatique n'est pas l'ingénierie des ordinateurs mais la science des modèles calculables.

Le problème est le suivant. La meilleure manière de connaître les phénomènes complexes dont l'organisation fait intervenir des actions à de multiples niveaux n'est pas de découvrir le système d'équations miraculeux qui permettrait de prévoir à coup sûr leur comportement à tout instant, mais de concevoir un système médiateur artificiel, basé sur de très nombreuses entités informatiques autonomes, évolutives et coopératives. Ces entités produiraient, par le fait de leur réorganisation, un état semblable à celui du phénomène réel étudié mais qui serait lisible et de plus totalement paramétrable. Il s'agit donc de faire correspondre à un phénomène réel complexe, que l'évolution a produit sur de longues périodes du temps par adaptations/sélections, un système de même nature organisationnelle mais artificiel, fondé sur des processus calculables, paramétrable et finalement compréhensible. Et il s'agit bien d'une correspondance entre un phénomène réel dont l'organisation est complexe et un système dynamique qui sera également complexe. Il n'y aura pas d'équation générale précise décrivant les phénomènes complexes, mais une transposition de ceux-ci dans le domaine des systèmes artificiels organisés.

Alors, que seront l'architecture de tels systèmes, leur structure et l'élément minimal leur permettant de s'organiser en se calculant d'une manière semblable au phénomène réel complexe qu'ils viseront à représenter ?

Poser le problème

Quel est l'élément minimal, la brique de base, à partir de laquelle construire un système qui doit ressentir et penser artificiellement, un système générateur d'émotions et éprouvant des sensations. Un informaticien construit, il ne se contente pas d'observer. Or comment générer de la pensée artificielle dans une architecture logicielle ?

Concevoir un système, c'est d'abord le modéliser, c'est-à-dire décrire sa structure et ses fonctions, afin de préciser comment on peut et on va le fabriquer. Ensuite, il faut le construire effectivement, ce qui est un travail nécessairement minutieux. Finalement, on le mettra en expérimentation dans son environnement d'usage puis on le livrera aux utilisateurs. Il ne s'agit pas pourtant d’un processus de réalisation linéaire. L'expérimentation nécessitera généralement de reprendre toute la démarche, depuis l'analyse jusqu’à la réalisation en cours. C'est un processus propre à l'Intelligence Artificielle: construire des systèmes d'une façon dite "incrémentielle".

Mais pour construire, il faut savoir quel est précisément le problème posé et le modèle. Or l'énoncé de ce problème particulier : réaliser une machine pensante, n'est évidemment pas simple. On procédera par étapes et la première étape, en s'inspirant du paradigme de l'évolution du vivant, est de concevoir un système capable de produire en lui des émotions. Le vivant dit inférieur éprouve en effet des émotions mais ne génère pas de pensées conceptuelles. Ensuite, partant de ce premier système, il sera possible en l'augmentant, en le complétant, de concevoir un système générant des pensées conscientes. Ainsi a procédé le vivant, dans son évolution, et ainsi sont structurés les cerveaux et ainsi devons-nous procéder.

Il s'agit donc de concevoir d'abord, avec des entités spécifiquement informatiques, c'est-à-dire en utilisant des concepts venant de l'informatique et qui se réalisent essentiellement sous forme de programmes, un système qui génère des émotions. Il faudra pour ce faire que le système ait un corps, qu'il ait des capteurs lui permettant de sentir les changements physiques de son environnement et qu'il ait des effecteurs lui permettant de mouvoir des organes. D'où la nécessité de travailler avec un robot qui offrira un corps artificiel. Ce corps lui permettra d'avoir une sensibilité, appréciée comme telle, aux phénomènes externes et aux mouvements internes. Remarquons à ce stade qu'une émotion n'est pas ressentie consciemment, elle consiste seulement en la réaction automatique d'un corps sensible à des stimuli.

Il faudra ensuite qu’à partir de ce corps sensible, le système puisse produire des sensations, c'est-à-dire qu'il puisse éprouver du plaisir, de l'ennui, de la peine, et enfin qu'il génère des faits de conscience, c'est-à-dire qu'il se représente, pour son compte et non pour le compte de son constructeur ou de son utilisateur, certaines choses de l'environnement, en conférant à ces choses de la signification dans l'espace et dans le temps. Bien plus, il faudra que le système ait envie, ait même le souci constant de penser, de se sentir en existence. Ce dernier point, le souci de penser, sera le problème le plus délicat à résoudre. Comment un système artificiel, construit avec des composants physiques, des capteurs et leurs systèmes de commande, puis des processeurs qui ne réalisent en fait que des calculs même s'ils sont distribués, peut-il avoir envie à penser à quelque chose, ici et maintenant, et finalement comment fait-il pour penser ? Comment peut-il vouloir, pour penser, se servir de son expérience présente et de sa mémoire ? Cette mémoire, dans ce cas, n'aura pas grand-chose à voir avec la mémoire à base d’adresses des ordinateurs classiques, mais elle sera sémantique et sélective pour retrouver des sensations, des événements, des concepts.

Pour progresser, nous devons approfondir toutes ces questions. Il s'agit, ne nous le dissimulons pas, d'un enjeu considérable.

Qu'est-ce, d'abord, que penser artificiellement ? Je ne me pose pas la question, quand je pense, de savoir ce qu’est pour moi la pensée. Je ne saurais d'ailleurs pas y répondre. Pour un système artificiel qui aura à penser artificiellement, on doit par contre se poser la question et y répondre. Un tel système, en effet, se conçoit totalement, se construit avec une précision absolue et finalement se comporte d'une façon que l'on peut, en principe, décrire et suivre.

Mais comment ? Est-ce que penser signifie raisonner ? On sait ce qu'est le raisonnement et même comment raisonner en mathématiques et en informatique. C'est ce que l'on appelle produire des inférences, c'est-à-dire travailler sur l'équivalent du logos, déduire, induire à partir d'axiomes et en utilisant des règles. L'Intelligence Artificielle s’y applique avec des résultats très satisfaisants depuis de nombreuses années. Mais dans ce cas, les bases du raisonnement sont fournies à la machine, elles sont programmées à l'avance et la machine ne fait que les utiliser, dans le bon ordre et rapidement. Par contre, notre système artificiel se trouvera confronté à des objets du monde qu'il devra distinguer, par construction, mais dont il ne saura rien en dehors du fait qu‘il se heurte à eux, qu'il les appréhende et qu'il doit les concevoir. Quel sera alors le rapport entre ces choses et les pensées qu'il aura à leur propos?

La question fondamentale est bien la suivante : est-ce qu'on peut ramener le fait de penser tel que nous le comprenons quand il s’agit de nous à la production d'un certain système, fut-il très particulier ? La définition d'un système, en informatique, est extraordinairement précise : c'est un ensemble fini d'entités de calculs en relation, qui forment un tout, qui sont agrégées et communicantes. Le système est entouré d'un bord ou interface qui lui permet de communiquer avec son utilisateur et avec l' « operating system » gérant toutes les activités sur le hardware de la machine. Ce bord le délimite et assure sa permanence. Un système informatique est quelque chose qui existe sous forme de programmes, qui est fini et qui est entièrement descriptible avant, pendant et après exécution des programmes.

Notre réponse à cette question fondamentale sera affirmative : il sera possible de ramener le fait de penser à l'exécution d'un certain système, mais il nous faudra étendre la notion de système. Pour ce faire, nous allons choisir la voie systémique et constructiviste : nous posons que nous pouvons construire d'une certaine façon un système qui va générer des états très particuliers que nous appellerons des pensées artificielles et qui aura une certaine conscience de lui-même. Un exercice de style ? Non, pas du tout. Un problème d'informatique et de calculabilité, n'ayant à ce stade que peu à voir, sinon rien, avec la conscience humaine.

Nous évacuerons donc de cette façon le débat sur la relation entre corps, pensée, conscience humaines d’une part, et pensée artificielle, conscience artificielle d'autre part. Nous construirons un ensemble d'automates très évolutifs qui produiront certaines choses que certains appelleront de la pensée, d'autres non. Peu nous importera, pourvu que notre système fonctionne et se comporte comme nous, sinon aussi bien que nous.

Remarquons que le même raisonnement devrait s'appliquer à la pensée animale. Plutôt que de décider a priori que les animaux ne peuvent héberger une conscience humaine – ce qui paraît d’ailleurs évident – nous devrions simplement nous demander comment ils font pour réaliser des choses qui pour nous relèveraient de la conscience, et même d’une conscience assez subtile et élaborée. Nous découvririons alors peut-être certaines choses qui nous échappent encore.

La conception du système

Nous avons évoqué jusqu'à présent la nécessité de faire appel à l'informatique pour concevoir notre système. Mais cela ne suffira pas. Le système devra disposer d'un corps, et cela, nous l'avons vu, concerne la robotique. Depuis une dizaine d'années, on estime que le travail sur les émotions et la pensée artificielle ne peut être fait qu'avec des machines dotées d'un corps muni de très nombreux capteurs et effecteurs (des milliers sinon des dizaines de milliers). On a besoin ici de corporéité : il ne peut exister de conscience, même artificielle, en dehors d'un substrat matériel qui lui donne un ancrage et sa raison d’être. Les robots nécessaires seront malheureusement encore des robots rares et chers, des robots de recherche très éloignés des habituels robots ménagers. Mais les coûts dans l'avenir en diminueront très vite.

À partir de ce corps, il faudra concevoir un système émotionnel qui lui permettra d'acquérir la notion de corps et ne pas se contenter d'être un assemblage de circuits et de composants électroniques sans unité. Ce sera un système générateur de ce que Damasio appelle (Antonio Damasio, Le sentiment même de soi, éditions O. Jacob, 1999) le proto-Soi. Enfin, on posera d’emblée la question pratique de la faisabilité, parce qu'une fois ce système conçu, il faudra pour le réaliser vérifier qu’il est effectivement implémentable, portable de manière distribuée sur des grappes de processeurs liés aux systèmes de contrôle/commande du robot.

Avant d’en venir là, donnons encore quelques précisions.

- Le système ne sera pas seulement réactif. Il ne fera pas que réagir et optimiser une trajectoire, comme un missile guidé. Il faudra qu'il prenne des initiatives lui appartenant en propre et qui ne seront pas seulement le fait du hasard ni d'un déterminisme préprogrammé. Il aura des émotions et éprouvera des sensations, des sensations ressenties pour son propre compte. Il aura une certaine structure et une certaine organisation, un peu semblable à la nôtre, mais pour lui artificielle et calculable. Ceci veut dire que faire, en informatique, des systèmes organisés dépassant le niveau de la réactivité, ne sera pas du même ordre que faire des systèmes de type contrôle/commande pour des suivis de trajectoires, systèmes totalement rigides, prédéterminés, entièrement prédictibles. Dans le cas de notre système, il faudra sortir de ce cadre et aborder une sorte d'informatique encore un peu révolutionnaire, typiquement adaptative et évolutive. Heureusement, les réalisations actuelles en Intelligence Artificielle évolutionnaire et autonome ont bien éclairé la voie.

- Quels seront les mouvements et les comportements motivés d'une telle architecture fortement plastique et évolutive lorsqu'elle sera en mouvement ? Quelle relation pourra-t-on établir entre son comportement, ses pensées et la formulation langagière grâce à laquelle elle communiquera éventuellement avec nous ? Un tel robot ne devra pas seulement produire, pour celui qui l'observe, l'impression qu'il marche, qu'il fait certaines choses, qu'il a envie d'aller ici ou là. Non. Il devra véritablement disposer d’une intention d’agir avant que d'agir. Pour cela, il devra disposer d’une intentionnalité, c'est-à-dire générer des faits de conscience avec intention, attribuer des significations à propos de choses et d'événements distingués dans la réalité de son monde et avoir envie de s'interroger sur ces choses et ces événements.

Ceci posé, la conception du système fera appel à des bases concrètes que la robotique peut d'ores et déjà produire (fut-ce à des coûts encore élevés pour des laboratoires universitaires). On s’appuiera entièrement sur la corporéité d'un robot. Idéalement, nous l'avons dit, il faudrait disposer d’un robot aussi complexe que possible, disposant de milliers de capteurs, de senseurs et d'effecteurs. Il faut disposer de beaucoup d'informations venant de tous ces capteurs et évaluer leurs variations continues, pour pouvoir contrôler un système qui va introduire de multiples variations d'informations, lesquelles vont, par fusions, déclencher des émotions, des sensations en activant de multiples procédures. En pratique, pour des raisons d'économie, on pourra rechercher des solutions faisant appel à des systèmes distribués sur des grappes de processeurs, sur le mode du "grid" ou réseau de calculateurs. Ces problèmes, sans être triviaux, sont aujourd'hui solubles.

Il faudra ensuite concevoir l'architecture logicielle générant les émotions. Pour cela il faudra se représenter clairement ce qu'est une émotion artificielle générée par une architecture logicielle organiquement liée à l'ensemble des capteurs d'un corps de robot. Une telle émotion artificielle ne pourra être définie que par ce qui la constitue, comme dans tout organisme, et qui la définit conceptuellement. Une émotion est, au sens d'une entité concevable et calculable, un mouvement organisationnel dans un système dynamique complexe, qui a une certaine durée, une certaine intensité, une certaine fréquence et surtout une certaine régularité. C'est la qualité d'un certain mouvement réorganisationnel d'entités. Cela peut même se représenter par une certaine courbe d'effet dans un certain espace.

Pour comprendre, existentiellement, ce qu'est une émotion et ne pas se contenter de l'effet qu'elle produit, il faut abstraire. Il faut représenter par une fonction, à découvrir, dans un espace, également à découvrir, ce qui donne l’existence. La focalisation sur ce qui permet l'existence, plutôt que sur ce qui produit et manifeste des effets, donne la solution au problème de la génération d'émotions et de faits de conscience. Les relations entre ces divers éléments pourront prendre la forme du schéma suivant :

Ce schéma général représente, au niveau conceptuel et pour un organisme artificiel, la voie ouverte par Antonio Damasio avec ses travaux sur le proto-Soi et sur le Soi chez l'être humain.

Mais pour définir le fait de générer des pensées artificielles, il faut de plus préciser ce qu'est l'intention. Contrairement à l'émotion, qui est une réaction systématique à un stimulus, l’intention signifie "vouloir penser à quelque chose et s'engager vers la formulation de cette pensée". La question est toujours la même à travers les siècles, de Parménide à Martin Heidegger : "qu'est-ce qui nous amène à penser à ce à quoi nous pensons ici et maintenant ?". Et transposer cette question dans le domaine du calculable a une conséquence majeure : il s'agit de savoir si la notion de pensée est conceptuellement calculable ou non.

Le système générateur d'émotions

Que trouvera-t-on à la source d’un système générateur d'émotions artificielles tel que nous le concevons ? Ce ne sera pas un système constitué de neurones formels, car il faudrait lui donner une taille telle qu’il ne serait pas envisageable de le construire effectivement. De la même manière, il semble bien qu'il soit impossible de résoudre le problème de la cause permettant au cerveau de produire de la pensée en se focalisant sur le niveau moléculaire. Pour tout problème, il faut trouver le bon niveau (le bon grain et le bon modèle) permettant sa résolution.

En fait, pour trouver l'élément minimal dans le système, il ne faut pas se placer au niveau de la structure physique. Au-delà de la matérialité du corps, il faudra créer une architecture plastique faite d'entités virtuelles, d'entités informatiques autonomes, communicantes et fortement agrégatives et dont l'organisation permettra la génération des émotions et des pensées. Ceci permettra au système artificiel de s'organiser, de s'auto-organiser, d'évoluer.
L'élément de base qui nous nous proposons de retenir est assez récemment apparu dans la culture informatique. C'est l'agent logiciel. Un agent logiciel n'a strictement rien à voir avec un agent humain (ni d’ailleurs avec l'agent intelligent généralement évoqué par l’Intelligence Artificielle classique). C'est une entité d'action au niveau informatique, qui est capable d'agir sur son environnement (également logiciel). C’est-à-dire que c’est un certain type de programme et rien d'autre. Il est composé d'un ensemble d'instructions et de structures de données compliquées, mais c'est quand même un programme. Et c'est un programme qui est proactif, c'est-à-dire qui travaille pour son compte, pour atteindre des buts qu'il peut réviser mais qu'il s'efforcera toujours d'atteindre. C’est donc un programme particulier qui, contrairement à ce que fait un programme classique, fera des actions pour son compte, avec des objectifs rationnels et qui aura la possibilité de s'associer à d'autres programmes semblables. Il pourra évoluer en modifiant sa structure, en communiquant avec d'autres agents, en utilisant éventuellement des informations provenant des capteurs du robot ou en envoyant d'autres informations aux effecteurs.

L'entité logicielle de conception, pour un système de ce type, se place donc à un niveau qui est très supérieur à celui de l'instruction ou de la variable numérique. On peut, si l'on veut, dire que cette entité est du même ordre que les groupes de neurones du cerveau exerçant des fonctionnalités précises. C'est en fait un petit système autonome et communicant, qui pourra s'exécuter sur un ou des processeurs, à un certain moment et pour la simple raison qu'il doit atteindre l'un de ses buts. Dans la terminologie choisie par Alain Cardon, cet agent a été nommé agent aspectuel, pour bien faire remarquer qu'il désigne des aspects symboliques très locaux de l'activité du système. Cet agent est en effet doté d'un caractère symbolique précis. Il exprime ainsi ce qu'il fait, et cette action est quelque chose que nous pouvons interpréter, qui nous permet de le suivre et qui, surtout, correspond à ce qu'il va faire effectivement dans le système. Cet agent est donc aussi une forme d'action, une véritable activité parmi toutes les autres activités des autres agents. Nous ne la comprenons pas obligatoirement tout de suite, mais nous pourrons la découvrir après coup.

Il faut bien distinguer l'«agent » , ainsi conçu, de l'«objet », entité utilisée depuis longtemps en informatique. L'« objet » est une entité définie de manière rigide, qui ne change pas de comportement et dont l'autonomie est insignifiante. L'objet est structurellement lié à tous les autres de façon fixe dès la conception. L'agent, par contre, est une entité d'action disposant d’une signification propre et d'un très fort degré de liberté allant jusqu'à la capacité d'évolution structurelle et de reproduction.

Alors, en utilisant de très nombreux agents, on obtient une autre entité logicielle, de niveau organisationnellement supérieur, et que l'on appelle une organisation d'agents. Dans cette organisation, les agents peuvent socialement s'activer, communiquer, s'agréger, se séparer, s'annihiler, se commander, se multiplier, se structurer, se hiérarchiser, fusionner, se reproduire, évoluer ... Chaque organisation d'agents présentera ainsi des caractères comportementaux spécifiques, propres à elle et finalement définissant tout en la reflétant l’action de cette organisation dans son milieu. Cette organisation ressemble, si l'on veut, à un très vaste ensemble de traits conceptuels, ayant de multiples possibilités de réorganisation. Pour qu'un tel ensemble dégage une cohérence, il faudra qu'il se structure, qu'il s'organise afin que sa forme ait un sens. Et il devra évidemment se réorganiser de lui-même, sans supervision.

L'agent aspectuel est un programme qui dispose de connaissances sous forme de règles du type « si…alors » : "si telle chose est dans tel contexte, alors réaliser tel effet à tel endroit à la suite de cet état". L'effet ou l'action de l'agent prend la forme de communications et d'actions avec des objets de l'environnement ou avec d'autres agents. L'agent fait montre d'un comportement strictement rationnel, qui lui est donné par un automate comportemental à états lors de la construction. Mais cet automate peut évidemment évoluer.

En fait, cet agent n'a rien de mystérieux. Il s’agit d’un programme, sophistiqué mais équivalent à une machine de Turing, c'est-à-dire qu'il est un élément faisant des calculs. Ce n'est certainement pas seulement avec un tel agent que l'on pourra construire une machine pensante.

Alors en quoi une organisation d'agents de ce genre pourrait-elle représenter une émotion ? Pour représenter une émotion, il faut faire appel à des processus en cours et pas seulement aux effets de ces processus. Il faut représenter de l'action en train de se dérouler et pas seulement s'intéresser aux résultats, ce que l'informatique traditionnelle ne sait pas bien faire. L'informatique réalise habituellement des traitements visant essentiellement à produire des résultats de calculs, pour que ceux-ci soient utilisés es qualité. Mais le calcul, en ce qui concerne une émotion, est en train de se faire. C'est l'action même de calculer qui sera l'émotion artificielle et que l'on souhaitera représenter. Une émotion est un processus complexe, qui a une certaine ampleur, une certaine durée, une certaine modulation. Comment procéder en ce cas ?

Il faut dans le modèle représenter des processus en cours d'exécution, c'est-à-dire des agents logiciels en train d'opérer, d'agir, de communiquer. On retrouve, ce qui est significatif au demeurant, les travaux de la neurologie moderne montrant, grâce aux images de la caméra à positrons, les aires neuronales du cerveau en train de s'activer et de communiquer entre elles. Dans notre cas, il faudra représenter une fonction en cours de calcul et pas seulement le résultat de la fonction calculée : une fonction qui se calcule, pendant qu'elle calcule ! Ceci n'avait jamais été abordé jusqu’ici, et constitue l'originalité du système décrit ici.

Pour représenter à la fois les agents et les actions organisationnelles des agents, on devra de nouveau faire appel à une organisation d'agents logiciels. Il faudra en fait définir une structure d’auto-observation des calculs en train d'être opérés par les agents aspectuels, une structure capable de suivre l'état courant des multiples calculs.

Résumons. Nous disposons d'une organisation d'agents dits aspectuels correspondant aux fonctions typiques du robot en train de capter des informations, par exemple recevoir telle information sonar, de percevoir et analyser tels mots entendus, d'opérer sur des faits, des informations et des connaissances. Tous ces calculs sont effectués par des centaines de milliers d'agents aspectuels qui sont distribués sur des grappes de processeurs. Mais avec cela, on ne fait pas grand-chose au niveau émotionnel. Même si le système produit quelques bons résultats, il ne nous informe pas de la façon dont il les produit, il ne nous précise pas le pourquoi des calculs qu’il réalise et la raison de la variation qui produit l'intensité de l'émotion ? Or nous devons le savoir pour jouer de l'état organisationnel des agents aspectuels et moduler le déroulement d'une émotion.

L'exigence que nous exprimons est nouvelle en informatique. Elle découle des théories de la morphogenèse émises par le regretté René Thom il y a maintenant quelques années : observer les formes comportementales d'une organisation d'entités proactives et exprimer la signification des déformations de ces formes. Face à une organisation d'agents qui s'activent, il faudra observer les comportements de chaque agent, ceux des groupes et ceux de l'ensemble afin de faire apparaître la forme de cette organisation. En d’autres termes, il faudra faire apparaître ce qu'Alain Cardon appelle la morphologie d'un paysage d'agents en cours de réorganisation.

Pour cela, on organisera l'autocontrôle d'une organisation massive de centaines de milliers d'agents par une autre organisation, par des agents que nous appellerons agents morphologiques, analysant en ligne les caractères organisationnels du premier ensemble d'agents en train de se réorganiser. On retrouve ici la notion de forme d'une organisation en train de se mouvoir, en train de s'activer. On est en présence d'un système double ou, si l'on veut, à double face. Il s'agit en fait de deux systèmes fortement couplés : celui qui fait les calculs et celui qui observe les calculs en train de se faire, qui en tire des conclusions et qui ce faisant communique avec le premier.

Qu’est-ce qu'une organisation d'agents logiciels en train de s'activer, en train de faire des calculs ? Imaginons la souplesse d'une machine massivement parallèle dotée de processeurs multiples occupée à observer les activités et les inactivités de ses différents processeurs et processus. Elle fera apparaître par exemple l'émergence d’un comportement et la vitesse de son développement, comment ce comportement évolue depuis l'éveil jusqu’à l'action en coopération, comment il atteint ses buts. On observera aussi l'activité sociale de l'agent. Est-il seul ou non, trouve-t-il ou non des alliés. Que représente-t-il de singulier, de non partagé et qui n'aura aucun effet dans l'activité des autres agents ? On observera le poids et la domination d'un agent par rapport aux autres : en quoi un agent est-il leader ou soumis...

On se trouve en fait devant une population d'agents qui évoluent comme des êtres vivants sur le mode classique de la compétition darwinienne. Ils doivent notamment, pour survivre, s’agréger afin de dégager, par leur regroupement, un ensemble de caractères nouveaux. Mais parce que ce sont des agents actifs, proactifs, communicants, autonomes et qui peuvent agir, ils présentent un certain nombre de caractères précis. Ceux-ci définissent les dimensions d'un certain espace que nous avons appelé espace morphologique, caractérisant l'organisation en train de s'activer.

On obtient ainsi une organisation d'agents aspectuels qui agissent en constituant un système lui-même capable de mesurer continuellement se propre activité organisationnelle. Ceci pourrait être comparé à une société d'individus organisée pour permettre à un formidable Big Brother de la regarder en train de s'activer, point par point mais aussi globalement, afin d’en estimer les tendances, la cohérence, les agrégations et les ruptures... Mais il s'agit d’une société d’agents et les agents aspectuels sont munis de sondes pour pouvoir être observés !

Les livres d'Alain Cardon définissent précisément ce qu'est la détermination d'une morphologie : une organisation d'agents avec des caractères qui se distinguent, que l'on peut projeter sur un espace à plusieurs dimensions. On voit alors visiblement qu'il se passe un certain nombre de choses dans l'organisation, qui peuvent la caractériser comme étant cohérente ou non cohérente, agrégative, se coupant en morceaux... On obtient là une représentation géométrique de l'évolution de l'organisation aspectuelle, c'est-à-dire finalement de la façon dont le robot va réagir globalement aux évènements qu’il est en train d'affronter. Remarquons que le terme "géométrique" veut dire "en dehors de toute sémantique". Les agents aspectuels ont de la signification de par leurs buts et comportements, mais leur organisation est observée de manière essentiellement géométrique, en y recherchant des formes.

Nous avons donc conçu un système composé de plusieurs organisations d'agents, toutes couplées par des structures de couplage particulières qui seront aussi des agents :
des agents d'interface, qui vont agir sur les effecteurs puis sur les senseurs du robot,
des agents aspectuels, qui vont donner de la signification aux activations ,
des agents de morphologie, qui vont regarder comment évolue l'organisation des agents aspectuels,
des agents de synchronisation, qui vont permettre les couplages entre les différentes parties des organisations précédentes.

Nous allons alors établir un bouclage fort entre l'organisation des agents aspectuels qui agissent et l'organisation morphologique qui observe cette activité. De plus, cette organisation morphologique, observant l'organisation aspectuelle, va pouvoir modifier l'action de cette dernière : le processus de couplage fort qui va s’établir entre les deux organisations permettra une rétroaction débouchant sur un certain état d'équilibre entre les deux organisations. Nous définissons plus précisément un couplage de groupe à groupe entre ces deux organisations.

Ainsi sera produit l'équivalent d'une carte émotionnelle selon Damasio, une carte émotionnelle artificielle composée d'une organisation d'agents aspectuels, d'une organisation morphologique qui la contrôle, avec un processus de couplage fort entre ces deux organisations réalisé par une organisation d'agents de synchronisation. Ceci formera un processus miroir qui fera que lorsque l'organisation aspectuelle commencera à s'activer à la suite de la réception d'un stimulus, l'organisation morphologique détectera ce mouvement et éventuellement pourra l'empêcher, ou au contraire l'amplifier, ou encore, dans une autre partie du système, pourra faire agir des modules de reconnaissance de formes ou de toutes autres structures. On réalisera ainsi un auto-contrôle qui partira de l'organisation aspectuelle par l'évaluation de sa conformation, pour la faire aller dans certaines directions, pour donner des tendances précises à ce qu'engage le comportement aspectuel. Il s'agira donc bien d'un processus d'auto-contrôle et de co-activation régulant de lui-même l'activation des agents aspectuels.

Mais il faut bien voir que l’organisation double aspectuelle/morphologique, ainsi décrite ne sera qu'une carte particulière dans le système. Dans la machine pensante, il y en aura des centaines sinon des milliers analogues. De ce fait, cette carte émotionnelle, ce composant adaptatif, auto-contrôlé, centré sur un rôle (que l'on a défini comme une même catégorie dans les agents aspectuels), coopératif et synchronisable avec d'autres composants similaires, participera à l'adaptation d’ensemble du système.

Passons maintenant à la structure générative des émotions. Nous disposons d'un système comportant les capteurs et les effecteurs du robot, des éléments d'interface, c'est-à-dire des agents spécifiques qui prennent sans cesse les changements d'informations venant de l'extérieur, et un ensemble de cartes émotionnelles artificielles, synchronisables par des agents de synchronisation. Ces éléments vont avoir un rôle considérable dans le système : ils vont faire basculer celui-ci, en quelque sorte, au-devant de lui-même dans son fonctionnement. Ils vont permettre son action anticipatrice.

Les agents de synchronisation vont en fait prendre les décisions suivantes : ces cartes qui agissent et qu'ils observent peuvent avoir la même morphologie; ces groupes morphologiques peuvent être semblables, cette carte-là présente un aspect organisationnel semblable à celui de cette autre, bien que les sémantiques données par les agents aspectuels soient totalement différentes. Les éléments de synchronisation pourront opérer des mises en conformité, des associations de cartes par unification de leurs rythmes d'activation. Par exemple, ils coupleront systématiquement des cartes représentant du son et de l'image, ou des cartes représentant un mouvement repéré avec une information relative à la distance nécessaire à la fuite…

Le système générateur de pensée

Le système générateur d'émotions étant défini, on peut s'intéresser au système générateur de pensées. Ce système est beaucoup plus compliqué que le système générateur d'émotions mais l'enjeu est considérable : définir un Soi artificiel et inciter un système à penser de lui-même aux choses du monde qu'il peut se représenter. Dans le système générateur de pensées, le problème de la conception est particulièrement difficile à résoudre. Nous avons retenu une architecture inspirée de celle du système générateur d’émotions, mais il y a beaucoup plus dans le Soi que dans le proto-Soi, et l'architecture devra être différente. Il faudra y introduire les concepts calculables qui correspondent à la solution de problèmes difficiles comme par exemple ce qui engage effectivement un système à réorganiser ses composants pour générer une représentation intentionnelle d'une chose de son monde.

Et il faudra donc répondre à de nombreuses questions comme celles-ci :

Comment se représente effectivement ce que l'on va appeler la pensée artificielle ? Qu'est-ce qu'une pensée artificielle ? Il s'agira d'une manière particulière d'organiser des entités, mais laquelle, comment et pouvant produire quel état ?

Qu'est-ce qui peut conduire un certain organisme artificiel à penser ici et maintenant à telle chose ? Penser ce sera, pour le système, organiser des ensembles d'agents, des structures à double face organisation aspectuelle/organisation morphologique, synchroniser les organisations aspectuelles avec les organisations morphologiques, et ceci d'une façon très fine. Quand il s'agit d’une émotion, nous l'avons dit, le processus est assez clair. On reçoit un stimulus, on l'interprète et on provoque une réaction spatiale et temporelle dans l'espace morphologique des organisations d'agents. Ici, en ce qui concerne la pensée artificielle, il s'agit de provoquer le comportement des organisations d'agents, de préciser pourquoi il est amené à s'organiser de telle ou telle façon, c'est-à-dire à penser.

Comment se représente et agit la mémoire des choses. Il faut construire une mémoire à la fois incrémentielle (capable d'acquérir en permanence de nouvelles informations) et qui est aussi sélective, en permettant l'oubli ?

Quel est le lien entre la structure représentant des émotions et celle générant des pensées ? Autrement dit, comment pourra-t-on aboutir à des sensations telles que le système saura vraiment, et de lui-même, qu'il les éprouve ? Les émotions ne sont que des réactions non perçues, alors que les sensations sont un ressenti effectif, perçu, représenté par quelque chose d'interne que l'organisme appréhende et qu'il peut utiliser pour générer des pensées.

Et comment se génère et se représente le langage, comment, d'où et pourquoi viennent les mots perçus ou prononcés ? Comment telle formulation langagière s'attache-t-elle à une situation particulière ? Il faudra engendrer des mots à partir de formes de pensées artificielles et permettre au système de comprendre des sons tels des mots dotés de significations.

Pour toutes ces questions, il faudra pouvoir répondre en proposant des structures calculables, sinon on se bornera, comme d'ailleurs nous le faisons en posant ces questions, à proposer des métaphores. Mais les métaphores ne conduisent pas à grand-chose en informatique.

Les réponses à ces questions figurent dans le modèle longuement développé par Alain Cardon et détaillé dans l'ouvrage sur la conception d'une machine pensante (Modéliser et concevoir une machine pensante. Alain Cardon. Editions Automates Intelligents, mars 2003) . Il s'agira d'une architecture basée sur la notion de composant adaptatif (qui va ressembler beaucoup à la conception des cartes émotionnelles), qui sera aussi proactif, auto-observateur et évolutif. On la nommera "structure de signification".

Le système capable à générer des pensées artificielles sera formé d'un certain ensemble de ces structures de signification synchronisées par des agents de synchronisation. Il sera de plus construit en co-construction avec le corps du robot, pour suivre le paradigme de la biologie du développement.

Ce sera donc un ensemble qui aura l'aspect ci-après. Il y aura d'un côté la carte corporelle avec des éléments d'interface, le système de prise d'informations, des agents aspectuels spécifiques chargés de suivre ces informations, et des agents de morphologie fortement couplés qui observeront sans cesse comment les agents aspectuels agissent, ce qu'ils font, ce qu'ils deviennent. C'est exactement de cette façon, notons-le au passage, que les décideurs politiques gèrent des villes ou des Etats : ils regardent ce que font les citoyen, analysent leurs activités et les mesurent pour prévoir et contrôler les mouvement globaux...

De l'autre côté, on trouvera des éléments qui ressemblent structurellement à la carte corporelle. Ce seront les structures de signification qui permettront de représenter de l'action signifiante pour le système, et ceci avec l’intention à procéder à la génération d’une telle action. La structure de signification est plus compliquée que la carte émotionnelle car elle utilise des éléments de mémoire.

Cette mémoire, distribuée dans des agents particuliers et dans les différentes structures de signification, va opérer la mise à distance (la prise de recul) du système par rapport à l'action immédiate dans son environnement, afin de le détacher de l'émotion réactive. Elle va pour cela retrouver et transformer en agents actifs des traces des scènes anciennes qui ont été vécues ou conçues.

On trouvera enfin dans ce schéma, ce qui est le point fondamental, le facteur ou la raison qui amènera la machine pensante à générer des pensées. Il s'agit des éléments dits d'anticipation, qui ont le rôle d'anticiper l'action des différentes organisations d'agents par rapport au mouvement global en cours. Pour un informaticien, faire penser un système consiste à l’obliger à produire un signe qui l'y engage, qui l'amène à générer cette forme de pensée. Il ne s'agit pas de viser un but prédéfini, mais d'engager le système à adopter, dans son mouvement organisationnel, une posture particulière. L’intention à penser n'a pas de but initial à atteindre et ceci illustre bien la notion si forte de liberté à penser.

Cette anticipation, le système ira la chercher dans les morphologies précédemment présentées, dans les formes géométriques des structures de signification, ceci sans recours à aucune sémantique. Le système génèrera donc des signes, des signes au sens de la sémiotique de C.S. Peirce, qui donneront aux agents morphologiques des structures de significations pour que le système soit globalement incité à organiser son activité autour de cette signification géométriquement indiquée. On retrouve ainsi la définition de la visée, inspirée des travaux de Martin Heidegger ou de Paul Ricoeur. L'activation, le fonctionnement de ce système, à partir de cette visée, constituera sa façon de penser intentionnellement.
Les éléments de synchronisation - ceux qui synchronisent les cartes corporelles par leurs relations - seront connectés au corps de la machine. Sinon, on se bornerait à réaliser une certaine machine de Turing, certes compliquée, mais machine de Turing cependant dont la fonction de calcul serait déjà complètement programmée. Or pour arriver à générer un système qui pense, qui pense pour lui-même en produisant des formes idéelles chaque fois nouvelles, il faudra que les éléments de synchronisation soient aussi capables d'interrompre drastiquement l'activation des structures de signification, afin de réaliser la synchronisation du système générateur de pensées avec le temps réel d'activation du robot, avec la réalité corporelle du corps de la machine située dans son monde et affrontant une suite ininterrompue d'événements.

C'est ici que la corporéité est nécessaire pour produire la pensée, et qu'il est impossible de concevoir un système artificiellement conscient, avec des émotions et des sensations, sans corps. Sans corps, la pensée n'a pas de sens dans le monde réel et n'est pas de la pensée telle que nous l'entendons habituellement. Ceci dit, le corps n'est pas ici nécessairement fait de composants physiques localisés dans un endroit précis. Il peut être réparti dans différents composants, il peut par exemple être distribué et accessible via les nœuds d'un réseau. Mais le corps doit exister, avec la totalité de ses attributs corporels, senseurs et effecteurs notamment.

Le système proposé, bien que différent d’une machine de Turing, le sera partiellement cependant, puisqu’il s’agira en dernier ressort d'un système informatique et donc essentiellement calculable. Tous les éléments, les agents, seront des fonctions calculables qui seront calculées, même si l'on essaie de les faire muter, évoluer, cloner, se reproduire, selon les principes de la programmation évolutive ou génétique d'agents (qui met en compétition des algorithmes, les algorithmes évolutionnaires, afin de faire émerger le plus efficace de ceux-ci dans une situation donné). Ce seront des fonctions parfaitement définies, telles des machines de Turing. Mais l'ensemble, précisément, ne sera que partiellement une machine du Turing. Cela veut dire qu'il sera non prédictible, pas simplement non déterministe, mais non défini à l'avance dans ses perspectives calculatoires elles-mêmes. Le système calcule des fonctions en continu, qui sont des machines de Turing. Il produit sans cesse de nouvelles machines de Turing.

Le système dépendra du corps du robot, des effecteurs et des capteurs, de sa situation ici et maintenant dans le monde. Tous ces éléments n'appartiennent pas au domaine du calculable mais de l'automatique et de l'électronique, même s’ils induisent la génération, à certains endroits, dans certains agents, de nouvelles lignes de code non prévues. Ainsi se marquera l'ouverture du système sur la réalité temporelle du monde, et aussi ce que nous avons appelé plus haut, son autonomie.

Le système présentera un état fluctuant, c'est-à-dire qu'il y aura une relation systématique entre le système émotionnel et le système générateur de pensées : il éprouvera des sensations en continu même en générant des pensées très rationnelles. Il aura la sensation de son organisation, une espèce de sentiment de Soi puisqu'il pourra en jouer. Il ressentira globalement son organisation interne d'une façon analogue à celle dont localement les capteurs seront perçus et ressentis par les organisations d'agents des cartes corporelles qui s'activent sur les entrées d'information.

D’autres points ont été étudiés, dont on ne parlera pas ici, et qui font l'objet de publications dans l'ouvrage d'Alain Cardon: il s'agit notamment des prégnances, c'est-à-dire des raisons organiques qui conduisent le système à pouvoir penser de certaines manières : pulsions, motivations et tendances fondamentales. Là, on ne se place pas forcément dans le même registre que l'humain. A priori il n'y a pas de pulsions sexuelles chez un robot, mais il y a quand même des pulsions, qui sont représentées par des aspects morphologiques d'organisations d'agents.

Construire

Pratiquement, pour construire une machine pensante ainsi définie, il faudra disposer d'un ensemble de très nombreux processeurs en grappe fortement couplés, formant un tout pouvant être embarqué et donc aussi miniaturisé que possible. Cela existe aujourd'hui, mais il n'y en a pas encore en France. On trouve ce que l'on appelle des clusters, mais pas de grappes de processeurs avec des liaisons à très haut débit implantées dans des cartes. Le tout devra fonctionner dans un parallélisme lui-même à très haut débit. Il faudra aussi calibrer les cartes émotionnelles selon les fréquences d'acquisition des informations, et calibrer les structures de signification, ce qui supposera l'appel à des ingénieurs spécialisés.

Mais plus généralement, il faudra rompre intellectuellement avec l'informatique traditionnelle qui vise toujours l'optimisation des procédures et la distribution contrôlée d'informations à ses utilisateurs humains. Il ne s’agit plus, nous l'avons vu, de faire des systèmes de guidage pour missiles de croisière qui trouveront leur cible à quelques mètres près après cinq mille kilomètres de course. Il s'agit ici d'une autre définition de la calculabilité consistant à représenter l'acte de penser sous une forme calculable, mais dont la calculabilité n'apparaîtra que par constat, une fois les calculs effectués ! Au départ, on ne saura pas ce qui va vraiment être calculé mais on disposera d'une visée: puis le système calculera, il sera modifié, les agents évolueront en permanence, se multiplieront, se cloneront, certains vivront, d'autres mourront. Les composants, cartes ou agents, s'altèreront, se modifieront automatiquement quand ils seront activés. On obtiendra donc un système qui, dès sa conception, ne sera plus complètement contrôlé. Ce système pourra même se révéler défaillant, comme certains êtres vivants. On pourra donc constater, après coup, que l'on a calculé telle ou telle chose, que l'on a produit telle ou telle forme organisationnelle correspondant à telle ou telle pensée artificielle, mais on ne pourra pas à l'avance annoncer ce que l’on va calculer. C’est ce qui se produit dans les processus de pensée que nous connaissons. On ne peut pas dire : j'ai l'intention à penser à cela que je ne pense pas encore. La pensée n'est pas prédictible, non plus que la raison à penser.

La réalisation concrète d'un tel système, dans ces conditions, supposera un travail pluridisciplinaire, associant informaticiens, roboticiens mais aussi neurobiologistes, psychologues, voire philosophes. Cette collaboration permettra de ne jamais faire le choix de la facilité, en privilégiant tel développement et en perdant de vue les autres. Plus généralement, vu les ambitions du projet, il ne serait pas concevable que le travail soit confié aux seuls informaticiens, en négligeant les apports des sciences humaines.
Terminons ce survol de la conception d'une machine pensante en rappelant ce que nous avons plusieurs fois souligné mais qui est facilement oublié vu l’aspect contre-intuitif d’une telle notion : à la différence de la pensée humaine (au moins quand elle s'incarne dans des individus) les systèmes de ce type peuvent être multi-corps. Ils peuvent avoir un système émotionnel et de conscience loin du système physique avec lequel ils sont pourtant en liaison étroite. Ce sont donc des structures distribuées qui, mal employées, pourraient être dangereuses, car il n'existe pas encore de comité d'éthique en informatique et les perspectives d'applications militaires de tels systèmes sont déjà très nombreuses et inquiétantes.

Nous avons vu cependant que les besoins civils et pacifiques sont potentiellement plus considérables encore. L'avenir de tels développements devrait être d'une richesse aujourd’hui inimaginable, par exemple en jetant les bases d’une conscience artificielle de type humain projetée hors de l'environnement terrestre, entre satellites robotisés C'est tout l'espoir de l'expansion dans l'univers (Deep Space) d'intelligences de type terrestre qui se trouve alors impliqué.


Voir aussi les fiches :
 Un système conscient, pour quoi faire ? Perspectives stratégiques
 Un programme scientifique intégratif

© Automates Intelligents 2003

 

Collection Automates Intelligents

Sciences de la complextié et vie politique -Tome I , Editions Automates Intelligents
- acheter nos ouvrages
-
proposer vos manuscrits



 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents