Vers le site Automates Intelilgents
La Revue mensuelle n° 125
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

 

Article. Commentaires au livre ‘Comment fonctionne l’esprit’ (Odile Jacob) de Steven Pinker (directeur des sciences cognitives à l’université d’Harvard) “How mind works” by Steven Pinker - Penguin Books
Michel Troublé 05/03/2012

Cet article est la retranscription en français d'une correspondance adressée à Steven Pinker par Michel Troublé. Il est resté sans réponse autre que de convenance de la part de Steven Pinker.
Michel Troublé est physicien et ingénieur à PY Automation

Voir du même auteur, avec André Brack "Définir la vie" http://www.admiroutes.asso.fr/larevue/2012/125/bracktr.htm

Nous avons fait suivre ce texte d'un échange entre Alain Cardon et Michel Troublé

Jean-Paul Baquiast pour Automates Intelligents

Votre ouvrage ‘Comment fonctionne l’esprit’ (Édition Odile Jacob) est une remarquable synthèse de nos connaissances actuelles en matière du fonctionnement de notre esprit. J’ai été frappé par la justesse et la rigueur de vos propos lorsque vous abordez la difficile et très controversée question de la sensibilité/conscience. J’émets cependant beaucoup de réserves quant au bien fondé de la ‘théorie computationnelle de l'esprit’ à laquelle vous adhérez sans réserve : « Un autre signe que la ‘théorie computationnelle’ de l’esprit est dans le vrai, c’est l’existence de l’intelligence artificielle, d’ordinateurs qui effectuent des tâches intellectuelles semblables à celles de humains (91) ».

Mes domaines de recherche sont la robotique et l'intelligence artificielle. Je suis actuellement directeur scientifique d'une société spécialisée dans la recherche et le développement de systèmes robotisés. L’autonomie des robots est actuellement une question majeure en matière d’automatisme. Il ne s’agit pas moins en effet que de créer des structures physico-chimiques qui seraient artificiellement vivantes et, à ce titre, dotées de capacités semblables à celles des êtres vivants. Certains chercheurs n'hésitent-ils pas à affirmer que l'augmentation de la complexité dans les domaines de l'informatique (processeurs, mémoires, algorithmes, capteurs) donnera bientôt naissance aux ‘robots sapiens’, des machines intelligentes, autonomes, qui à terme nous surpasserons. J'ai à ce sujet quelques commentaires qui devraient retenir votre attention :

Pour pouvoir être autonome, artificiellement vivante, une structure physico-chimique doit être au moins dotée des éléments suivants : un capteur/récepteur qui met en relation la structure avec le milieu extérieur, un actionneur qui assure la motilité de la structure, un contrôleur qui établit des liens informationnels entre le capteur et l’actionneur. C’est dans le contrôleur que se trouve donc localisé l’esprit artificiel du robot. Ce contrôleur qui devrait permettre au robot d’avoir des réactions cohérentes assurant la pérennité de sa structure en réponse à la nature utile ou nuisible des objets avec lesquels il interagit. À cette fin, l’esprit artificiel du contrôleur devrait « catégoriser d’une façon cohérente l’infinité diversité des formes des objets qu’il percevrait avec son capteur ». Par exemple, s’éloigner de toute source de chaleur qui pourrait le détruire, et au contraire entrer en contact avec des objets froids qui lui apporteraient l’énergie dont il a besoin pour être animé.

Mais pour réaliser un tel robot autonome, même élémentaire, surgit alors un obstacle physique insurmontable qu’aucun chercheur n’avait entrevu jusqu’alors. En s’appuyant sur la théorie formelle de la ‘Reconnaissance des Formes’ issue des travaux du physicien Satoshi Watanabe, on peut en effet démontrer en toute généralité – niveaux macroscopique et quantique – que : « pour tout système physique – quelle que soit sa nature et sa complexité (microscopique ou macroscopique) – deux objets quelconques sont fondamentalement indiscernables l’un de l’autre ».

Cet état d'indiscernabilité résulte du fait que, généralement, il y a en nombre autant de descripteurs qui affirment que deux objets observés sont différents que de descripteurs qui, au contraire, affirment que ces deux mêmes objets sont semblables. C'est ce que je nomme le ‘principe d’indiscernabilité’ dans la suite du texte. D’une certaine façon, ce ‘principe d’indiscernabilité’ représente la généralisation du ‘théorème de Gödel’, en ce sens qu’il s’applique à l’ensemble de toutes les propositions ‘bien construites’ (avec le vocabulaire et les règles de composition du domaine) et non pas seulement à des propositions G particulières comme ‘La formule G n’est pas démontrable’.

De ce fait, il apparaît qu’il est logiquement impossible de construire un robot qui soit réellement autonome : l’esprit artificiel du contrôleur du robot ne peut associer que d’une façon aléatoire les actions possibles de son actionneur avec les différentes formes des objets perçus par son capteur.

Les expérimentations menées dans le domaine de la robotique montrent que la seule façon de rendre un système physico-chimique autonome est de lui associer, en permanence, un technicien, une structure physico-chimique déjà autonome, dont le rôle est d’établir des connexions informationnelles cohérentes entre le capteur et l’actionneur du système.

Pour justifier la ‘théorie computationnelle de l’esprit’, vous commencez par proposer une expérience de pensée dans laquelle une chaîne de phénomènes physiques associe un scanner qui balaie les différents cernes d’une souche d’arbre avec un dispositif qui grave des marques correspondantes sur une planche de bois (p.77).

Mais pour qu’une telle machine puisse marcher, cela implique que soit résolu le problème de la ‘reconnaissance des formes’ des différents cernes de la souche afin qu’ils puissent être comptés pour ensuite être gravés dans le bon ordre sur la planche. À l’image du robot autonome muni d’un capteur thermométrique qui devrait fuir systématiquement toute source de chaleur qui le détruise, cette machine est également physiquement infaisable sans le concours permanent d’un technicien en l’absence duquel les différents cernes mesurés par le scanner sont strictement indiscernables du point de vue du contrôleur qui commande le dispositif de gravage eu égard le ‘principe d’indiscernabilité’.

Pour rendre légitime la cohérence des relations causales qui doivent unir les différents éléments de votre machine à scanner les anneaux d’une souche, vous faites ensuite appel à la machine dite de Turing (p.78). Mais cette machine ne fonctionne d’une façon cohérente, comme vous en faites l’hypothèse, que si la tête de lecture est capable non seulement de lire mais surtout de faire la différence entre les différents symboles inscrits sur la bande afin qu’en retour la tête d’écriture n’inscrive pas n’importe quoi sur la bande. En l’absence d’un technicien qui réglerait adéquatement la tête de lecture, les différents symboles inscrits sur la bande sont en réalité strictement indiscernables du point de vue de la tête de lecture, cf. le ‘principe d’indiscernabilité’.

Vous faites aussi appel (p.139) à des dispositifs auto-associateurs qui auraient la vertu de créer des catégories qui fondent la pensée. C’est ainsi, dites-vous, que les ‘réseaux de neurones formels’ (ceux qui miment les réseaux de neurones du cerveau) sont capables d’apprendre et même de généraliser ce qui est une propriété fondamentale de l’esprit. Mais je voudrais ajouter que les réseaux de neurones sont, certes, capables d' apprendre, mais pas d’une façon autonome. Ainsi, les relations cohérentes attendues entre les objets présentés sur la ‘rétine’ du réseau et leurs classes d’appartenance affichées à la sortie du réseau impliquent, comme pour votre expérience avec les souches et le robot sensible à la température, la présente permanente d’un technicien (professeur) sans lequel les relations objets-catégories ne peuvent être qu’aléatoires.

Quelles que soient les méthodes employées pour régler les poids synaptiques des neurones (règles de Hebb, rétropropagation, Informon d’Uttley, cartes auto-organisatrices de Kohonen,....), rien ne permet aux ‘réseaux de neurones’ d’appendre seuls : suivant le ‘principe d’indiscernabilité’, les différentes formes des objets projetées sur la rétine sont physiquement indiscernables pour les neurones formels du réseau qui ne peuvent de ce fait que les associer aléatoirement et non pas d’une façon cohérente.

Les travaux de l’informaticien Geoffrey Hinton en matière de généralisation sont à ce titre très révélateurs. En toute bonne foi, mais par manque de vigilance, celui-ci ne s’est pas rendu compte que les capacités de généralisation qu’il attribuait à son réseau connexionniste n’étaient en réalité que les siennes qu’il avait projetées sur le réseau en établissant des liaisons topologiquement ordonnées entre ‘l'espace objet’ (espace dans lequel se trouvent les objets qui doivent être catégorisés) et ‘l'espace rétine’ qui est attaché au réseau.

Comme pour le robot autonome, ces diverses expérimentations montrent qu’il est nécessaire d’y associer un ‘technicien’ (professeur) – une structure physico-chimique déjà autonome – afin que se développent des relations causales cohérentes, intelligentes, entre un capteur/récepteur qui met en relation une structure avec le milieu extérieur et un actionneur qui assure le dynamisme de cette structure. Il faut alors se demander en quoi le système physico-chimique ‘technicien’ diffère du système physico-chimique ‘robot’.

L'analyse fonctionnelle des capacités opérationnelles du technicien en ce qui concerne la reconnaissance des formes montre que c'est en raison du fait qu'il est doté d'une ‘sensibilité’ (‘sentience’ dans le texte anglais original : “How mind works” ) qu'il est en mesure d'établir des relations cohérentes requises entre le capteur et l'actionneur du robot.

La sensibilité

Privé de sa ‘sensibilité’ à cause d’un dysfonctionnement majeur ou d’une opération chirurgicale, l’être humain n’est plus qu’un ‘automaton’ selon la terminologie du neurobiologiste Wilder Penfield. Cet être humain a perdu la capacité de pouvoir prendre de nouvelles décisions, de choisir, autrement dit de pouvoir créer de nouvelles catégories qui fondent le fonctionnement de l’esprit.

L’intelligence d’un sujet ou celle d’un robot serait essentiellement l’aptitude à pouvoir assurer la pérennité de la structure qui la porte. Il n’y aurait pas à proprement parler d’objectif à atteindre au sens discursif comme le propose sociologue Herbert Simon. Grâce à la ‘sensibilité’ dont la structure est munie, le rôle de l’intelligence consisterait essentiellement à maximiser le plaisir (et/ou diminuer la douleur) ressenti qui est directement fonction de l’état de la structure qui la porte.

Selon mon analyse, la ‘sensibilité’ jouerait ainsi un rôle central en matière d’esprit. Même si la nature de la ‘sensibilité’ nous échappe, car n'étant pas directement mesurable, ce n'est pas pour autant qu’on doit la considérer comme un épiphénomène. Vous-même d’ailleurs, vous reconnaissez que la ‘sensibilité’ pose problème quand vous écrivez : « Mais la conscience, ou sensibilité, la perception brute du mal de dents, du rouge du salé, du do du milieu du piano, reste un rébus, un mystère à l’intérieur d’une énigme (p.70) ».

Avec son expérience de pensée du ‘spectre inversé des couleurs’ portant sur la sensibilité des couleurs dont il généralise abusivement les conclusions à l’ensemble des ‘sensibilités’ comme celles au plaisir et à la douleur, le philosophe des sciences Daniel Dennett en conclut que la ‘sensibilité’ à la couleur est un phénomène accessoire qui n’a aucune réalité intrinsèque, ce que donc je récuse formellement.

Comme vous le rappelez fort justement avec « ... la sensation brute d’une rage de dents ... (p.70) » qui nous fait tous courir chez le dentiste, il est aussi difficile d’expliquer à une personne qu’on est en train de torturer qu’il ne s’agit là que d’un processus mécanique banal entre une pince coupante et la peau d’un bras, et que ses cris, de simples signaux sonores plus ou moins aigus, n’ont pas plus d’importance que les grincements d’une lame de parquet.

Avec ces deux exemples, la ‘sensibilité’ dont il est question est essentiellement celle de la douleur. Mais si on modélise le fonctionnement d’un robot autonome se déplaçant dans un espace à trois dimensions et qui se trouve confronté à des objets chauds de couleurs différentes qui risquent de le détruire, il apparaît que son contrôleur doit être non seulement muni d’une sensibilité à la douleur – qui est le moteur des actions cohérentes qui assurent sa pérennité – mais aussi à celle de la couleur qui lui permet de reconnaître les objets hostiles de son environnement à trois dimensions. Dans un environnement hypothétique à une seule dimension, ‘la sensibilité’ à la couleur n’est pas utile.

La ‘sensibilité’ est un opérateur qui est logiquement irréductible à tout mécanisme physico-chimique sinon, selon le ‘principe d’indiscernabilité’, ses états seraient eux-mêmes indiscernables de tout système tiers, ce qui rendrait physiquement impossible la catégorisation cohérente des formes perçues qui fonde l’autonomie et par là-même l’esprit. Logiquement irréductible à tout mécanisme physico-chimique, l’opérateur ‘sensibilité’ serait donc un opérateur qui peut être peut qualifié de non-matériel, comme l’information.

À l’instar de Daniel Dennett, lorsque vous écrivez « Comment un rien éthéré répond-il à des éclairs de lumière, à des poussées et à des bips pour faire bouger bras et jambes ? » (p.74), vous condamnez sans appel qu’un tel opérateur ‘sensibilité’ de nature non-physique qui de ce fait ne possède aucune énergie propre, puisse agir sur un quelconque élément matériel. Pour Dennett « toute chose qui peut mouvoir une chose physique est elle-même une chose physique », et pour illustrer son point de vue il conte une histoire de ‘Casper, le gentil fantôme’ qui bien que capable de passer à travers les murs – étant en effet de nature immatérielle – est néanmoins capable d'attraper une serviette qui tombe d'un fil à linge sur lequel elle était accrochée.

Mais les arguments avancés par Dennett ne sont pas fondés. En premier lieu, il faut rappeler que le choix des liaisons macroscopiques entre les états de sortie d’un capteur et les commandes de l’actionneur qu’effectue le contrôleur du robot – ou une zone particulière du cerveau d’un sujet, comme le Cerebellum – s'accomplit nécessairement au niveau quantique par la réduction du ‘vecteur d’état ?’ ou ‘fonction d’onde’ afférente au système capteur-actionneur.

L’opérateur ‘sensibilité’, qui permet la formation de catégories cohérentes autrement aléatoires lorsqu’elles ne résultent que d’interactions physico-chimiques gérées par les lois physiques, agit donc nécessairement à ce niveau quantique. Lors de la réduction de l'état d’indiscernabilité des solutions possibles (par exemple, des objets chaud ou froid détectés par un capteur thermique) par l’opérateur ‘sensibilité’ dont est muni le technicien, il ne se produit en fait qu'un simple réaménagement des énergies déjà existantes.

L’action de l’opérateur ‘sensibilité’ de nature de non-matérielle ne viole donc aucunement cette loi physique fondamentale qu'est le ‘principe de la conservation de l'énergie’. Dit d'une façon plus stricte : dans une transition quantique, la réduction de la ‘fonction d'onde Y’ résultant d'une interaction entre les particules élémentaires appartenant au capteur et au contrôleur, il y a globalement conservation de ‘l'impulsion-énergie’. Le processus de choix attaché à l’opérateur ‘sensibilité’ n'introduit aucune énergie supplémentaire dans la dimension matérielle. Contrairement à ce qu’affirme Dennett, l’action décisionnelle de l’opérateur ‘sensibilité’ sur une structure matérielle serait donc licite.

L'opérateur sensibilité

Sans préjuger de la nature de la ‘sensibilité’, je conjecture que c’est la configuration spatio-temporelle de structures moléculaires complexes qui induirait cette ‘sensibilité’. À ce titre, l’existence de l’opérateur ‘sensibilité’ impliquerait la présence de structures physico-chimiques fonctionnelles sans lesquelles cet opérateur n’existerait pas. On sait qu’un accident mécanique, une maladie, agissant sur les composants de ces structures font disparaître instantanément cette ‘sensibilité’ qui doit donc être liée à la matière du cerveau sans pour autant être de même nature que celui-ci. Il faut ainsi bien distinguer l’activité computationnelle indubitable du cerveau, à l’exemple des réseaux de neurones, de l’activité décisionnelle de la ‘sensibilité’ qui, seule, à la capacité de catégoriser d’une façon cohérente l’infinité diversité des formes des objet mesurées, activité qui de ce fait fonde le fonctionnement ‘intelligent’ de l’esprit.

L’analyse fonctionnelle de la capacité d’autonomie de la bactérie E. coli montre que la protéine CheY de la chaîne chimiotactique pourrait bien être cette structure moléculaire recherchée munie d’une ‘sensibilité’ grâce à la morphologie spécifique de sa forme repliée. C’est la morphologie de la protéine essentiellement constituée d’une longue chaîne d’acides aminés qui induirait l’émergence de la ‘sensibilité’.

Certes, les calculs qui s’effectuent dans notre cerveau sont essentiels au développement de notre intelligence déterministe, comme les micro-processeurs et les algorithmes qui les accompagnent sont les éléments de calcul de nos PC. Ces éléments réalisent seulement des calculs mathématico-logiques en lisant une suite de symboles à l’exemple de la machine de Turing. Mais la lecture de ces symboles implique, comme je l’écrivait à propos de la machine de Turing, l’assistance d’un technicien qui étant naturellement muni d’une ‘sensibilité’, va pouvoir établir des relations causales cohérentes entre les différents symboles de l’algorithme autrement physiquement indiscernables en raison du ‘principe d’indiscernabilité’.

La robotique évolutionniste

Dans le chapitre 3, ‘La revanche des faibles’, vous écrivez « Si, comme je le pense, Dawkins est dans le vrai, la sélection naturelle est indispensable pour comprendre l’esprit humain...» (p.170), puis «  J’ai présenté la théorie de Darwin d’une manière peu orthodoxe qui fait ressortir sa contribution extraordinaire : explique l’apparition d’une organisation sans auteur, en utilisant la causalité ordinaire prospective telle qu’elle s’applique aux réplicateurs. L’histoire toute entière se déroule ainsi : au commencement, était un réplicateur » (p.172). Ce que vous écrivez là me conduit aux quelques réflexions suivantes qui sont issues de mes recherches dans le domaine de la ‘robotique évolutionniste’ :

Quelles que soient les expérimentations réalisées s’appuyant pourtant sur des moyens de calculs et de mémorisation de plus en plus performants, il semble qu’il soit physiquement impossible de construire des robots ‘solitaires’ (sans lien avec d’autres robots) qui soient réellement autonomes en possédant un contrôleur muni d’un esprit artificiel – ce que je démontre d’une façon formelle eu égard le ‘principe d’indiscernabilité’ qui interdit la formation de toute catégorisation cohérente qui fonde l’autonomie. Être autonome signifiant être capable d’agir adéquatement (d’une façon cohérente) en dehors des domaines d’expérience (formes, nature et localisation des objets) préalablement spécifiés par des opérateurs humains.

Pour essayer de résoudre la question de l’autonomie d’un robot qui semble donc être actuellement techniquement insoluble pour un robot ‘solitaire’, un certain nombre de chercheurs ont essayé de copier le mécanisme mis en œuvre dans la ‘sélection naturelle darwinienne’ qui, dit-on, explique l’émergence et l’évolution de tous les êtres vivants, des structures autonomes, depuis les premières molécules complexes carbonées. C’est ce qu’il est convenu d’appeler la ‘robotique évolutionniste’.

Nous savons que c’est essentiellement le processus de reproduction ‘mère>‘fils’ des caractères acquis fortuitement par une ‘mère’ qui fonde le mécanisme de sélection évolutive darwinienne. Mais ce qu’aucun chercheur n’a semble-t-il vu jusqu’alors, ni même le physicien von Neumann avec sa théorie des systèmes auto-reproducteurs, c’est que le processus de reproduction fonctionnel, celui-là qui permettrait la création spontanée de catégorisations cohérentes (ou fonctions du vivant), est logiquement interdit en raison du ‘principe d’indiscernabilité’. En effet, les domaines mémoires spécifiques du système cible (le ‘fils’) qui devraient recevoir les informations (objets Oi perçus Þ actions Ai pérennisantes) acquises fortuitement par le système source (la ‘mère’) sont, eu égard le ‘principe d’indiscernabilité’, strictement indiscernables du point de vue du système source à l’instar des différentes mesures chaud et froid du capteur thermométrique du robot qui sont indiscernables du point de vue du contrôleur qui commande son actionneur.

De sorte que la recopie d’informations fonctionnelles comme {si objet chaud Oi : fuir} entre la ‘mère’ et le ‘fils’ ne peut être qu’aléatoire ce qui, par là-même, infirme le processus de sélection évolutive en tant que mécanisme permettant la création incrémentale de catégories cohérentes, de fonction, qui fondent toute auto-organisation.

De récentes expérimentations de ‘robotique évolutionniste’ portant sur des générations successives de robots, semblent cependant montrer qu’un certain nombre de ceux-ci peuvent spontanément s’auto-organiser, c'est-à-dire devenir autonomes ; alors que la chose est impossible pour des robots solitaires. Mais si certains robots sont effectivement devenus autonomes, sachant par exemple s’éloigner, sans l’aide de leur concepteur, de toutes les sources de chaleur qui pourraient les détruire, c’est parce que leurs concepteurs, insuffisamment vigilants, ont, en tant qu'êtres vivants munis d’une ‘sensibilité’, injecté leur propre capacité en matière d’autonomie. Ils ont ainsi, inconsciemment, préparé les divers mécanismes de recopie fonctionnelle ‘mère>‘fils’ qui sont nécessaires à la formation de catégories cohérentes (fonctions du vivant), en sélectionnant les différents domaines mémoires autrement indiscernables (en l’occurrence, il s’agit des différents ‘poids synaptiques’ analogues aux gènes des êtres vivants).

Ne pouvant pas ainsi créer de ‘fonctions’ du vivant, la sélection évolutive ne ferait en fait que construire, par un mécanisme de filtrage (contraintes environnementales) portant sur des configurations acquises fortuitement, des ‘formes’ (espèces) infiniment variées assemblées à partir de structures déjà auto-organisées, vivantes. C’est un mécanisme de reproduction par empreinte quant à lui logiquement licite, qui fonde la sélection évolutive en tant que processus déterministe créateur de ‘formes’. Cette reproduction par empreinte est semblable à la duplication d’un brin d’ADN, où les complémentarités A-T, C-G entre les bases sont formellement équivalentes à des empreintes.

Pour en revenir maintenant aux propos de Richard Dawkins que vous rapportez, la seule existence du mécanisme de sélection évolutive expliquerait donc nullement l’émergence de la vie et de l’esprit qui est associé aux structures les plus évoluées. La sélection naturelle n’expliquerait que la formation des différentes ‘formes’, plus ou moins complexes, de structures qui sont déjà vivantes parce que porteuses de catégorisations cohérentes, ou fonctions, telles que {quel que soit Xi alors A}. Sans faire appel à un opérateur ‘sensibilité’ dont le rôle essentiel est de créer des fonctions du vivant (des catégories cohérentes), c’est le mécanisme de la sélection évolutive basé sur des reproductions par empreintes qui est le créateur des infinies différences de forme qui existent entre tous les êtres vivants.

L’exemple de la mutation du papillon blanc poivré que vous citez (p.177) est à ce titre tout à fait significatif : la sélection évolutive a agi sur la couleur des ailes des papillons de la région de Manchester en filtrant les couleurs existantes disponibles dans le génome et non pas créer la fonction du vivant {succession de déplacements cohérents des ailes afin de ‘voler’}.

Vous écrivez : « Darwin a montré qu’il existe une solution alternative [au processus de finalité téléologique de la vie sur Terre]. Il a identifié un processus de causalité physique prospective qui mime l’aspect paradoxal de la causalité rétroactive ou téléologie. L’astuce serait la réplication. Un réplicateur est quelque chose qui peut faire une copie de soi-même avec, dupliqués dans la copie, la plus grande partie de ses traits, y compris la capacité de se répliquer à son tour. » (p.171). Mais il ne s’agit toujours là que de la création de formes variées comme les becs des pinsons des Galapagos ou les ailes colorées des papillons, s’appuyant essentiellement sur des reproductions par empreintes, qui sont filtrées par les contraintes de l’environnement, et nullement d’un mécanisme universel qui ferait émerger spontanément des fonctions du vivant à partir d’événements aléatoires.

Vous vous demandez ensuite, avec raison, si la sélection évolutive qui est basée sur la sélection de variantes aléatoires, peut améliorer l’organisation d’un système nerveux: « Un nouveau domaine de la science informatique, les ‘algorithmes génétiques’, a montré que la sélection darwinienne peut créer des programmes de plus en plus intelligents. Les algorithmes génétiques sont des programmes qui se dupliquent pour faire des multiples copies, mais avec les mutations aléatoires qui font que chacune est très légèrement différente. Toutes les copies essaient de résoudre un problème, et celles qui réussissent le mieux sont autorisées pour fournir des copies pour le tour suivant. Pour voir plus spécifiquement peut évoluer l’esprit humain, on a appliqué des algorithmes génétiques à des réseaux neuronaux » (p.192).
Mais à l’instar de la ‘robotique évolutionniste’ dont j’ai analysé les mécanismes, les algorithmes génétiques sont, eux aussi, fondés sur des processus de réplications fonctionnelles entre les différents éléments (poids synaptiques) des ‘génomes’ qui, en complète autonomie – en l’absence d’un technicien –, sont logiquement impossibles eu égard le ‘principe d’indiscernabilité’. De sorte que d’appliquer des algorithmes génétiques à des réseaux de neuronaux n’apporte donc aucune solution en matière d’auto-organisation, d’autonomie, puisque l’auto-apprentissage d’un réseau de neurones est impossible comme je l’ai montré.

C’est en effet une affirmation logiquement infondée que de prétendre qu’un réseau de neurones peut s’auto-organiser et posséder la propriété de généraliser un classement obtenu à partir d’un petit nombre d’exemples. Ceux qui le prétendent ont simplement manqué de vigilance lorsqu’ils ont établi des liens préférentiels, source de la cohérence recherchée, entre les objets (exemples), les données de la rétine et les états de sortie du réseau. Seule une structure munie d’une ‘sensibilité’, en l’occurrence celle d’un technicien, a la capacité de créer des catégorisations cohérentes, de l’organisation, qui fondent le fonctionnement de l’esprit. Les algorithmes génétiques et les réseaux de neurones ne sont ainsi que de remarquables outils de traitement de l’information au service de structures physico-chimiques nécessairement munies d’une ‘sensibilité’, faute de quoi, les informations incidentes sont reliées aux informations sortantes que d’une façon totalement aléatoire.

La ‘théorie computationnelle de l'esprit’ à laquelle vous faites principalement appel dans votre livre ne peut donc pas expliquer le fonctionnement de l'esprit dans sa capacité fondamentale à classer d’une manière cohérente des entités qui sont physiquement indiscernables. Cette théorie n’est pas logiquement fondée.


Echange entre Alain Cardon et Michel Troublé

Alain Cardon

Pour moi, je ne vois pas de "principe d'indiscernabilité" qui serait
un principe. Le problème est la modélisation du système psychique, la
modélisation d'un système organisationnellement complexe en approche
constructible étant la seule voie pour comprendre vraiment ce qui se
passe. Il ne faut pas transposer brutalement des concepts, en faisant
se mêler les principes établissant les équations différentielles de la
physique quantique mesurant l'observation des phénomènes quantiques
avec des problèmes de reconnaissance de formes par des réseaux de
neurones formels, qui ne sont que formels et qui sont et ne sont que
des structures de reconnaissance opérant de vecteurs à vecteurs après
un long processus d'apprentissage supervisé.

Mon livre sur la modélisation du système psychique (Modélisation constructible du système psychique http://www.admiroutes.asso.fr/larevue/2011/114/livrecardon.pdf )
traite principalement du niveau auquel se situe la compréhension de ce qui
est psychique, des caractères de l'espace organisationnel où se font
et se défont les émergences intentionnelles des formes de pensées,

Bien amicalement.

Alain Cardon
Professeur des Universités

Michel Troublé

En fait, je ne pense pas qu’il s’agisse d’une approche différente de la mienne en ce sens qu’il ne fait que décrire les éléments du système psychique comme un mécanicien peut le faire d’une voiture automobile (le moteur, carburateur, circuits électriques, châssis,...). Alors que moi, je ne m’intéresse qu’au conducteur de cette automobile – ‘l’esprit’ de la voiture –, celui qui établit des relations cohérentes, intelligentes, entre les différents actionneurs afin que la voiture, avec son conducteur, ne finisse pas dans un platane...Ce qui fonde le vivant, ce n’est pas la complexité électro-mécanique de la voiture mais plutôt la nature de l’esprit dont est muni le conducteur.

Nos deux descriptions ne s’excluent donc pas, mais je pense qu’il ne faut pas qu’Alain Cardon veuille expliquer le psychisme comme Pinker explique l’esprit.

Voici quelques commentaires à sa très courte note.

Nous savons que pour pouvoir mettre en œuvre une notion, un concept, une chose, il est nécessaire de la nommer. C’est ainsi que, faute de mieux, j’ai appelé ‘principe d’indiscernabilité’ la proposition suivante issue de la théorie formelle de la ‘Reconnaissance des Formes’: « Pour tout système physique – quelle que soit sa nature et sa complexité (microscopique ou macroscopique) – deux objets quelconques sont fondamentalement indiscernables l’un de l’autre ». À l’instar du ‘Théorème de Gödel’, nommer ‘Théorème d’indiscernabilité’ cette proposition aurait-il été préférable, je ne sais pas. Il est vrai que le grand Robert dit qu’on appelle ‘principe’ un énoncé d’une loi générale non encore démontrée mais vérifiée dans ses conséquences, sauf que le ‘Principe d'incertitude d'Heisenberg’ est toujours nommé ainsi alors qu’il est pourtant démontré par les équations ...

Cet énoncé est une généralisation dans les domaines macroscopique et microscopique / quantique – du théorème du ‘vilain petit canard’ formulé par le physicien S. Watanabe (S. Watanabe - ‘Pattern recognition : human and mechanical’ - John Willey & Son, 1985).

Il est, certes, très intéressant d’essayer de modéliser le système psychique, mais avant de le construire il faut préalablement se poser une question essentielle qui est relative à la nature de la pensée, de l’esprit, qui est le vecteur informationnel qui irrigue le système psychique. Dans le domaine de recherche portant sur l’étude des robots autonomes, l’analyse fonctionnelle du contrôleur d’un robot qui serait artificiellement intelligent, conduit à réduire l’esprit (du contrôleur) à la capacité essentielle de catégoriser d'une façon cohérente les différentes formes, en nombre infini, des entités utiles ou nuisibles que le système perçoit avec ses capteurs/récepteurs afin d’effectuer les actions appropriées qui conduisent à assurer sa durabilité. Et c’est là qu’intervient le ‘principe ou théorème d’indiscernabilité’ qui interdit formellement le développement d’un tel processus de catégorisation cohérente.

Vous reconnaîtrez qu’il n’est nullement question ici d’équations différentielles de la physique quantique. Par ailleurs, les réseaux de neurones qu’ils soient formels ou vivants obéissent aux mêmes lois de la physique. Je pense que les commentaires que j’ai faits au livre de Pinker répondent tout à fait aux problèmes qu’évoque Alain Cardon: « ...problèmes de reconnaissance de formes par des réseaux de neurones formels, qui ne sont que formels et qui sont et ne sont que des structures de reconnaissance opérant de vecteurs à vecteurs après un long processus d'apprentissage supervisé »

On peut bien sûr modéliser le psychisme (artificiel) du contrôleur du robot autonome en se contentant de dessiner le diagramme des liaisons qui doivent nécessairement exister entre les différents modules (récepteurs, contrôleur, actionneurs, mémoires), et donc en ignorant comment s’effectue le choix – logiquement interdit – des solutions matérielles possibles de liaison entre les différents éléments du système. Il est néanmoins très utile de posséder un tel diagramme descriptif, car en cas de panne du système il est alors très facile de déterminer quelles sont les connexions qui ont été rompues afin de pouvoir les remplacer.

Mutatis mutandis, il en est de même pour le système psychique humain : de bien connaître les propriétés des différents modules du cerveau et les liens neuronaux qui les lient est bien sûr de première importance dans le domaine médical, d’où tout l’intérêt de construire un modèle descriptif pertinent comme, me semble-t-il, l’a fait Alain Cardon.


Retour au sommaire