Vers le site Automates Intelilgents
La Revue mensuelle n° 183
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubrique

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Sur la conscience chez les robots. Débat.

Notre article « Le Memristor, pas décisif vers la conscience artificielle ? » a suscité plusieurs réactions des membres du Groupe Emergence (emergence-santa-cafe@googlegroups.com) pour qui cette question présente un grand intérêt. Leurs auteurs nous ont autorisé à les publier. Nous les en remercions 19/08/2017

3. De Philippe Coueignoux

Je suis d'accord avec la réaction de Claude Mayer.
En empilant les composants électroniques, on nous promet de donner une âme à un robot. Mais la fonction d'empilement est-elle continue? Si la réponse est négative, les effets de seuil peuvent surprendre.
Il se peut qu'il y ait un vase caché dans le système, que la dernière goutte fera déborder. Ou pour continuer à jouer avec le sable, une limite au delà de laquelle se déclenchera une avalanche.

Je suspecte que les cas d'émergence les plus intéressants sont justement ceux qui comportent le franchissement d'un seuil en cours de croissance. Dans ce cas parler d'une propriété au delà du seuil comme si elle était embryonnaire en deçà est illusoire. Tout grain de sable n'est pas en soi un embryon d'avalanche.

Il faudrait distinguer dans la discussion sur les robots d'un côté les efforts de programmation de l'intelligence humaine, dont les résultats peuvent dépasser ses capacités sous certains aspects, notamment vitesse et reproductibilité des réactions, ou imiter ses comportements, pour passer le test de Turing par exemple, et de l'autre les tentatives de recréer cette intelligence en empilant neurones et synapses électroniques sans leur donner de programme a priori.

Les réseaux de neurones sont un cas hybride. Ce sont des empilements a priori sans finalité que l'on cherche à entraîner a posteriori en vue d'une tâche utile. Le jour où l'empilement déclarera qu'il ne veut pas être entraîné parce que cela l'ennuie sera un beau seuil à observer. Cela fait penser à la rentrée des classes.

Dans un second message, Philippe Coueignoux
a ajouté ce qui suit

Mon attitude face à l'intelligence artificielle a été irrémédiablement colorée par la critique du Perceptron, un réseau de neurone primitif, par Minsky. Les réseaux de neurone ont depuis pris leur revanche sur les algorithmes mais j'en ai gardé un sentiment de méfiance vis à vis des revendications exagérées et des titres ronflants. Ce qui passe pour de l'intelligence artificielle est bien plus sérieux et captivant que l'agitation médiatique qu'elle suscite.

Par contre je ne vois que des avantages à une spéculation intellectuelle sur le futur et les recherches en IA peuvent légitimement nous fournir des bases d'extrapolation. Descartes parle d'animaux machines. Plus tard la compréhension de l'homme s'est inspirée tour à tour de la thermodynamique, de l'électricité, de l'informatique. Mais attention un animal n'est pas une machine, ni l'homme un Perceptron perfectionné.

Pour revenir à la discussion en cours, je rejoins Claude Mayer. Un effet de seuil n'est pas nécessairement catastrophique comme une avalanche. Mais il dangereux de parler de dérivée car l'écoulement du temps n'est pas perçu de façon uniforme. On parle d'extinction massive des espèces à la fin du Tertiaire. Mais il est probable qu'elle a tout de même pris quelques générations. Vu d'aujourd'hui évidemment, cela ressemble pourtant à une catastrophe carabinée. De même on peut imaginer que le jour où certains homininés se sont trouvés humanisés pourrait être compris, s'ils en avaient conscience, comme une autre catastrophe pour les autres homininés. On ne fait pas attention et puis "tout d'un coup" ces nouveaux venus vous mettent en cage ou en laboratoire.

Pour éviter ce problème de vocabulaire, je propose de parler de branchement irréversible.

Pour moi l'émergence est le produit de tels branchements brusques mais imperceptibles et de développements longs mais cumulatifs. C'est leur combinaison qui défie l'entendement d'autant que les deux modes se nourrissent l'un de l'autre. Copernic retrouve une idée des Grecs et trois siècles plus tard la révolution scientifique conduit au moteur thermique. Son exploitation conduit à produire beaucoup de gaz carbonique et deux siècles plus tard on risque un branchement climatique qui nous conduira Dieu sait où.

Philippe Coueignoux souhaite être présenté ici comme un ingénieur informaticien à la retraite, intéressé par l'avenir de la société sur le long terme.

2. De Gérard Balantzian

Claude Mayer a raison de souligner la nécessité de bien définir ce qu’est la « conscience » et d’affirmer qu’à partir « d'un certain niveau de complexité du cerveau, la conscience apparaît (mystérieusement) comme une propriété émergente ». Et c’est ce terme « mystérieusement » qui retient mon attention.

Les travaux que je poursuis dans le domaine de la capture des émotions par les robots apprenants 1) (« empathie artificielle », etc.) me font prendre conscience de la capacité d’intuition que l’esprit humain a de lui-même (cela rejoint ce « mystère »), ainsi que des objets qui s’offrent à lui, sans oublier les sujets auxquels il est confronté. Pour aller à la rencontre de cette « mystérieuse » émergence, Heidegger suggère de « se laisser comprendre » lorsqu’il dit « l’ensemble des questions où celui qui questionne est lui-même mise en question » 2). Et c’est le « se » qui est important dans la lecture que j’en fais.

L’expérience de la silhouette que l’on aperçoit par exemple au loin dans une foule, et qui semble être celui de votre ami, dégage en vous une joie, mais lorsque vous vous en approchez, vous constatez qu’il s’agit d’une autre personne qui lui ressemblait, et un certain malaise s’empare de vous car cette silhouette (forme) était trompeuse. Il en est de même de sa propre silhouette que l’on voit dans un miroir placé au loin, dans un palais de glace. Est-ce bien moi ? Un être humain atteint de folie pourrait-il se reconnaitre ? Quels sont les mécanismes neuronaux qui nous permettent de dire qu’il s’agit de soi et non de quelqu’un d’autre ? Il faut bien entendu se tourner vers les spécialistes de la question pour trouver les réponses à cette expérience.

Il semble donc difficile d’appréhender la question de la conscience sans y intégrer la boucle de récursivité, et ce qu’elle comporte comme éléments d’information et de connaissances.

Il est possible d’étendre cette expérience à un groupe social : comment ce groupe se voit-il dans son propre ‘miroir’ dès lors qu’elle est dotée d’une capacité de jugement de la moralité de ses actions ? Qui lui dicte cette morale (repensons aux horreurs de l’Histoire du XXème siècle) ? Ce sujet est vaste et inépuisable.

Si nous nous projetons à un horizon autour de 2045-2050, et dans l’hypothèse que ces avancées technologiques effectueraient des bonds jusqu’ici considérés comme improbables, la conscience collective dont sera doté cet écosystème numérique mondial aura-t-elle une gouvernance ? Laquelle ? En cas de dérive ou d’une mauvaise appréciation de la justesse d’une action, quelle sera l’instance de justice internationale (à La Haye ou ailleurs) susceptible d’apporter un jugement incontesté par rapport aux actions réalisées ?

Jean-Paul Baquiast a lancé un débat intéressant lorsqu’il dit que « les robots de comportements caractéristiques des humains, notamment de la capacité de générer des faits de conscience et d'en tirer des conséquences dans leur comportement quotidien ». Qu’est-ce qu’un « fait de conscience » ? L’expérience consciente a-t-elle besoin de mots justes pour la définir, ce qui en soi est d’une grande difficulté (Wittgenstein). Finalement, l’expérience ne nous suggère-t-elle pas que le langage de la conscience commence par le silence et qu’il est parfois absurde de vouloir mettre en mots ce « certain silence » en soi qu’il suffit tout d’abord d’écouter (Merleau-Ponty) ? 3)

Notes

1 http://lentreprise4-0.com/

2 cité par Michel Bitbol : La conscience a-t-elle une origine ? Des neurosciences à la pleine conscience : une nouvelle approche de l’esprit, Flammarion, 2014 ; lire en particulier Martin Heidegger, Être et Temps, Gallimard, 1986 ; ainsi que sa conférence de 1929 : Qu'est-ce que la métaphysique,

3 Phénoménologie de la perception, M. Merleau-Ponty, Gallimard, 1976; lire aussi Le visible et l’invisible, Gallimard, 1979 ; L’œil et l’esprit, Gallimard 1985,

19 08 2017

1) Claude Mayer

Je suis certain que le Memristor est une invention remarquable, susceptible d'accélérer considérablement certaines applications, comme les réseaux de neurones.Cependant je ne vois pas bien en quoi il pourrait contribuer à rendre les ordinateurs conscients.Les memristor se comportent certes comme des synapses humains, puisqu'ils modifient leur résistance en fonction du courant qui les traverse; cette propriété peut être utilisée pour accélérer l'apprentissage automatique "par renforcement" (à condition que les memristor présentent la même plasticité que nos neurones). 

Mais je ne vois là rien que les ordinateurs actuels ne puissent déjà faire à l'identique: les réseaux de neurones actuels simulent déjà bel et bien des synapses, en leur attribuant un "poids synaptique" qui n'a rien de binaire (tout comme nos cerveaux). Les algorithmes les plus utilisés en IA sont basés sur l'apprentissage par renforcement, qui est simulé sans avoir besoin de memristors: des poids synaptiques renforcés par l'usage. Pas besoin pour cela de memristors...A l'évidence, les memristor feront gagner considérablement ces réseaux en performance. Cela suffira-t-il à dégager une conscience?

Les biologistes et les philosophes ne savent pas, en effet, ce qu'est la conscience. On peut supposer qu'à partir d'un certain niveau de complexité du cerveau, la conscience apparaît (mystérieusement) comme une propriété émergente, résultant des interactions entre des neurones dont le comportement individuel n'a, lui, rien de mystérieux.

Pour espérer obtenir une telle émergence, plusieurs développements des ordinateurs seront nécessaires avant qu'ils parviennent à une complexité comparable à celle de nos cerveaux biologiques:En effet, notre cerveau comporte environ 1015 synapses (soit l'équivalent d'un milliard de milliards de milliards de memristors) (en effet, nous possédons 1011 neurones, chacun étant reliés à 10000 autres par autant de synapses).

Une fois un tel hardware réalisé (ce qui ne sera pas demain), nous n'aurions fait que la partie la plus facile du chemin: il resterait à doter ce dispositif de connaissances et de know-how d'une puissance inimaginable: non seulement les connaissances et la culture (scientifique, historique, artistique, quotidienne...) que nous avons acquises depuis notre naissance (une culture gigantesque, qui porte sur une infinie diversité de sujets); mais aussi toute la structuration du cerveau, provenant de l'évolution des espèces, et dont nous héritons à la naissance: facilité pour apprendre le langage, aptitude à la reconnaissance des visages, capacités d'émotions, neurones miroir favorisant l'empathie, aires préprogrammées: visuelles, auditives, olfactives, etc. etc.

Le robot ainsi construit et alimenté devra avoir un corps avec un grand nombre de capteurs et d'actionneurs, pour pouvoir s'identifier comme une unité et acquérir une conscience de soi, passer spontanément le "test du miroir"; et pouvoir communiquer des émotions (qui ont, comme on le sait, une composante corporelle, et sont probablement requises pour la conscience).

C'est sans doute à ce prix qu'on peut imaginer qu'une conscience "émergera" chez les machines. Mais on peut douter de la qualité du libre arbitre ainsi obtenu, car ces machines auront été programmées, pas nous. Mais c'est un autre débat...J'ajoute que certains philosophes pensent que la conscience est un phénomène accompagnant progressivement la complexité croissante de tout système réagissant à son environnement. A ce titre, il déclare qu'un simple thermostat a déjà un embryon de conscience! Je comprends l'idée, mais ceci reviendrait à dire qu'un tas de sable constitué de milliards de grains entretenant entre eux des relations plus ou moins complexes, puisse faire émerger une conscience, même embryonnaire, à partir de deux ou trois composants.

Claude Mayer est mathématicien. Il a conçu notamment des logiciels à destination de l'industrie combinant mathématiques et Intelligence Artificielle.
Aujourd'hui retraité, il en phase de rédaction d'une thèse de philosophie/psychologie, dans le cadre de l'IHPST (Institut d'Histoire et de Philosophie des Sciences et des Techniques, rattaché à Paris 1, CNRS, ENS), dont le titre est: "Les processus inconscients en jeu dans la créativité et la résolution de problèmes".