Vers le site Automates Intelilgents
La Revue mensuelle n° 90
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

Dossier
Les coopérations entre la robotique et les sciences émergentes
Vers le robot augmenté ou le post-robot.
par Jean-Paul Baquiast et Christophe Jacquemin - 28/07/2008

Ce dossier fait suite à ceux déjà présentés, dans le précédent numéro et consacrés à l'IA et à la robotique autonome(1). Nous avions dans d'autres numéros examiné à plusieurs reprises les apports des sciences et technologies dites émergentes et convergentes au développement de ces deux disciplines. Il s'agit de rapports aussi étroitement et réciproquement imbriqués que ceux déjà entretenus entre ces sciences et l'informatique. Les questions philosophiques et politiques posées par ces rapports déborderont largement les domaines de l'informatique, de l'IA et de la robotique.

Avec les progrès de la robotique et des interfaces hommes-machines en résultant, nombre d'observateurs estiment que nous sommes entrés dans l'ère de l'homme augmenté (enhanced) ou du post-humanisme. Nous suggérons qu'il convient de faire la même hypothèse concernant les robots. Les différentes "augmentations" dont ils bénéficieront prochainement du fait des autres sciences, annoncent l'ère du robot augmenté ou du post-robotique... ceci au regard de la conception traditionnelle que l'on se fait encore du robot.

1. Les prothèses corporelles et mentales associant robots et organismes vivants au sein de "cyborgs".

Comment définir un cyborg ? Est-ce un homme ou un animal doté de prothèses robotiques ? Est-ce un robot incorporant des composants biologiques ? Le choix entre ces deux solutions dépendra, comme en ce qui concerne le pâté d'alouette, de l'importance des parts prises par l'artificiel et le vivant dans le produit final. Les cyborgs humains de demain (ou leurs prototypes ludiques ou expérimentaux d'aujourd'hui) incorporent de nombreux ajouts de type artificiel sous forme de greffes diverses. Ils font également appel à de nombreuses drogues ou stimulants complétant les ressources d'ores et déjà abondantes de la pharmacopée et de l'industrie. On peut craindre que beaucoup des comportements en résultant soient jugés asociaux dans les sociétés policées, et soumis à la répression des autorités chargées de la prévention des grandes pathologies et du suicidaire. Mais, dans une approche plus darwinienne de l'évolution sociale, on peut les considérer comme les manifestations d'une heuristique inconsciente visant par essais et erreurs à susciter des mutations éventuellement fondatrices

Cyborg © D.R.Tous les cyborgs ne seront pas agressifs, loin de là. En ce qui concerne cependant les relations de la robotique avec les comportements, déviants ou non, des cyborgs, il faudra prendre garde au fait que ces comportements pourraient influencer des robots autonomes à la recherche de modèles. Ils provoqueraient chez eux des réactions imprévues qui se répercuteraient sur l'ensemble de la société. Mais de tels risques existent déjà. Un militaire ou un chercheur sous l'empire de la drogue, plus banalement même un automobiliste sous imprégnation alcoolique ou hallucinogène, peut se révéler une redoutable machine à tuer. Le véhicule plus ou moins robotisé que pilote ce dernier peut difficilement échapper à son influence.

2. Les réseaux intelligents (cerveau dit global)

Carte de l' Internet © D.R.La littérature mondiale sur ce sujet est immense. Dès les origines du web, on a voulu y voir l'équivalent d'un cerveau biologique, disposant de neurones individuels dotés d'une autonomie locale (pro-activité), reliés par des canaux interneuronaux plus ou moins denses en fonction de la fréquence des trafics, et s'organisant autour de centres serveurs eux-mêmes distribués, sans contrôle hiérarchique central. La génération de contenus informationnels circulants sur le réseau dans une compétition relative a par ailleurs été comparée à celles des idées crées par des cerveaux individuels et échangées par les outils de la communication sociale. On s'est demandé enfin si les virus informatiques, dont l'apparition et la prolifération éventuelles sur le web ressemblent beaucoup aux modes d'action des virus biologiques, ne seraient pas l'indice d'un début d'autonomisation de la part de certains éléments du web lui-même considéré comme un cerveau global.

Il est certain que la réflexion sur les réseaux artificiels, que ce soit ceux du web, des simples communications téléphoniques et postales ou des échanges de trafic entre centres urbains, présente beaucoup d'intérêts pour les neurologues. Ils peuvent ainsi mieux comprendre les échanges entre composants cellulaires du cerveau. Mais la question qui nous intéresse ici est un peu différente. Un réseau comme le web et plus généralement tous © D.R.lesréseaux électromagnétiques reliant les humains peuvent-ils donner naissance à desrobots numériques qui prendraient de l'autonomie par rapport aux utilisateurs humains de ces réseaux, quitte à éventuellement se retourner contre eux ? Une autre façon de poser la question consiste à se demander si des robots autonomes connectés au web, comme beaucoup le seront, pourraient profiter de ces connexions pour se regrouper, renforcer leurs autonomies et devenir de plus en plus indépendants des humains, voire hostiles.

© http://www.digimask.com
© http://www.digimask.com© http://www.digimask.com
© http://www.digimask.com
            Ces deux questions sont un peu différentes, mais se complètent. La première consiste à se demander si un réseau comme le web pourrait s'auto-structurer en entités virtuelles acquérant des corps, des organes d'entrée sortie et des cortex associatifs virtuels les transformant en véritables entités artificielles. De telles entités pourraient alors se développer et se complexifier dans le cadre d'une compétition darwinienne ressemblant à celles que les méméticiens croient déceler entre mèmes et mèmesplexes dans les actuels systèmes sociaux(2). Nous pensons qu'en théorie, rien n'interdit de penser que cette situation se produise. Nous avons vu, en étudiant l'IA, que de nombreux programmes auto-générateurs et auto-complexificateurs existent déjà. Leur population pourrait s'étendre, si un monde du virtuel et des réseaux en pleine expansion leur offrait un terrain favorable. Ceux qui s'intéressent à la détection d'éventuelles formes de vie et d'intelligence extra-terrestre les rechercheront d'abord sous de telles formes. Les tenants d'une vie terrestre post-biologique pensent également que celle-ci pourrait émerger spontanément sur des réseaux automatisés, en se superposant à la vie biologique.

L'opacité du monde des réseaux contemporains, dont la complexité n'est analysable qu'en termes statistiques globaux, incite certains observateurs à penser que des centres de décision autonomes, échappant aux humains, sont déjà en cours d'émerger sur le web. La puissance des moteurs de rechercontrôle de l'internetche, le caractère touffu des réseaux de serveurs, pourraient favoriser la naissance discrète de telles entités. Nous pensons pour notre part que rien, pour le moment, ne semble justifier de telles hypothèses. Ces entités se révéleraient très vite par des manifestations explicites suscitant des résultats «aberrants» dont l'on ne manquerait pas d'analyser les causes, comme on le fait des multiples «bugs» générés en permanence par les systèmes actuels. Il faut davantage craindre les pouvoirs politiques ou économiques s'infiltrant sciemment et discrètement sur le web pour contrôler les comportements et pensées de ses usagers. Nous sommes alors là en terrain plus connu.

Robots PaPeRoLa seconde question, concernant les «augmentations» que les robots pourraient acquérir en étant branchés sur le web (voire se branchant spontanément sur le web), est beaucoup plus actuelle. Nous avons déjà indiqué qu'un robot autonome de demain, disposant d'une connexion permanente sur Internet, capable d'interroger les différents moteurs de recherches, bases d'images et de connaissances y figurant, deviendrait dans les relations quotidiennes ou professionnelles avec les humains, un compétiteur redoutable. Le web fera de tels robots ce que l'on pourrait nommer des post-robots, de même que le web a fait incontestablement de nous des post-humains, par comparaison avec les humains des sociétés traditionnelles. Ces facultés pourraient être exploitées par les humains. Ils utiliseraient alors les robots et les IA associées comme de super- machines à inventer, grâce à leur puissance dans la recherche d'idées et dans la génération d'hypothèses. Ils s'éviteraient ainsi le mal de collationner eux-mêmes des informations et de les regrouper en modèles heuristiques. Si les humains prenaient prétexte de l'assistance des robots pour s'éviter de penser, ce serait grave. C'est un reproche que l'on fait déjà aux addicts de la télévision.

Nous croyons cependant que, pour le moment, le risque est faible, sinon inexistant. Les cerveaux humains sont ainsi faits que, dans des corps bien portants, ils ne se laissent pas submerger par l'afflux d'idées neuves. Au contraire, ils les retraitent spontanément pour en extraire des idées nouvelles enrichies. Rien n'est pire que l'isolement sensoriel et informationnel pour la santé du cerveau. Si les robots de demain devenaient capables d'explorer, non seulement de nouveaux espaces physiques, mais de nouveaux espaces théoriques, ils apporteraient beaucoup à la cognition collective.

3. Les univers virtuels ou de synthèse

Nul n'ignore l'importance que prend désormais ce que l'on nomme en simplifiant la réalité virtuelle dans la création artistique, la recherche scientifique, les pratiques professionnelles et plus généralement la vie quotidienne. On peut la définir simplement comme une technique consistant, grâce à des algorithmes mathématiques et informatiques, à reproduire sur un écran des univers et des entités en 3 dimensions semblables ou au contraire très différents de ce que nous rencontrons dans le monde réel. La plupart des créatures du monde virtuel prennent l'apparence d'animaux ou d'êtres humains avec lesquels les humains proprement dits ont la possibilité d'interagir. On pourrait penser qu'il n'y a pas lieu ici de les distinguer des robots. Ils posent les mêmes questions que ces derniers quant aux possibilités d'introduire dans les sociétés humaines traditionnelles des agents artificiels dotés d'aptitudes à l'autonomie, face auxquels les individus et les groupes devront mieux définir leurs spécificités, s'ils en ont. Leur autnomie dans notre monde physique quotidien est par contre infiniment moindre, puisqu'ils ne peuvent pas (encore) se détacher des écrans.

Réalité virtuelle © D.R.Nous ne détaillerons pas ici les différentes techniques permettant de construire un monde virtuel et y interfacer un être humain en lui donnant l'impression qu'il y perçoit et agit de manière naturelle : perception en 3 dimensions, immersion sensori-motrice (systèmes «haptiques»), interaction en temps réel, etc. Ces techniques sont des développements de ce qui a été fait à plus petite échelle dans le multimédia éducatif et ludique ou dans les simulateurs industriels, destinés notamment à la formation des pilotes. La conjonction de ces techniques conduit tout naturellement à la réalité dite "augmentée" ("augmentée" dans la mesure où elle utilise les techniques du virtuel puisque toute réalité, en principe, peut-être dite augmentée par celui qui la perçoit avec un instrument quelconque). On aboutit à la "télé-présence" ou "sortie du corps", qui n'ont pas là de dimension mystique, mais signifient simplement que l'expérimentateur est complètement détaché par le système des pesanteurs de sa cognition habituelle.

Un auteur comme Denis Berthier (Méditations sur le réel et le virtuel, Collection Impact des nouvelles technologies, L'Harmattan 2004) s'est attaché à étudier ce qu'il appelle le "clonage de l'univers semiotico-cognitif'" réalisé par l'IA appliquée à la création virtuelle. Il ne faut plus désormais distinguer les modèles mobilisant les perceptions sensorielles de ceux s'adressant, via les agents de l'IA, aux contenus de connaissance, c'est-à-dire à «l'univers des signes, des savoirs et de la raison". Cette IA aboutit à une augmentation sémiotico-cognitive du réel, qui duplique ou complète l'augmentation sensorielle permise par le virtuel. Ainsi par exemple le robot peut-il être considéré comme l'habillage perceptible par les sens d'un agent virtuel opérant dans notre monde, c'est-à-dire être considéré comme une augmentation sémiotico-cognitive du réel aisément perceptible du fait de son aspect humanoïde.

La réalité virtuelle, qui elle aussi est dite «augmentée», pose à grande échelle la question de la prolongation des capacités sensorielles des organismes biologiques par divers moyens artificiels. On sait que le cerveau, s'il ne dispose pas de repères extra-sensoriels, peut se montrer incapable de distinguer entre un monde réel et un monde virtuel. Il n'y a là rien d'étonnant, si les messages en provenant sont identiques ou quasi identiques. Faut-il alors s'en inquiéter ou s'en réjouir. Le risque vient de ce que, aussi parfaite que soit l'imitation du réel par le virtuel, cette imitation ne peut à elle seule embrasser les infinis aspects de l'univers réel. Elle concentre l'attention sur une toute petite lucarne en la détournant des risques et opportunités du monde réel. Le cerveau infecté par le virtuel vit alors dans une étroite bulle au sein de laquelle il finira par dépérir.

GTA San Andreas Les films en réalité virtuelle, comprenant ou non des acteurs réels, donnent une bonne idée de la philosophie qui sous-tend la cosmogonie des mondes virtuels dans la production cinématographique et les jeux vidéo : notamment la difficulté à distinguer le virtuel du réel, la dimension mythique voire mystique de l'histoire, la récursivité de la virtualité c'est-à-dire le fait qu'un monde virtuel donne accès à un autre. Ils permettent d'étudier aussi les répercussions de la fréquentation des mondes virtuels sur les personnalités des personnages. Celle-ci se traduit par la difficulté à sortir du monde dans lequel ils sont immergés, la compulsion à faire certaines actions, pouvant aller jusqu'à un "verrouillage" dans le virtuel, selon le mot de Denis Berthier qui est un peu à l'image du verrouillage que subit le spectateur. D'une façon générale, on retrouve l'idée qu'il est difficile, sinon impossible de faire la preuve de ce qu'un phénomène est réel face à son double virtuel. Certains physiciens ont émis l'hypothèse que nous ne serions nous-mêmes, dans notre monde supposé réel, que des acteurs virtuels verrouillés dans un univers créé par des intelligences émanant d'un super-univers extérieur à nous.

Ces films ou jeux vidéo, malgré leur apparente diversité foisonnante, posent la question, importante de l'aptitude qu'ont ou non les auteurs à imaginer des mondes virtuels véritablement innovants. Nous avons un peu l'impression qu'ils se répètent tous en exploitant un effet de mode. Au début, le caractère original de ces films leur a permis de créer leur public, en faisant sensation. Mais se renouvellent-ils aujourd'hui ? On retrouve dans ces films le même défaut qui a frappé les films et série de science-fiction présentant des robots, chaque nouvelle œuvre semblant un remake de StartTrek. De plus, l'originalité n'est-elle pas finalement plus dans la forme que dans le fond. Les thèmes sont transposés du vieux fond, mélange de mystique, de préjugés et de manque d'ouverture aux autres sociétés, qui se retrouve depuis une cinquantaine d'années dans toutes les formes d'expression de la société américaine, roman et cinéma notamment. La question nous semble plus importante qu'il ne paraît. Pourrait-on inventer, ou plutôt voir apparaître un virtuel qui remette radicalement en cause les croyances et certitudes intellectuelles établies ? Sans doute pas, si dans ce domaine comme dans tous les autres de la création, on veut rester fidèle à des convenances qui sont, pense-t-on, le prix à payer pour réaliser un chiffre d'affaires suffisant.

Cette contrainte peut expliquer, en partie, la difficulté à faire, au moins dans ces films, la différence entre le réel et le virtuel. ‘est qu'il s'agit un peu du même monde. Si l'on était capable de laisser des agents autonomes (comme le seraient par exemple des extraterrestres, ou des animaux), nous proposer des versions virtuelles de leur monde à eux, peut-être pourrions nous identifier des logiques radicalement différentes à l'œuvre. Techniquement, c'est aujourd'hui impossible. Cependant, si on considère que la sphère du virtuel s'étend ou à vocation à s'étendre bien au-delà de la cognition humaine actuelle, il faut garder cette idée en tête.

MiroirLes raisons de la difficulté à distinguer le réel du virtuel s'expliquent en partie, avons-nous indiqué, par le fait que le réel et le virtuel émettent des messages sensoriels voisins, que notre cerveau n'a pas la possibilité de distinguer. On en a eu la preuve depuis longtemps en étudiant les images produites par un miroir, ou diverses illusions d'optique. Mais alors se pose la question de la consistance de ce que nous appelons le réel. Pour la philosophie scientifique moderne, il n'existe pas des entités réelles en soi ou ontologiques, indépendantes de l'homme, que celui-ci pourrait observer en se situant en dehors d'elles. Tout pour lui se traduit par des représentations internes à son cerveau, qui font l'objet de traitements différents selon l'expérience de chacun. Il est donc important de se rendre compte que les garde-fous mis par le bon sens traditionnel, permettant de ne pas confondre le réel et l'imaginaire, les choses et leurs apparences, sont en train de disparaître. Il faudra vivre dans un monde tout différent, dont les contours apparaissent à peine.

Une deuxième question vient dans la suite de celle-ci. Est-il possible de distinguer le virtuel du potentiel. On répond généralement par la négative. Le virtuel vise très souvent à présenter des univers futurs, probables ou improbables, comme s'ils étaient réels. Il fait tout pour empêcher de les distinguer du réel. Il construit de véritables «hallucinations» qui risquent d'enfermer en elles-mêmes ceux incapables d'en sortir. Mais n'y a-t-il pas là un élément favorable au renouvellement de notre monde quotidien ? Les scénarios explorant des mondes virtuels qui soit n'existent pas encore, soit même paraissent aujourd'hui impossibles ne vont-ils pas créer les conditions favorables à leur réalisation, dans le sens où l'on dit que ce que l'homme imagine finit toujours pas se réaliser ?

Beaucoup de prévisionnistes, nous l'avons vu, envisagent le développement exponentiel des moyens de calcul, qui se traduira par le développement lui-même exponentiel des applications faisant appel au virtuel. Ceci s'accompagnera de la possibilité croissante d'interagir directement avec les cerveaux, dans les deux sens, soit pour créer des illusions sensorielles et cognitives, soit pour donner une consistance matérielle aux créations de l'imaginaire. Il paraît indéniable que, sauf catastrophe dans le développement technologique, ces perspectives se réaliseront un jour, peut-être même dans la première moitié de ce siècle. Dans quels mondes vivrons-nous alors ? Les gens préféreront-ils voyager dans des paysvirtuels, reproduction ou non de pays réels, plutôt qu'affronter les frais et les risques du tourismesur une planète surpeuplée et agressive. Préférera-t-on fréquenter des partenaires artificiels, humains ou animaux, si ceux-ci offrent autant de ressources que des êtres vivants, sans imposer leurs contraintes ? On serait tenté de répondre par l'affirmative, quand on voit la préférence déjà affichée par beaucoup de nos contemporains pour l'illusion. Nous avons effleuré cette question à propos des robots utilisés comme des partenaires de jeu ou de sexe, d'autant plus facilement qu'ils seront de plus en plus capables d'autonomie.

On peut répondre à cette question en rappelant que l'homme a toujours construit sa niche dans l'univers en combinant inextricablement les ressources offertes par son organisation biologique, les constructions cognitives de son cerveau, les ressources de ses moyens de computation et finalement la mise en place de mondes virtuels s'enracinant dans un réel dont on ne peut rien dire, sauf qu'il paraît riche d'infinies possibilités (réel symbolisé aujourd'hui par le concept de vide quantique). Plus généralement, le monde dans lequel nous vivons serait fait d'une intrication permanente entre le quantique, le cognitif, le biologique et le virtuel, dont la pensée humaine contemporaine devra inévitablement tenir compte. Ceci d'autant plus qu'en tous ces domaines se manifeste un aspect fondamental de la rétroaction homme-machine : le prétendu clonage modifie l'original.

4. Les hybrides robots-vivants génétiquement modifiés

Avec les manipulations génétiques, nous retrouvons des perspectives proches de celles de la robotique : la possibilité de créer des entités réelles qui seraient proches bien que différentes des humains et des animaux actuels. Par contre, ces entités ne seraient pas artificielles (à base de composants non biologiques). Au contraire, elles appartiendraient au monde biologique, mais à une biologie détournée des voies évolutives jusqu'ici suivies par la vie sur Terre. Ces détournements seront le fait des sociétés humaines poursuivant différents buts : l'intérêt économique, la curiosité scientifique et plus généralement la volonté d'intervenir dans des mécanismes jusque là réputés s'étendre dans des domaines jusque là considérés comme inabordables ou ne devant pas être abordés.

Les manipulations génétiques auront un autre point commun avec la robotique. Elles permettront de créer des hybrides entre le vivant et le robot qui augmenteraient éventuellement considérablement les domaines d'action de l'un et de l'autre. Il en résulterait en effet des symbioses qui pourraient bénéficier des qualités respectives de chacun des ordres pour se développer dans le domaine d'action naturel de l'autre. On sait qu'il existe déCyborg Beetlejà de nombreuses expériences visant à implanter des électrodes ou des puces électroniques dans les cerveaux d'hommes et surtout d'animaux. Des recherches militaires assez poussées visent actuellement, par cet intermédiaire, à «piloter» des mammifères, des oiseaux voire des insectes afin de leur faire accomplir des missions offensives ou de surveillance. Mais les animaux ainsi transformés restent en général sous le contrôle d'opérateurs humains. Le temps n'est pas loin cependant ou, grâce à la miniaturisation, il sera envisagé de remplacer une partie de leurs fonctions cérébrales par de véritables robots autonomes.

Cependant, les animaux ainsi «utilisés», « détournés », souffriront de diverses incapacités naturelles que des généticiens essaieront de pallier grâce à des manipulations génétiques. De plus en plus, les recherches en ce domaine s'intéressent à la possibilité de réaliser des hybrides ou chimères entre individus d'espèces voisines ou même différentes visant à cumuler dans une même espèce au génome artificiellement modifié les qualités des espèces parentes. De tels animaux nouveaux, que l'on considérera très facilement comme du matériel de laboratoire, pourront se voir greffer des composants robotiques plus ou moins intrusifs. On aboutira à des résultats qui seront, selon la proportion des composants biologiques et artificiels, soit des animaux robotisés soit des robots animalisés.

Le génie génétique n'envisage pas encore, pour des raisons éthiques, de procéder à des hybridations véritables entre animaux et hommes. Par contre, nous l'avons vu, les "augmentations" de capacité offertes aux humains par l'apport de compléments chimiques ou robotiques sont considérées en général comme ne posant pas de trop graves problèmes. Ceci tant que ces ajouts nCaryotype humain'ont pas d'influence sur les génomes reproducteurs et ne risquent dont pas de modifier l'espèce humaine en profondeur. Cependant, là encore, le génie génétique a commencé à proposer des méthodes permettant d'éliminer l'expression de gènes supposés apporter des invalidités ou maladies chez le sujet adulte. On le fait et on le fera de plus en plus aussi chez l'embryon, pour prévenir la naissance de sujets jugés non désirables. Certains parents enfin réfléchissent sérieusement à l'intérêt que représenteraient des interventions sur leurs propres systèmes reproducteurs afin d'éliminer d'emblée des gènes «nuisibles» ou d'y introduire des gènes «souhaitables».

Tout ceci, on le sait relève encore d'acrobaties médicales et n'offre aucune garantie de résultats. Mais il ne faut pas se bercer d'i'illusion. Ce que la génétique et la biologie associée pourront faire pour «améliorer» l'espèce humaine, ou certains de ses représentants, sera certaniement fait un jour, à plus ou moins grande échelle. On verra donc s'imposer la tentation de réaliser des hybrides biologico-robotiques, non plus cette fois avec des animaux mais avec des humains. Ces hybrides, contrairement aux «hommes augmentés» actuels, seront dotés de qualités génétiquement programmées leur permettant de coexister durablement et utilement avec des robots. Ceci pour le plus grand bénéfice supposé des deux espèces concernées, l'humaine et l'artificielle.

De telles évolutions, évoquées aujourd'hui, soulèvent en général l'indignation. Mais seront-elles décidées «volontairement» par des chercheurs ou des entrepreneurs sachant très bien sur quel terrain glissant ils s'avancent et soucieux de respecter des limites d'ordre éthique ? Seront-elles au contraire engagées au hasard, sans finalités affichées et sans souci des suites possibles, en prolongement des processus évolutifs subis par la Terre depuis qu'elle est stabilisée sur son orbite. Nous pensons que cette seconde hypothèse est la plus probable. Cependant, rien n'exclut aujourd'hui que parmi de tels organismes mutants apparaissent certaines forces capables d'influencer l'évolution globale, dont l'action régulerait certains comportements anarchisants susceptibles de détruire complètement les écosystèmes.

5. Le vivant artificiel ou synthétique

simulation d'une goutte d’eau virtuelle dans laquelle évoluent des créatures microscopiques artificielles, les biomorphsOn désigne par ce thème les expériences visant, non plus à intervenir sur les génomes des espèces vivantes afin de créer de nouvelles variétés ou espèces, mais à créer avec des composants entièrement artificiels des entités qui se comporteraient de façon plus ou moins fidèle comme des vivants. On dira que c'est bien l'objectif de l'IA depuis les années 1970 (avec par exemple le Jeu de la Vie de John Conway utilisant des automates cellulaires(3)). C'est très exactement aussi, avec des moyens autrement puissants, l'ambition de la robotique. En fait, on désigne par biologie synthétique une démarche apparemment à la fois plus simple et plus compliquée. Elle consiste à faire travailler ensemble des molécules ou atomes appartenant à la chimie minérale et non à la biochimie, afin de recréer des entités artificielles ayant exactement les propriétés de la vie au niveau le plus fin, celui de la cellule et de ses composants (par exemple les ribosomes).

Les recherches sur la vie synthétique ont toujours intéressés les biologistes cherchant à connaître le fonctionnement des systèmes vivants naturels. L'espoir à plus long terme est de réussi une synthèse de la vie. Une manière simple et directe de vérifier notre compréhension actuelle des mécanismes du vivant est de construire un exemplaire (ou une version) d'un système selon notre compréhension de ce dernier. Le travail avant-gardiste de Michael Elowitz du Caltech est un bon exemple d'une telle approche. Michael Elowitz avait élaboré un modèle du fonctionnement de l'expression génétique dans les cellules vivantes. Pour le vérifier, il construisit un morceau d'ADN selon son modèle, le plaça dans les cellules vivantes et observa les résultats. De tels travaux utilisent beaucoup de mathématiques pour prédire et étudier les dynamiques des systèmes biologiques avant de les construire de manière expérimentale.

Les systèmes biologiques sont des systèmes physiques composés de matériaux chimiques. Il y a environ cent ans, la chimie passa de l'étude des matériaux chimiques naturels à la conception et l'élaboration de nouveaux matériaux chimiques. Cette transition inaugura le domaine de la chimie de synthèse. Certains aspects de la biologie de synthèse peuvent être vus comme une extension et une application de la chimie de synthèse à la biologie, allant jusqu'à créer de nouveaux matériaux biochimiques pouvant non seulement éclairer les origines de la vie sous sa forme actuelle mais proposer de nouvelles formes de vie biologique De nombreux travaux américains explorent avec succès ces perspectives.

Les ingénieurs pour leur part voient la biologie comme une technologie. La biologie de synthèse(4) inclut une large redéfinition et extension de la biotechnologie, avec le but ultime d'être capable de concevoir et construire des systèmes biologiques fabriqués qui traitent l'information, manipulent les éléments chimiques, produisent de l'énergie, fournissent de la nourriture et maintiennent et améliorent la santé humaine et l'environnement. Un des aspects qui distingue la biologie de synthèse de l'ingénierie génétique traditionnelle est son souci de développer des technologies fondamentales rendant l'ingénierie biologique plus facile et plus fiable. Les «réécrivains» sont des biologistes synthétiques souhaitant vérifier l'idée que, puisque les systèmes biologiques naturels sont si compliqués, nous ferions mieux de reconstruire le système naturel qui nous intéresse à partir de zéro, afin de fournir des produits plus faciles à comprendre et avec lesquels l'interaction serait plus facile.

Concernant l'avenir de la robotique, on voit que la biologie synthétique ne présente pas les inconvénients éthiques ou les difficultés scientifiques obligeant à réaliser des symbioses viables entre de l'artificiel ou du biologique. On peut très bien envisager de doter les robots de demain de corps exploitant les propriétés de la biologie synthétique et leur permettant d'interagir plus facilement avec les humains et les animaux. Ces interactions pourraient avoir des finalités thérapeutiques. Plus généralement, elles poursuivraient l'objectif de faire apparaître des robots compagnons beaucoup plus acceptables par les sociétés humaines traditionnelles et plus efficaces qu'ils ne sont actuellement.

On devra cependant se poser la question des risques pouvant éventuellement résulter de la mise en circulation dans nos écosystèmes de robots biosynthétiques pouvant se reproduire par emballement. Ces risques sont aussi à rendre en considération concernant les relations entre la robotique et les nanotechnologies.

6. Les nanomatériaux et nano-objets

Les nanosciences et nanotechnologies (NST) peuvent être définies comme l'ensemble des études et des procédés de fabrication et de manipulation de structures, de dispositifs et de systèmes matériels à l'échelle du nanomètre (milliardième de mètre). Dans ce contexte, les nanosciences sont l'étude des phénomènes et de la manipulation de la matière aux échelles atomique, moléculaire et macromoléculaire, où les propriétés (physico-chimiques) diffèrent sensiblement de celles qui prévalent à une plus grande échelle. Les nanotechnologies, quant à elles, concernent la conception, la caractérisation, la production et l'application de structures, dispositifs et systèmes par le contrôle de la forme et de la taille à une échelle nanométrique.

On considère très généralement aujourd'hui que les nanosciences ouvrent des perspectives considérables aux sciences de l'ingénieur et à la robotique, en permettant soit de réaliser de nanomachines ou nanorobots capables d'opéOn distingue trois grandes familles de nanomatériaux : les nano-objets (nanoparticules, nanofibres…), les matériaux nano-structurés en surface et les matériaux nanostructurés en volume.rer par exemple à l'intérieur du corps, soit d'obtenir des matériaux de grande résistance (par exemple des nanotubes de carbone) offrant une grande résilience pour la réalisation des éléments physiques des robots. Nous pensons que ces perspectives sont intéressantes mais que pour le moment elles relèvent encore de la recherche fondamentale. Il est difficile de concevoir des nanorobots, faits d'une ou plusieurs nanoparticules, si l'on ne sait pas comment les doter de propriétés les rendant aptes aux opérations logiques.

La presse confond souvent à cet égard les nanomachines avec des machines travaillant à l'échelle micro-électronique, les MEMS. Un MEMS ou microsystème électromécanique comprend un ou plusieurs éléments mécaniques, utilisant l'électricité comme source d'énergie, en vue de réaliser une fonction de capteur et/ou d'actionneur avec au moins une structure présentant des dimensions micrométriques. Issus de la technologie de la micro-électronique, les MEMS font appel pour leur fabrication appel à ces dernières, lesquelles permettent une production à grande échelle.. Leurs applications sont désormais nombreuses, notamment en robotique.

L'avenir des nanotechnologies en robotique Smart dustrepose sur la capacité d'utiliser les nanocomposants non de façon isolée maisen essaims de millions d'unités de base. Ces essaims pourraient alors se comporter comme des robots macroscopiques, disposant de corps et d'unités logiques leur permettant d'agir de façon coordonnée. Des applications militaires ou spatiales (smart dust) sont déjà à l'étude. De tels essaims pourraient en effet survivre sans les contraintes des organismes biologiques et préfigurer des formes de vie et d'intelligence en milieu hostile ou extraterrestre.

On sait que les chercheurs s'intéressent par ailleurs aux possibilités de l'ingénierie moléculaire. Certaines nanomolécules pourraient se reproduire spontanément, sur un mode quasi biologique. La science fiction a exploité des scénarios selon lesquels des nuages de nanomatière dotés de propriétés organiques pourraient envahir notre environnement (grey goo). Dans une perspective plus concrète, il s'agirait d'une formule permettant d'obtenir des robots auto-réplicants susceptibles de coloniser le système solaire. Le risque d'un emballement mettant en péril la vie sur Terre existera à terme, comme dans tous les domaines de la science, mais il ne nous paraît pas justifier les peurs quasi religieuses que suscitent actuellement les nanotechnologies dans certains milieux.

7. Les « objets » quantiques

Les progrès des calculateurs quantiques sont lents mais indéniables. Il faut les connaître car la possession d'un ordinateur quantique révolutionnera les perspectives de l'IA et de la robotique. Le premier pays qui maîtrisera complètement de tels dispositifs se donnera une avance stratégique indépassable sur les autres. Il pourra, en cas de conflit, rendre inutilisables la plupart des ordinateurs et réseaux actuellement en place.

On ne décrira pas ici un ordinateur quantique(5). Disons seulement qu'il utilisera les propriétés des bits quantiques ou qbits. Le thème étant encore peu connu, nous pouvons fournir ici quelques précisions. Un qbit est un système quantique monté en laboratoire. Il peut s'agir d'un atome ou d'une particule, entouré d'un champ magnétique intense et subissant des impulsions radio de haute fréquence qui modifient sa rotation (son spin). On attribuera la valeur 1 à une rotation dans le sens des aiguilles d'une montre et la valeur 0 à la rotation en sens inverse, c'est-à-dire les deux valeurs utilisées dans le langage binaire des informaticiens. Compte tenu de la difficulté que l'on rencontre pour manipuler de tels aLe processeur de 16 qubits (nom de la puce : Europa),  fonctionnant en milieu cryogénique  © Photo : D-Wave tomes, le nombre maximum des qbits qui ont pu être mis en œuvre dans les prototypes les plus récents d'ordinateur quantique ne dépasserait pas 7 - ce qui paraît risible au regard des dizaines de millions d'unité composant le processeur d'un simple micro-ordinateur. [Notons toutefois que la société D-Wave System aurait annoncé avoir réalisé un ordinateur quantique à 16 qbits(6)...]

Mais la particule isolée peut, comme l'enseigne la mécanique quantique, se trouver dans deux états à la fois. C'est ce que l'on appelle l'état de superposition cohérente. Si on veut s'en servir comme unité de représentation de l'information (bit) elle peut donc présenter simultanément l'état 1 et l'état 0. L'ordinateur quantique calcule ainsi en manipulant des bits pouvant prendre soit la valeur 1, soit la valeur 0, soit la superposition 1 et 0. Avec deux bits, un ordinateur classique peut représenter un des 4 nombres traduits en binaire par 00, 11, 01 ou 10. L'ordinateur quantique, lui, peut représenter simultanément ces 4 nombres. Trois qbits, de même, pourront représenter simultanément 8 nombres, au lieu de 1 nombre à la fois. La suite en proportion, chaque nouveau qbit ajouté aux autres doublant la quantité de nombres représentés par la séquence: quatre qbits représentent 16 nombres, cinq qbits 32 nombres… dix qbits 1.024 nombres (au lieu de 1, répétons-le, dans un calculateur classique). N qbits peuvent mémoriser 2 puissance N nombres. Il en résulte que si on utilise trois qbits comme donnée d'entrée en vue d'un calcul (diviser par 2 ou extraire la racine carrée), comme ils représentent 8 nombres, ils feront 8 calculs à la fois chaque fois que l'on changera l'état d'un des bits. L'ordinateur quantique est donc d'abord un calculateur massivement parallèle. Avec 13 atomes (ce qui n'est pas envisageable pour le moment), il atteindrait la puissance de calcul en parallèle de l'ordinateur Blue Mountain d'IBM.

Un ordinateur quantique peut utiliser n'importe quelle particule susceptible d'avoir deux états en superposition. Des ordinateurs quantiques peuvent être construits à partir d'atomes qui sont à la fois excités et non excités au même moment. Ils peuvent être construits à partir de photons de lumière qui sont à deux endroits au même moment. Ils peuvent être construits à partir de protons et de neutrons ayant un spin soit positif soit négatif ou les deux en même temps. Une molécule peut contenir plusieurs millions de protons et de neutrons. Elle peut donc, théoriquement, être utilisée comme ordinateur quantique doté de plusieurs millions de qbits. Les capacités potentielles de calcul correspondraient, avec un ordinateur classique, à des durées de plusieurs fois l'âge de l'univers. On imagine ainsi le gain de temps calcul et d'utilisation mémoire à laquelle peut conduire cette nouvelle technologie. Mais elle promet aussi beaucoup plus : les vrais progrès viendront aussi de nouveaux algorithmes qui vont permettre de résoudre des problèmes jusqu'alors inaccessibles pour l'informatique classique.

Il y a donc un intérêt stratégique majeur à maîtriser cette puissance, sachant que les nombres et les calculs sont aujourd'hui à la source de toute connaissance et de toute action sur le monde. De nombreux laboratoires se sont donc mis en piste. Mais une énorme difficulté a jusqu'ici arrêté les chercheurs : la difficulté de maintenir en état de superposition un ensemble de plus de 1 particule. La localisation ou l'impulsion d'une particule quantique en état de superposition ne peuvent être définies que par une probabilité statistique découlant elle-même de la fonction d'onde de la particule. Pour connaître exactement ces valeurs, il faut faire interférer la particule avec un instrument, comportant par définition une grande quantité d'atomes. Mais alors, la fonction d'onde s'effondre et l'observateur n'obtient qu'une seule des deux valeurs, l'autre étant définitivement perdue, en application du principe d'indétermination. C'est ce que l'on appelle aussi le phénomène de la décohérence.

Issac Chuang, expérimentant son ordinateur quantique à 7qbitsPour qu'un ou plusieurs qbits conservent leur caractère quantique, et puissent donc travailler en état de superposition, il faut les isoler de toute matière ou énergie avec lesquels ils interféreraient - ce qui paraissait impossible ou très difficile dès que le nombre de qbits dépassait deux ou trois. Aujourd'hui cependant, en utilisant diverses techniques, un certain nombre de laboratoires ont annoncé (comme un grand succès célébré unanimement par la communauté des physiciens) avoir maintenu à l'état quantique de courtes séquences de bits (4 à 7) et pour des durées de temps suffisantes à la réalisation de quelques opérations.

L'avenir de l'ordinateur quantique repose donc sur les technologies qui seront utilisées pour générer et maintenir en état de superposition cohérente des chaînes de bits de plus en plus longues. La démarche consiste à réaliser d'abord une porte logique quantique (ou système microscopique), généralement de 2 qbits, capable de réaliser une opération quantique élémentaire dans une longueur de temps donnée. Les physiciens ont depuis longtemps réussi à maintenir en état de superposition un atome ou un photon isolé. Mais si on veut créer des circuits avec ces portes, en les ajoutant les unes aux autres, les risques de décohérence augmentent rapidement, du fait de l'interaction avec les atomes de l'environnement. L'information utile se trouve donc dissipée. Il faut donc réaliser des systèmes microscopiques ou les qbits interagissent avec eux-mêmes et non avec ceux de l'environnement. C'est là l'enjeu essentiel de la course à l'ordinateur quantique, engagée depuis une dizaine d'années dans les principaux pays du monde. Différents substrats et différentes méthodes de détection (par exemple la résonance magnétique nucléaire) sont actuellement expérimentés.

Même si l'état actuel de la technique ne permet pas de l'envisager à brève échéance, nous devons conclure cet article en évoquant la perspective d'un robot dont le cerveau serait constitué d'un ordinateur quantique. Comme indiqué plus haut, peu d'organismes vivants ou matériels seraient alors capables d'entrer en compétition avec lui dans le domaine des facultés logiques, voire de la création affective. Faudrait-il alors parler d'un robot parfait, comme on parle de la tempête parfaite (Perfect storm)?

Notes
(1) Voir nos articles :
- L'intelligence artificielle (IA). De l'IA faible à l'IA forte
:
http://www.automatesintelligents.com/echanges/2008/jui/dossieria.html
- Actualité de la cognition artificielle :
http://www.automatesintelligents.com/echanges/2008/jui/dossierca.html

(2) Conseillons ici, si ce n'est déjà fait, la lecture de l'ouvrage de Pascal Jouxtel, "Comment les systèmes pondent", éditions du Pommier.
(3) Voir http://www.admiroutes.asso.fr/larevue/2000/3/jeuvie/jeuvie.htm

(4) Voir par exemple :http://syntheticbiology.org/. Les pionniers de la biologie de synthèse sont : James J. Collins (Boston University), Michael Elowitz (Caltech, Pasadena, CA), Jay Keasling (University of California, Berkeley), Tom Knight et Drew Endy (MIT, Cambridge, MA), J. Craig Venter (Institute for Biological Energy Alternatives, Rockville, MD).
(5)Voir notre article du 29 janvier 2004 : "Pour un grand programme européen, l'ordinateur quantique"
(6) La société canadienne D-Wave System http://www.dwavesys.com/ annonçait en 2007 avoir réalisé un ordinateur quantique à 16 qbits !, et une commercialisation pour 2008 (il s'agit sûrement ici d'un effet d'annonce puisqu'on attend toujours cette commercialisation). Lire notre article : "Un ordinateur quantique commercialisé dès 2008?"

Retour au sommaire