Vers le site Automates Intelilgents
La Revue mensuelle n° 165
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubrique

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

 


Article . Les limites de la preuve scientifique
Jean-Paul Baquiast 17/01/2015

Une conférence de 3 jours s'est tenue à Munich à l'Université Ludwig Maximilian (LMU Munich) début décembre 2016, rassemblant des physiciens prestigieux, dont des Prix Nobel, et des philosophes eux-mêmes renommés. On en trouve le compte rendu sur le site Quanta Magazine. Il s'agissait de discuter un article publié précédemment par Nature, dans lequel les deux physiciens George Ellis et Joe Silk reprochaient aux théories hautement spéculatives de la physique moderne de ne pas respecter les principes fondamentaux de la méthode scientifique.

On peut s'étonner de constater que cette question, dont nous pensions qu'elle avait rencontré un consensus général, fait encore l'objet de Séminiaires aussi prestigieux. Mais le fait est là.

Ellis et Silk mettaient en cause principalement les défenseurs de la Théorie des Cordes et de la théorie du Multivers. Ceux-ci, s'appuyant selon eux sur le fait que ces théories étaient « élégantes », s'affranchissaient du principe fondamental de la science, consistant à ne rien affirmer qui ne puisse être soumis à des vérifications expérimentales.

Ils contestaient notamment les propos du philosophe autrichien Richard Dawid qui, dans un ouvrage de 2013, String Theory and the Scientific Method , avait identifié trois catégories d'évidences « non-empiriques » ( ne reposant pas sur l'expérience) qui pouvaient permettre de construire une vérité scientifique en l'absence de données expérimentales.

Selon David Gross au contraire, confirmant le propos de Dawid, les progrès de la science, que ce soit en physique macroscopique, en physique quantique ou en cosmologie, obligeaient à construire des modèles de l'univers qui en pratique n'étaient pas testables. Ceci notamment du fait que les machines permettant de mettre à l'épreuve ces hypothèses étaient devenues hors de portée des sociétés actuelles. Il a cité notamment le LHC, dont une version considérablement augmentée, souhaitée par les physiciens travaillant sur le collisionnneur, ne verra pas le jour avant des années. C'est ainsi que les pouvoirs de résolution du LHC devraient selon Gross être augmentés des centaines de milliards de fois pour accéder aux constituants de l'Univers.

D'où la nécessité, pour des théories à visées fondamentales comme la théorie des Cordes (dite parfois dans certaines versions Théorie du Tout) de renoncer pour le moment à toute vérification expérimentale. Il en est de même dans le domaine cosmologique. Comment explorer l'univers dans sa globalité, son origine et son possible devenir. Comment prouver qu'il n'est pas entouré d'univers semblables ou différents.

Le principe dépassé de la falsifiabilité

Pendant 3 jours, physiciens, philosophes et scientifiques d'autres disciplines ont discuté des limites que devrait ou non s'assigner la démarche scientifique, en l'absence de ce que Popper avait en son temps nommé la falsifiabilité. Selon Popper, il n'y a de théorie scientifique que si elle peut être mise en échec par une expérimentation future. Ainsi Dieu ne peut être présenté comme une hypothèse scientifique puisque le concept ne peut être « falsifié » par aucune expérience imaginable. Il est clair qu'aujourd'hui, le principe de Popper, s'il est encore utile dans la science quotidienne, n'a plus aucune pertinence en ce qui concerne les hypothèses portant sur les lois fondamentales de l'univers.

Les participants au Workshop se sont mis d'accord sur le fait qu'il fallait remplacer les évidences de la falsifiabilité par celle de la probabilité bayésienne, développée à partir des travaux du statisticien et prêtre anglais du 18e siècle Thomas Bayes. La vérité d'une hypothèse ou d'une théorie se situe sur une échelle de 1 à 100, selon les preuves disponibles. Ceci dépend des domaines scientifiques concernés. C'est d'ailleurs de cette façon que les cerveaux individuels se forgent une conviction, en quelque domaine que ce soit.

Cette approche probabiliste de la vérité scientifique n'est cependant pas toujours suffisante. C'est ainsi que le physicien Carlo Rovelli, souvent cité sur notre site, théoricien de la gravitation quantique à boucles et présent au Workshop, ne s'estime pas satisfait de l'approche Bayésienne. Celle-ci ne peut être la même en physique atomique, par exemple ou en Théorie des Cordes. La première est dans l'ensemble certaine à 100%, compte-tenu d'innombrables confirmations provenant notamment de la physique atomique. La seconde ne peut se prévaloir que peut-être 10% d'espoirs de confirmation. Ceci ne signifie pas qu'elle ne soit pas moins scientifique que la seconde. Carlo Rovelli reproche à l'ouvrage de Dawid de semer de la confusion. Un certain nombre de théoriciens des Cordes s'appuient sur lui pour affirmer que la Théorie est vérifiée, ce qu'elle n'est évidemment pas encore.

D'autres approches du supposé Réel

Nous ne résumerons pas ici la suite des débats, qui se sont manifestement répétés sans apporter de perspectives vraiment nouvelles. Pour notre part, observons que si la physicienne Mioara Mugur Schächter, des travaux de laquelle nous nous sommes beaucoup inspirés ici, avait participé au WorkShop, elle aurait certainement rappelé le principe fondamental qu'elle a développé, sous le nom de Méthode de conceptualisation relativisée (MCR).

Dans le domaine de la preuve des théories scientifiques, il faut rappeler que pour elle il n'existe pas de Réalité en soi, descriptible comme l'est dans la science quotidienne un objet ou un événement. Le Réel est toujours le résultat de la mise en relation d'un observateur, des instruments qu'il utilise et d'un infra-réel non accessible directement.

Comme les observateurs et les instruments, avec le développement des connaissances scientifiques, évoluent en permanence, la Réalité ne peut donc qu'être relativisée et, bien entendu, évolutive. On reconnaît là un des fondements de l'approche épistémologique de la mécanique quantique, mais Mioara Mugur Schächter propose de l'appliquer à tous les domaines scientifiques. C'est ce que nous avons fait pour notre part dans nos articles théoriques.

Nous proposons d'ajouter à ces considérations la prise en compte, non seulement de l'observateur, mais de son cerveau. Comme nous l'expliquons rapidement dans l'article de décembre 2014 (2e partie) L'Univers est-il unique ? Ou non ? Et notre cerveau, quel est-il? (et en priant le lecteur de nous pardonner de nous citer):

« ...notre cerveau sera-t-il jamais capable de seulement imaginer des modèles de l'univers suffisamment riches pour apporter des réponses aux mystères que sont pour nous les Singularités. En conséquence nous pourrions jamais les mettre à l'épreuve, avec nos instruments actuels ou d'autres à inventer. Comme le rat au bord de la mer qui n'imagine pas de lointains rivages, nous sommes peut-être immergé dans un univers où les Singularités trouveraient des explications toutes simples. Mais notre cerveau ne peut se représenter un tel univers.

Pourrait-on espérer améliorer les performances de ce cerveau, soit par des modifications génétiques soit par l'appel à l'intelligence artificielle? En principe oui. En pratique non, car il faudrait auparavant savoir dans quelles directions chercher et le type d'améliorations nécessaires. »