Accueil | Créer un blog |

JERELEN

Nouvelles de la Galaxie

C'est Moi il y a quelques mois .. ou années enfin je ne sais plus
le temps vous savez passe si vite ou si lentement



Ce blogg n'a  d'autre ambition que de me faire plaisir en partageant quelques bribes de savoir  et susciter en retour des commentaires éclairés (je l'espère) sur ces sujets.
J'essaierai d'aborder pour partie (mathématique musique et physique )  les thèmes de réflexion sous l'angle du formalisme.

Au début du XXeme siècle,
David Hilbert pensait que le formalisme des mathématiques apportait une preuve irréfutable de la véracité des descriptions quantifiées. Mais en 1931, Gödel bouscula cette convention. Il démontra qu'un système formel qui pouvait faire l'objet d'une description finie était incomplet et ne pouvait démontrer sa consistance (à la fois sa véracité et sa négation). Mais existe-t-il une information minimale capable d'élaborer une théorie précise, le monde est-il compressible algorithmiquement parlant ?
Quelle réalité soutend la physique Quantique ?

Album

Novembre

DiLuMaMeJeVeSa
      1
2345678
9101112131415
16171819202122
23242526272829
30      

Compteur

Depuis le 16-04-2006 :
56376 visiteurs
Depuis le début du mois :
0 visiteurs
Billets :
17 billets

La question n'est pas tant : Dieu joue-t-il aux dés ? Mais : Comment joue-t-il aux dés ? | 07 décembre 2006

ETHNO-MATHEMATIQUES
HASARD, COMPLEXITE ET TEMPS
par Gérard-Louis THIAULT
"La question n'est pas tant : Dieu joue-t-il aux dés ? Mais : Comment joue-t-il aux dés ?" (STEWART, 1998, p. 37).
 
Le Petit Larousse définit le hasard ainsi : "Hasard (de l'arabe al-zahr, jeu de dés) : Cause imprévisible et souvent personnifiée attribuée à des événements fortuits ou inexplicables. Événement imprévu, heureux ou malheureux. Jeu de hasard : jeu où n'intervient ni le calcul, ni l'habileté du joueur". Cette définition renvoie le hasard à l'imprévisible et son "jeu" à l'absence d'intentionnalité puisqu'il n'y a pas de "calcul".
Première conséquence : le futur est terrifiant et/ou inexistant, le temps est "traditionnel" : "Dans certaines tribus primitives africaines ou océaniennes la perception même de l'écoulement du temps s'y résume à deux grandes catégories : le présent et le passé. Le futur y est beaucoup moins important. L'image traditionnelle de la chaîne des générations à Tahiti, par exemple, est celle d'un cercle d'hommes avançant à reculons, le visage tourné vers le passé et vers leurs ancêtres. Si la tribune s'écarte des coutumes fixées par les âges, elle court alors le risque de rompre l'équilibre ancestral entre la nature et les hommes, et de provoquer la fin du monde" (MATRICON, ROUMETTE, 1991, p. 17).
Seconde conséquence : en niant l'intentionnalité, le hasard est "antireligieux". Il boute hors de l'Univers le destin, la destinée, Dieu, les dieux, le(s) "Grand(s) Architecte(s)" : "Ce qu'un grand nombre de gens ont du mal à accepter, c'est que le hasard plus la pression de sélection puissent conduire d'une condition initiale simple à des formes d'une haute complexité. (...) Ils ne peuvent se faire à l'idée d'une évolution en l'absence de quelque main pour la guider, en l'absence d'un projet" (GELL-MANN, 1997, p 351).
Troisième conséquence : en niant la prévisibilité (ou la prédictibilité), le hasard est "antiscientifique" (au sens déterministe car il rend impossible la prévision, l'exactitude et la certitude.) : "L'essence des explications mécaniques est en effet de considérer l'avenir et le passé comme calculables en fonction du présent, et de prétendre ainsi que tout est donné" (BERGSON, 1996, p. 38).
Avec les "Lumières", le hasard devient à la fois "antireligieux" et "antiscientifique" : "De nombreux historiens soulignent le rôle essentiel joué par la figure du Dieu Chrétien au 17ème siècle comme législateur tout puissant, dans cette formulation des lois de la Nature. La théologie et la Science convergeaient alors. Leibniz a écrit : "Dans la moindre des substances, des yeux aussi perçants que ceux de Dieu pourraient lire toute la suite des choses de l'Univers"." (PRIGOGINE, 1996-1998, p. 20) Le hasard n'est donc (et n'engendre) que désordre, entropie ou chaos. Il n'a aucune place dans un univers créé, ordonné, intelligible et sensé. Il faut obligatoirement qu'il s'y trouve un esprit suffisamment puissant, intelligent et habile pour le remplacer par une destinée, une main, un programme ou une équation. Au XXème siècle, le statut du hasard est revu(1). De nouvelles représentations de la nature et de nouveaux paradigmes apparaissent. La physique quantique réhabilite le hasard au niveau microscopique et fondamental de l'univers et jusque dans l'interaction observé / observateur(2). Les théories du chaos, de la complexité, les fractales permettent l'exploration scientifique (ou la ré-exploration) d'objets et de champs dans lesquels règnent l'incertitude, l'imprévisibilité, le désordre, les "anomalies".
 
OÙ EST LE PROGRAMME ?
 
"Phénomène troublant et magnifique, le pur hasard sauvage peut avoir un aspect qu'on ne peut s'empêcher de qualifier de "créatif"." (MANDELBRÖT, 1997, p. 73).
Alors que je l'interviewais(3) en 1993 et que je lui demandais son opinion sur le rôle du hasard dans l'évolution des espèces, le paléontologue Yves COPPENS me confia que lorsque l'on se trouvait sur le terrain et que l'on observait dans des strates fossilifères, la mutation simultanée de centaines d'espèces qui semblaient répondre avec presque trop de pertinence à la contingence d'un accident géologique(4), on ne pouvait s'empêcher (bien que darwinien convaincu) de se dire : "C'est trop fort pour le hasard !". Cette prise de position est un refus opposé à l'hypothèse que la nature puisse être sans intentionnalité (sans programme, projet, dessein) et/ou inféodée au hasard. La non-intentionnalité prive le monde d'un créateur mais elle rend surtout inconcevables et impossibles l'émergence et la simple présence de l'ordonné et du complexe dans l'Univers. Dans des travaux récents(5), j'ai présenté quelques exemples (la nature en est emplie) qui valident l'hypothèse de la non-intentionnalité. Les îlots d'ordre baignant dans l'océan du désordre(6) que sont les galaxies, la grande tache rouge de Jupiter, les systèmes adaptatifs complexes(7) se sont ordonnés et ont émergé du désordre, du chaos du fait de l'auto-organisation, de l'organisation par le bruit ou de principes dans lesquels le hasard tient le rôle créatif d'une matrice, d'un océan nourricier. Cette représentation en bouillon de culture du hasard s'étend jusqu'à la théorie des nombres qui paraissent comme immergés dans l'aléatoire selon Grégory CHAITIN : "(il) a montré que l'indécidabilité et l'imprévisibilité apparaissent également à un niveau plus fondamental en mathématiques : celui de la théorie des nombres" (HEUDIN, 1998, p. 113).
 
HASARD ET CHAOS
 
"La théorie du chaos n'est pas une théorie du bordel" (SPIRE, 1999, p. 161).
Avant d'examiner quelques-uns des caractères des dialogues hasard versus complexité(s) et hasard versus temps, il est indispensable de distinguer le hasard (ou l'aléatoire ou le chaos au sens littéral) du chaos des scientifiques (Théorie du Chaos). Ce dernier est un "comportement stochastique (aléatoire) se produisant dans un système déterministe" (STEWART, 1998, p. 35). Le chaos est ici déterministe mais d'un déterminisme que je qualifierai de "déterminisme complexe" avec des "marges de manœuvre", un horizon de prévisibilité, de l'émergence "raisonnable" et une "causalité complexe"(8). Ce chaos est celui que figurent certaines courbes fractales utilisées pour construire mes "modèles récits fractals" (MRF). Il s'agit des fractales à auto-similarité "ouverte" qui ont de l'"imagination"(9) tels les attracteurs étranges pour ne citer qu'eux.
Le chaos n'est donc pas le hasard. Le chaos est du hasard "quasi apprivoisé" et scientifiquement utilisable. Dans la suite de cet article, j'emploierai néanmoins indifféremment les termes "chaos" et "hasard" (ou "aléatoire") étant entendu que je n'étendrai pas mon propos jusqu'au "pur" hasard qui interpelle (peut-être ?) plus le philosophe que le scientifique et interroge (peut-être ?) plus sur le "pourquoi" que sur le "comment" de la partie de dés qui nous préoccupe.
 
HASARD ET COMPLEXITÉ(S)
 
"Entre le domaine du désordre incontrôlé et l'ordre excessif d'Euclide, il y a désormais une nouvelle zone d'ordre fractal" (MANDELBRÖT, 1995, p. 10).
Le dialogue du hasard et de la complexité commence aussitôt que l'on cherche à définir, à qualifier ou à mesurer tant l'aléatoire que le complexe. Ce dialogue rappelle grandement la "connivence" entre le temps et la complexité qui œuvre dans la dynamique de mon concept de "Complexité-Temps" (CT). J'ai exprimé par le passé cette "connivence" en posant que "le temps fabrique de la complexité qui fabrique du temps qui fabrique de la complexité qui..." Aujourd'hui, je modifie cette boucle, elle devient : "le hasard fabrique de la complexité qui fabrique du hasard qui fabrique de la complexité qui..." et ce faisant je suis ramené une fois de plus au temps et à la complexité mais réunis dans un trialogue avec le hasard, la contingence, les incertitudes...
Premier exemple de répartie du dialogue complexité / hasard : selon les mathématiques, "une suite aléatoire se caractérise par le fait qu'il n'existe pas de formule plus courte qui la définisse. (...) La longueur en termes de "bits" s'appelle la complexité de la suite. (...) Une suite est dite aléatoire si la complexité est égale à la longueur de la suite elle-même" (BARROW, 1996, p. 93-94). Cela suggère qu'une suite purement ou totalement aléatoire (extremum) a une longueur infinie et une complexité inépuisable ce qui renvoie au chapitre précédent quant au "pur" hasard et quant au "hasard lent" (MANDELBRÖT, 1997) comme nous le verrons plus loin.
Autre exemple : si l'on remplace l'expression "formule" spécifique au langage mathématique par "message" et/ou "programme" qui appartiennent respectivement aux vocabulaires de la communication et de l'informatique, on obtient d'autres réparties fondamentales du dialogue hasard / complexité(s). Ainsi, selon Murray GELL-MANN, il convient de distinguer la "complexité brute"(10) de la "vraie" complexité qui est la "complexité effective"(11) qui n'émerge, ne se développe, n'est importante que si le système est "ni trop ordonné, ni trop désordonné" (GELL-MANN, 1997, p. 77) juste à la frontière de l'ordre et du désordre. A ce sujet, on pourra se reporter à la thèse développée dans L'Évolution au bord du Chaos (HEUDIN, 1998). J'ajoute que la posture ethnographique invite à identifier cette frontière ordre / désordre à la frontière norme / déviance(12), là où justement se construit et évolue le monde, là où justement j'écoute les suggestions que font les modèles-récits fractals (MRF) lorsqu'ils dialoguent avec les observations.
 
HASARD(S) ET TEMPS
 
"(...) on semble avoir l'habitude de sous-estimer la puissance du hasard à engendrer des monstres. La faute en est due, semble-t-il, au fait que le concept de hasard du physicien a été modelé par la Mécanique Quantique et la Thermodynamique (...) au niveau microscopique (...) tandis qu'au niveau macroscopique il est "bénin"." (MANDELBRÖT, 1995, p. 44).
Le dialogue du hasard et du temps conduit à distinguer 3 hasards (MANDELBRÖT, 1997) : le "hasard bénin", le "hasard sauvage" et le "hasard lent".
Le "hasard bénin" a été dompté par les sciences exactes. C'est le hasard des tendances et des fluctuations "normales", "gaussiennes" et "raisonnables". Le "hasard bénin" atteint une limite de régularité non aléatoire rapidement. La théorie des probabilités repose sur ce hasard du "pile ou face".
Le "hasard sauvage" est indompté. Il est peut-être indomptable. C'est le hasard des "crises" (sismiques ou boursières, par exemple.), des bifurcations, des tsunamis, des grosses anomalies, des infidélités à la "norme". Ce hasard est particulièrement "créatif" (MANDELBRÖT, 1995) et très présent dans la nature : découpage des côtes maritimes ou crues du Nil. C'est le hasard de l'effet "Noé" (déluge) : "Lorsqu'un hasard n'est pas bénin et que le défaut de convergence est dû à la taille exceptionnelle de quelques valeurs (...) nous dirons qu'il manifeste un effet "Noé"." (MANDELBRÖT, 1997, p. 113). La "moyenne" ne peut se faire que très lentement ou pas du tout.
Le "hasard lent" est intermédiaire entre les deux autres hasards. Il peut atteindre une limite non aléatoire mais tellement lentement que cela n'est pas utilisable scientifiquement. C'est le hasard de l'effet "Joseph" ("7 ans de sécheresse, 7 ans de fertilité"): "Si le défaut de convergence est dû à l'interdépendance statistique (caractère pseudo-périodique) nous dirons qu'il manifeste un effet "Joseph"." (MANDELBRÖT, 1997, p. 113). La réalité même des cycles (pseudo-périodes) que semble contenir le "hasard lent" reste très controversée(13).
"L'indéterminisme défendu par WHITEHEAD, BERGSON ou POPPER s'impose désormais en physique. Mais il ne doit pas être confondu avec l'absence de prévisibilité qui rendrait illusoire toute action humaine. C'est de limite à la prévisibilité qu'il s'agit" (PRIGOGINE, 1996-1998, p. 131).
Un autre concept très important lie le hasard au temps, il s'agit de l'horizon de prévisibilité. Au début des années 1960, le météorologiste Edward LORENZ s'aperçoit qu'un modèle pourtant très simple de l'atmosphère terrestre prend un comportement chaotique et imprévisible après quelques temps de calcul. Cette découverte renvoie aux attracteurs étranges qui sont fractals et caractéristiques du comportement dynamique des systèmes non-linéaires. Les travaux de LORENZ mettent fin à l'espoir de pouvoir effectuer des prévisions météorologiques fiables à long terme(14) et cela quelle que soit la puissance de calcul mise en jeu et quelle que soit la précision des mesures limitée au mieux par l'incertitude quantique(15). A l'horizon de prévisibilité, le temps retrouve le hasard et le futur perd sa consistance. Il "n'est écrit nulle part" non seulement parce qu'il n'y a personne pour l'écrire mais parce que cela n'est plus possible. Exit le programme, exit les équations linéaires réductrices, exit les probables bénins, c'est le retour des possibles sauvages. Le temps paraît plonger dans l'océan du désordre comme s'il cherchait à s'y nourrir pour retrouver de la force, de l'inspiration et de l'imagination pour écrire de nouveaux chapitres du futur.
 
HASARD(S) ET COMPLEXITÉ-TEMPS (CT OU CTÉ)
 
La "Complexité-Temps" (étendue ou non) est un concept qui s'appuie sur l'hypothèse qu'il existe une "connivence" entre le temps et la complexité. C'est cette même "connivence" qui est évoquée plus haut. Je ne développerai pas ici de manière exhaustive les caractères de CT. Je n'en citerai que deux que je considère comme essentiels :
Le temps crée de la complexité. La complexité n'est pas incréée et n'est pas pour autant le produit de "plans". La complexité est la fille d'une dynamique particulièrement féconde lors des bifurcations.
La complexité crée du temps. Le temps possède de multiples dimensions. Il est "épais" et complexe. Ce sont les "événements" (bifurcations, transitions de phase...) s'ils sont porteurs de sens qui créent le temps parce qu'ils le ponctuent, l'extirpent de la virtualité, des fluctuations, de la réversibilité et de la linéarité newtonienne : "(...) toute histoire, toute narration impliquent des événements, implique que ce soit produit qui aurait pu ne pas arriver mais elle n'a d'intérêt que si ces événements sont porteurs de sens" (PRIGOGINE, STENGERS, 1992, p. 47).
Ces deux caractères renvoient aux bifurcations et au hasard. Les bifurcations sont au centre du dialogue de la complexité et du temps (CT) mais elles sont aussi des fruits et des génératrices d'aléatoire : "La branche de la bifurcation choisie par le système est imprévisible. Le phénomène est aléatoire et semble le fruit du hasard. (...) Plus un système s'éloigne de l'équilibre, plus les causes des phénomènes qui s'y déroulent ont tendance à engendrer des effets inédits et, par conséquent, imprévisibles" (SPIRE, 1999, p. 20-21). En passant par les bifurcations, le hasard prend toute sa place dans le monde. Les dialogues complexité / temps, complexité / hasard et temps / hasard sont remplacés par un trialogue complexité / temps / hasard et c'est ce trialogue cristallisé par (et dans) les bifurcations qui est la réponse au "comment" de la partie de dés.
 
L'ŒIL ETHNOGRAPHIQUE "FRACTALIQUE" ET LA PARTIE DE DÉS.
 
"Notre univers a suivi un chemin de bifurcations successives : il aurait pu en suivre d'autres. Peut-être pouvons-nous en dire autant pour la vie de chacun d'entre-nous" (PRIGOGINE, 1996-1998, p. 86).
J'ai axé mes recherches sur les bifurcations en 1999 avec le projet d'en établir une taxonomie fondée sur un double regard ethnographique et "fractalique". Avec le début du développement de la CT en 2000, le projet initial est devenu un projet de recherche de thèse. J'ai alors introduit la transdisciplinarité dans ma réflexion et emprunté à l'ethnométhodologie outillage et approche du terrain. Cela étant, les bifurcations (et donc le hasard...) sont restées au (le) cœur de la recherche, témoins ces quelques chantiers en cours qui sont autant de chapitres de mes travaux :
Ethnographie des bifurcations, crises, décrochages-raccrochages, déviances...
Bifurcations et dynamique de la Complexité-Temps, des horizons et des frontières...
Rôles des branches empruntées ("suis été" sartrien) et/ou des branches non-empruntées ("suis pas été" et exaptation) des bifurcations dans la construction d'un parcours de vie, lors des changements de "costumes" (E. GOFFMAN)...
 
En paraphrasant STEWART, je dirai que Dieu joue assurément aux dés et qu'il le fait astucieusement et "économiquement". Le hasard est de tous les rendez-vous du monde dont il est à la fois substrat et produit. Tant qu'il y aura du hasard, du "dé-ordre", de l'aléatoire, de l'incertitude pourront naître et émerger du neuf, des histoires, de la complexité, du temps, du sens qui produiront à leur tour du hasard, de l'aléatoire... Les fleuves d'incertitudes retourneront à l'océan. Il y a incomplétude du monde, le hasard (un "bon" candidat au rôle d'"océan nourricier d'aléatoire" pourrait être le vide quantique) nous le dit, les fractales comme l'ensemble de MANDELBRÖT le suggèrent, voilà pourquoi, peut-être, Dieu peut jouer aux dés et pourquoi il y joue. Le hasard est l'ensemble de tous les possibles qui ne se sont pas encore réalisés, comme les fractales(16) il contient une infinité de réponses qui n'ont pas encore de questions.
 
Références bibliographiques :










BARROW, John D., Pourquoi le monde est-il mathématique ? Odile Jacob, Collection Opus, Paris, 1996.
BERGSON, Henri, L'évolution créatrice, Quadrige, PUF, Paris, 1996.
GELL-MANN, Murray, Le quark et le jaguar, Champs Flammarion, Paris, 1997.
GRIBBIN, John, Le chat de Schrödinger, Flammarion, Paris, 1994.
HEUDIN, Jean-Claude, L'évolution au bord du chaos, Hermès, Paris, 1998.
MANDELBROT, Benoît, Les objets fractals, Champs Flammarion, Paris, 1995.
MANDELBROT, Benoît, Fractales, hasard et finances, Flammarion, Paris, 1997.
MATRICON, Jean, ROUMETTE, Julien, L'invention du Temps, Presses Pocket, Paris 199.
MORIN, Edgar, Pour sortir du 20ème siècle, Nathan, Paris, 1981.
PRIGOGINE, Ilya, La fin des certitudes, Odile Jacob, Paris, 1996-1998.
PRIGOGINE, Ilya, STENGERS, Isabelle, Entre le temps et l'éternité, Champs Flammarion, Paris, 1992.
SPIRE, Arnaud, La pensée-Prigogine, Entretiens avec Gilles Cohen-Tannoudji, Daniel Bensaïd, Edgar Morin., Desclee de Brouwer, Paris, 1999.
STEWART, Ian, Dieu joue-t-il aux dés ?, Champs Flammarion, Paris, 1998.
 
Notes :
 
(1) Des signes annonciateurs de la réhabilitation du hasard s'étaient déjà manifestés au XIXème siècle. Ex.: les travaux de Charles DARWIN (De l'origine des espèces par voie de sélection naturelle, 1859).
(2) "L'ensemble de ces idées - l'incertitude, la complémentarité, la probabilité et la perturbation par un observateur du système observé - est désormais connu sous l'appellation "d'Interprétation de Copenhague" de la Mécanique Quantique" (GRIBBIN, 1994, p. 149).
(3) Je suis concepteur et réalisateur de documentaires éducatifs.
(4) Voir : Le rôle de l'ouverture du rift africain dans la théorie de l'"East Side Story" d'Yves COPPENS.
(5) Les "modèles-récits" fractals : de nouveaux outils pour l'ethnographie de l'école ? Pistes, horizons et limites, Mémoire de D.E.A., soutenu à l'Université de Haute-Bretagne, Rennes 2, Département des Sciences de l'Éducation, 2001.
(6) "L'ordre et le désordre se présentent (...) non pas comme opposés mais comme indissociables" (PRIGOGINE, Stengers, 1992, p. 50). Cette citation est à rapprocher de : "(...) il se dresse des îlots de certitudes dans l'océan d'incertitudes, mais ces certitudes sont soit isolées, soit combinées à l'incertitude. Il n'y a pas de continent de certitude" (MORIN, 1981, p. 287).
(7) (GELL-MANN, 1997).
(8) Dans mes travaux de D.E.A., j'ai énuméré quelques principes de ce déterminisme et de cette causalité complexes : "Les systèmes simples peuvent avoir un comportement complexe et les systèmes complexes peuvent avoir un comportement simple. Un comportement complexe peut avoir des causes simples et un comportement simple peut avoir des causes complexes. Des systèmes différents peuvent avoir des comportements similaires et des systèmes similaires peuvent avoir des comportements différents".
(9) Voir : "Ethnographie, micro-détails et modèles-récits fractals (MRF)", Esprit Critique n° 411, octobre 2002.
(10) Complexité brute: "longueur du plus court message possible décrivant un système, à un niveau donné d'agrandissement, à quelqu'un d'éloigné, au moyen d'un langage, d'une connaissance et d'une compréhension que les deux parties partagent (et qu'elles savent partager) au préalable" (GELL-MANN, 1997, p. 52).
(11) "Nous définissons la complexité effective d'une entité, en relation avec un CAS (système adaptatif complexe) qui l'observe et en construit un schéma, comme la longueur d'une description concise des régularités de l'entité identifiées dans ce schéma" (GELL-MANN, 1997, p.74).
(12) Ce qui est fortement heuristique si l'on forme les hypothèses que le désordre est un ordre "autre" et la déviance une norme "autre" pour revisiter des problématiques telles que celles de l'interculturalité (ou de la transculturalité), de la transgression et plus largement les problématiques de conflits, de dialogues et d'émergences aux frontières.
(13) "(...) les périodicités sont des artefacts, (ce) ne sont pas des caractéristiques du processus, mais plutôt le fruit conjoint du processus, de la longueur de l'échantillon et du jugement de l'économiste ou de l'hydrologue", (MANDELBRÖT, 1997, p. 182). "En règle générale, les cycles économiques s'éloignent de toute périodicité et dépendent tant de la longueur de l'échantillon disponible et des goûts de l'observateur qu'il faut jusqu'à nouvel ordre les considérer comme des artefacts. Suivant les mots de Keynes (1940), leur valeur tient surtout à ce qu'ils subdivisent les manuels sur l'histoire économique de façon très commode" (MANDELBRÖT, 1997, p. 167-168).
(14) "Si vous essayez de mettre bout à bout les prédictions à court terme afin d'obtenir une prédiction à long terme, de minuscules erreurs commencent à s'accumuler, s'amplifiant de plus en plus rapidement, jusqu'à ce que les prédictions deviennent un non-sens total" (STEWART, 1998, p. 204).
(15) Voir : Principe d'Incertitude D'HEISENBERG.
(16) "C'était des objets qu'on pouvait qualifier de réponses sans questions" (MANDELBRÖT, 1995, p. 11).

 

Publié par jerelen à 19:04:29 dans MATHEMATIQUES | Commentaires (0) |

LA MECANIQUE QUANTIQUE COMME THEORIE DES PROBABILITES GENERALISEE | 04 septembre 2006

 



 



Michel Bitbol

 


in: E. Klein & Y. Sacquin (eds.), Prévision et probabilités dans les sciences, Editions Frontières, 1998


Copyright: Michel Bitbol



 


1-Prologue


La thèse que je défendrai ici tient en deux propositions. Premièrement, la mécanique quantique n'est pas qu'une théorie physique faisant usage du calcul des probabilités; elle est elle-même une forme généralisée de calcul des probabilités, doublée d'un procédé d'évaluation probabiliste par l'utilisation réglée de symétries. Deuxièmement, la mécanique quantique n'a pas seulement une fonction prédictive comme les autres théories physiques; elle consiste en une formalisation des conditions de possibilité de n'importe quelle prédiction portant sur des phénomènes dont les circonstances de détection sont aussi des conditions de production.


2-Probabilités, signes, et qualités secondaires


Avant de développer et de justifier les propositions précédentes, je voudrais revenir rapidement sur la préhistoire du calcul des probabilités, au seizième et au dix-septième siècle. Ce retour nous aidera à surmonter des préjugés sur les probabilités qui sont issus d'une époque intermédiaire, disons le dix-huitième et le dix-neuvième siècle, et à aborder la mécanique quantique avec un esprit ouvert. Je vise en particulier le préjugé consistant à ne concevoir la probabilité que comme expression d'une ignorance au sujet de processus sous-jacents qui se déroulent d'eux-mêmes et obéissent à des lois déterministes.
Quelles sont donc les conditions qui ont permis l'élaboration collective, à partir du dix-septième siècle , du calcul des probabilités? Ian Hacking en dresse une assez longue liste , mais il insiste sur l'une d'entre elles. Cette condition cruciale, c'est le développement au seizième siècle de sciences des signes ou des qualités secondaires.
La distinction entre qualités primaires et qualités secondaires, autrement dit entre propriétés se montrant telles qu'elles sont intrinsèquement, et propriétés imputées aux corps matériels sur la foi d'impressions ou de signes résultant de leur interaction avec les organes des sens, est habituellement attribuée à Locke. On la fait éventuellement remonter à Galilée, à Descartes et à Robert Boyle. Mais on en retrouve en fait déjà la trace bien plus tôt, chez Jérôme Fracastor, un médecin de la première moitié du seizième siècle.
Dès le moment où cette distinction était reconnue pouvait se développer une opposition entre les sciences des causes premières et des démonstrations exactes, comme l'astronomie, la géométrie, ou la mécanique, et les autres sciences, comme la médecine et la chimie, qui en étaient réduites au pronostic d'après les signes, les phénomènes, ou les qualités secondaires sensibles. C'était dans le champ de ces sciences dites «inférieures», de ces sciences des qualités secondaires, qu'allait se cristalliser la notion d'une opinion étayée par des signes d'où découle en partie le concept de probabilité. Les indices de la survenue d'une épidémie, ou encore les symptômes d'une maladie, qui sont secondaires par rapport aux causes premières supposées de l'épidémie ou de la maladie, sont par exemple appelés des «signes de probabilité» par Jérôme Fracastor dans son livre "Sur la contagion".
Cette étroite association entre la naissance du concept de probabilité et l'élaboration du concept de qualités secondaires comporte une leçon implicite pour la compréhension du lien privilégié qu'entretiennent mécanique quantique et probabilités. Car, comme l'écrit Heisenberg , la physique quantique affronte une situation où même les variables spatio-cinématiques de position et de quantité de mouvement, qui étaient considérées du temps de Descartes et de Locke comme directes et «primaires», doivent être tenues pour des manifestations indirectes, relatives à un contexte instrumental, en somme secondaires. A l'universalisation de la notion de qualité secondaire, ou de relativité des phénomènes à l'égard d'un contexte, répondait en mécanique quantique l'universalisation du domaine de pertinence des probabilités.
On devine cependant, d'après ce compte-rendu, la raison pour laquelle le concept de probabilité est resté embryonnaire et marginal dans la science de la nature de la première moitié du dix-septième siècle; une raison qui explique aussi, bien qu'avec un temps de retard, les réticences contemporaines à prendre pleinement au sérieux une théorie physique à l'armature probabiliste comme la mécanique quantique. Cette raison, c'est que dès le début, les probabilités ont été considérées comme un pis-aller prédictif dans une situation où l'on se trouve momentanément incapable d'offrir un compte-rendu descriptif s'appuyant sur des principes et des vérités fondées; des vérités concernant les causes efficientes si l'on est aristotélicien, ou les figures et mouvements si l'on est cartésien. On ne doit pas s'étonner dans ces conditions que tout l'effort des acteurs de la première révolution scientifique ait tendu à élucider des liens causaux ou à décrire un univers réel de qualités primaires par le biais de la géométrie, plutôt qu'à chercher à systématiser l'estimation de l'incertain dans la circonscription mouvante des qualités secondaires.


3-L'incertain et le milieu des choses


Comme le souligne à juste titre Catherine Chevalley , l'estimation de l'incertain n'a commencé à constituer un thème d'investigation à part entière que chez un penseur anti-cartésien, Pascal, pour lequel «la fin des choses et leurs principes sont pour (l'homme) invinciblement cachés dans un secret impénétrable» . Si l'homme doit se contenter, selon Pascal, «(...) d'apercevoir quelque apparence du milieu des choses dans un désespoir éternel de connaître ni leur principe ni leur fin» , alors il ne peut pas se contenter de dédaigner les apparences au profit d'un insaisissable arrière-monde gouverné par des principes. Il faut que l'homme apprenne à habiter dans son milieu; il faut qu'il sache focaliser son attention sur le jeu de ses manipulations expérimentales et des phénomènes qui en résultent; il faut qu'il admette le manque de consistance d'un découpage du monde en objets séparés et intrinsèquement existants puisque les phénomènes sont tellement liés les uns aux autres qu'on ne saurait en saisir un sans saisir le Tout; il faut qu'il comprenne aussi qu'aucune connaissance ne peut s'affranchir du nexus des inter-relations mais seulement se situer en son sein sans ignorer la perspective dont elle est tributaire. Il faut enfin que l'homme consente à faire l'effort de domestiquer l'incertain qui est son lot, en mathématisant directement les rapports entre les antécédents et les attentes, et entre les attentes et les constats.
Bien sûr, le calcul des probabilités a pu se développer après Pascal en s'affranchissant de ce que certains appelleront un pessimisme épistémologique motivé par le vertige de l'impénétrabilité des desseins Divins. Le ton, dans l'Essai philosophique sur les probabilités de Laplace publié en 1814, est presque aux antipodes de celui-là, puisque Laplace y affirme la toute-puissance d'un principe de raison suffisante incarné par un Dieu à l'oeuvre transparente. Selon Laplace, «La courbe décrite par une simple molécule d'air ou de vapeurs est réglée d'une manière aussi certaine que les orbites planétaires; il n'y a de différence entre elles que celles qu'y met notre ignorance» . Et c'est seulement dans cet intervalle entre la détermination principielle de toutes choses et notre ignorance peut-être provisoire à leur sujet que prend place le concept de probabilité: «la probabilité, poursuit Laplace, est relative en partie à cette ignorance, et en partie à nos connaissances» .
Une telle conception a parfaitement rempli son office dans le cadre de la physique classique, particulièrement en mécanique statistique classique, si l'on met à part la problématique plus récente de la sensibilité aux conditions initiales. Mais, face à la question récurrente du caractère essentiel ou non essentiel des probabilités en physique quantique, face aux difficultés qu'y rencontre la thèse de la probabilité-ignorance, il n'était pas inutile de remonter en deçà de Laplace et de se rappeler que le calcul des probabilités a fait l'une de ses premières apparitions sur un tout autre terrain philosophique. Il a surgi chez Pascal, nous l'avons vu, sur fond d'une reconnaissance des limites anthropologiques, d'une épistémologie proche de l'opérationalisme, d'un holisme généralisé, et d'un perspectivisme gnoséologique. On ne peut qu'être frappé de constater que tous ces traits sont présents dans les interprétations les plus courantes de la mécanique quantique, et qu'on ne peut pas trouver d'interprétation acceptable qui n'en comporte au moins un. Le trait le plus fréquemment rencontré, y compris dans les plus fiables des interprétations à variables cachées, est le holisme.


4-Indéterminisme et contextualité


Ces deux remarques historiques, l'une sur l'association du concept de probabilité au concept de qualité secondaire, et l'autre sur le calcul des probabilités conçu comme instrument de maîtrise prédictive de notre situation d'enchevêtrement dans le réseau des relations naturelles, vont à présent nous aider à défaire deux noeuds interprétatifs de la physique quantique, se rapportant l'un comme l'autre à l'indéterminisme.
Le premier concerne la notion, très répandue depuis les travaux fondateurs de Heisenberg aux alentours de 1927-1930, d'une perturbation incontrôlable qu'est censée exercer l'agent de mesure sur l'objet microscopique mesuré. Il est intéressant de noter que cette «perturbation» s'est vue assigner un double rôle par ses concepteurs.
D'une part, souligne Bohr à la fin des années 1920, la perturbation incontrôlable constitue la raison de l'indivisibilité du phénomène quantique, c'est-à-dire de l'impossibilité de séparer dans le phénomène ce qui revient à l'objet et ce qui revient à l'agent de mesure. La perturbation expliquerait en d'autres termes, empruntés cette fois à Heisenberg, que la physique quantique conduise à généraliser le modèle des qualités secondaires, avec leur référence obligée au contexte dans lequel elles se manifestent, au détriment de celui des qualités primaires intrinsèques.
Mais d'autre part, selon l'article de 1927 où Heisenberg présente pour la première fois ses relations dites d'«incertitude», la perturbation est aussi ce qui rend compte de l'indéterminisme de la physique quantique. La perturbation incompressible et incontrôlable par l'agent de mesure est ce qui empêche de connaître complètement les deux groupes de variables qui composent l'état initial d'une particule; et par conséquent, conclut Heisenberg, le principe de causalité, qui lie de façon contraignante un état initial et un état final, reste inapplicable en physique quantique.
Le modèle de la «perturbation» permet ainsi de mettre en évidence une étroite relation entre contextualité et indéterminisme, puisque la perturbation a pour conséquence aussi bien la contextualité des phénomènes que l'indéterminisme à leur sujet. Une relation dont la confluence des concepts de qualité secondaire et de probabilité à l'époque de leur naissance est peut-être la traduction historique. Malheureusement, l'image de la perturbation de l'objet par l'agent de mesure a aussi un inconvénient majeur qui n'a pas échappé à Bohr et à Heisenberg, et qu'a par la suite souligné Karl Popper. Au fond, cette image consiste à commencer par mettre en scène un univers d'objets dotés de qualités primaires spatiales et cinématiques, puis à invoquer leurs altérations mutuelles pour justifier après coup la mise à l'écart du concept de qualité primaire et la généralisation de celui de qualité secondaire . A travers elle, on ne suscite la représentation d'un univers de figures et mouvements que dans l'unique but d'en montrer l'inanité ou, ce qui revient au même dans une épistémologie vérificationniste, l'inaccessibilité de principe.
L'image de la «perturbation» représente donc un moment méta-stable de la réflexion sur la mécanique quantique. Elle invite à son propre dépassement, dans deux directions opposées. Soit on prend pleinement au sérieux ses prémisses et on essaie de construire une théorie empiriquement adéquate des processus spatio-cinématiques inaccessibles qu'on postule; c'est là la stratégie des auteurs de certaines théories à variables cachées. Soit au contraire on prend pleinement au sérieux les conséquences holistiques de l'image de la perturbation, à savoir l'indivisibilité du phénomène quantique, son insurpassable relativité à un contexte expérimental, et on élabore une conception de la théorie physique qui ne fasse plus du tout appel à une représentation imagée des moments constitutifs supposés du phénomène; c'est là la stratégie que Bohr a adoptée à partir de 1935, non sans quelques affaiblissements.
Il est rassurant pour ceux qui, comme moi, ont choisi de pousser la seconde stratégie jusqu'à ses ultimes conséquences, de constater qu'il est possible d'établir un lien formel direct entre l'indéterminisme et la contextualité, sans avoir besoin de l'intermédiaire fourni par l'image de la perturbation. Dès 1935, Grete Hermann publiait un opuscule dans lequel elle laissait entrevoir un tel lien . Cette jeune philosophe allemande remarquait en effet que les causes éventuelles d'un phénomène quantique ne peuvent servir à le prévoir, parce qu'elles ne sont jamais définies qu'après coup, relativement aux circonstances mêmes de la production de ce phénomène lors d'une mesure. Plus tard, au début des années 1950, Paulette Destouches-Février démontra de façon beaucoup plus rigoureuse un théorème selon lequel toute théorie prédictive portant sur des phénomènes définis relativement à des contextes expérimentaux dont certains sont mutuellement incompatibles, est «essentiellement indéterministe» .


5-Idéaux déterministes, projections indéterministes


Remarquons à présent qu'à travers ce qui précède, un deuxième noeud interprétatif concernant le rapport entre physique quantique et indéterminisme a été implicitement dissout. On se demandait souvent dans les années 1930 si la mécanique quantique, avec son caractère probabiliste, voire «statistique» comme le disait Einstein, pourrait un jour être rendue caduque par une théorie déterministe des processus individuels sous-jacents. La réponse que les recherches des quarante dernières années on apporté à cette interrogation est un peu sibylline, mais d'autant plus instructive philosophiquement.
Le premier enseignement à retirer de ces recherches est qu'il n'est pas impossible de formuler des théories qui, tout en régissant par des lois déterministes les propriétés intrinsèques d'objets individuels, reproduisent exactement les prédictions de la mécanique quantique . Ces théories dites à variables cachées se trouvent simplement être soumises à quelques contraintes, dont les principales sont la non-localité (c'est-à-dire l'influence mutuelle instantanée des propriétés d'objets arbitrairement distants) et le contextualisme (c'est-à-dire l'influence du dispositif de mesure sur les propriétés postulées). Ces deux conditions ne vont cependant pas sans soulever des problèmes. Le concept non-local d'interactions instantanées à distance introduit un conflit formel (bien que sans conséquences pratiques) avec les axiomes de la théorie de la relativité . Le contextualisme a quant à lui pour conséquence que les mesures ne permettent pas d'accéder point par point aux processus continus et déterministes qui, d'après la théorie, se seraient déroulés d'eux-mêmes dans la nature si on ne les avait pas modifiés en cherchant à les mettre en évidence. Autrement dit, la théorie elle-même implique que les processus déterministes «indépendants» qu'elle décrit sont inaccessibles à l'expérience.
La conclusion à tirer de cela n'est certes pas qu'il faut jeter l'anathème sur les théories à variables cachées, mais simplement qu'il est indispensable de réviser leurs ambitions à la baisse.
Nous avons vu que l'un des principaux objectifs de leurs partisans était de rouvrir la question du déterminisme, contre ceux qui affirmaient hâtivement que cette question avait déjà été réglée dans un sens négatif par la mécanique quantique. La mécanique quantique standard avait beau être «essentiellement indéterministe» dans sa structure, si l'on pouvait reproduire ses résultats par une autre théorie comportant des processus déterministes, l'option déterministe récupèrerait tout son crédit. Il est vrai que la question ontologique de savoir si les lois ultimes de la nature sont ou ne sont pas déterministes est indécidable, parce que des apparences déterministes peuvent résulter d'une régularité statistique et qu'inversement des apparences indéterministes peuvent traduire un phénomène de chaos déterministe . Mais au moins pouvait-on encore espérer que le déterminisme retrouve sa valeur traditionnelle de guide pour la recherche. Or, cet espoir même a été déçu. Car, dans les théories à variables cachées, l'attitude déterministe semble bien avoir perdu jusqu'à sa fécondité épistémologique. L'attitude déterministe n'était en effet féconde que parce qu'elle poussait les chercheurs à concevoir des réseaux de liens univoques pouvant sous-tendre les phénomènes, à désigner un type d'expérience permettant de mettre ces liens en évidence, et à définir ainsi des classes souvent inédites de phénomènes. Malheureusement l'inaccessibilité principielle des liens sous-jacents aux phénomènes dans les théories à variables cachées contextualistes aptes à reproduire les prédictions quantiques, bloque ce processus dès le départ. Une fois tari le courant d'information réciproque entre le projet déterministe et la définition de nouveaux domaines d'expérimentation, la tentative de poursuivre formellement ce projet ne relève plus que d'un jeu de l'esprit, dont le principal (sinon le seul) intérêt est de servir de stimulant intellectuel aux spécialistes de fondements de la physique moderne.
Cette situation ne justifie pas pour autant l'excès inverse, à savoir un dogmatisme indéterministe. Tout ce qu'on est en droit de constater c'est que désormais, dans les sciences physiques, l'avantage de la fécondité épistémologique appartient à l'attitude consistant à développer au maximum la capacité prédictive au détriment de l'ambition descriptive, le calcul des probabilités plutôt que les modèles d'évolution déterministe.
Il est vrai que beaucoup de penseurs ne s'en tiennent pas là; qu'ils tendent à extrapoler le constat épistémologique de la fécondité de l'option indéterministe en une affirmation ontologique sur le caractère intrinsèquement stochastique des lois qui régissent le monde. Mais leur position s'explique aisément sur le plan méthodologique, sans qu'il soit nécessaire de les suivre dans les aspects métaphysiques de leurs conclusions. Comme l'a montré James Logue dans son livre récent Projective probability , tout système cohérent d'évaluations probabilistes peut s'interpréter de façon réaliste, c'est à dire qu'il peut se comprendre comme exprimant des propositions dont la valeur de vérité est indépendante de nos moyens de les tester. Et cette interprétation à son tour peut conduire les auteurs d'une évaluation probabiliste à la projeter sur le monde. Rien d'étonnant dans ces conditions que le système cohérent d'évaluations probabilistes de la physique quantique, non contrebalancé par un programme déterministe fécond, ait pu être conçu par des chercheurs aussi éminents que Popper (et même Heisenberg à sa façon), comme traduisant en partie ou en totalité une caractéristique «réelle», ou «existante», du monde . Popper estime par exemple que le monde est fait de capacités, de potentialités ou de propensions naturelles, qui se manifestent expérimentalement par des distributions statistiques particulières des phénomènes, et qui ont leur reflet dans la théorie quantique sous forme d'un algorithme probabiliste.
Incontestablement, les partisans d'un indéterminisme ontologique se livrent ici, tout autant que les défenseurs des théories à variables cachées, à ce que Kant aurait dénoncé comme une tentative d'étendre l'application de nos concepts au delà des limites de l'expérience . Avec pour seul avantage par rapport aux partisans des théories à variables cachées qu'eux se contentent d'hypostasier directement le mode d'opération du formalisme quantique plutôt que de chercher à en élaborer un nouveau. Mais doit-on le leur reprocher? Puisque tout système cohérent d'évaluation probabiliste peut se lire sur un mode réaliste, puisque rien n'empêche de d'interpréter l'algorithme quantique de calcul des probabilités comme traduisant un ordre de propensions naturelles, pourquoi leur interdirait-on d'adhérer sans réticences à de telles interprétations? Pourquoi leur refuserait-on de croire sans arrière-pensées que la théorie quantique décrit une réalité faite de pures potentialités?
Le genre de réponse que nous allons essayer de donner à ces interrogations est d'ordre épistémologique plutôt que métaphysique. Nous n'allons pas nous demander si la réalité est ou n'est pas faite de potentialités ayant la structure de l'algorithme probabiliste de la théorie quantique, mais seulement si nous perdons ou non quelque chose sur le plan de la connaissance en interprétant cet algorithme de façon réaliste.
Disons tout de suite, et c'est là le sens de l'énoncé d'équivalence de James Logue, que ni le praticien de l'évaluation probabiliste, ni le physicien quantique, ne perdent quoi que ce soit à une telle façon de voir. Ils peuvent même y gagner quelque chose qui est au coeur de toute profession de foi réaliste, à savoir le sérieux avec lequel il considèrent leurs entités théoriques, et la motivation dans la recherche . En revanche, le philosophe a vraiment beaucoup à perdre à se laisser fasciner par le seul rapport de la théorie avec le monde. Car cette attitude ne l'incite guère à réfléchir sur ce que doit la théorie à la situation de l'homme dans le monde, et en particulier ce qu'elle doit à la pratique même de l'investigation expérimentale. A la différence du scientifique dans son travail quotidien, le philosophe ne peut se contenter d'occuper la situation pascalienne de l'homme dans le milieu qu'il explore; il doit penser cette situation et tâcher d'en énoncer les conséquences. Le chercheur scientifique peut d'ailleurs avoir aussi intérêt à adopter de temps à autre la posture réflexive, lorsqu'il aborde des périodes de réorientation de son travail. Et chacun sait qu'il se trouve presque inévitablement conduit à le faire pendant les époques révolutionnaires que traverse sa science.


6-Une théorie des probabilités généralisée


C'est à ce genre de retournement de l'attention que nous allons maintenant procéder. Nous allons suspendre le jugement au sujet d'un hypothétique isomorphisme partiel entre le réel dans lequel on expérimente et la mécanique quantique, et nous intéresser sélectivement à ce que doit la structure de cette théorie à la forme de l'activité expérimentale elle-même.
Commençons par exposer rapidement, dans cet esprit, l'architecture de la mécanique quantique standard:
(1) Le noyau formel de cette théorie consiste en un espace vectoriel défini sur l'ensemble des nombres complexes, et doté d'un produit scalaire; autrement dit un espace de Hilbert.
(2) Sur cet espace sont définis des opérateurs spéciaux, appelés «observables», qui fournissent, à travers leurs «valeurs propres», la liste des résultats possibles d'une opération de mesure.
(3) Un vecteur de l'espace de Hilbert, appelé vecteur d'état, est associé à chaque préparation (c'est-à-dire à ce qui, dans une expérience, fixe les conditions préalables à la mesure).
(4) En appliquant la règle de Born à ce vecteur d'état, on obtient une fonction assignant des probabilités aux résultats d'une mesure quelconque effectuée à la suite de la préparation.
(5) Comme un intervalle spatio-temporel variable et diverses circonstances physiques peuvent séparer la fin du fonctionnement de la préparation et l'opération de mesure, on en tient compte à travers une équation d'évolution des vecteurs d'état. Cette équation est celle de Schrödinger dans le cas non-relativiste, et celle de Dirac dans le cas relativiste.
Ici, je voudrais insister sur la différence majeure entre les fonctions de probabilités de la théorie classique des probabilités, et celles qu'on obtient à partir des vecteurs d'état de la mécanique quantique en appliquant la règle de Born. Les fonctions classiques de probabilités associent un nombre compris entre 0 et 1 à chaque «événement» au sens large, défini par Kolmogorov comme un sous-ensemble d'événements élémentaires. L'ensemble de ces sous-ensembles-événements comprend l'ensemble vide et l'ensemble exhaustif, et il est doté d'une structure d'algèbre de Boole par les opérations de réunion et d'intersection. En d'autres termes, les fonctions classiques de probabilités sont définies sur une algèbre de Boole. Au contraire, compte tenu des propriétés des espaces de Hilbert, les fonctions quantiques de probabilités ne sont pas définies sur une algèbre de Boole; elles sont définies sur des structures différentes et plus riches qu'on appelle des «orthoalgèbres» . Je me garderai de donner le détail des axiomes d'une orthoalgèbre, et je me contenterai de signaler que le concept d'orthoalgèbre n'est pas sans rapport avec celui d'algèbre de Boole. On peut même considérer que les orthoalgèbres constituent une généralisation des algèbres de Boole, et que corrélativement les fonctions de probabilités quantiques généralisent les fonctions de probabilités classiques. En effet, une orthoalgèbre contient des algèbres de Boole comme sous-structures. Et d'autre part, la restriction d'une fonction quantique de probabilités sur ces sous-structures booléennes équivaut à une fonction classique de probabilités.
Cette disparité structurale entre fonctions classiques et fonctions quantiques de probabilités justifie qu'on ne se contente pas de considérer que la mécanique quantique utilise la théorie des probabilités. La mécanique quantique consiste elle-même, pour une part, en une forme nouvelle et élargie de théorie des probabilités.


7-Un formalisme prédictif méta-contextuel


Il serait cependant dommage de s'en tenir à cet exposé superficiel et formaliste de la situation. Nous pouvons assez facilement comprendre les raisons de l'irruption d'une nouvelle sorte de théorie des probabilités en montrant qu'elle est une réponse pratiquement inévitable aux caractéristiques de la classe des phénomènes expérimentaux dont traite la mécanique quantique. La principale de ces caractéristiques, déjà signalée à plusieurs reprises par le biais d'une réflexion sur le concept de qualité secondaire, est la contextualité; autrement dit l'inséparabilité du phénomène et du contexte expérimental de sa manifestation. C'est elle qui impose un grand nombre des caractéristiques structurales de la théorie quantique.
Mais pour bien mettre en évidence le lien très fort entre contextualité et mécanique quantique, il faut d'abord analyser ce qui rend la contextualité du phénomène quantique incontournable, et la différencie d'autres formes courantes, bénignes, et facilement surmontables, de relation des déterminations à un contexte.
Dans toutes les sciences, comme dans beaucoup de situations ordinaires, on peut dire qu'à chaque contexte expérimental ou sensoriel correspond une gamme de phénomènes ou de déterminations possibles. Par exemple, à un contexte représenté par les cônes de la rétine correspond une gamme de couleurs, à un contexte représenté par une règle correspond une gamme de longueurs, à un contexte représenté par un thermomètre correspond une gamme de températures, etc. Mais aussi longtemps que les contextes peuvent être conjoints, ou que les déterminations sont indifférentes à l'ordre d'intervention des contextes, rien n'empêche de fusionner les gammes de possibles en une seule gamme relative à un seul contexte global, puis de passer ce contexte sous silence et de traiter les éléments de la gamme comme s'ils traduisaient autant de déterminations intrinsèques. La présupposition que rien n'empêche d'escamoter le contexte est automatiquement faite quand on se sert de propositions du langage ordinaire; car ces dernières permettent d'attribuer plusieurs déterminations au même objet comme si elles lui étaient propres. Il est important de noter qu'à cette présupposition et à ce mode de fonctionnement de la langue s'associent une logique classique, booléenne, et une théorie des probabilités classique, kolmogorovienne.
Mais l'apparition d'obstacles à la conjonction des contextes, ou le constat d'une absence d'indépendance des phénomènes vis-à-vis de l'ordre d'utilisation des contextes, comme c'est le cas en physique microscopique lorsqu'on essaye de mesurer des variables canoniquement conjuguées, rendent ces méthodes traditionnelles inutilisables. La stratégie consistant à ne pas tenir compte des contextes expérimentaux échoue, et l'explicitation de la contextualité des déterminations devient impérative.
Dans cette situation qu'affronte la physique quantique, la logique booléenne et les probabilités kolmogoroviennes ne subsistent en première analyse que fragmentées en plusieurs sous-logiques et plusieurs sous-structures probabilistes, chacune d'entre elles étant associée à un contexte particulier. A chaque contexte expérimental s'associe une gamme de déterminations possibles et une gamme de propositions attributives qui relèvent d'une sous-logique classique, booléenne; et à chaque détermination choisie parmi l'ensemble des déterminations possibles correspondant à un contexte donné, peut être attaché un nombre réel qui obéit aux axiomes de la théorie des probabilités de Kolmogorov. Mais ces sous-logiques et ces sous-structures probabilistes ne peuvent pas fusionner, car elles dépendent de contextes distincts qui ne peuvent en général être conjoints. On cherche dans ces conditions à les articuler les unes aux autres, respectivement dans le cadre d'une méta-logique et d'un formalisme probabiliste méta-contextuel. Ce qui est remarquable est que lorsqu'on construit une telle méta-logique, en tenant seulement compte de l'impossibilité de conjoindre les diverses gammes de possibles, on en arrive à des structures isomorphes à la célèbre «logique quantique» non-distributive de Birkhoff et von Neumann . Et par ailleurs, quand on essaie de construire un formalisme probabiliste méta-contextuel, en s'imposant seulement de respecter les axiomes de Kolmogorov séparément pour chaque gamme de possibles, et d'utiliser un unique symbole générateur de sous-fonctions de probabilités pour chaque préparation, on parvient à une classe de structures dont le formalisme de vecteurs dans des espaces de Hilbert de la mécanique quantique est un cas à peine particulier. La forme de l'équation d'évolution de la mécanique quantique est elle-même dérivable de conditions générales portant sur la stabilité temporelle du statut d'outil d'évaluation probabiliste du vecteur d'état .
Dans sa fonction de théorie-cadre, la mécanique quantique n'est par conséquent autre qu'une forme méta-contextuelle de théorie des probabilités. Elle recueille les conditions de possibilité d'un système unifié de prédiction probabiliste portant sur des phénomènes inséparables de contextes parfois incompatibles. Il suffit ensuite de compléter cette théorie-cadre par diverses symétries pour en tirer autant de variétés particulières de théories quantiques.


8-Décohérence et probabilités


Nous avons vu que, sauf à affronter les graves difficultés épistémologiques des théories à variables cachées non-locales, les probabilités quantiques ne peuvent pas être tenues pour l'expression d'une ignorance au sujet de processus ou d'événements qui se dérouleraient d'eux-mêmes dans la nature. Le calcul quantique des probabilités porte sur des phénomènes dont l'occurrence est suspendue à l'intervention d'un contexte approprié. Le problème est qu'en tant que théorie physique, la mécanique quantique a une vocation à l'universalité. Le calcul des probabilités méta-contextuel, qui est son élément constitutif principal, devrait dans ces conditions pouvoir s'appliquer sans restriction et à toute échelle. Mais, dans notre environnement familier, la théorie classique (kolmogorovienne) des probabilités n'est-elle pas parfaitement utilisable? Et cette théorie classique ne fonctionne-t-elle pas, contrairement à son équivalent quantique, de telle sorte que rien n'interdit de considérer qu'elle exprime une ignorance partielle au sujet de propriétés intrinsèques et d'événements autonomes? Un problème de compatibilité se pose alors, entre le calcul quantique des probabilités, valable en principe à toute échelle, et le calcul classique des probabilités, valable en pratique à notre échelle.
Les théories de la décohérence ont pour principal objet de prouver cette compatibilité. Elles permettent en effet de montrer qu'appliqué à des processus complexes faisant intervenir un objet, un appareil de mesure, et un vaste environnement, le calcul quantique des probabilités se ramène à une très faible approximation près au calcul classique des probabilités. Ceci se manifeste par une quasi-disparition de termes d'interférence typiques du calcul quantique des probabilités, et isomorphes à ceux d'un processus ondulatoire, au profit d'une quasi-validité de la règle classique d'additivité des probabilités d'une disjonction.
Rares sont cependant les physiciens qui se sont contentés de cette formulation purement probabiliste et prédictive des théories de la décohérence. Quelques-uns d'entre eux ont même caressé l'espoir d'utiliser la décohérence comme moyen d'expliquer l'émergence d'un monde classique, à partir d'un monde quantique censément «décrit» par un vecteur d'état universel . L'obstacle majeur auquel ils se sont heurtés est que, pour parvenir à dériver à partir d'un calcul purement quantique les lois et les comportements classiques qui prévalent à l'échelle humaine, ils n'ont pu éviter d'introduire des hypothèses contenant déjà des éléments anthropomorphiques .
Ces déconvenues incitent à ne rien demander de plus aux théories de la décohérence que d'assurer rétrospectivement une cohérence en pratique suffisante entre le calcul quantique des probabilités et le présupposé, à la fois fondamental et élémentaire, qui sous-tend son attestation expérimentale. Ce présupposé consiste à admettre que les événements macroscopiques (comme la déviation de l'aiguille d'un appareil) surviennent d'eux-mêmes au laboratoire, que leur trace est en permanence disponible pour n'importe quel chercheur qui désirerait en effectuer le constat, et que l'utilisation du calcul des probabilités à leur sujet ne fait par conséquent qu'exprimer une ignorance partielle sur ce qu'il sont.


9-Théorie quantique des champs, intégrales de chemin, et formalisme prédictif méta-contextuel


Les réflexions qui précèdent ont il est vrai de quoi surprendre certains physiciens contemporains. En effet, à force de manipuler un concept de champ parfois insuffisamment distingué de son équivalent classique, et à force de prendre au pied de la lettre les processus que figurent de façon imagée les diagrammes de Feynman, un nombre non-négligeable d'entre eux a fini par se comporter comme si les problèmes conceptuels que soulevait la mécanique quantique à sa naissance n'étaient plus qu'un mauvais souvenir. Si la physique «décrit» l'évolution des champs fondamentaux, et/ou si elle parvient à «décrire» également la dynamique des particules (considérées comme état d'excitation du champ) à travers le procédé des intégrales de chemin de Feynman, pourquoi se préoccuper encore de cette vieille lune bohrienne qu'est l'inséparabilité du phénomène et de ses conditions expérimentales de manifestation? Pourquoi mettre en avant une notion aussi opaque pour le physicien théoricien que celle de «mesure» ? Pourquoi insister de façon obstinée sur le statut prédictif plutôt que descriptif des théories quantiques? Ne peut-on pas penser que bien des perplexités philosophiques des créateurs de la mécanique quantique étaient liées à l'emploi d'un formalisme (celui des vecteurs dans un espace de Hilbert) qui est désormais surclassé dans les théories les plus avancées par le formalisme des intégrales de chemin?
La réponse à ces questions est qu'en vérité, aucune des contraintes épistémologiques exercées par la mécanique quantique standard de 1926 n'a été relaxée par les variétés contemporaines de théories quantiques, et que de nouvelles contraintes du même ordre s'y sont même ajoutées. Quelles que soient les représentations qu'elles ont pu susciter, les théories quantiques actuelles opèrent toujours comme un instrument généralisé, méta-contextuel, de prédiction probabiliste, et cela vient de ce qu'elles sont toujours confrontées à des phénomènes inséparables de leur contexte de manifestation. Afin d'étayer cette réponse, il suffira d'évoquer rapidement le renouveau des réflexions philosophiques suscité par la théorie quantique des champs, puis de repréciser les relations entre le formalisme des vecteurs d'état dans un espace de Hilbert et celui des intégrales de chemin de Feynman.
Le trait central des théories quantiques, qui est de consister en une structure méta-contextuelle de prédiction probabiliste, se retrouve non seulement intact mais amplifié par la théorie quantique des champs. Au terme d'une réflexion sur les formalismes d'espaces de Fock, Paul Teller conclut: «(...) les états (dans un espace de Fock) caractérisent simplement des propensions pour ce qui se manifestera sous diverses conditions d'activation. Parmi les choses pour lesquelles il peut y avoir des propensions de manifestation, il y a l'occurrence de divers nombres de quanta (...)» . Autrement dit, loin d'avoir rendu superflues des notions contextuelles comme celles d'état propensif, d'«observable», ou de conditions d'«activation», les théories quantiques des champs en ont généralisé l'application. Le concept de champ quantique dérive de celui de champ classique par la mise en correspondance d'observables locales aux fonctions locales, et par l'introduction de relations de commutation (ou d'anti-commutation) pour certains couples de ces observables. Quant aux vecteurs d'état dans un espace de Fock, ils permettent non pas de calculer la probabilité que telle ou telle «propriété» d'une particule se manifeste dans un contexte expérimental donné, mais bien la probabilité qu'un certain nombre de particules soit détecté dans des conditions instrumentales appropriées. Ce nombre lui-même est traité comme une observable, dont l'ensemble des valeurs possibles sous des conditions de détection appropriées s'identifie à l'ensemble des entiers naturels. A la contextualisation du prédicat des objets, typique de la mécanique quantique standard, s'ajoute par conséquent en théorie quantique des champs la contextualisation de la notion de supports dénombrables des prédicats.
Qu'on doive désormais tenir le concept même de «particule(s)», et pas seulement celui de «propriété de la particule», pour relatif à un contexte de manifestation, est rendu particulièrement évident par le phénomène relativiste dit des «particules de Rindler». Ce phénomène s'observe en accélérant un détecteur dans le «vide» . Le détecteur accéléré répond, dans cet environnement où aucun détecteur au repos ne détecterait pourtant la moindre particule, comme s'il était plongé dans un bain thermique de particules . Il est donc clair ici qu'on ne peut pas traiter les particules comme des objets qui «sont» là, ou qui «ne sont pas» là, indépendamment des conditions de leur détection. On est seulement en droit de parler de phénomènes de détection qui impliquent de façon indissociable un milieu (disons «le vide quantique»), un détecteur, et l'état dynamique de ce détecteur. Les théories quantiques des champs apparaissent dès lors comme des élaborations particulières du cadre probabiliste méta-contextuel de la mécanique quantique: des élaborations adaptées à une classe élargie de phénomènes contextuels, appartenant au domaine relativiste, et touchant au concept formel de «support» par-delà celui de «propriété» .
Venons-en à présent aux formalismes d'intégrales de chemin de Feynman, qui ont souvent supplanté les formalismes standard dans la pratique moderne des théories quantiques des champs . Bien que le fonctionnement des intégrales de chemin soit illustré par des diagrammes linéaires évoquant des trajectoires spatio-temporelles de particules, leur propos est seulement de permettre de calculer la probabilité d'un événement expérimental final (en un certain point) sous la condition de la survenue d'un événement expérimental initial (en un autre point). Ici, la dépendance du phénomène dont on calcule la probabilité à l'égard d'un contexte instrumental est seulement implicite, mais elle n'en joue pas moins un rôle capital dans le principe même du calcul effectué. Que fait-on en effet concrètement lorsqu'on évalue une intégrale de chemin? On somme des «amplitudes de probabilités», puis on prend le carré du module de la somme ainsi obtenue pour obtenir la probabilité qu'on cherche . Or, la distinction entre amplitudes de probabilités et probabilités recouvre d'assez près celle entre expériences virtuelles et expériences actuelles. Lue dans le cadre du formalisme standard, l'amplitude de probabilité n'est autre que le produit scalaire du vecteur d'état et d'un vecteur propre d'une observable correspondant à une expérience qui aurait pu être accomplie (mais qui ne l'a pas été) dans l'intervalle qui sépare les deux expériences effectives . Au contraire, la probabilité est calculée pour le résultat d'une expérience qui va effectivement être accomplie ou qui l'a déjà été. Le formalisme des intégrales de chemin manifeste ainsi, tout autant que celui des vecteurs dans un espace de Hilbert, la structure prédictive méta-contextuelle des théories quantiques. Il consiste à évaluer la probabilité d'un phénomène contextuel, en sommant des termes correspondant à des contextes virtuels intermédiaires distincts de celui dans lequel se manifeste effectivement le phénomène.
Ajoutons à ceci deux autres circonstances qui suggèrent des relations étroites entre le mode de fonctionnement des théories quantiques utilisant un formalisme de vecteurs dans l'espace de Hilbert, et celles qui font usage d'intégrales de chemin. Tout d'abord, l'équivalence entre le formalisme de la mécanique quantique standard, qui met en oeuvre un opérateur Hamiltonien dans l'équation de Schrödinger, et le formalisme d'intégrales de chemin qui utilise la fonction Lagrangienne correspondante, a été démontrée par Feynman . Par ailleurs, de même que certains principes de symétrie déterminent la forme du Hamiltonien de l'équation de Schrödinger, ce sont des principes de symétrie qui permettent de fixer la densité de Lagrangien de chaque interaction, et de déterminer ainsi l'intégrale de chemin . L'utilisation de ce genre de principes de symétrie a plus concrètement pour conséquence de moduler les intégrales de chemin (et par conséquent les évaluations probabilistes qui en résultent), en annulant l'amplitude de certains des diagrammes qui interviennent dans la sommation .


10-Epilogue


Tout ceci nous amène à conclure par deux propositions valant indépendamment de la variété de théorie quantique ou de formalisme utilisés. Chaque théorie quantique combine un élément invariable, qui est une forme méta-contextuelle de théorie des probabilités, et un élément variable qui est un ensemble de symétries. L'association des deux éléments en fait un système d'évaluation probabiliste adapté à une classe de situations expérimentales dont l'extension dépend des symétries mises en oeuvre.

Publié par jerelen à 16:57:33 dans MATHEMATIQUES | Commentaires (2) |

Logique Aristotelicienne | 17 avril 2006

Raisonnement 

 

Georges Vignaux  

Les modes de l'inférence  

 

Le raisonnement naturel est souvent assimilé à la forme la plus classique du syllogisme, celle dite du démonstratif : « Un discours tel que certaines choses étant posées, quelque chose d'autre que ces données en résulte nécessairement par le seul fait de ces données. »1 La réaction immédiate consiste à s'interroger sur la nature de ce lien qui peut relier prémisses et conclusions. Est-ce l'habitude qui consiste à nous faire associer certaines choses à d'autres ? Est-ce un effet affectif qui nous fait expliquer des situations ou des faits, par le recours à certaines notions ?2 Ou est-ce un simple rapport de probabilité que nous établirions entre des circonstances et ce qu'elles pourraient amener comme conséquences logiques qui seraient inscrites dans la nature des choses ? La conclusion d'un raisonnement n'est pas toujours la conséquence directe de ce qui a été posé dans les prémisses de ce raisonnement. Il peut même y avoir inversion de cette conséquence : affirmer, c'est alors le moyen tactique de poser comme vrai.

 

Le raisonnement peut même tirer origine de prémisses reconnues comme fausses ; c'est le cas du raisonnement par l'absurde. Dans le discours ordinaire, raisonner consiste à inférer à partir de certaines choses d'autres choses, qui pourront être aussi bien des situations, des valeurs que des jugements.

Tout raisonnement peut être ainsi traduit en schéma d'inférence comme le font les logiciens : « Tout A est B et tout C est A donc tout C est B. »

Le problème, c'est qu'on ne sait jamais ce qui vient garantir la validité d'une telle inférence.

 

En logique, cela se fait au moyen de lois, dérivées d'un petit nombre d'axiomes, lesquels garantissent que telle ou telle inférence est légitime dans un système. Il n'en va pas de même dans le raisonnement naturel.  Ces remarques amènent à distinguer entre l'acte d'inférence et ce qui peut légitimer cet acte. Un bon raisonnement n'est souvent pas autre chose que celui qui atteint son but. C'est la relation qui attache la conséquence au principe posé et qui permet d'inférer de ce principe à cette conséquence :

 

la vérité d'une proposition entraîne la vérité de sa conséquence. Réciproquement, la fausseté de la conséquence laisse présupposer la fausseté du principe puisque le faux ne peut découler du vrai. Il s'agit là de ces formules mises en place dès les origines de la logique et qu'on nomme le modus ponens (p implique q, alors s'il y a p, on a q) et le modus tollens (p implique q, alors s'il y a non-q, on a non-p). Encore faut-il distinguer entre cette relation de principe à conséquence et la relation d'implication, du type p implique nécessairement q. Cette implication stricte est une écriture à l'intérieur d'un système logique formel (abstrait).

 

L'inférence naturelle, parfois dite implication, relève simplement de relations posées entre objets et situations du monde, donc concrètes. L'inférence naturelle signifie que d'un principe découle une conséquence, mais que cette conséquence n'est pas toujours une obligation. C'est pourquoi, il y a toujours complémentarité entre le vrai et le faux, entre l'affirmation et la négation et la relation d'inférence peut être orientée dans l'un ou l'autre sens. C'est pourquoi encore, on peut parler de bons et de mauvais raisonnements. Sophismes et paralogismes  

 

On n'étudie plus beaucoup aujourd'hui les raisonnements jugés fautifs. Or pourtant, l'étude de ces derniers est à l'origine de la réflexion logique : chez Aristote, les Réfutations sophistiques ont précédé la constitution des Analytiques. Aristote distingue deux sortes de sophismes qui proviennent du langage. Dans un premier type de cas, on a l'amphibolie, l'ambiguïté, la combinaison des mots ; dans le second, la confusion qui consiste à prendre pour accordé ce qui est toujours en discussion ou à voir une cause là où il n'y en a pas. Un sophisme serait un raisonnement vicieux qui vise à abuser autrui ; il a l'air vrai mais il ne fait qu'illusion ou aboutit à des conclusions trompeuses. C'est en réalité, un raisonnement de capture qui vise à faire admettre une certaine conclusion à un auditoire. L'étude de ces paralogismes fait partie d'un certain nombre de programmes d'enseignement outre-atlantique. Tout un courant de recherches y existe, consacré à cette logique informelle, lequel courant témoigne de l'évolution historique du concept même de paralogisme.  

 

Pour Aristote, il ne s'agissait pas d'assimiler tromperie à paralogisme, mais d'examiner comment une argumentation pouvait se révéler non valide bien qu'ayant toutes les apparences de la validité. Précisément : dans le cadre de sa théorie du syllogisme où la conclusion découle nécessairement des prémisses, une formule du type « P, donc P » n'est pas un syllogisme, mais un paralogisme. En revanche, nous l'accepterions aujourd'hui bien volontiers ; il suffit d'entendre ces genres de lieux communs fréquents :

« Un homme, c'est un homme » ; «

 une femme, c'est une femme ».

 

Préoccupé des manières de vérifier la validité des syllogismes, Aristote a surtout construit l'appareil de la réfutation. Pour lui, une réfutation est un syllogisme dont la conclusion est la contradictoire d'une certaine proposition que cette réfutation vient tester, mais elle ne permet pas de conclure à la fausseté de la proposition qu'elle contredit.

Par exemple, comme l'expliquent Woods & Walton3, si la proposition P est une thèse, et s'il y a une argumentation du type « A, B donc non P », cela ne signifie pas que P soit fausse.

 

En effet : il est possible que P soit fausse, mais il est aussi possible que les propositions A ou B soient elles aussi fausses. Par principe, la réfutation laisse indéterminée la vérité ou la fausseté de la proposition qu'elle réfute, sauf le cas où la réfutation de P est une preuve que P est fausse, à condition que A et B soient vraies.

 

Une réfutation sophistique n'est donc pas une réfutation. C'est un  syllogisme qui semble valide, mais qui ne l'est pas. Pour Aristote, les paralogismes n'avaient pas le statut de syllogismes, c'étaient des argumentations de type logique ne visant pas à la vérité.

 

On comprend que Lewis Carroll s'en soit moqué dans Logique sans peine 4 où le lecteur trouvera quelques exemples savoureux de ce genre : 


Aucun docteur n'est enthousiaste  

Vous êtes enthousiaste  

Vous n'êtes pas docteur  

 

ou encore :  

Tout homme prudent évite les hyènes  

Aucun banquier n'est imprudent  

Aucun banquier ne manque jamais d'éviter les hyènes  

 

Au moyen âge, le raisonnement sophistique était qualifié de paradoxal et la nature du paradoxe, elle-même objet de nombreux débats. Souvent, il s'agissait d'argumentations en forme de sorites comme celle selon laquelle on peut démontrer qu'une personne parfaitement chauve demeure une personne chevelue si auparavant, elle a effectivement porté des cheveux !

 

De nos jours, on dira en français, d'un tel raisonnement qu'il est fallacieux au sens qu'il est trompeur ; le terme anglais fallacy peut signifier aussi bien une erreur logique qu'une impropriété dialectique.

 

L'opposition est plus tranchée en allemand où Trugschluss désigne l'intention de tromper lors d'un échange tandis que Fehlschluss signifie une inférence logiquement non valide. Les avis divergent : un raisonnement est-il logiquement acceptable quand sa construction est correcte même avec une conclusion trompeuse ? Un raisonnement est-il trompeur parce qu'il porte sur des choses dont on ne peut attester ni de l'existence ni des relations qu'elles entretiennent entre elles ?  Aristote rangeait les raisonnements fallacieux dans la catégorie des éristiques, c'est-à-dire des duels oratoires ou des exercices en école.

 

Le moyen âge les a utilisés sous forme de jeux. L'histoire a laissé des exemples déconcertants de ces syllogismes où l'on part de propositions reconnues comme vraies et où, selon un raisonnement irréprochable, on aboutit cependant à une conclusion absurde. Le fait est là : la rigueur et la persuasion d'un raisonnement peuvent être impressionnantes et totalement indépendantes des propositions qui le constituent. Le problème est difficile ; la solution n'est pas dans l'examen des principes posés au départ, mais dans l'analyse des constructions du discours, des lieux qu'il vient occuper et des situations qu'il investit.   

 

Fonctions et usages du raisonnement  

 

Prouver ou réfuter, contredire ou mettre en doute, sont des fonctions fondamentales du discours. C'est pourquoi il est difficile d'imaginer qu'un discours ne soit pas une argumentation même s'il prend les allures de la simple déclaration : déclarer, c'est se poser face à quelque chose ; affirmer, c'est s'affirmer face à autrui ou au contradicteur. Tout discours s'inscrit dans un contexte où des thèses s'opposent.

 

Cela signifie que tout raisonnement peut être considéré comme argumentation : autant comme enchaînement d'inférences dérivant l'une de l'autre que sous forme de ces procédures en sauts de puces dont le discours quotidien sait plus ou moins relier les étapes. Tout repose sur ce qui aura été choisi comme points de départ ; là réside l'ambiguïté de la notion d'invention : a-t-on découvert par le discours une autre conséquence ou ajouté quelque chose de nouveau ? Plutôt que d'invention, je choisirai de nommer constructions, ces tâtonnements sur un fait ou une idée auxquels s'essaient les processus de preuve dans le discours.

 

C'est ici que parler d'une logique de l'argumentation prend sens, s'il s'agit de dire que toute argumentation s'appuie sur un certain raisonnement et qu'elle vise à mettre au jour des éléments à considérer dans une intention de preuve ou de réfutation. Logique d'action et logique pratique, logique naturelle aussi, dans la mesure où elle s'inscrit sur du concret, cette logique de l'argumentation nécessite d'interroger autrement les formes classiques du raisonnement : déduction, induction et analogie.  

 

La déduction  

 

Durant longtemps, le syllogisme fut considéré comme la forme parfaite de la déduction. La forme déductive du discours mathématique était ainsi assimilée à une succession de syllogismes. Cette idée persistera longtemps, puisque selon Robert Blanché5, le mathématicien Leonhard Euler (1707-1783) considérait encore que « tous les raisonnements par lesquels on démontre tant de vérités dans la géométrie se laissent réduire à des syllogismes formels ». Ce n'est qu'au 19e siècle qu'on opposera la rigueur du raisonnement mathématique à la pauvreté mécanique du syllogime. Depuis nous demeurons tributaires de cette opposition.

 

A tort, car la distinction entre interprétation catégorique et interprétation hypothétique des systèmes déductifs est en fait, l'héritage qui subsiste de la distinction aristotélicienne. Dans la déduction catégorique, on part de principes certains et le but est de transférer cette certitude aux conséquences : on démontre. Dans un système hypothético-déductif, on ne s'interroge pas sur la valeur de vérité des propositions, mais sur ce qu'elles peuvent impliquer. L'utilisation de la méthode expérimentale est typique de ce second cas. La logique d'Aristote est fondée sur l'existence de substances auxquelles on peut prédiquer des essences.

 

Les Stoïciens sont au contraire nominalistes et traitent des faits temporels. Pour Aristote, ce qui compte, c'est l'être ; pour les Stoïciens, c'est l'événement. La différence entre la théorie aristotélicienne et la conception stoïcienne est que la première traite des qualités des substances alors que la seconde s'attache aux événements. Cela est indépendant bien sûr de la forme du raisonnement. Les syllogismes hypothétiques conduisent à une conclusion factuelle soit par une loi nécessaire soit par un ensemble d'observations :  

 

S'il y a du soleil, il fait jour  

Si une personne est atteinte d'un cancer grave, elle ne guérira pas  

 

La théorie de la déduction est cependant plus qu'une syllogistique à partir du moment où il s'agit de traiter les variables propositionnelles en termes de relations. Cela veut dire qu'on va considérer non plus la qualité qui peut être attribuée à un sujet, mais surtout la relation pouvant être établie entre deux sujets. Dans tout raisonnement déductif, ce qui compte, c'est le lien logique qui garantit la vérité d'une conséquence à la condition que les principes soient vrais sans que pour autant il s'agisse d'identité ou d'inclusion entre les termes : la conclusion dépend des prémisses, mais n'est pas contenue dans celles-ci. La fonction du lien logique est d'établir une connexion telle que, des propositions étant admises, l'esprit soit conduit à en admettre d'autres.

 

De ce point de vue, la déduction est au coeur de l'argumentation quotidienne, dans la mesure même où partant de principes donnés, elle vise à des conclusions d'apparence rigoureuse, mais le paradoxe est là : cela n'est possible que localement et dans des contextes toujours relatifs. En conséquence, la déduction, prisonnière des modes de l'inférence et des objets sur lesquels elle porte, est souvent plus proche de l'induction ou de l'analogie que de l'implication.  

 

L'induction  

 

L'induction se définit comme le passage du particulier au général, à l'universel. Cet universel est ce qui va fournir l'explication du fait initial considéré ; il est en quelque sorte la loi. Les Premiers Analytiques (II, XXIII) d'Aristote donnent l'exemple de l'inférence obtenue à partir de deux faits d'observation :  L'homme, le mulet et le cheval sont sans fiel et vivent longtemps : on peut donc en inférer que les autres sans fiel vivent longtemps.  Aristote ajoute qu'il est nécessaire que l'énumération des animaux dotés de la première propriété soit complète et que « tous » ces animaux soient bien ceux dénombrés à propos du deuxième fait d'observation.

 

C'est ce qu'il nomme un syllogisme par induction, en d'autres termes, un syllogisme renversé. Cela veut dire que l'induction n'apporte pas plus de connaissances que celles qu'on possède déjà.  Longtemps, on a vu dans l'induction un élément moteur de la démarche scientifique. Poincaré6 voyait en elle la fécondité des mathématiques. Mais Claude Bernard7 a longuement insisté sur ce fait que la méthode expérimentale est bien plus que de l'induction fondée sur la simple observation des faits, et qu'il y a tout un travail de conception de la loi à partir des faits et de déduction des conséquences de cette loi. Deux types de démarches scientifiques peuvent ainsi être distinguées. L'une n'affirme que ce qui a été expérimentalement contrôlé.

 

L'autre s'efforce d'élaborer des propositions susceptibles de fournir le principe explicatif des observations opérées. En fait, les deux fonctionnent de façon complémentaire. Pour le scientifique, un phénomène c'est d'abord un objet et un lieu de relations. Ces relations s'organisent à l'intérieur d'une loi parce qu'il faut, comme l'écrit F. Jacob8 trancher « entre la nécessité des phénomènes et la contingence des événements ». Cette loi, une fois argumentée, deviendra un fait jugé nécessaire pour les objets scientifiques qu'elle sera censée gouverner. Le raisonnement prend alors la forme du déductif. Cela ne doit pas faire oublier toutes les étapes inductives ou analogiques qui ont précédé.  

 

L'analogie

 

Jusqu'au 19e siècle, l'analogie constituait avec l'induction et la déduction, une sorte de trilogie des modes du raisonnement. On distinguait trois démarches : du particulier au général (induction), du général au particulier (déduction) et du particulier au particulier (analogie).

 

La seule justification à cette division discutable était qu'il y aurait en commun aux trois processus, la même progression de principe à conséquence ou son inverse ou encore, comme dans le cas de l'analogie, le fait de rester sur un même plan. La question de l'analogie est en fait celle de savoir comment analyser la façon dont chacun de nous va utiliser ce système de ressemblances qui lui permet de rapprocher des objets ou des situations en vue de les rendre comparables. Question ambiguë.

 

Chez Aristote, c'est l'égalité de rapports comme dans la proportion mathématique : « A est à B comme C est à D » (Topiques, A, 108a). Aujourd'hui, on parle d'analogie dès qu'on perçoit une similitude entre des faits, des êtres, des situations. Le flou de la définition permet toutes sortes d'applications paradoxales. Ainsi, Georges Perec9 donnait l'exemple paradoxal d'une classification dite chinoise : « A) appartenant à l'Empereur, B) embaumés, C) apprivoisés, D) cochons de lait, E) sirènes, F) fabuleux, G) chiens en liberté, H) inclus dans la présente classification, etc. »  En science, l'analogie peut à l'occasion, jouer un rôle.

 

C'est ainsi qu'au début du 19e siècle, s'est développée l'anatomie comparée grâce à l'analogie entre organes et fonctions. Mais en regardant de plus près ce qui est souvent donné comme analogie véritable — à savoir le rapport entre deux proportions tel que, connaissant ce rapport et trois des termes -, je peux en conclure le quatrième -, on s'aperçoit que ceci s'apparente tout autant à la déduction qu'à ce qui est appelé induction.

 

Ces comparaisons que le biologiste utilise ou que le juriste emploie sont plus proches de la déduction que de l'analogie, à la réserve près que cette déduction interviendra localement et selon différents niveaux de rigueur. Aristote lui-même ramenait, dans les Analytiques, les deux formes fondamentales du raisonnement à la déduction syllogistique et à son inverse, l'induction.  Le vrai problème en résumé n'est pas de savoir si l'argumentation naturelle, à savoir le discours quotidien, doit ou non respecter les formes d'une rigueur ailleurs définie pour les besoins de la science.

 

L'opposition entre argumentation et démonstration, c'est-à-dire entre vraie et fausse rigueur, contrairement à ce que pensait Perelman, n'est pas de grande utilité. Ce qui importe, c'est de comprendre et d'analyser les opérations mises en jeu par un sujet qui argumente et les types d'ancrages sur lesquels ces opérations vont porter : individus, faits, objets, notions, situations. 10  1 . Aristote, Premiers Analytiques,

 

P

aris, Vrin 1962, I, 1, 24 b 15. 2 . « ...

l'dée de nature est exemplaire. A la différence des concepts d'herbe, d'arbres, de fleur, de ciel ou de nuage, l'idée de nature ne nous met en présence d'aucune réalité individuelle », D. Bourg, Nature et technique, Paris, Hatier, « Optiques-Philosophie », 1997, p. 33.   3 . J. Woods et D. Walton, Critique de l'argumentation. Logiques des sophismes ordinaire. Paris, Kimé, 1992.  4 . Paris, Hermann, 1966. 5 . Le raisonnement, Paris, PUF, 1973, p. 137.  6 . Science et méthode, Paris, Flammarion, 1908. Publié par jerelen à 19:59:21 dans MATHEMATIQUES | Commentaires (5) |

Les mathématiques auraient-elles une sorte de relation métaphysique privilégiée avec le réel, et b) sinon, comment se fait-il que l’abstraction mathématique semble souvent avoir une telle puissance prédictive dans le monde réel ? | 16 avril 2006

Pour les premiers Grecs, la géométrie était considérée comme la forme la plus haute du savoir, une puissante clé pour les mystères métaphysiques de l'univers. Elle était plutôt une croyance mystique, et le lien entre le mysticisme et la religion était rendu explicite dans des cultes comme ceux des Pythagoriciens. Aucune culture n'a depuis déifié un homme pour avoir découvert un théorème géométrique! Plus tard, les mathématiques furent considérées comme le modèle d'une connaissance a priori dans la tradition aristotélicienne du rationalisme. 
    


L'étonnement des Grecs pour les mathématiques ne nous a pas quitté, on le retrouve sous la traditionnelle métaphore des mathématiques comme « Reine des Science ». Il s'est renforcé avec les succès spectaculaires des modèles mathématiques dans la science, succès que les Grecs (ignorant même la simple algèbre) n'avaient pas prévus. Depuis la découverte par Isaac Newton du calcul intégral et de la loi du carré inverse de la gravité, à la fin des années 1600, les sciences phénoménales et les plus hautes mathématiques étaient restées en étroite symbiose — au point qu'un formalisme mathématique prédictif était devenu le signe distinctif d'une « science dure ».


Après Newton, pendant les deux siècles qui suivirent, la science aspira à ce genre de rigueur et de pureté qui sembraient inhérentes aux mathématiques. La question métaphysique semblait simple ; les mathématiques possédaient une connaissance a priori parfaite, et parmi les sciences, celles qui étaient capables de se mathématiser le plus parfaitement étaient les plus efficaces pour la prédiction des phénomènes . La connaissance parfaire consistait donc dans un formalisme mathématique qui, une fois atteint par la science et embrassant tous les aspects de la réalité, pouvait fonder une connaissance empirique a postériori sur une logique rationnelle a priori. Ce fut dans cet esprit que Condorcet entreprit d'imaginer la description de l'univers entier comme un ensemble d'équation différentielles partielles se résolvant les unes par les autres. 
     
La première faille dans cette image inspiratrice apparut dans la seconde moitié du 19ème siècle, quand Riemann et Lobachevsky prouvèrent séparément que l'axiome des parallèles d'Euclides pouvait être remplacé par d'autres qui produisaient des géométries consistantes. La géométrie de Riemann prenait modèle sur une sphère, celle de Lobachevsky, sur la rotation dun hyperboloïde. 


L'impact de cette découverte a été obscurci plus tard par de grands chamboulements, mais sur le moment, il fut un coup de tonnerre dans le monde intellectuel. L'existence de systèmes axiomatiques mutuellement inconsistants, et dont chacun pouvait servir de modèle à l'univers phénoménal, remettait entièrement en question la relation entre les mathématiques et la théorie physique. 


Quand on ne connaissait qu'Euclide, il n'y avait qu'une géométrie possible. On pouvait croire que les axiomes d'Euclide constituaient un genre de connaissance parfaite a priori sur la géométrie dans le monde phénoménal. Mais soudain, nous avons eu trois géométries, embarrassantes pour les subtilités métaphysique. 


Pourquoi aurions-nous à choisir entre les axiomes de la géométrie plane, sphérique et hyperbolique comme descriptions de la géométrie du « réel » ? Parce que toutes les trois sont consistantes, nous ne pouvons en choisir aucune comme fondement a priori — le choix doit devenir empirique, basé sur leur pouvoir prédictif dans une situation donnée. 


Bien sûr, Les théoriciens de la physique ont longtemps été habitués à choisir des formalismes pour poser un problème scientifique. Mais il était admis largement, si ce n'est inconsciemment, que la nécessité de procéder ainsi ad hoc était fonction de l'ignorance humaine, et, qu'avec de la logique ou des mathématiques assez bonnes, on pouvait déduire le bon choix à partir de premiers principes, et produire des descriptions a priori de la réalité, qui devaient être confirmées après coup par une vérification empirique. 


Cependant, la géométrie euclidienne, considérée pendant deux cents ans comme le modèle de la perfection axiomatique des mathématiques, avait été détrônée. Si l'on ne pouvait connaître a priori quelque chose d'aussi fondamental que la géométrie dans l'espace, quel espoir restait-il pour une pure théorie « rationnelle » qui embrasserait la totalité de la nature ? Psychologiquement, Riemann et lobachevsky avaient frappé au cœur de l'entreprise mathématique telle qu'elle avait été conçue jusqu'alors. 
     
De plus, Riemann et Lobachevsky remettaient la nature de l'intuition mathématique en question. Il avait été facile de croire implicitement que l'intuition mathématique était une forme de perception — une façon d'entrevoir le noumène platonicien derrière la réalité. Mais avec deux autres géométries qui bousculaient celle d'Euclide, personne ne pouvait plus être sûr de savoir à quoi le noumène ressemblait. 


Les mathématiciens répondirent à ce double problème avec un excès de rigueur, en essayant d'appliquer la méthode axiomatique à toute les mathématiques. Il fut progressivement découvert que la croyance en l'intuition mathématique comme à une sorte de perception d'un monde nouménal avait encouragé la négligence ; dans la période pré-axiomatique, les preuves reposaient souvent sur des intuitions communément admises de la « réalité » mathématique, qui ne pouvaient plus être considérées automatiquement comme valides. 


La nouvelle façon de penser les mathématiques conduisait à une série de succès spectaculaires, parmi lesquelles la théorie des ensembles de Cantor, l'axiomatisation des nombres de Frege, et éventuellement, la monumentale synthèse des Principia Mathematica de Russell et Whitehead. 


Pourtant cela avait aussi un prix. La méthode axiomatique rendait la connexion entre les mathématiques et la réalité phénoménale toujours plus étroite. En même temps, des découvertes comme le paradoxe de Balzano suggéraient que les axiomes mathématiques qui semblaient être consistants avec l'expérience phénoménale pouvait entraîner de vertigineuses contradictions avec cette expérience. 


La majorité des mathématiciens devinrent rapidement des « formalistes », soutenant que les mathématiques pures ne pouvaient qu'être considérées philosophiquement comme une sorte de jeu élaboré qui se jouait avec des signes sur le papier (c'est la théorie qui sous-tend la prophétique qualification des mathématiques de « système à contenu nul » par Robert Heinlein). La croyance « platonicienne » en la réalité nouménale des objets mathématiques, à l'ancienne manière, semblait bonne pour la poubelle, malgré le fait que les mathématiciens continuaient à se sentir comme les platoniciens durant le processus de découverte des mathématiques. 


Philosophiquement, donc, la méthode axiomatique conduisait la plupart des mathématiciens à abandonner les croyances antérieures en la spécificité métaphysique des mathématiques. Elle produisit aussi la rupture contemporaine entre les mathématiques pures et appliquées. 


La plupart des grands mathématiciens du début de la période moderne — Newton, Leibniz, Fourier, Gauss et les autres — s'occupaient aussi de science phénoménale (c'est à dire de « philosophie naturelle »). La méthode axiomatique avait couvé l'idée moderne du mathématicien pur comme un super esthète, insoucieux de la physique. Ironiquement, le formalisme donnait aux purs mathématiciens un mauvais penchant à l'attitude platonicienne. Les chercheurs en mathématiques appliquées cessèrent de côtoyer les physiciens et apprirent à se mettre à leur traîne. 
     
Ceci nous emmène au début du vingtième siècle. Pour la minorité assiégée des platoniciens, le pire était encore à venir. 


Cantor, Frege, Russell et Whitehead montrèrent que toutes les mathématiques pures pouvaient être construites sur le simple fondement axiomatique de la théorie des ensembles. Cela convenait parfaitement aux formalistes ; les mathématiques se réunifiaient, du moins en principe, à partir d'un faisceau de petits jeux détachés d'un grand. Les platoniciens aussi étaient satisfaisaits ; s'il en survenait une grande structure, clé de voûte consistante pour toutes les mathématiques, la spécificité métaphysique des mathématiques pouvait encore être sauvée. 


 Malheureusement, il s'avère qu'il existe plus d'une façon d'axiomatiser la théorie des ensembles. En particulier, il y a au moins quatre façons différentes de combiner les propositions sur les ensembles infinis, qui conduisent à des théories des ensembles qui s'excluent (l'axiome de choix ou sa négation, l'hypothèse de continuité ou sa négation.)


C'était encore et toujours Riemann/Lobachevsy, mais à un niveau beaucoup plus fondamental. Les géométries riemanniennes et lobachevskiennes pouvaient fonctionner avec des modèles finis, dans le monde ; vous pouviez décider empiriquement, à la limite, laquelle convenait. Normalement, vous pouviez considérer les trois comme des cas particuliers de la géométrie des géodésiques sur les variétés, ce faisant les intégrer à la superstructure érigée sur la théorie des ensembles. 


Mais les axiomes indépendants dans la théorie des ensembles ne paraissent pas conduire à des résultats qui puissent être modélisés dans le monde fini. Et il n'y a aucun moyen d'affirmer à la fois l'hypothèse de continuité et sa négation dans une théorie des ensembles unique. Comment un pauvre Platonicien choisit-il quel système décrit les mathématiques « réelles » ? La victoire de la position formaliste semblait complète.
     
D'une façon négative, pourtant, un platonicien eut le dernier mot. Kurt Godel mit son grain de sable dans le programme formaliste d'axiomatisation quand il démontra que tout système d'axiomes assez puissant pour inclure les entiers devait être soit inconsistant (contenir des contradictions) soit incomplet (trop faible pour décider de la justesse ou de la fausseté de certaines affirmations du système). 


Et c'est plus ou moins où en sont les choses aujourd'hui. Les Mathématiciens savent que de nombreuses tentatives pour faire avancer les mathématiques comme une connaissance a priori de l'univers doivent se heurter à de nombreux paradoxes et à l'impossibilité de décider quel système axiomatique décrit les mathématiques « réelles ». Ils ont été réduits à espérer que les axiomatisations standard ne soient pas inconsistantes mais incomplètes, et à se demander anxieusement quelles contradictions ou quels théorèmes indémontrables attendent d'être découverts ailleurs, cachés comme des champs de mines dans la noosphère. 


Cependant, sur le front de l'empirisme, les mathématiques étaient toujours un succès spectaculaire en tant qu'outil de construction théorique. Les grands succès de la physique du 20ème siècle (la relativité générale et la mécanique quantique) poussaient si loin hors du royaume de l'intuition physique, qu'ils ne pouvaient être compris qu'en méditant profondément sur leurs formalismes mathématiques, et en prolongeant leurs conclusions logiques, même lorsque ces conclusions semblaient sauvagement bizarres. 


Quelle ironie. Au moment même où la « perception » mathématique en venait à paraître toujours moins fiable dans les mathématiques pures, elle devenait toujours plus indispensable dans les sciences phénoménales. 
     
À l'opposé de cet arrière-plan, la fameuse citation d'Einstein sur l'applicabilité des mathématiques à la science phénoménale pose un problème plus épineux qu'il n'apparaît d'abord. 


Le rapport entre les modèles mathématiques et la prédiction des phénomènes est complexe, pas seulement dans la pratique mais dans le principe. D'autant plus complexe que, comme nous le savons maintenant, il y a des façons d'axiomatiser les mathématiques qui s'excluent!


les relations entre un modèle prédictif et un formalisme mathématique. Ce qui trompa Einstein est combien D conduit souvent à des conceptions nouvelles. 
     
Nous commençons à avoir quelques prises sur le problème si nous le formulons plus précisément, c'est à dire, « Pourquoi un bon choix de C donne si souvent de nouvelles connaissances via D. 


 La réponse la plus simple consiste à inverser la question et la traiter comme une définition. Le « bon choix de C » est celui qui conduit à une nouvelle prédiction. Le choix de C n'est pas tel qu'il puisse être fait a priori ; on doit choisir, empiriquement, comment dresser une carte de la réalité avec les objets mathématiques, puis l'évaluer en voyant si cette cartographie prédit bien. 


Par exemple, les entiers positifs sont un bon formalisme pour compter des billes. Nous pouvons prédire avec confiance que si nous mettons deux billes dans une jarre, et puis trois billes dans une jarre, et puis si nous associons empiriquement l'ensemble de deux billes avec l'entité mathématique 2, et de même si nous associons l'ensemble de trois billes avec l'entité mathématique 3, et puis si nous supposons que l'agrégation physique est modélisée par +, alors le nombre de billes dans la jarre correspondra avec l'entité mathématique 5. 


Ce qui précède peut sembler être une remarquable accumulation de pédanterie pour emballer une association évidente, telle que nous pouvons en faire sans devoir les penser. Mais souvenez-vous que les petits enfants doivent apprendre à compter... et considérez comment vous échoueriez plus haut si nous avions mis dans la jarre, plutôt que des billes, des mottes de vase ou des volumes de gaz. 


 On pourrait arguer qu'il n'y a de sens à s'émerveiller sur l'utilité des mathématiques que si l'on suppose que C, pour tout système phénoménal, est une donnée a priori. Mais nous avons vu que ce n'est pas le cas. Un physicien qui s'émerveille de l'applicabilité des mathématiques a oublié ou ignore la complexité de C ; il reste en réalité perplexe devant l'aptitude humaine à choisir empiriquement les modèles mathématiques appropriés. 


 Mais en formulant la question ainsi nous avons à moitié terrassé le dragon. Les être humains sont des singes ingénieux et obstinés qui aiment jouer avec les idées. Si un formalisme mathématique adapté à un système phénoménal peut être trouvé, des humains finiront par le découvrir. Et la découverte paraîtra finalement « inéluctable », car ceux qui essayeront et échoueront seront généralement oubliés. 
     


 Mais il y a une question plus profonde derrière celle-ci : pourquoi existe-t-il seulement de bons choix de modèle mathématique  ? C'est à dire, pourquoi y a-t-il un formalisme mathématique, par exemple pour la mécanique quantique, si productif qu'il prédit réellement la découverte de nouvelles particules observables ? 


 Pour « répondre » à cette question on observera qu'elle peut, aussi bien, fonctionner comme une sorte de définition. Pour beaucoup de système phénoménaux, de tels formalismes prédictifs exacts n'ont pas été trouvés, et aucun ne semble plausible. Les poètes aiment marmonner sur le cœur des hommes, mais on peut trouver des exemples plus ordinaires : le climat, où le comportement d'une économie supérieure à celle d'un village, par exemple — systèmes si chaotiquement interdépendants que la prédiction exacte est effectivement impossible (pas seulement dans les faits mais en principe). 


Il y a beaucoup de choses pour lesquelles la modélisation mathématique conduit au mieux à des résultats statistiques confus et contingents et, pour le moins, ne prédit jamais avec succès de « nouvelles entités ». Ainsi la réponse correcte à cette question « Pourquoi les mathématiques sont-elles si merveilleusement applicables à ma science ? » est-elle simplement « Parce que c'est la sorte de science que vous avez choisi d'étudier! »

 Eric S. Raymond






Traduit par Jean-Pierre Depétris
Revu par P. N. Van Minh, mars 2002.
texte original en Anglais


Publié par jerelen à 21:10:08 dans MATHEMATIQUES | Commentaires (0) |

1|