LA MECANIQUE QUANTIQUE COMME THEORIE DES PROBABILITES GENERALISEE

 

Michel Bitbol

in: E. Klein & Y. Sacquin (eds.), Prévision et probabilités dans les sciences, Editions Frontières, 1998

Copyright: Michel Bitbol

Retour à la page d'accueil

 

 

1-Prologue

La thèse que je défendrai ici tient en deux propositions. Premièrement, la mécanique quantique n'est pas qu'une théorie physique faisant usage du calcul des probabilités; elle est elle-même une forme généralisée de calcul des probabilités, doublée d'un procédé d'évaluation probabiliste par l'utilisation réglée de symétries. Deuxièmement, la mécanique quantique n'a pas seulement une fonction prédictive comme les autres théories physiques; elle consiste en une formalisation des conditions de possibilité de n'importe quelle prédiction portant sur des phénomènes dont les circonstances de détection sont aussi des conditions de production.

2-Probabilités, signes, et qualités secondaires

Avant de développer et de justifier les propositions précédentes, je voudrais revenir rapidement sur la préhistoire du calcul des probabilités, au seizième et au dix-septième siècle. Ce retour nous aidera à surmonter des préjugés sur les probabilités qui sont issus d'une époque intermédiaire, disons le dix-huitième et le dix-neuvième siècle, et à aborder la mécanique quantique avec un esprit ouvert. Je vise en particulier le préjugé consistant à ne concevoir la probabilité que comme expression d'une ignorance au sujet de processus sous-jacents qui se déroulent d'eux-mêmes et obéissent à des lois déterministes.
Quelles sont donc les conditions qui ont permis l'élaboration collective, à partir du dix-septième siècle , du calcul des probabilités? Ian Hacking en dresse une assez longue liste , mais il insiste sur l'une d'entre elles. Cette condition cruciale, c'est le développement au seizième siècle de sciences des signes ou des qualités secondaires.
La distinction entre qualités primaires et qualités secondaires, autrement dit entre propriétés se montrant telles qu'elles sont intrinsèquement, et propriétés imputées aux corps matériels sur la foi d'impressions ou de signes résultant de leur interaction avec les organes des sens, est habituellement attribuée à Locke. On la fait éventuellement remonter à Galilée, à Descartes et à Robert Boyle. Mais on en retrouve en fait déjà la trace bien plus tôt, chez Jérôme Fracastor, un médecin de la première moitié du seizième siècle.
Dès le moment où cette distinction était reconnue pouvait se développer une opposition entre les sciences des causes premières et des démonstrations exactes, comme l'astronomie, la géométrie, ou la mécanique, et les autres sciences, comme la médecine et la chimie, qui en étaient réduites au pronostic d'après les signes, les phénomènes, ou les qualités secondaires sensibles. C'était dans le champ de ces sciences dites «inférieures», de ces sciences des qualités secondaires, qu'allait se cristalliser la notion d'une opinion étayée par des signes d'où découle en partie le concept de probabilité. Les indices de la survenue d'une épidémie, ou encore les symptômes d'une maladie, qui sont secondaires par rapport aux causes premières supposées de l'épidémie ou de la maladie, sont par exemple appelés des «signes de probabilité» par Jérôme Fracastor dans son livre "Sur la contagion".
Cette étroite association entre la naissance du concept de probabilité et l'élaboration du concept de qualités secondaires comporte une leçon implicite pour la compréhension du lien privilégié qu'entretiennent mécanique quantique et probabilités. Car, comme l'écrit Heisenberg , la physique quantique affronte une situation où même les variables spatio-cinématiques de position et de quantité de mouvement, qui étaient considérées du temps de Descartes et de Locke comme directes et «primaires», doivent être tenues pour des manifestations indirectes, relatives à un contexte instrumental, en somme secondaires. A l'universalisation de la notion de qualité secondaire, ou de relativité des phénomènes à l'égard d'un contexte, répondait en mécanique quantique l'universalisation du domaine de pertinence des probabilités.
On devine cependant, d'après ce compte-rendu, la raison pour laquelle le concept de probabilité est resté embryonnaire et marginal dans la science de la nature de la première moitié du dix-septième siècle; une raison qui explique aussi, bien qu'avec un temps de retard, les réticences contemporaines à prendre pleinement au sérieux une théorie physique à l'armature probabiliste comme la mécanique quantique. Cette raison, c'est que dès le début, les probabilités ont été considérées comme un pis-aller prédictif dans une situation où l'on se trouve momentanément incapable d'offrir un compte-rendu descriptif s'appuyant sur des principes et des vérités fondées; des vérités concernant les causes efficientes si l'on est aristotélicien, ou les figures et mouvements si l'on est cartésien. On ne doit pas s'étonner dans ces conditions que tout l'effort des acteurs de la première révolution scientifique ait tendu à élucider des liens causaux ou à décrire un univers réel de qualités primaires par le biais de la géométrie, plutôt qu'à chercher à systématiser l'estimation de l'incertain dans la circonscription mouvante des qualités secondaires.

3-L'incertain et le milieu des choses

Comme le souligne à juste titre Catherine Chevalley , l'estimation de l'incertain n'a commencé à constituer un thème d'investigation à part entière que chez un penseur anti-cartésien, Pascal, pour lequel «la fin des choses et leurs principes sont pour (l'homme) invinciblement cachés dans un secret impénétrable» . Si l'homme doit se contenter, selon Pascal, «(...) d'apercevoir quelque apparence du milieu des choses dans un désespoir éternel de connaître ni leur principe ni leur fin» , alors il ne peut pas se contenter de dédaigner les apparences au profit d'un insaisissable arrière-monde gouverné par des principes. Il faut que l'homme apprenne à habiter dans son milieu; il faut qu'il sache focaliser son attention sur le jeu de ses manipulations expérimentales et des phénomènes qui en résultent; il faut qu'il admette le manque de consistance d'un découpage du monde en objets séparés et intrinsèquement existants puisque les phénomènes sont tellement liés les uns aux autres qu'on ne saurait en saisir un sans saisir le Tout; il faut qu'il comprenne aussi qu'aucune connaissance ne peut s'affranchir du nexus des inter-relations mais seulement se situer en son sein sans ignorer la perspective dont elle est tributaire. Il faut enfin que l'homme consente à faire l'effort de domestiquer l'incertain qui est son lot, en mathématisant directement les rapports entre les antécédents et les attentes, et entre les attentes et les constats.
Bien sûr, le calcul des probabilités a pu se développer après Pascal en s'affranchissant de ce que certains appelleront un pessimisme épistémologique motivé par le vertige de l'impénétrabilité des desseins Divins. Le ton, dans l'Essai philosophique sur les probabilités de Laplace publié en 1814, est presque aux antipodes de celui-là, puisque Laplace y affirme la toute-puissance d'un principe de raison suffisante incarné par un Dieu à l'oeuvre transparente. Selon Laplace, «La courbe décrite par une simple molécule d'air ou de vapeurs est réglée d'une manière aussi certaine que les orbites planétaires; il n'y a de différence entre elles que celles qu'y met notre ignorance» . Et c'est seulement dans cet intervalle entre la détermination principielle de toutes choses et notre ignorance peut-être provisoire à leur sujet que prend place le concept de probabilité: «la probabilité, poursuit Laplace, est relative en partie à cette ignorance, et en partie à nos connaissances» .
Une telle conception a parfaitement rempli son office dans le cadre de la physique classique, particulièrement en mécanique statistique classique, si l'on met à part la problématique plus récente de la sensibilité aux conditions initiales. Mais, face à la question récurrente du caractère essentiel ou non essentiel des probabilités en physique quantique, face aux difficultés qu'y rencontre la thèse de la probabilité-ignorance, il n'était pas inutile de remonter en deçà de Laplace et de se rappeler que le calcul des probabilités a fait l'une de ses premières apparitions sur un tout autre terrain philosophique. Il a surgi chez Pascal, nous l'avons vu, sur fond d'une reconnaissance des limites anthropologiques, d'une épistémologie proche de l'opérationalisme, d'un holisme généralisé, et d'un perspectivisme gnoséologique. On ne peut qu'être frappé de constater que tous ces traits sont présents dans les interprétations les plus courantes de la mécanique quantique, et qu'on ne peut pas trouver d'interprétation acceptable qui n'en comporte au moins un. Le trait le plus fréquemment rencontré, y compris dans les plus fiables des interprétations à variables cachées, est le holisme.

4-Indéterminisme et contextualité

Ces deux remarques historiques, l'une sur l'association du concept de probabilité au concept de qualité secondaire, et l'autre sur le calcul des probabilités conçu comme instrument de maîtrise prédictive de notre situation d'enchevêtrement dans le réseau des relations naturelles, vont à présent nous aider à défaire deux noeuds interprétatifs de la physique quantique, se rapportant l'un comme l'autre à l'indéterminisme.
Le premier concerne la notion, très répandue depuis les travaux fondateurs de Heisenberg aux alentours de 1927-1930, d'une perturbation incontrôlable qu'est censée exercer l'agent de mesure sur l'objet microscopique mesuré. Il est intéressant de noter que cette «perturbation» s'est vue assigner un double rôle par ses concepteurs.
D'une part, souligne Bohr à la fin des années 1920, la perturbation incontrôlable constitue la raison de l'indivisibilité du phénomène quantique, c'est-à-dire de l'impossibilité de séparer dans le phénomène ce qui revient à l'objet et ce qui revient à l'agent de mesure. La perturbation expliquerait en d'autres termes, empruntés cette fois à Heisenberg, que la physique quantique conduise à généraliser le modèle des qualités secondaires, avec leur référence obligée au contexte dans lequel elles se manifestent, au détriment de celui des qualités primaires intrinsèques.
Mais d'autre part, selon l'article de 1927 où Heisenberg présente pour la première fois ses relations dites d'«incertitude», la perturbation est aussi ce qui rend compte de l'indéterminisme de la physique quantique. La perturbation incompressible et incontrôlable par l'agent de mesure est ce qui empêche de connaître complètement les deux groupes de variables qui composent l'état initial d'une particule; et par conséquent, conclut Heisenberg, le principe de causalité, qui lie de façon contraignante un état initial et un état final, reste inapplicable en physique quantique.
Le modèle de la «perturbation» permet ainsi de mettre en évidence une étroite relation entre contextualité et indéterminisme, puisque la perturbation a pour conséquence aussi bien la contextualité des phénomènes que l'indéterminisme à leur sujet. Une relation dont la confluence des concepts de qualité secondaire et de probabilité à l'époque de leur naissance est peut-être la traduction historique. Malheureusement, l'image de la perturbation de l'objet par l'agent de mesure a aussi un inconvénient majeur qui n'a pas échappé à Bohr et à Heisenberg, et qu'a par la suite souligné Karl Popper. Au fond, cette image consiste à commencer par mettre en scène un univers d'objets dotés de qualités primaires spatiales et cinématiques, puis à invoquer leurs altérations mutuelles pour justifier après coup la mise à l'écart du concept de qualité primaire et la généralisation de celui de qualité secondaire . A travers elle, on ne suscite la représentation d'un univers de figures et mouvements que dans l'unique but d'en montrer l'inanité ou, ce qui revient au même dans une épistémologie vérificationniste, l'inaccessibilité de principe.
L'image de la «perturbation» représente donc un moment méta-stable de la réflexion sur la mécanique quantique. Elle invite à son propre dépassement, dans deux directions opposées. Soit on prend pleinement au sérieux ses prémisses et on essaie de construire une théorie empiriquement adéquate des processus spatio-cinématiques inaccessibles qu'on postule; c'est là la stratégie des auteurs de certaines théories à variables cachées. Soit au contraire on prend pleinement au sérieux les conséquences holistiques de l'image de la perturbation, à savoir l'indivisibilité du phénomène quantique, son insurpassable relativité à un contexte expérimental, et on élabore une conception de la théorie physique qui ne fasse plus du tout appel à une représentation imagée des moments constitutifs supposés du phénomène; c'est là la stratégie que Bohr a adoptée à partir de 1935, non sans quelques affaiblissements.
Il est rassurant pour ceux qui, comme moi, ont choisi de pousser la seconde stratégie jusqu'à ses ultimes conséquences, de constater qu'il est possible d'établir un lien formel direct entre l'indéterminisme et la contextualité, sans avoir besoin de l'intermédiaire fourni par l'image de la perturbation. Dès 1935, Grete Hermann publiait un opuscule dans lequel elle laissait entrevoir un tel lien . Cette jeune philosophe allemande remarquait en effet que les causes éventuelles d'un phénomène quantique ne peuvent servir à le prévoir, parce qu'elles ne sont jamais définies qu'après coup, relativement aux circonstances mêmes de la production de ce phénomène lors d'une mesure. Plus tard, au début des années 1950, Paulette Destouches-Février démontra de façon beaucoup plus rigoureuse un théorème selon lequel toute théorie prédictive portant sur des phénomènes définis relativement à des contextes expérimentaux dont certains sont mutuellement incompatibles, est «essentiellement indéterministe» .

5-Idéaux déterministes, projections indéterministes

Remarquons à présent qu'à travers ce qui précède, un deuxième noeud interprétatif concernant le rapport entre physique quantique et indéterminisme a été implicitement dissout. On se demandait souvent dans les années 1930 si la mécanique quantique, avec son caractère probabiliste, voire «statistique» comme le disait Einstein, pourrait un jour être rendue caduque par une théorie déterministe des processus individuels sous-jacents. La réponse que les recherches des quarante dernières années on apporté à cette interrogation est un peu sibylline, mais d'autant plus instructive philosophiquement.
Le premier enseignement à retirer de ces recherches est qu'il n'est pas impossible de formuler des théories qui, tout en régissant par des lois déterministes les propriétés intrinsèques d'objets individuels, reproduisent exactement les prédictions de la mécanique quantique . Ces théories dites à variables cachées se trouvent simplement être soumises à quelques contraintes, dont les principales sont la non-localité (c'est-à-dire l'influence mutuelle instantanée des propriétés d'objets arbitrairement distants) et le contextualisme (c'est-à-dire l'influence du dispositif de mesure sur les propriétés postulées). Ces deux conditions ne vont cependant pas sans soulever des problèmes. Le concept non-local d'interactions instantanées à distance introduit un conflit formel (bien que sans conséquences pratiques) avec les axiomes de la théorie de la relativité . Le contextualisme a quant à lui pour conséquence que les mesures ne permettent pas d'accéder point par point aux processus continus et déterministes qui, d'après la théorie, se seraient déroulés d'eux-mêmes dans la nature si on ne les avait pas modifiés en cherchant à les mettre en évidence. Autrement dit, la théorie elle-même implique que les processus déterministes «indépendants» qu'elle décrit sont inaccessibles à l'expérience.
La conclusion à tirer de cela n'est certes pas qu'il faut jeter l'anathème sur les théories à variables cachées, mais simplement qu'il est indispensable de réviser leurs ambitions à la baisse.
Nous avons vu que l'un des principaux objectifs de leurs partisans était de rouvrir la question du déterminisme, contre ceux qui affirmaient hâtivement que cette question avait déjà été réglée dans un sens négatif par la mécanique quantique. La mécanique quantique standard avait beau être «essentiellement indéterministe» dans sa structure, si l'on pouvait reproduire ses résultats par une autre théorie comportant des processus déterministes, l'option déterministe récupèrerait tout son crédit. Il est vrai que la question ontologique de savoir si les lois ultimes de la nature sont ou ne sont pas déterministes est indécidable, parce que des apparences déterministes peuvent résulter d'une régularité statistique et qu'inversement des apparences indéterministes peuvent traduire un phénomène de chaos déterministe . Mais au moins pouvait-on encore espérer que le déterminisme retrouve sa valeur traditionnelle de guide pour la recherche. Or, cet espoir même a été déçu. Car, dans les théories à variables cachées, l'attitude déterministe semble bien avoir perdu jusqu'à sa fécondité épistémologique. L'attitude déterministe n'était en effet féconde que parce qu'elle poussait les chercheurs à concevoir des réseaux de liens univoques pouvant sous-tendre les phénomènes, à désigner un type d'expérience permettant de mettre ces liens en évidence, et à définir ainsi des classes souvent inédites de phénomènes. Malheureusement l'inaccessibilité principielle des liens sous-jacents aux phénomènes dans les théories à variables cachées contextualistes aptes à reproduire les prédictions quantiques, bloque ce processus dès le départ. Une fois tari le courant d'information réciproque entre le projet déterministe et la définition de nouveaux domaines d'expérimentation, la tentative de poursuivre formellement ce projet ne relève plus que d'un jeu de l'esprit, dont le principal (sinon le seul) intérêt est de servir de stimulant intellectuel aux spécialistes de fondements de la physique moderne.
Cette situation ne justifie pas pour autant l'excès inverse, à savoir un dogmatisme indéterministe. Tout ce qu'on est en droit de constater c'est que désormais, dans les sciences physiques, l'avantage de la fécondité épistémologique appartient à l'attitude consistant à développer au maximum la capacité prédictive au détriment de l'ambition descriptive, le calcul des probabilités plutôt que les modèles d'évolution déterministe.
Il est vrai que beaucoup de penseurs ne s'en tiennent pas là; qu'ils tendent à extrapoler le constat épistémologique de la fécondité de l'option indéterministe en une affirmation ontologique sur le caractère intrinsèquement stochastique des lois qui régissent le monde. Mais leur position s'explique aisément sur le plan méthodologique, sans qu'il soit nécessaire de les suivre dans les aspects métaphysiques de leurs conclusions. Comme l'a montré James Logue dans son livre récent Projective probability , tout système cohérent d'évaluations probabilistes peut s'interpréter de façon réaliste, c'est à dire qu'il peut se comprendre comme exprimant des propositions dont la valeur de vérité est indépendante de nos moyens de les tester. Et cette interprétation à son tour peut conduire les auteurs d'une évaluation probabiliste à la projeter sur le monde. Rien d'étonnant dans ces conditions que le système cohérent d'évaluations probabilistes de la physique quantique, non contrebalancé par un programme déterministe fécond, ait pu être conçu par des chercheurs aussi éminents que Popper (et même Heisenberg à sa façon), comme traduisant en partie ou en totalité une caractéristique «réelle», ou «existante», du monde . Popper estime par exemple que le monde est fait de capacités, de potentialités ou de propensions naturelles, qui se manifestent expérimentalement par des distributions statistiques particulières des phénomènes, et qui ont leur reflet dans la théorie quantique sous forme d'un algorithme probabiliste.
Incontestablement, les partisans d'un indéterminisme ontologique se livrent ici, tout autant que les défenseurs des théories à variables cachées, à ce que Kant aurait dénoncé comme une tentative d'étendre l'application de nos concepts au delà des limites de l'expérience . Avec pour seul avantage par rapport aux partisans des théories à variables cachées qu'eux se contentent d'hypostasier directement le mode d'opération du formalisme quantique plutôt que de chercher à en élaborer un nouveau. Mais doit-on le leur reprocher? Puisque tout système cohérent d'évaluation probabiliste peut se lire sur un mode réaliste, puisque rien n'empêche de d'interpréter l'algorithme quantique de calcul des probabilités comme traduisant un ordre de propensions naturelles, pourquoi leur interdirait-on d'adhérer sans réticences à de telles interprétations? Pourquoi leur refuserait-on de croire sans arrière-pensées que la théorie quantique décrit une réalité faite de pures potentialités?
Le genre de réponse que nous allons essayer de donner à ces interrogations est d'ordre épistémologique plutôt que métaphysique. Nous n'allons pas nous demander si la réalité est ou n'est pas faite de potentialités ayant la structure de l'algorithme probabiliste de la théorie quantique, mais seulement si nous perdons ou non quelque chose sur le plan de la connaissance en interprétant cet algorithme de façon réaliste.
Disons tout de suite, et c'est là le sens de l'énoncé d'équivalence de James Logue, que ni le praticien de l'évaluation probabiliste, ni le physicien quantique, ne perdent quoi que ce soit à une telle façon de voir. Ils peuvent même y gagner quelque chose qui est au coeur de toute profession de foi réaliste, à savoir le sérieux avec lequel il considèrent leurs entités théoriques, et la motivation dans la recherche . En revanche, le philosophe a vraiment beaucoup à perdre à se laisser fasciner par le seul rapport de la théorie avec le monde. Car cette attitude ne l'incite guère à réfléchir sur ce que doit la théorie à la situation de l'homme dans le monde, et en particulier ce qu'elle doit à la pratique même de l'investigation expérimentale. A la différence du scientifique dans son travail quotidien, le philosophe ne peut se contenter d'occuper la situation pascalienne de l'homme dans le milieu qu'il explore; il doit penser cette situation et tâcher d'en énoncer les conséquences. Le chercheur scientifique peut d'ailleurs avoir aussi intérêt à adopter de temps à autre la posture réflexive, lorsqu'il aborde des périodes de réorientation de son travail. Et chacun sait qu'il se trouve presque inévitablement conduit à le faire pendant les époques révolutionnaires que traverse sa science.

6-Une théorie des probabilités généralisée

C'est à ce genre de retournement de l'attention que nous allons maintenant procéder. Nous allons suspendre le jugement au sujet d'un hypothétique isomorphisme partiel entre le réel dans lequel on expérimente et la mécanique quantique, et nous intéresser sélectivement à ce que doit la structure de cette théorie à la forme de l'activité expérimentale elle-même.
Commençons par exposer rapidement, dans cet esprit, l'architecture de la mécanique quantique standard:
(1) Le noyau formel de cette théorie consiste en un espace vectoriel défini sur l'ensemble des nombres complexes, et doté d'un produit scalaire; autrement dit un espace de Hilbert.
(2) Sur cet espace sont définis des opérateurs spéciaux, appelés «observables», qui fournissent, à travers leurs «valeurs propres», la liste des résultats possibles d'une opération de mesure.
(3) Un vecteur de l'espace de Hilbert, appelé vecteur d'état, est associé à chaque préparation (c'est-à-dire à ce qui, dans une expérience, fixe les conditions préalables à la mesure).
(4) En appliquant la règle de Born à ce vecteur d'état, on obtient une fonction assignant des probabilités aux résultats d'une mesure quelconque effectuée à la suite de la préparation.
(5) Comme un intervalle spatio-temporel variable et diverses circonstances physiques peuvent séparer la fin du fonctionnement de la préparation et l'opération de mesure, on en tient compte à travers une équation d'évolution des vecteurs d'état. Cette équation est celle de Schrödinger dans le cas non-relativiste, et celle de Dirac dans le cas relativiste.
Ici, je voudrais insister sur la différence majeure entre les fonctions de probabilités de la théorie classique des probabilités, et celles qu'on obtient à partir des vecteurs d'état de la mécanique quantique en appliquant la règle de Born. Les fonctions classiques de probabilités associent un nombre compris entre 0 et 1 à chaque «événement» au sens large, défini par Kolmogorov comme un sous-ensemble d'événements élémentaires. L'ensemble de ces sous-ensembles-événements comprend l'ensemble vide et l'ensemble exhaustif, et il est doté d'une structure d'algèbre de Boole par les opérations de réunion et d'intersection. En d'autres termes, les fonctions classiques de probabilités sont définies sur une algèbre de Boole. Au contraire, compte tenu des propriétés des espaces de Hilbert, les fonctions quantiques de probabilités ne sont pas définies sur une algèbre de Boole; elles sont définies sur des structures différentes et plus riches qu'on appelle des «orthoalgèbres» . Je me garderai de donner le détail des axiomes d'une orthoalgèbre, et je me contenterai de signaler que le concept d'orthoalgèbre n'est pas sans rapport avec celui d'algèbre de Boole. On peut même considérer que les orthoalgèbres constituent une généralisation des algèbres de Boole, et que corrélativement les fonctions de probabilités quantiques généralisent les fonctions de probabilités classiques. En effet, une orthoalgèbre contient des algèbres de Boole comme sous-structures. Et d'autre part, la restriction d'une fonction quantique de probabilités sur ces sous-structures booléennes équivaut à une fonction classique de probabilités.
Cette disparité structurale entre fonctions classiques et fonctions quantiques de probabilités justifie qu'on ne se contente pas de considérer que la mécanique quantique utilise la théorie des probabilités. La mécanique quantique consiste elle-même, pour une part, en une forme nouvelle et élargie de théorie des probabilités.

7-Un formalisme prédictif méta-contextuel

Il serait cependant dommage de s'en tenir à cet exposé superficiel et formaliste de la situation. Nous pouvons assez facilement comprendre les raisons de l'irruption d'une nouvelle sorte de théorie des probabilités en montrant qu'elle est une réponse pratiquement inévitable aux caractéristiques de la classe des phénomènes expérimentaux dont traite la mécanique quantique. La principale de ces caractéristiques, déjà signalée à plusieurs reprises par le biais d'une réflexion sur le concept de qualité secondaire, est la contextualité; autrement dit l'inséparabilité du phénomène et du contexte expérimental de sa manifestation. C'est elle qui impose un grand nombre des caractéristiques structurales de la théorie quantique.
Mais pour bien mettre en évidence le lien très fort entre contextualité et mécanique quantique, il faut d'abord analyser ce qui rend la contextualité du phénomène quantique incontournable, et la différencie d'autres formes courantes, bénignes, et facilement surmontables, de relation des déterminations à un contexte.
Dans toutes les sciences, comme dans beaucoup de situations ordinaires, on peut dire qu'à chaque contexte expérimental ou sensoriel correspond une gamme de phénomènes ou de déterminations possibles. Par exemple, à un contexte représenté par les cônes de la rétine correspond une gamme de couleurs, à un contexte représenté par une règle correspond une gamme de longueurs, à un contexte représenté par un thermomètre correspond une gamme de températures, etc. Mais aussi longtemps que les contextes peuvent être conjoints, ou que les déterminations sont indifférentes à l'ordre d'intervention des contextes, rien n'empêche de fusionner les gammes de possibles en une seule gamme relative à un seul contexte global, puis de passer ce contexte sous silence et de traiter les éléments de la gamme comme s'ils traduisaient autant de déterminations intrinsèques. La présupposition que rien n'empêche d'escamoter le contexte est automatiquement faite quand on se sert de propositions du langage ordinaire; car ces dernières permettent d'attribuer plusieurs déterminations au même objet comme si elles lui étaient propres. Il est important de noter qu'à cette présupposition et à ce mode de fonctionnement de la langue s'associent une logique classique, booléenne, et une théorie des probabilités classique, kolmogorovienne.
Mais l'apparition d'obstacles à la conjonction des contextes, ou le constat d'une absence d'indépendance des phénomènes vis-à-vis de l'ordre d'utilisation des contextes, comme c'est le cas en physique microscopique lorsqu'on essaye de mesurer des variables canoniquement conjuguées, rendent ces méthodes traditionnelles inutilisables. La stratégie consistant à ne pas tenir compte des contextes expérimentaux échoue, et l'explicitation de la contextualité des déterminations devient impérative.
Dans cette situation qu'affronte la physique quantique, la logique booléenne et les probabilités kolmogoroviennes ne subsistent en première analyse que fragmentées en plusieurs sous-logiques et plusieurs sous-structures probabilistes, chacune d'entre elles étant associée à un contexte particulier. A chaque contexte expérimental s'associe une gamme de déterminations possibles et une gamme de propositions attributives qui relèvent d'une sous-logique classique, booléenne; et à chaque détermination choisie parmi l'ensemble des déterminations possibles correspondant à un contexte donné, peut être attaché un nombre réel qui obéit aux axiomes de la théorie des probabilités de Kolmogorov. Mais ces sous-logiques et ces sous-structures probabilistes ne peuvent pas fusionner, car elles dépendent de contextes distincts qui ne peuvent en général être conjoints. On cherche dans ces conditions à les articuler les unes aux autres, respectivement dans le cadre d'une méta-logique et d'un formalisme probabiliste méta-contextuel. Ce qui est remarquable est que lorsqu'on construit une telle méta-logique, en tenant seulement compte de l'impossibilité de conjoindre les diverses gammes de possibles, on en arrive à des structures isomorphes à la célèbre «logique quantique» non-distributive de Birkhoff et von Neumann . Et par ailleurs, quand on essaie de construire un formalisme probabiliste méta-contextuel, en s'imposant seulement de respecter les axiomes de Kolmogorov séparément pour chaque gamme de possibles, et d'utiliser un unique symbole générateur de sous-fonctions de probabilités pour chaque préparation, on parvient à une classe de structures dont le formalisme de vecteurs dans des espaces de Hilbert de la mécanique quantique est un cas à peine particulier. La forme de l'équation d'évolution de la mécanique quantique est elle-même dérivable de conditions générales portant sur la stabilité temporelle du statut d'outil d'évaluation probabiliste du vecteur d'état .
Dans sa fonction de théorie-cadre, la mécanique quantique n'est par conséquent autre qu'une forme méta-contextuelle de théorie des probabilités. Elle recueille les conditions de possibilité d'un système unifié de prédiction probabiliste portant sur des phénomènes inséparables de contextes parfois incompatibles. Il suffit ensuite de compléter cette théorie-cadre par diverses symétries pour en tirer autant de variétés particulières de théories quantiques.

8-Décohérence et probabilités

Nous avons vu que, sauf à affronter les graves difficultés épistémologiques des théories à variables cachées non-locales, les probabilités quantiques ne peuvent pas être tenues pour l'expression d'une ignorance au sujet de processus ou d'événements qui se dérouleraient d'eux-mêmes dans la nature. Le calcul quantique des probabilités porte sur des phénomènes dont l'occurrence est suspendue à l'intervention d'un contexte approprié. Le problème est qu'en tant que théorie physique, la mécanique quantique a une vocation à l'universalité. Le calcul des probabilités méta-contextuel, qui est son élément constitutif principal, devrait dans ces conditions pouvoir s'appliquer sans restriction et à toute échelle. Mais, dans notre environnement familier, la théorie classique (kolmogorovienne) des probabilités n'est-elle pas parfaitement utilisable? Et cette théorie classique ne fonctionne-t-elle pas, contrairement à son équivalent quantique, de telle sorte que rien n'interdit de considérer qu'elle exprime une ignorance partielle au sujet de propriétés intrinsèques et d'événements autonomes? Un problème de compatibilité se pose alors, entre le calcul quantique des probabilités, valable en principe à toute échelle, et le calcul classique des probabilités, valable en pratique à notre échelle.
Les théories de la décohérence ont pour principal objet de prouver cette compatibilité. Elles permettent en effet de montrer qu'appliqué à des processus complexes faisant intervenir un objet, un appareil de mesure, et un vaste environnement, le calcul quantique des probabilités se ramène à une très faible approximation près au calcul classique des probabilités. Ceci se manifeste par une quasi-disparition de termes d'interférence typiques du calcul quantique des probabilités, et isomorphes à ceux d'un processus ondulatoire, au profit d'une quasi-validité de la règle classique d'additivité des probabilités d'une disjonction.
Rares sont cependant les physiciens qui se sont contentés de cette formulation purement probabiliste et prédictive des théories de la décohérence. Quelques-uns d'entre eux ont même caressé l'espoir d'utiliser la décohérence comme moyen d'expliquer l'émergence d'un monde classique, à partir d'un monde quantique censément «décrit» par un vecteur d'état universel . L'obstacle majeur auquel ils se sont heurtés est que, pour parvenir à dériver à partir d'un calcul purement quantique les lois et les comportements classiques qui prévalent à l'échelle humaine, ils n'ont pu éviter d'introduire des hypothèses contenant déjà des éléments anthropomorphiques .
Ces déconvenues incitent à ne rien demander de plus aux théories de la décohérence que d'assurer rétrospectivement une cohérence en pratique suffisante entre le calcul quantique des probabilités et le présupposé, à la fois fondamental et élémentaire, qui sous-tend son attestation expérimentale. Ce présupposé consiste à admettre que les événements macroscopiques (comme la déviation de l'aiguille d'un appareil) surviennent d'eux-mêmes au laboratoire, que leur trace est en permanence disponible pour n'importe quel chercheur qui désirerait en effectuer le constat, et que l'utilisation du calcul des probabilités à leur sujet ne fait par conséquent qu'exprimer une ignorance partielle sur ce qu'il sont.

9-Théorie quantique des champs, intégrales de chemin, et formalisme prédictif méta-contextuel

Les réflexions qui précèdent ont il est vrai de quoi surprendre certains physiciens contemporains. En effet, à force de manipuler un concept de champ parfois insuffisamment distingué de son équivalent classique, et à force de prendre au pied de la lettre les processus que figurent de façon imagée les diagrammes de Feynman, un nombre non-négligeable d'entre eux a fini par se comporter comme si les problèmes conceptuels que soulevait la mécanique quantique à sa naissance n'étaient plus qu'un mauvais souvenir. Si la physique «décrit» l'évolution des champs fondamentaux, et/ou si elle parvient à «décrire» également la dynamique des particules (considérées comme état d'excitation du champ) à travers le procédé des intégrales de chemin de Feynman, pourquoi se préoccuper encore de cette vieille lune bohrienne qu'est l'inséparabilité du phénomène et de ses conditions expérimentales de manifestation? Pourquoi mettre en avant une notion aussi opaque pour le physicien théoricien que celle de «mesure» ? Pourquoi insister de façon obstinée sur le statut prédictif plutôt que descriptif des théories quantiques? Ne peut-on pas penser que bien des perplexités philosophiques des créateurs de la mécanique quantique étaient liées à l'emploi d'un formalisme (celui des vecteurs dans un espace de Hilbert) qui est désormais surclassé dans les théories les plus avancées par le formalisme des intégrales de chemin?
La réponse à ces questions est qu'en vérité, aucune des contraintes épistémologiques exercées par la mécanique quantique standard de 1926 n'a été relaxée par les variétés contemporaines de théories quantiques, et que de nouvelles contraintes du même ordre s'y sont même ajoutées. Quelles que soient les représentations qu'elles ont pu susciter, les théories quantiques actuelles opèrent toujours comme un instrument généralisé, méta-contextuel, de prédiction probabiliste, et cela vient de ce qu'elles sont toujours confrontées à des phénomènes inséparables de leur contexte de manifestation. Afin d'étayer cette réponse, il suffira d'évoquer rapidement le renouveau des réflexions philosophiques suscité par la théorie quantique des champs, puis de repréciser les relations entre le formalisme des vecteurs d'état dans un espace de Hilbert et celui des intégrales de chemin de Feynman.
Le trait central des théories quantiques, qui est de consister en une structure méta-contextuelle de prédiction probabiliste, se retrouve non seulement intact mais amplifié par la théorie quantique des champs. Au terme d'une réflexion sur les formalismes d'espaces de Fock, Paul Teller conclut: «(...) les états (dans un espace de Fock) caractérisent simplement des propensions pour ce qui se manifestera sous diverses conditions d'activation. Parmi les choses pour lesquelles il peut y avoir des propensions de manifestation, il y a l'occurrence de divers nombres de quanta (...)» . Autrement dit, loin d'avoir rendu superflues des notions contextuelles comme celles d'état propensif, d'«observable», ou de conditions d'«activation», les théories quantiques des champs en ont généralisé l'application. Le concept de champ quantique dérive de celui de champ classique par la mise en correspondance d'observables locales aux fonctions locales, et par l'introduction de relations de commutation (ou d'anti-commutation) pour certains couples de ces observables. Quant aux vecteurs d'état dans un espace de Fock, ils permettent non pas de calculer la probabilité que telle ou telle «propriété» d'une particule se manifeste dans un contexte expérimental donné, mais bien la probabilité qu'un certain nombre de particules soit détecté dans des conditions instrumentales appropriées. Ce nombre lui-même est traité comme une observable, dont l'ensemble des valeurs possibles sous des conditions de détection appropriées s'identifie à l'ensemble des entiers naturels. A la contextualisation du prédicat des objets, typique de la mécanique quantique standard, s'ajoute par conséquent en théorie quantique des champs la contextualisation de la notion de supports dénombrables des prédicats.
Qu'on doive désormais tenir le concept même de «particule(s)», et pas seulement celui de «propriété de la particule», pour relatif à un contexte de manifestation, est rendu particulièrement évident par le phénomène relativiste dit des «particules de Rindler». Ce phénomène s'observe en accélérant un détecteur dans le «vide» . Le détecteur accéléré répond, dans cet environnement où aucun détecteur au repos ne détecterait pourtant la moindre particule, comme s'il était plongé dans un bain thermique de particules . Il est donc clair ici qu'on ne peut pas traiter les particules comme des objets qui «sont» là, ou qui «ne sont pas» là, indépendamment des conditions de leur détection. On est seulement en droit de parler de phénomènes de détection qui impliquent de façon indissociable un milieu (disons «le vide quantique»), un détecteur, et l'état dynamique de ce détecteur. Les théories quantiques des champs apparaissent dès lors comme des élaborations particulières du cadre probabiliste méta-contextuel de la mécanique quantique: des élaborations adaptées à une classe élargie de phénomènes contextuels, appartenant au domaine relativiste, et touchant au concept formel de «support» par-delà celui de «propriété» .
Venons-en à présent aux formalismes d'intégrales de chemin de Feynman, qui ont souvent supplanté les formalismes standard dans la pratique moderne des théories quantiques des champs . Bien que le fonctionnement des intégrales de chemin soit illustré par des diagrammes linéaires évoquant des trajectoires spatio-temporelles de particules, leur propos est seulement de permettre de calculer la probabilité d'un événement expérimental final (en un certain point) sous la condition de la survenue d'un événement expérimental initial (en un autre point). Ici, la dépendance du phénomène dont on calcule la probabilité à l'égard d'un contexte instrumental est seulement implicite, mais elle n'en joue pas moins un rôle capital dans le principe même du calcul effectué. Que fait-on en effet concrètement lorsqu'on évalue une intégrale de chemin? On somme des «amplitudes de probabilités», puis on prend le carré du module de la somme ainsi obtenue pour obtenir la probabilité qu'on cherche . Or, la distinction entre amplitudes de probabilités et probabilités recouvre d'assez près celle entre expériences virtuelles et expériences actuelles. Lue dans le cadre du formalisme standard, l'amplitude de probabilité n'est autre que le produit scalaire du vecteur d'état et d'un vecteur propre d'une observable correspondant à une expérience qui aurait pu être accomplie (mais qui ne l'a pas été) dans l'intervalle qui sépare les deux expériences effectives . Au contraire, la probabilité est calculée pour le résultat d'une expérience qui va effectivement être accomplie ou qui l'a déjà été. Le formalisme des intégrales de chemin manifeste ainsi, tout autant que celui des vecteurs dans un espace de Hilbert, la structure prédictive méta-contextuelle des théories quantiques. Il consiste à évaluer la probabilité d'un phénomène contextuel, en sommant des termes correspondant à des contextes virtuels intermédiaires distincts de celui dans lequel se manifeste effectivement le phénomène.
Ajoutons à ceci deux autres circonstances qui suggèrent des relations étroites entre le mode de fonctionnement des théories quantiques utilisant un formalisme de vecteurs dans l'espace de Hilbert, et celles qui font usage d'intégrales de chemin. Tout d'abord, l'équivalence entre le formalisme de la mécanique quantique standard, qui met en oeuvre un opérateur Hamiltonien dans l'équation de Schrödinger, et le formalisme d'intégrales de chemin qui utilise la fonction Lagrangienne correspondante, a été démontrée par Feynman . Par ailleurs, de même que certains principes de symétrie déterminent la forme du Hamiltonien de l'équation de Schrödinger, ce sont des principes de symétrie qui permettent de fixer la densité de Lagrangien de chaque interaction, et de déterminer ainsi l'intégrale de chemin . L'utilisation de ce genre de principes de symétrie a plus concrètement pour conséquence de moduler les intégrales de chemin (et par conséquent les évaluations probabilistes qui en résultent), en annulant l'amplitude de certains des diagrammes qui interviennent dans la sommation .

10-Epilogue

Tout ceci nous amène à conclure par deux propositions valant indépendamment de la variété de théorie quantique ou de formalisme utilisés. Chaque théorie quantique combine un élément invariable, qui est une forme méta-contextuelle de théorie des probabilités, et un élément variable qui est un ensemble de symétries. L'association des deux éléments en fait un système d'évaluation probabiliste adapté à une classe de situations expérimentales dont l'extension dépend des symétries mises en oeuvre.