in: E. Klein & Y. Sacquin (eds.), Prévision et probabilités dans les sciences, Editions Frontières, 1998
Copyright: Michel Bitbol
1-Prologue
La thèse que je défendrai ici tient en deux propositions. Premièrement, la mécanique quantique n'est pas qu'une théorie physique faisant usage du calcul des probabilités; elle est elle-même une forme généralisée de calcul des probabilités, doublée d'un procédé d'évaluation probabiliste par l'utilisation réglée de symétries. Deuxièmement, la mécanique quantique n'a pas seulement une fonction prédictive comme les autres théories physiques; elle consiste en une formalisation des conditions de possibilité de n'importe quelle prédiction portant sur des phénomènes dont les circonstances de détection sont aussi des conditions de production.
2-Probabilités, signes, et qualités secondaires
Avant de développer et de justifier les propositions
précédentes, je voudrais revenir rapidement sur
la préhistoire du calcul des probabilités, au seizième
et au dix-septième siècle. Ce retour nous aidera
à surmonter des préjugés sur les probabilités
qui sont issus d'une époque intermédiaire, disons
le dix-huitième et le dix-neuvième siècle,
et à aborder la mécanique quantique avec un esprit
ouvert. Je vise en particulier le préjugé consistant
à ne concevoir la probabilité que comme expression
d'une ignorance au sujet de processus sous-jacents qui se déroulent
d'eux-mêmes et obéissent à des lois déterministes.
Quelles sont donc les conditions qui ont permis l'élaboration
collective, à partir du dix-septième siècle
, du calcul des probabilités? Ian Hacking en dresse une
assez longue liste , mais il insiste sur l'une d'entre elles.
Cette condition cruciale, c'est le développement au seizième
siècle de sciences des signes ou des qualités secondaires.
La distinction entre qualités primaires et qualités
secondaires, autrement dit entre propriétés se montrant
telles qu'elles sont intrinsèquement, et propriétés
imputées aux corps matériels sur la foi d'impressions
ou de signes résultant de leur interaction avec les organes
des sens, est habituellement attribuée à Locke.
On la fait éventuellement remonter à Galilée,
à Descartes et à Robert Boyle. Mais on en retrouve
en fait déjà la trace bien plus tôt, chez
Jérôme Fracastor, un médecin de la première
moitié du seizième siècle.
Dès le moment où cette distinction était
reconnue pouvait se développer une opposition entre les
sciences des causes premières et des démonstrations
exactes, comme l'astronomie, la géométrie, ou la
mécanique, et les autres sciences, comme la médecine
et la chimie, qui en étaient réduites au pronostic
d'après les signes, les phénomènes, ou les
qualités secondaires sensibles. C'était dans le
champ de ces sciences dites «inférieures»,
de ces sciences des qualités secondaires, qu'allait se
cristalliser la notion d'une opinion étayée par
des signes d'où découle en partie le concept de
probabilité. Les indices de la survenue d'une épidémie,
ou encore les symptômes d'une maladie, qui sont secondaires
par rapport aux causes premières supposées de l'épidémie
ou de la maladie, sont par exemple appelés des «signes
de probabilité» par Jérôme Fracastor
dans son livre "Sur la contagion".
Cette étroite association entre la naissance du concept
de probabilité et l'élaboration du concept de qualités
secondaires comporte une leçon implicite pour la compréhension
du lien privilégié qu'entretiennent mécanique
quantique et probabilités. Car, comme l'écrit Heisenberg
, la physique quantique affronte une situation où même
les variables spatio-cinématiques de position et de quantité
de mouvement, qui étaient considérées du
temps de Descartes et de Locke comme directes et «primaires»,
doivent être tenues pour des manifestations indirectes,
relatives à un contexte instrumental, en somme secondaires.
A l'universalisation de la notion de qualité secondaire,
ou de relativité des phénomènes à
l'égard d'un contexte, répondait en mécanique
quantique l'universalisation du domaine de pertinence des probabilités.
On devine cependant, d'après ce compte-rendu, la raison
pour laquelle le concept de probabilité est resté
embryonnaire et marginal dans la science de la nature de la première
moitié du dix-septième siècle; une raison
qui explique aussi, bien qu'avec un temps de retard, les réticences
contemporaines à prendre pleinement au sérieux une
théorie physique à l'armature probabiliste comme
la mécanique quantique. Cette raison, c'est que dès
le début, les probabilités ont été
considérées comme un pis-aller prédictif
dans une situation où l'on se trouve momentanément
incapable d'offrir un compte-rendu descriptif s'appuyant sur des
principes et des vérités fondées; des vérités
concernant les causes efficientes si l'on est aristotélicien,
ou les figures et mouvements si l'on est cartésien. On
ne doit pas s'étonner dans ces conditions que tout l'effort
des acteurs de la première révolution scientifique
ait tendu à élucider des liens causaux ou à
décrire un univers réel de qualités primaires
par le biais de la géométrie, plutôt qu'à
chercher à systématiser l'estimation de l'incertain
dans la circonscription mouvante des qualités secondaires.
3-L'incertain et le milieu des choses
Comme le souligne à juste titre Catherine Chevalley
, l'estimation de l'incertain n'a commencé à constituer
un thème d'investigation à part entière que
chez un penseur anti-cartésien, Pascal, pour lequel «la
fin des choses et leurs principes sont pour (l'homme) invinciblement
cachés dans un secret impénétrable»
. Si l'homme doit se contenter, selon Pascal, «(...) d'apercevoir
quelque apparence du milieu des choses dans un désespoir
éternel de connaître ni leur principe ni leur fin»
, alors il ne peut pas se contenter de dédaigner les apparences
au profit d'un insaisissable arrière-monde gouverné
par des principes. Il faut que l'homme apprenne à habiter
dans son milieu; il faut qu'il sache focaliser son attention sur
le jeu de ses manipulations expérimentales et des phénomènes
qui en résultent; il faut qu'il admette le manque de consistance
d'un découpage du monde en objets séparés
et intrinsèquement existants puisque les phénomènes
sont tellement liés les uns aux autres qu'on ne saurait
en saisir un sans saisir le Tout; il faut qu'il comprenne aussi
qu'aucune connaissance ne peut s'affranchir du nexus des inter-relations
mais seulement se situer en son sein sans ignorer la perspective
dont elle est tributaire. Il faut enfin que l'homme consente à
faire l'effort de domestiquer l'incertain qui est son lot, en
mathématisant directement les rapports entre les antécédents
et les attentes, et entre les attentes et les constats.
Bien sûr, le calcul des probabilités a pu se développer
après Pascal en s'affranchissant de ce que certains appelleront
un pessimisme épistémologique motivé par
le vertige de l'impénétrabilité des desseins
Divins. Le ton, dans l'Essai philosophique sur les probabilités
de Laplace publié en 1814, est presque aux antipodes de
celui-là, puisque Laplace y affirme la toute-puissance
d'un principe de raison suffisante incarné par un Dieu
à l'oeuvre transparente. Selon Laplace, «La courbe
décrite par une simple molécule d'air ou de vapeurs
est réglée d'une manière aussi certaine que
les orbites planétaires; il n'y a de différence
entre elles que celles qu'y met notre ignorance» . Et c'est
seulement dans cet intervalle entre la détermination principielle
de toutes choses et notre ignorance peut-être provisoire
à leur sujet que prend place le concept de probabilité:
«la probabilité, poursuit Laplace, est relative en
partie à cette ignorance, et en partie à nos connaissances»
.
Une telle conception a parfaitement rempli son office dans le
cadre de la physique classique, particulièrement en mécanique
statistique classique, si l'on met à part la problématique
plus récente de la sensibilité aux conditions initiales.
Mais, face à la question récurrente du caractère
essentiel ou non essentiel des probabilités en physique
quantique, face aux difficultés qu'y rencontre la thèse
de la probabilité-ignorance, il n'était pas inutile
de remonter en deçà de Laplace et de se rappeler
que le calcul des probabilités a fait l'une de ses premières
apparitions sur un tout autre terrain philosophique. Il a surgi
chez Pascal, nous l'avons vu, sur fond d'une reconnaissance des
limites anthropologiques, d'une épistémologie proche
de l'opérationalisme, d'un holisme généralisé,
et d'un perspectivisme gnoséologique. On ne peut qu'être
frappé de constater que tous ces traits sont présents
dans les interprétations les plus courantes de la mécanique
quantique, et qu'on ne peut pas trouver d'interprétation
acceptable qui n'en comporte au moins un. Le trait le plus fréquemment
rencontré, y compris dans les plus fiables des interprétations
à variables cachées, est le holisme.
4-Indéterminisme et contextualité
Ces deux remarques historiques, l'une sur l'association du
concept de probabilité au concept de qualité secondaire,
et l'autre sur le calcul des probabilités conçu
comme instrument de maîtrise prédictive de notre
situation d'enchevêtrement dans le réseau des relations
naturelles, vont à présent nous aider à défaire
deux noeuds interprétatifs de la physique quantique, se
rapportant l'un comme l'autre à l'indéterminisme.
Le premier concerne la notion, très répandue depuis
les travaux fondateurs de Heisenberg aux alentours de 1927-1930,
d'une perturbation incontrôlable qu'est censée exercer
l'agent de mesure sur l'objet microscopique mesuré. Il
est intéressant de noter que cette «perturbation»
s'est vue assigner un double rôle par ses concepteurs.
D'une part, souligne Bohr à la fin des années 1920,
la perturbation incontrôlable constitue la raison de l'indivisibilité
du phénomène quantique, c'est-à-dire de l'impossibilité
de séparer dans le phénomène ce qui revient
à l'objet et ce qui revient à l'agent de mesure.
La perturbation expliquerait en d'autres termes, empruntés
cette fois à Heisenberg, que la physique quantique conduise
à généraliser le modèle des qualités
secondaires, avec leur référence obligée
au contexte dans lequel elles se manifestent, au détriment
de celui des qualités primaires intrinsèques.
Mais d'autre part, selon l'article de 1927 où Heisenberg
présente pour la première fois ses relations dites
d'«incertitude», la perturbation est aussi ce qui
rend compte de l'indéterminisme de la physique quantique.
La perturbation incompressible et incontrôlable par l'agent
de mesure est ce qui empêche de connaître complètement
les deux groupes de variables qui composent l'état initial
d'une particule; et par conséquent, conclut Heisenberg,
le principe de causalité, qui lie de façon contraignante
un état initial et un état final, reste inapplicable
en physique quantique.
Le modèle de la «perturbation» permet ainsi
de mettre en évidence une étroite relation entre
contextualité et indéterminisme, puisque la perturbation
a pour conséquence aussi bien la contextualité des
phénomènes que l'indéterminisme à
leur sujet. Une relation dont la confluence des concepts de qualité
secondaire et de probabilité à l'époque de
leur naissance est peut-être la traduction historique. Malheureusement,
l'image de la perturbation de l'objet par l'agent de mesure a
aussi un inconvénient majeur qui n'a pas échappé
à Bohr et à Heisenberg, et qu'a par la suite souligné
Karl Popper. Au fond, cette image consiste à commencer
par mettre en scène un univers d'objets dotés de
qualités primaires spatiales et cinématiques, puis
à invoquer leurs altérations mutuelles pour justifier
après coup la mise à l'écart du concept de
qualité primaire et la généralisation de
celui de qualité secondaire . A travers elle, on ne suscite
la représentation d'un univers de figures et mouvements
que dans l'unique but d'en montrer l'inanité ou, ce qui
revient au même dans une épistémologie vérificationniste,
l'inaccessibilité de principe.
L'image de la «perturbation» représente donc
un moment méta-stable de la réflexion sur la mécanique
quantique. Elle invite à son propre dépassement,
dans deux directions opposées. Soit on prend pleinement
au sérieux ses prémisses et on essaie de construire
une théorie empiriquement adéquate des processus
spatio-cinématiques inaccessibles qu'on postule; c'est
là la stratégie des auteurs de certaines théories
à variables cachées. Soit au contraire on prend
pleinement au sérieux les conséquences holistiques
de l'image de la perturbation, à savoir l'indivisibilité
du phénomène quantique, son insurpassable relativité
à un contexte expérimental, et on élabore
une conception de la théorie physique qui ne fasse plus
du tout appel à une représentation imagée
des moments constitutifs supposés du phénomène;
c'est là la stratégie que Bohr a adoptée
à partir de 1935, non sans quelques affaiblissements.
Il est rassurant pour ceux qui, comme moi, ont choisi de pousser
la seconde stratégie jusqu'à ses ultimes conséquences,
de constater qu'il est possible d'établir un lien formel
direct entre l'indéterminisme et la contextualité,
sans avoir besoin de l'intermédiaire fourni par l'image
de la perturbation. Dès 1935, Grete Hermann publiait un
opuscule dans lequel elle laissait entrevoir un tel lien . Cette
jeune philosophe allemande remarquait en effet que les causes
éventuelles d'un phénomène quantique ne peuvent
servir à le prévoir, parce qu'elles ne sont jamais
définies qu'après coup, relativement aux circonstances
mêmes de la production de ce phénomène lors
d'une mesure. Plus tard, au début des années 1950,
Paulette Destouches-Février démontra de façon
beaucoup plus rigoureuse un théorème selon lequel
toute théorie prédictive portant sur des phénomènes
définis relativement à des contextes expérimentaux
dont certains sont mutuellement incompatibles, est «essentiellement
indéterministe» .
5-Idéaux déterministes, projections indéterministes
Remarquons à présent qu'à travers ce qui
précède, un deuxième noeud interprétatif
concernant le rapport entre physique quantique et indéterminisme
a été implicitement dissout. On se demandait souvent
dans les années 1930 si la mécanique quantique,
avec son caractère probabiliste, voire «statistique»
comme le disait Einstein, pourrait un jour être rendue caduque
par une théorie déterministe des processus individuels
sous-jacents. La réponse que les recherches des quarante
dernières années on apporté à cette
interrogation est un peu sibylline, mais d'autant plus instructive
philosophiquement.
Le premier enseignement à retirer de ces recherches est
qu'il n'est pas impossible de formuler des théories qui,
tout en régissant par des lois déterministes les
propriétés intrinsèques d'objets individuels,
reproduisent exactement les prédictions de la mécanique
quantique . Ces théories dites à variables cachées
se trouvent simplement être soumises à quelques contraintes,
dont les principales sont la non-localité (c'est-à-dire
l'influence mutuelle instantanée des propriétés
d'objets arbitrairement distants) et le contextualisme (c'est-à-dire
l'influence du dispositif de mesure sur les propriétés
postulées). Ces deux conditions ne vont cependant pas sans
soulever des problèmes. Le concept non-local d'interactions
instantanées à distance introduit un conflit formel
(bien que sans conséquences pratiques) avec les axiomes
de la théorie de la relativité . Le contextualisme
a quant à lui pour conséquence que les mesures ne
permettent pas d'accéder point par point aux processus
continus et déterministes qui, d'après la théorie,
se seraient déroulés d'eux-mêmes dans la nature
si on ne les avait pas modifiés en cherchant à les
mettre en évidence. Autrement dit, la théorie elle-même
implique que les processus déterministes «indépendants»
qu'elle décrit sont inaccessibles à l'expérience.
La conclusion à tirer de cela n'est certes pas qu'il faut
jeter l'anathème sur les théories à variables
cachées, mais simplement qu'il est indispensable de réviser
leurs ambitions à la baisse.
Nous avons vu que l'un des principaux objectifs de leurs partisans
était de rouvrir la question du déterminisme, contre
ceux qui affirmaient hâtivement que cette question avait
déjà été réglée dans
un sens négatif par la mécanique quantique. La mécanique
quantique standard avait beau être «essentiellement
indéterministe» dans sa structure, si l'on pouvait
reproduire ses résultats par une autre théorie comportant
des processus déterministes, l'option déterministe
récupèrerait tout son crédit. Il est vrai
que la question ontologique de savoir si les lois ultimes de la
nature sont ou ne sont pas déterministes est indécidable,
parce que des apparences déterministes peuvent résulter
d'une régularité statistique et qu'inversement des
apparences indéterministes peuvent traduire un phénomène
de chaos déterministe . Mais au moins pouvait-on encore
espérer que le déterminisme retrouve sa valeur traditionnelle
de guide pour la recherche. Or, cet espoir même a été
déçu. Car, dans les théories à variables
cachées, l'attitude déterministe semble bien avoir
perdu jusqu'à sa fécondité épistémologique.
L'attitude déterministe n'était en effet féconde
que parce qu'elle poussait les chercheurs à concevoir des
réseaux de liens univoques pouvant sous-tendre les phénomènes,
à désigner un type d'expérience permettant
de mettre ces liens en évidence, et à définir
ainsi des classes souvent inédites de phénomènes.
Malheureusement l'inaccessibilité principielle des liens
sous-jacents aux phénomènes dans les théories
à variables cachées contextualistes aptes à
reproduire les prédictions quantiques, bloque ce processus
dès le départ. Une fois tari le courant d'information
réciproque entre le projet déterministe et la définition
de nouveaux domaines d'expérimentation, la tentative de
poursuivre formellement ce projet ne relève plus que d'un
jeu de l'esprit, dont le principal (sinon le seul) intérêt
est de servir de stimulant intellectuel aux spécialistes
de fondements de la physique moderne.
Cette situation ne justifie pas pour autant l'excès inverse,
à savoir un dogmatisme indéterministe. Tout ce qu'on
est en droit de constater c'est que désormais, dans les
sciences physiques, l'avantage de la fécondité épistémologique
appartient à l'attitude consistant à développer
au maximum la capacité prédictive au détriment
de l'ambition descriptive, le calcul des probabilités plutôt
que les modèles d'évolution déterministe.
Il est vrai que beaucoup de penseurs ne s'en tiennent pas là;
qu'ils tendent à extrapoler le constat épistémologique
de la fécondité de l'option indéterministe
en une affirmation ontologique sur le caractère intrinsèquement
stochastique des lois qui régissent le monde. Mais leur
position s'explique aisément sur le plan méthodologique,
sans qu'il soit nécessaire de les suivre dans les aspects
métaphysiques de leurs conclusions. Comme l'a montré
James Logue dans son livre récent Projective probability
, tout système cohérent d'évaluations probabilistes
peut s'interpréter de façon réaliste, c'est
à dire qu'il peut se comprendre comme exprimant des propositions
dont la valeur de vérité est indépendante
de nos moyens de les tester. Et cette interprétation à
son tour peut conduire les auteurs d'une évaluation probabiliste
à la projeter sur le monde. Rien d'étonnant dans
ces conditions que le système cohérent d'évaluations
probabilistes de la physique quantique, non contrebalancé
par un programme déterministe fécond, ait pu être
conçu par des chercheurs aussi éminents que Popper
(et même Heisenberg à sa façon), comme traduisant
en partie ou en totalité une caractéristique «réelle»,
ou «existante», du monde . Popper estime par exemple
que le monde est fait de capacités, de potentialités
ou de propensions naturelles, qui se manifestent expérimentalement
par des distributions statistiques particulières des phénomènes,
et qui ont leur reflet dans la théorie quantique sous forme
d'un algorithme probabiliste.
Incontestablement, les partisans d'un indéterminisme ontologique
se livrent ici, tout autant que les défenseurs des théories
à variables cachées, à ce que Kant aurait
dénoncé comme une tentative d'étendre l'application
de nos concepts au delà des limites de l'expérience
. Avec pour seul avantage par rapport aux partisans des théories
à variables cachées qu'eux se contentent d'hypostasier
directement le mode d'opération du formalisme quantique
plutôt que de chercher à en élaborer un nouveau.
Mais doit-on le leur reprocher? Puisque tout système cohérent
d'évaluation probabiliste peut se lire sur un mode réaliste,
puisque rien n'empêche de d'interpréter l'algorithme
quantique de calcul des probabilités comme traduisant un
ordre de propensions naturelles, pourquoi leur interdirait-on
d'adhérer sans réticences à de telles interprétations?
Pourquoi leur refuserait-on de croire sans arrière-pensées
que la théorie quantique décrit une réalité
faite de pures potentialités?
Le genre de réponse que nous allons essayer de donner à
ces interrogations est d'ordre épistémologique plutôt
que métaphysique. Nous n'allons pas nous demander si la
réalité est ou n'est pas faite de potentialités
ayant la structure de l'algorithme probabiliste de la théorie
quantique, mais seulement si nous perdons ou non quelque chose
sur le plan de la connaissance en interprétant cet algorithme
de façon réaliste.
Disons tout de suite, et c'est là le sens de l'énoncé
d'équivalence de James Logue, que ni le praticien de l'évaluation
probabiliste, ni le physicien quantique, ne perdent quoi que ce
soit à une telle façon de voir. Ils peuvent même
y gagner quelque chose qui est au coeur de toute profession de
foi réaliste, à savoir le sérieux avec lequel
il considèrent leurs entités théoriques,
et la motivation dans la recherche . En revanche, le philosophe
a vraiment beaucoup à perdre à se laisser fasciner
par le seul rapport de la théorie avec le monde. Car cette
attitude ne l'incite guère à réfléchir
sur ce que doit la théorie à la situation de l'homme
dans le monde, et en particulier ce qu'elle doit à la pratique
même de l'investigation expérimentale. A la différence
du scientifique dans son travail quotidien, le philosophe ne peut
se contenter d'occuper la situation pascalienne de l'homme dans
le milieu qu'il explore; il doit penser cette situation et tâcher
d'en énoncer les conséquences. Le chercheur scientifique
peut d'ailleurs avoir aussi intérêt à adopter
de temps à autre la posture réflexive, lorsqu'il
aborde des périodes de réorientation de son travail.
Et chacun sait qu'il se trouve presque inévitablement conduit
à le faire pendant les époques révolutionnaires
que traverse sa science.
6-Une théorie des probabilités généralisée
C'est à ce genre de retournement de l'attention que
nous allons maintenant procéder. Nous allons suspendre
le jugement au sujet d'un hypothétique isomorphisme partiel
entre le réel dans lequel on expérimente et la mécanique
quantique, et nous intéresser sélectivement à
ce que doit la structure de cette théorie à la forme
de l'activité expérimentale elle-même.
Commençons par exposer rapidement, dans cet esprit, l'architecture
de la mécanique quantique standard:
(1) Le noyau formel de cette théorie consiste en un espace
vectoriel défini sur l'ensemble des nombres complexes,
et doté d'un produit scalaire; autrement dit un espace
de Hilbert.
(2) Sur cet espace sont définis des opérateurs spéciaux,
appelés «observables», qui fournissent, à
travers leurs «valeurs propres», la liste des résultats
possibles d'une opération de mesure.
(3) Un vecteur de l'espace de Hilbert, appelé vecteur d'état,
est associé à chaque préparation (c'est-à-dire
à ce qui, dans une expérience, fixe les conditions
préalables à la mesure).
(4) En appliquant la règle de Born à ce vecteur
d'état, on obtient une fonction assignant des probabilités
aux résultats d'une mesure quelconque effectuée
à la suite de la préparation.
(5) Comme un intervalle spatio-temporel variable et diverses circonstances
physiques peuvent séparer la fin du fonctionnement de la
préparation et l'opération de mesure, on en tient
compte à travers une équation d'évolution
des vecteurs d'état. Cette équation est celle de
Schrödinger dans le cas non-relativiste, et celle de Dirac
dans le cas relativiste.
Ici, je voudrais insister sur la différence majeure entre
les fonctions de probabilités de la théorie classique
des probabilités, et celles qu'on obtient à partir
des vecteurs d'état de la mécanique quantique en
appliquant la règle de Born. Les fonctions classiques de
probabilités associent un nombre compris entre 0 et 1 à
chaque «événement» au sens large, défini
par Kolmogorov comme un sous-ensemble d'événements
élémentaires. L'ensemble de ces sous-ensembles-événements
comprend l'ensemble vide et l'ensemble exhaustif, et il est doté
d'une structure d'algèbre de Boole par les opérations
de réunion et d'intersection. En d'autres termes, les fonctions
classiques de probabilités sont définies sur une
algèbre de Boole. Au contraire, compte tenu des propriétés
des espaces de Hilbert, les fonctions quantiques de probabilités
ne sont pas définies sur une algèbre de Boole; elles
sont définies sur des structures différentes et
plus riches qu'on appelle des «orthoalgèbres»
. Je me garderai de donner le détail des axiomes d'une
orthoalgèbre, et je me contenterai de signaler que le concept
d'orthoalgèbre n'est pas sans rapport avec celui d'algèbre
de Boole. On peut même considérer que les orthoalgèbres
constituent une généralisation des algèbres
de Boole, et que corrélativement les fonctions de probabilités
quantiques généralisent les fonctions de probabilités
classiques. En effet, une orthoalgèbre contient des algèbres
de Boole comme sous-structures. Et d'autre part, la restriction
d'une fonction quantique de probabilités sur ces sous-structures
booléennes équivaut à une fonction classique
de probabilités.
Cette disparité structurale entre fonctions classiques
et fonctions quantiques de probabilités justifie qu'on
ne se contente pas de considérer que la mécanique
quantique utilise la théorie des probabilités. La
mécanique quantique consiste elle-même, pour une
part, en une forme nouvelle et élargie de théorie
des probabilités.
7-Un formalisme prédictif méta-contextuel
Il serait cependant dommage de s'en tenir à cet exposé
superficiel et formaliste de la situation. Nous pouvons assez
facilement comprendre les raisons de l'irruption d'une nouvelle
sorte de théorie des probabilités en montrant qu'elle
est une réponse pratiquement inévitable aux caractéristiques
de la classe des phénomènes expérimentaux
dont traite la mécanique quantique. La principale de ces
caractéristiques, déjà signalée à
plusieurs reprises par le biais d'une réflexion sur le
concept de qualité secondaire, est la contextualité;
autrement dit l'inséparabilité du phénomène
et du contexte expérimental de sa manifestation. C'est
elle qui impose un grand nombre des caractéristiques structurales
de la théorie quantique.
Mais pour bien mettre en évidence le lien très fort
entre contextualité et mécanique quantique, il faut
d'abord analyser ce qui rend la contextualité du phénomène
quantique incontournable, et la différencie d'autres formes
courantes, bénignes, et facilement surmontables, de relation
des déterminations à un contexte.
Dans toutes les sciences, comme dans beaucoup de situations ordinaires,
on peut dire qu'à chaque contexte expérimental ou
sensoriel correspond une gamme de phénomènes ou
de déterminations possibles. Par exemple, à un contexte
représenté par les cônes de la rétine
correspond une gamme de couleurs, à un contexte représenté
par une règle correspond une gamme de longueurs, à
un contexte représenté par un thermomètre
correspond une gamme de températures, etc. Mais aussi longtemps
que les contextes peuvent être conjoints, ou que les déterminations
sont indifférentes à l'ordre d'intervention des
contextes, rien n'empêche de fusionner les gammes de possibles
en une seule gamme relative à un seul contexte global,
puis de passer ce contexte sous silence et de traiter les éléments
de la gamme comme s'ils traduisaient autant de déterminations
intrinsèques. La présupposition que rien n'empêche
d'escamoter le contexte est automatiquement faite quand on se
sert de propositions du langage ordinaire; car ces dernières
permettent d'attribuer plusieurs déterminations au même
objet comme si elles lui étaient propres. Il est important
de noter qu'à cette présupposition et à ce
mode de fonctionnement de la langue s'associent une logique classique,
booléenne, et une théorie des probabilités
classique, kolmogorovienne.
Mais l'apparition d'obstacles à la conjonction des contextes,
ou le constat d'une absence d'indépendance des phénomènes
vis-à-vis de l'ordre d'utilisation des contextes, comme
c'est le cas en physique microscopique lorsqu'on essaye de mesurer
des variables canoniquement conjuguées, rendent ces méthodes
traditionnelles inutilisables. La stratégie consistant
à ne pas tenir compte des contextes expérimentaux
échoue, et l'explicitation de la contextualité des
déterminations devient impérative.
Dans cette situation qu'affronte la physique quantique, la logique
booléenne et les probabilités kolmogoroviennes ne
subsistent en première analyse que fragmentées en
plusieurs sous-logiques et plusieurs sous-structures probabilistes,
chacune d'entre elles étant associée à un
contexte particulier. A chaque contexte expérimental s'associe
une gamme de déterminations possibles et une gamme de propositions
attributives qui relèvent d'une sous-logique classique,
booléenne; et à chaque détermination choisie
parmi l'ensemble des déterminations possibles correspondant
à un contexte donné, peut être attaché
un nombre réel qui obéit aux axiomes de la théorie
des probabilités de Kolmogorov. Mais ces sous-logiques
et ces sous-structures probabilistes ne peuvent pas fusionner,
car elles dépendent de contextes distincts qui ne peuvent
en général être conjoints. On cherche dans
ces conditions à les articuler les unes aux autres, respectivement
dans le cadre d'une méta-logique et d'un formalisme probabiliste
méta-contextuel. Ce qui est remarquable est que lorsqu'on
construit une telle méta-logique, en tenant seulement compte
de l'impossibilité de conjoindre les diverses gammes de
possibles, on en arrive à des structures isomorphes à
la célèbre «logique quantique» non-distributive
de Birkhoff et von Neumann . Et par ailleurs, quand on essaie
de construire un formalisme probabiliste méta-contextuel,
en s'imposant seulement de respecter les axiomes de Kolmogorov
séparément pour chaque gamme de possibles, et d'utiliser
un unique symbole générateur de sous-fonctions de
probabilités pour chaque préparation, on parvient
à une classe de structures dont le formalisme de vecteurs
dans des espaces de Hilbert de la mécanique quantique est
un cas à peine particulier. La forme de l'équation
d'évolution de la mécanique quantique est elle-même
dérivable de conditions générales portant
sur la stabilité temporelle du statut d'outil d'évaluation
probabiliste du vecteur d'état .
Dans sa fonction de théorie-cadre, la mécanique
quantique n'est par conséquent autre qu'une forme méta-contextuelle
de théorie des probabilités. Elle recueille les
conditions de possibilité d'un système unifié
de prédiction probabiliste portant sur des phénomènes
inséparables de contextes parfois incompatibles. Il suffit
ensuite de compléter cette théorie-cadre par diverses
symétries pour en tirer autant de variétés
particulières de théories quantiques.
8-Décohérence et probabilités
Nous avons vu que, sauf à affronter les graves difficultés
épistémologiques des théories à variables
cachées non-locales, les probabilités quantiques
ne peuvent pas être tenues pour l'expression d'une ignorance
au sujet de processus ou d'événements qui se dérouleraient
d'eux-mêmes dans la nature. Le calcul quantique des probabilités
porte sur des phénomènes dont l'occurrence est suspendue
à l'intervention d'un contexte approprié. Le problème
est qu'en tant que théorie physique, la mécanique
quantique a une vocation à l'universalité. Le calcul
des probabilités méta-contextuel, qui est son élément
constitutif principal, devrait dans ces conditions pouvoir s'appliquer
sans restriction et à toute échelle. Mais, dans
notre environnement familier, la théorie classique (kolmogorovienne)
des probabilités n'est-elle pas parfaitement utilisable?
Et cette théorie classique ne fonctionne-t-elle pas, contrairement
à son équivalent quantique, de telle sorte que rien
n'interdit de considérer qu'elle exprime une ignorance
partielle au sujet de propriétés intrinsèques
et d'événements autonomes? Un problème de
compatibilité se pose alors, entre le calcul quantique
des probabilités, valable en principe à toute échelle,
et le calcul classique des probabilités, valable en pratique
à notre échelle.
Les théories de la décohérence ont pour principal
objet de prouver cette compatibilité. Elles permettent
en effet de montrer qu'appliqué à des processus
complexes faisant intervenir un objet, un appareil de mesure,
et un vaste environnement, le calcul quantique des probabilités
se ramène à une très faible approximation
près au calcul classique des probabilités. Ceci
se manifeste par une quasi-disparition de termes d'interférence
typiques du calcul quantique des probabilités, et isomorphes
à ceux d'un processus ondulatoire, au profit d'une quasi-validité
de la règle classique d'additivité des probabilités
d'une disjonction.
Rares sont cependant les physiciens qui se sont contentés
de cette formulation purement probabiliste et prédictive
des théories de la décohérence. Quelques-uns
d'entre eux ont même caressé l'espoir d'utiliser
la décohérence comme moyen d'expliquer l'émergence
d'un monde classique, à partir d'un monde quantique censément
«décrit» par un vecteur d'état universel
. L'obstacle majeur auquel ils se sont heurtés est que,
pour parvenir à dériver à partir d'un calcul
purement quantique les lois et les comportements classiques qui
prévalent à l'échelle humaine, ils n'ont
pu éviter d'introduire des hypothèses contenant
déjà des éléments anthropomorphiques
.
Ces déconvenues incitent à ne rien demander de plus
aux théories de la décohérence que d'assurer
rétrospectivement une cohérence en pratique suffisante
entre le calcul quantique des probabilités et le présupposé,
à la fois fondamental et élémentaire, qui
sous-tend son attestation expérimentale. Ce présupposé
consiste à admettre que les événements macroscopiques
(comme la déviation de l'aiguille d'un appareil) surviennent
d'eux-mêmes au laboratoire, que leur trace est en permanence
disponible pour n'importe quel chercheur qui désirerait
en effectuer le constat, et que l'utilisation du calcul des probabilités
à leur sujet ne fait par conséquent qu'exprimer
une ignorance partielle sur ce qu'il sont.
9-Théorie quantique des champs, intégrales de chemin, et formalisme prédictif méta-contextuel
Les réflexions qui précèdent ont il est
vrai de quoi surprendre certains physiciens contemporains. En
effet, à force de manipuler un concept de champ parfois
insuffisamment distingué de son équivalent classique,
et à force de prendre au pied de la lettre les processus
que figurent de façon imagée les diagrammes de Feynman,
un nombre non-négligeable d'entre eux a fini par se comporter
comme si les problèmes conceptuels que soulevait la mécanique
quantique à sa naissance n'étaient plus qu'un mauvais
souvenir. Si la physique «décrit» l'évolution
des champs fondamentaux, et/ou si elle parvient à «décrire»
également la dynamique des particules (considérées
comme état d'excitation du champ) à travers le procédé
des intégrales de chemin de Feynman, pourquoi se préoccuper
encore de cette vieille lune bohrienne qu'est l'inséparabilité
du phénomène et de ses conditions expérimentales
de manifestation? Pourquoi mettre en avant une notion aussi opaque
pour le physicien théoricien que celle de «mesure»
? Pourquoi insister de façon obstinée sur le statut
prédictif plutôt que descriptif des théories
quantiques? Ne peut-on pas penser que bien des perplexités
philosophiques des créateurs de la mécanique quantique
étaient liées à l'emploi d'un formalisme
(celui des vecteurs dans un espace de Hilbert) qui est désormais
surclassé dans les théories les plus avancées
par le formalisme des intégrales de chemin?
La réponse à ces questions est qu'en vérité,
aucune des contraintes épistémologiques exercées
par la mécanique quantique standard de 1926 n'a été
relaxée par les variétés contemporaines de
théories quantiques, et que de nouvelles contraintes du
même ordre s'y sont même ajoutées. Quelles
que soient les représentations qu'elles ont pu susciter,
les théories quantiques actuelles opèrent toujours
comme un instrument généralisé, méta-contextuel,
de prédiction probabiliste, et cela vient de ce qu'elles
sont toujours confrontées à des phénomènes
inséparables de leur contexte de manifestation. Afin d'étayer
cette réponse, il suffira d'évoquer rapidement le
renouveau des réflexions philosophiques suscité
par la théorie quantique des champs, puis de repréciser
les relations entre le formalisme des vecteurs d'état dans
un espace de Hilbert et celui des intégrales de chemin
de Feynman.
Le trait central des théories quantiques, qui est de consister
en une structure méta-contextuelle de prédiction
probabiliste, se retrouve non seulement intact mais amplifié
par la théorie quantique des champs. Au terme d'une réflexion
sur les formalismes d'espaces de Fock, Paul Teller conclut: «(...)
les états (dans un espace de Fock) caractérisent
simplement des propensions pour ce qui se manifestera sous diverses
conditions d'activation. Parmi les choses pour lesquelles il peut
y avoir des propensions de manifestation, il y a l'occurrence
de divers nombres de quanta (...)» . Autrement dit, loin
d'avoir rendu superflues des notions contextuelles comme celles
d'état propensif, d'«observable», ou de conditions
d'«activation», les théories quantiques des
champs en ont généralisé l'application. Le
concept de champ quantique dérive de celui de champ classique
par la mise en correspondance d'observables locales aux fonctions
locales, et par l'introduction de relations de commutation (ou
d'anti-commutation) pour certains couples de ces observables.
Quant aux vecteurs d'état dans un espace de Fock, ils permettent
non pas de calculer la probabilité que telle ou telle «propriété»
d'une particule se manifeste dans un contexte expérimental
donné, mais bien la probabilité qu'un certain nombre
de particules soit détecté dans des conditions instrumentales
appropriées. Ce nombre lui-même est traité
comme une observable, dont l'ensemble des valeurs possibles sous
des conditions de détection appropriées s'identifie
à l'ensemble des entiers naturels. A la contextualisation
du prédicat des objets, typique de la mécanique
quantique standard, s'ajoute par conséquent en théorie
quantique des champs la contextualisation de la notion de supports
dénombrables des prédicats.
Qu'on doive désormais tenir le concept même de «particule(s)»,
et pas seulement celui de «propriété de la
particule», pour relatif à un contexte de manifestation,
est rendu particulièrement évident par le phénomène
relativiste dit des «particules de Rindler». Ce phénomène
s'observe en accélérant un détecteur dans
le «vide» . Le détecteur accéléré
répond, dans cet environnement où aucun détecteur
au repos ne détecterait pourtant la moindre particule,
comme s'il était plongé dans un bain thermique de
particules . Il est donc clair ici qu'on ne peut pas traiter les
particules comme des objets qui «sont» là,
ou qui «ne sont pas» là, indépendamment
des conditions de leur détection. On est seulement en droit
de parler de phénomènes de détection qui
impliquent de façon indissociable un milieu (disons «le
vide quantique»), un détecteur, et l'état
dynamique de ce détecteur. Les théories quantiques
des champs apparaissent dès lors comme des élaborations
particulières du cadre probabiliste méta-contextuel
de la mécanique quantique: des élaborations adaptées
à une classe élargie de phénomènes
contextuels, appartenant au domaine relativiste, et touchant au
concept formel de «support» par-delà celui
de «propriété» .
Venons-en à présent aux formalismes d'intégrales
de chemin de Feynman, qui ont souvent supplanté les formalismes
standard dans la pratique moderne des théories quantiques
des champs . Bien que le fonctionnement des intégrales
de chemin soit illustré par des diagrammes linéaires
évoquant des trajectoires spatio-temporelles de particules,
leur propos est seulement de permettre de calculer la probabilité
d'un événement expérimental final (en un
certain point) sous la condition de la survenue d'un événement
expérimental initial (en un autre point). Ici, la dépendance
du phénomène dont on calcule la probabilité
à l'égard d'un contexte instrumental est seulement
implicite, mais elle n'en joue pas moins un rôle capital
dans le principe même du calcul effectué. Que fait-on
en effet concrètement lorsqu'on évalue une intégrale
de chemin? On somme des «amplitudes de probabilités»,
puis on prend le carré du module de la somme ainsi obtenue
pour obtenir la probabilité qu'on cherche . Or, la distinction
entre amplitudes de probabilités et probabilités
recouvre d'assez près celle entre expériences virtuelles
et expériences actuelles. Lue dans le cadre du formalisme
standard, l'amplitude de probabilité n'est autre que le
produit scalaire du vecteur d'état et d'un vecteur propre
d'une observable correspondant à une expérience
qui aurait pu être accomplie (mais qui ne l'a pas été)
dans l'intervalle qui sépare les deux expériences
effectives . Au contraire, la probabilité est calculée
pour le résultat d'une expérience qui va effectivement
être accomplie ou qui l'a déjà été.
Le formalisme des intégrales de chemin manifeste ainsi,
tout autant que celui des vecteurs dans un espace de Hilbert,
la structure prédictive méta-contextuelle des théories
quantiques. Il consiste à évaluer la probabilité
d'un phénomène contextuel, en sommant des termes
correspondant à des contextes virtuels intermédiaires
distincts de celui dans lequel se manifeste effectivement le phénomène.
Ajoutons à ceci deux autres circonstances qui suggèrent
des relations étroites entre le mode de fonctionnement
des théories quantiques utilisant un formalisme de vecteurs
dans l'espace de Hilbert, et celles qui font usage d'intégrales
de chemin. Tout d'abord, l'équivalence entre le formalisme
de la mécanique quantique standard, qui met en oeuvre un
opérateur Hamiltonien dans l'équation de Schrödinger,
et le formalisme d'intégrales de chemin qui utilise la
fonction Lagrangienne correspondante, a été démontrée
par Feynman . Par ailleurs, de même que certains principes
de symétrie déterminent la forme du Hamiltonien
de l'équation de Schrödinger, ce sont des principes
de symétrie qui permettent de fixer la densité de
Lagrangien de chaque interaction, et de déterminer ainsi
l'intégrale de chemin . L'utilisation de ce genre de principes
de symétrie a plus concrètement pour conséquence
de moduler les intégrales de chemin (et par conséquent
les évaluations probabilistes qui en résultent),
en annulant l'amplitude de certains des diagrammes qui interviennent
dans la sommation .
10-Epilogue
Tout ceci nous amène à conclure par deux propositions valant indépendamment de la variété de théorie quantique ou de formalisme utilisés. Chaque théorie quantique combine un élément invariable, qui est une forme méta-contextuelle de théorie des probabilités, et un élément variable qui est un ensemble de symétries. L'association des deux éléments en fait un système d'évaluation probabiliste adapté à une classe de situations expérimentales dont l'extension dépend des symétries mises en oeuvre.