En quoi consiste la 'Révolution Quantique'?

Michel Bitbol

paru dans: Revue Internationale de Systémique, 11, 215-239, 1997

Copyright: Michel Bitbol

Retour à la page d'accueil

 

Introduction

Physiciens et philosophes , acteurs des sciences et analystes, se sont très tôt accordés à considérer que la mécanique quantique implique une révolution conceptuelle sans précédent. Planck parlait du pouvoir «explosif» de la théorie quantique; Heisenberg soulignait la «rupture réelle dans la structure de la science», voire le «changement apporté au concept de réalité» , qu'elle entraîne; et Schrödinger évoquait non sans lyrisme l'attitude passionnante, neuve et révolutionnaire que la prise en compte synthétique de cette théorie physique nous force à adopter. La naissance de la mécanique quantique s'est donc vue assigner d'un commun accord le rôle de nouveau modèle de la révolution scientifique: un modèle de la radicalité de ce genre d'événement.
L'unanimité se brise, cependant, dès qu'il s'agit de préciser en quoi consiste le bouleversement proclamé. Les discours sur son contenu sont remarquablement divergents; ils ont souvent tourné, durant les soixante-dix dernières années, à la controverse ou aux querelles d'école. Mais peut-être est-ce là justement l'indice le plus clair de la profondeur de la révolution quantique, et surtout de ses virtualités d'approfondissement. Le désaccord sur ce qu'elle est ne nous suggère-t-il pas qu'elle demeure en partie inachevée? Ce désaccord ne nous porte-t-il pas à soupçonner que la phase destructrice de la révolution une fois dépassée, la réflexion reconstructrice est restée à l'état d'ébauche, sans doute paralysée devant l'étrange mais efficace combinaison de fragments de discours anciens et d'un formalisme prédictif abstrait qui rend la réunification de ces derniers hautement problématique?
Il reste donc une étape révolutionnaire à franchir. Mais avant de s'interroger sur la stratégie à suivre pour cela, il faut dresser un bref inventaire historique des conceptions les plus couramment défendues au sujet de la nature de l'ébranlement conceptuel imposé par la physique quantique. Je développerai quatre de ces conceptions, en les considérant dans un ordre approximativement chronologique. Selon la première, qui a déterminé la dénomination de la nouvelle théorie et qui est aussi la plus précoce parce qu'elle date de la première décennie de ce siècle, la nouveauté revient à introduire des discontinuités dans l'espace des états des objets d'échelle atomique; elle consiste en d'autres termes en une quantification des variables pertinentes. Selon la seconde conception, qui est née à peine plus tard avec les réflexions d'Einstein sur son concept de photon entre 1905 et 1911, mais qui a connu son plein développement au début des années 1920 avec de Broglie, le pas décisif consiste en l'indissoluble association de deux sortes de processus tenus pour mutuellement exclusifs en physique classique: les processus ondulatoires et les processus corpusculaires. La troisième conception, dont le moment fondateur a été la publication en 1927 de l'article de Heisenberg sur les relations dites d'«incertitude», est que la physique quantique signifie l'abandon de l'idéal laplacien du déterminisme. Enfin, la quatrième conception, peut-être la plus féconde à l'heure actuelle, consiste à voir dans la mécanique quantique une incitation d'ampleur inégalée à ne pas se contenter de la conception pré-critique d'une objectivité déjà constituée dans la nature, mais à revenir en permanence aux conditions de l'objectivation. Cette dernière conception de l'apport novateur présumé de la mécanique quantique est cependant particulièrement foisonnante et difficile à cerner, car il y a eu autant de façon de la présenter que d'auteurs (nombreux) qui l'ont soutenue. Pour s'en tenir aux créateurs de la mécanique quantique, Heisenberg parle d'une perte de la coupure cartésienne entre res cogitans et res extensa; Bohr évoque plutôt la relativité des déterminations par rapport aux dispositifs expérimentaux qui contribuent à les définir ; et Schrödinger insiste sur la nécessité d'une refonte complète de l'«ontologie» au sens de Quine, c'est à dire du mode de découpage du champ des phénomènes en entités objectivées (individualisées, permanentes, et susceptibles de recevoir des prédicats). La question du rapport entre physique quantique et constitution de l'objectivité exige donc d'être étudiée à nouveaux frais, si l'on veut éclaircir le sens de la 'révolution quantique' .

I

Mais ne brûlons pas les étapes. Revenons-en aux origines, représentées par l'idée que les processus naturels manifestent des discontinuités «quantiques» irréductibles. On admet couramment qu'il s'agit là d'un écart considérable vis-à-vis du mode de pensée des physiciens classiques, et plus encore vis-à-vis d'une norme très répandue d'explication des phénomènes par contact et continuité. En se rapportant à l'analyse qu'en propose Kant, on se rend pourtant compte qu'une entorse à l'adage «natura non fecit saltus (la nature ne fait pas de saut)» induit moins de difficultés que ne le ferait par exemple une mise en cause de l'usage des catégories de substance et de causalité, dans les principes de permanence et de succession selon une règle. Ne pas réaliser l'unité synthétique des phénomènes sous les catégories de substance ou de causalité reviendrait en effet à renoncer, selon Kant, aux conditions de possibilité d'une connaissance objective alors que mettre à l'écart la «lex continui in natura» (la loi de continuité des phénomènes de la nature), implique seulement l'abandon de l'une de ces «maximes de la faculté de juger» qui sont régulatrices et non déterminantes, c'est-à-dire qui servent de perspective et de guide pour le jugement sans pour autant devoir être attribués à ses objets. Il est vrai que Kant lui-même donne une formulation spatio-temporellement continuiste du principe de la succession des phénomènes selon une règle . Mais ce genre de continuité se justifie seulement par une hypothèse additionnelle, que l'on peut considérer avec le recul comme non nécessaire: l'hypothèse selon laquelle la règle de succession doit porter directement sur les phénomènes manifestés dans l'espace et dans le temps, plutôt que sur des entités théoriques liées indirectement aux phénomènes et ne relevant pas des formes a priori de la sensibilité.
La transformation du mode de pensée des physiciens classiques dans le sens d'un passage du continu au discontinu, apparaît donc avoir des implications moins considérables que certaines autres mutations couramment associées à la mécanique quantique. Il n'en reste pas moins utile, pour éviter des confusions répandues, de s'interroger sur la nature ce qu'il est convenu d'appeler la «quantification». S'agit-il de la traduction théorique de processus d'évolution discontinue se produisant d'eux-mêmes dans la nature (ce qui serait la lecture la plus simple, mais aussi la plus chargée d'implications métaphysiques); s'agit-il d'une simple grille de lecture épistémique dont la maille discrète, justifiée par son pouvoir prédictif, n'exclut pas de concevoir les processus microscopiques sous-jacents comme continus; ou bien encore, ainsi que l'affirme Heisenberg en 1958 , s'agit-il d'une discontinuité indissolublement ontologique et épistémique, liée aux changements soudains qui surviennent lors de la constitution expérimentale des phénomènes, et de l'acquisition corrélative de connaissances?
Une esquisse de réponse à ces questions conditionne la solution d'un autre problème, un problème historique cette fois: quand et comment le concept de «quantification» s'est-il introduit en physique? Peut-on admettre qu'il était déjà présent à partir du moment où l'on a considéré une grille de lecture discrète comme nécessaire pour rendre compte d'une certaine classe de phénomènes à grande échelle, d'ordre thermodynamique, ou bien seulement lorsqu'on a projeté cette grille sur la représentation de la nature et qu'on a décrit les processus microscopiques comme eux-mêmes discrets? C'est seulement si on admet la première option qu'il est légitime de faire de Max Planck l'inventeur de la théorie des quanta entre 1899 et 1901. En revanche, si l'on retient la seconde option, il faut réserver ce titre à Einstein en 1905, puis à Bohr en 1913.
Le point de vue couramment exprimé dans les manuels de physique, selon lequel, dès 1900, Planck a «(...) émis l'hypothèse que les échanges d'énergie entre matière et rayonnement se font non pas de façon continue, mais par quantités discrètes et indivisibles ou quanta d'énergie» , relève en effet, comme l'ont montré récemment Thomas Kuhn et Olivier Darrigol , de l'erreur historiographique (une erreur rendue excusable, il est vrai, par le fait que les fondateurs de la physique quantique l'ont eux-mêmes souvent commise). Planck a certes découpé en éléments finis le continuum des énergies accessibles aux résonateurs électromagnétiques afin de parvenir à sa célèbre formule de distribution spectrale du rayonnement du corps noir, mais il ne prétendait pas en 1900 que seule une série discrète de valeurs de l'énergie était disponible pour ses résonateurs. Jusqu'en 1906 au moins, Planck s'exprimait en termes de segmentation des plages de valeurs de l'énergie et non pas de discrétisation de l'énergie émise ou absorbée . Circonstance plus frappante encore, la totalité du raisonnement de Planck participait du projet de fournir une démonstration du second principe de la thermodynamique qui se base non pas sur le modèle mécanique discontinu et atomiste de Maxwell et Boltzmann, mais sur un modèle mécanique continu de l'éther électromagnétique. Seul l'abandon de l'atomisme pouvait garantir selon lui que le second principe devienne une loi exacte et non pas une loi simplement statistique comme l'avait admis Boltzmann. Dans ce contexte, remarque Olivier Darrigol, les éléments finis d'énergie ne jouaient que le rôle d'une «jauge de désordre élémentaire» dont la dimension était fixée par une constante universelle (h, la constante de Planck) mais qui concernait en dernière analyse un processus electrodynamique continu. Ils ne pouvaient en tous cas être assimilés à des quanta d'émission ou d'absoption.
L'hypothèse des quanta proprement dite ne pouvait naître et prospérer que dans un contexte intellectuel beaucoup plus franchement atomiste que celui de Planck vers 1900. Or c'était justement dans un tel contexte que baignait Einstein, à la suite de ses propres travaux de physique statistique de 1903, qui l'avaient conduit entre autres à rendre raison du phénomène de mouvement Brownien en le faisant résulter du choc aléatoire de molécules contre un petit corps matériel. L'importance de l'arrière-plan atomiste pour la formulation d'une théorie des quanta est soulignée par les premiers paragraphes de l'article de 1905 dans lequel Einstein a émis pour la première fois l'hypothèse des quanta d'énergie lumineuse, plus tard appelés «photons». Dans son style caractéristique, qui est celui d'un projet fort d'unification théorique, Einstein s'interroge en effet sur la possibilité d'un accord entre la discontinuité atomique de la matière et la continuité spatiale du rayonnement électromagnétique. Ne risque-t-on pas, se demande-t-il, d'aboutir à des contradictions avec l'expérience lorsque l'articulation entre le modèle atomiste et le modèle continuiste de l'électromagnétisme doit être mise en jeu, c'est à dire lorsqu'on doit décrire les processus d'émission ou d'absorption de rayonnement par la matière? Cette contradiction, Einstein la détecte en particulier dans la prise en compte traditionnelle de l'effet photoélectrique, ainsi que dans certaines inconsistances de la théorie du rayonnement du corps noir de Planck. Et il propose dès lors de considérer que l'énergie électromagnétique «(...) est constituée d'un nombre fini de quanta d'énergie localisés en des points de l'espace, chacun se déplaçant sans se diviser et ne pouvant être absorbés ou produits que tout d'un bloc» .
Plus tard, en 1906, il remarque que les inconsistances de la théorie de Planck disparaîssent si l'on admet que cette théorie «(...) fait implicitement usage de l'hypothèse des quanta de lumière» . Cet usage implicite invoqué par Einstein en 1906, a été transformé et embelli par la mythologie historique des manuels de physique en un énoncé explicite qui aurait prétendûment été émis par Planck dès 1900. Une telle reconstruction a posteriori a été rendue d'autant plus plausible que, sans pour autant retenir l'hypothèse einteinienne des quanta d'énergie électromagnétique localisés spatialement, Planck admet à partir de 1908 que «l'échange d'énergie entre les électrons et l'éther libre s'effectue toujours par nombres entiers de quanta hn» .
Le lien entre le succès des représentations atomistes durant les deux premières décennies du siècle et la systématisation de la discontinuité quantique est également évident dans la théorie de Bohr de 1913 . Le but que s'assignait Bohr à cette époque était en effet d'assurer la stabilité du modèle d'atome proposé par Rutherford deux ans plus tôt. Selon ce modèle, l'atome était constitué d'un noyau chargé positivement et d'électrons chargés négativement en orbite autour de lui. Or, conformément à l'électrodynamique classique, les électrons accélérés dans leur mouvement orbital auraient dû émettre continûment de l'énergie électromagnétique, puiser pour cela dans leur énergie mécanique, et finir par tomber sur le noyau. Bohr fit alors trois hypothèses qui brisaient la cohérence du compte-rendu mécanique et electrodynamique, mais qui assuraient la stabilité recherchée et avaient bien d'autres conséquences intéressantes. La première hypothèse est que, sur chaque orbite, le mouvement de l'électron est régi par la mécanique classique, tandis que sa transition d'une orbite à l'autre ne l'est pas. La seconde est que l'atome n'émet aucun rayonnement lorsque l'électron se trouve sur une orbite donnée, mais que lors de sa transition aléatoire d'une orbite à une autre orbite plus basse, il émet un rayonnement dont la fréquence obéit à la relation de Planck entre la fréquence et l'énergie. La troisième (seulement explicitée au paragraphe 5 de l'article) est que l'électron ne peut occuper que certaines orbites dites «stationnaires», sélectionnées par analogie avec une condition posée par Planck dans ses articles publiés entre 1910 et 1912, selon laquelle l'énergie d'un résonateur de fréquence n ne peut être égale qu'à un nombre entier de fois l'énergie hn. La conséquence de la deuxième et de la troisième hypothèse est que, lorsqu'il émet un quantum d'énergie électromagnétique, l'électron effectue un saut quantique d'une orbite permise à l'autre. Un saut qui, selon la première hypothèse, n'est pas régi par les lois de la mécanique classique.
Cette étrange association de relations quantiques et de représentations mécaniques inaugura un programme de recherche remarquablement fécond, dont les principaux succès, entre 1913 et 1920 ont été la prédiction des spectres d'émission et d'absorption de rayonnement de nombreux atomes, et la prise en compte systématique des propriétés chimiques des éléments dans le tableau de Mendéléiev. Mais au tout début des années 1920 les difficultés s'accumulèrent, les inconsistances initialement acceptées devinrent de plus en plus gênantes, et les hypothèses ad hoc se multiplièrent afin de faire face au flux des résultats expérimentaux. Comme le dit Lakatos , le programme de recherches de l'ancienne théorie des quanta était devenu régressif au début des années 1920, en ce sens qu'il courait après les phénomènes au lieu de les anticiper.
A partir de ce moment, les doutes à l'égard du compromis un peu baroque de 1913 entre conditions quantiques et représentations issues de la physique classique, se firent de plus en plus fortement sentir. Et s'il fallait sacrifier quelque chose, ce ne pouvait être que tout ou partie (mais quelle partie?) des résidus de représentations classiques, au profit d'une généralisation des concepts proprement quantiques. Selon Heisenberg en 1923, «les représentations (orbitales) ont seulement une signification symbolique; ils sont l'analogue classique de la théorie quantique discrète» . Le but était donc désormais d'aller jusqu'au bout de l'entreprise de discrétisation des quantités intervenant dans la théorie physique, de tendre vers cette théorie intégralement quantique, ne faisant intervenir que des grandeurs discrètes, que Heisenberg et quelques autres chercheurs appelaient de leurs voeux. Max Born fit un pas important dans cette direction en 1924 lorsqu'il énonça le projet de ce qu'il appela pour la première fois une «mécanique quantique» : formuler les lois du mouvement, les lois de la mécanique, non plus à l'aide d'équations différentielles continues, mais en se servant directement d'équations aux différences finies discontinues. Ce projet ne sera cependant réalisé dans toute son ampleur, et avec le succès que l'on sait, que dans la mécanique matricielle de Heisenberg au début de l'année 1925.
Considérée superficiellement, cette étape de l'histoire de la physique peut sembler marquer la victoire généralisée de l'atomisme; un atomisme désormais étendu aux interactions électromagnétiques par le biais du concept einsteinien de photon, et aux lois du mouvement par la mécanique matricielle de Heisenberg. Pourtant, si on y regarde de plus près, l'année 1925 est aussi celle où commencent à être fragilisées plusieurs des conceptions qui sont traditionnellement associées à l'atomisme.
Un événement intellectuel est d'abord venu troubler le concept de quantification spatiale; c'est-à-dire l'idée d'une répartition discrète dans l'espace de la matière et de l'énergie, respectivement sous la forme de constituants atomiques et de photons. Cet événement, ce sont les articles de Bose et d'Einstein de 1924, dans lesquels était développée une nouvelle théorie statistique des gaz. Les auteurs précédents se servaient en particulier de cette théorie pour redémontrer la formule du rayonnement du corps noir de Planck, en considérant une cavité de rayonnement électromagnétique comme une boîte remplie d'un gaz de quanta (ou photons), et en dénombrant les distributions de ces quanta dans les cellules d'espace des phases qui leur sont accessibles. Le problème est que le mode de dénombrement adopté exprimait «(...) une dépendance réciproque (des quanta) les uns par rapport aux autres» . Une dépendance généralisée, instantanée et à distance, qui s'accordait très mal avec la tendance analytique de l'atomisme. L'affaiblissement des représentations atomistes fut encore amplifié par Schrödinger vers la fin de 1925, lorsque, renversant les hypothèses du travail d'Einstein et radicalisant les idées de de Broglie sur les ondes de matière en un modèle holistique, il proposa de considérer un gaz composé d'une multitude de molécules, d'atomes ou de photons, comme un système unique de modes propres d'oscillation de résonateurs de l'éther (ou du vide). Nous reconnaissons là l'esquisse de conceptions qui sont aujourd'hui courantes en théorie quantique des champs, et qui conduisent, lorsqu'elles sont poussées jusqu'à leurs ultimes conséquences, à remplacer le concept de n particules conçues comme objets individuels par celui de n-ième état d'excitation d'un fond dispositionnel appelé le vide quantique. Or, si elles sont prises au sérieux, ces conceptions laissent entrevoir la dissolution complète du paradigme atomiste, au moins dans ses aspects corpusculaires originaux.
D'autres circonstances, comme les expériences de Compton en 1923 (après celles sur l'effet photo-électrique et sur les fluctuations), semblaient pourtant «prouver» indubitablement la nature corpusculaire du rayonnement électromagnétique. Dans ses expériences de diffusion des rayons X sur des électrons en mouvement, Compton s'aperçut en effet que les résultats qu'il obtenait ne pouvaient être pris en compte en décrivant cette diffusion comme celle d'une onde électromagnétique sur une particule. En revanche, il y parvenait en utilisant les lois du choc de deux particules relativistes. Ce constat fut l'un des facteurs qui contribua le plus, en ce début des années 1920, à l'acceptation du concept einsteinien de quanta spatialement localisés d'énergie électromagnétique. Mais dans les sciences, il faut toujours se méfier d'expressions comme «preuve d'existence» ou «preuve de la nature de ceci ou de cela». La sous-détermination des représentations par l'expérience est la règle, et la détermination univoque l'exception. On en a la confirmation dès 1927, lorsque Schrödinger fournit un compte-rendu alternatif de l'effet Compton en termes de diffraction d'une onde (représentant le rayonnement électromagnétique) sur le réseau d'une autre onde (représentant la matière électronique). Cette description alternative continue est certes dépassée dans son principe (même si elle peut parfois encore servir de modèle heuristique), et elle entre en conflit avec certains principes de la mécanique quantique arrivée à maturité; mais elle n'est pas pire de ce point de vue que la description purement corpusculaire et discontinue, et elle peut facilement être remplacée par un compte-rendu moderne en termes de vecteurs d'état globaux valant pour le système entier (rayonnement électromagnétique + matière). Ainsi que des auteurs contemporains l'ont remarqué, elle a surtout l'intérêt de montrer ceci: n'importe quelle description tenant compte convenablement, dans sa structure, des symétries ou des lois de conservation qui sont communes à la physique classique et à la physique quantique serait apte à rendre compte de l'effet Compton. L'effet Compton, pas plus d'ailleurs que l'effet photo-électrique ou les effets de fluctuations thermodynamiques, ne peut par conséquent servir à prouver la nécessité d'une représentation corpusculaire et discontinuiste.
La mécanique matricielle de Heisenberg elle-même, qui semble à première vue représenter une extension sans précédent du champ d'exercice des concepts quantiques, véhicule en fait un message ambigu. Pour s'en apercevoir, il faut revenir brièvement sur les dernières années de l'ancienne théorie des quanta, entre 1918 et 1924. A cette époque, Bohr formulait progressivement son célèbre «principe de correspondance». Ce principe avait d'abord pour objectif limité de permettre le calcul des intensités des raies spectrales émises par l'atome, en extrapolant pour cela aux orbites quantifiées les renseignements fournis par l'électrodynamique classique pour des orbites pas ou peu quantifiées. Mais Bohr lui assignait aussi un objectif plus interne à la physique quantique: établir un rapport réglé entre d'un côté les transitions d'une orbite stationnaire à l'autre, qui déterminaient, selon la théorie quantique, le rayonnement émis, et d'un autre côté le mouvement sur chaque orbite, qui aurait déterminé ce rayonnement si l'électrodynamique classique était encore valable. Cependant, au fur et à mesure que la critique des représentations classiques de trajectoires et d'orbites électroniques s'approfondissait, le contenu du principe de correspondance tendait à devenir purement formel. Il s'agissait de moins en moins de mettre en rapport des évolutions géométrico-cinématiques comme ceux qui sont supposés se dérouler sur les trajectoires orbitales des électrons, et de plus en plus d'établir des relations algébriques entre les quantités qui en sont abstraites. Le nouveau rapport s'établissait non plus entre les processus de transition et les mouvements orbitaux stationnaires, mais entre d'une part les énergies et les probabilités caractérisant une transition, et d'autre part les fréquences des harmoniques caractérisant chaque mouvement orbital stationnaire.
L'ultime étape dans l'abstraction fut franchie par Heisenberg, dont la mécanique matricielle de 1925 fut considérée par Bohr comme une systématisation à la fois exacte et purement symbolique de son principe de correspondance.
A ce stade, toutefois, on peut se poser des questions sur le maintien, en mécanique matricielle, d'un vocabulaire encore marqué par les représentations d'où elle a été tirée par abstractions successives. Pour désigner les éléments matriciels qui interviennent de sa théorie, Heisenberg utilise des expressions comme «amplitude (ou probabilité) de transition». Et Bohr, pour sa part, dit que Heisenberg parvient à symboliser dans sa théorie des possibilités de transition entre les états stationnaires . Mais cette idée de quelque chose qui se trouverait dans l'un des états stationnaires disponibles, à l'exclusion de tous les autres, et qui subirait une transition brutale, un «saut quantique», au moment d'émettre du rayonnement, n'a-t-elle pas été dissoute dans le processus d'abstraction qui a mené à la mécanique matricielle? Reste-t-il vraiment autre chose du concept de transition que les probabilités et les fréquences qui leur étaient antérieurement associées? Comme le remarque à juste titre l'historienne des sciences Mara Beller , il n'en est rien; et l'insistance de Heisenberg à continuer de s'exprimer en termes de ce qui n'était déjà plus que la métaphore des sauts quantiques, relevait plus de la querelle de préséance (vis-à-vis du modèle concurrent et continu de la mécanique ondulatoire de Schrödinger), que de la nécessité conceptuelle. Ceci est implicitement confirmé par Bohr lui-même lorsqu'il remarque en 1929: «(...) les concepts d'état stationnaire et de processus individuels de transition possèdent autant de réalité, ou aussi peu, que les particules individuelles elles-mêmes» . Il s'agit seulement, dans les deux cas, d'images semi-classiques dont l'utilisation doit se limiter aux conditions expérimentales qui définissent leur domaine de pertinence partielle.
Quelle conclusion peut-on tirer de ceci, avec le recul des années? Avant tout, une remarque. Le principe de superposition des états stationnaires, dont Dirac disait qu'elle est l'une des plus importantes des nouvelles lois requises par la théorie quantique , manifeste clairement à quel point l'idée d'objets qui ne pourraient se trouver que dans l'un de ces états, et passer de l'un à l'autre par des «sauts quantiques» est au fond étrangère à quelque version que ce soit de la mécanique quantique.
Mais alors, cela veut-il dire que la mécanique quantique n'a rien de «quantique» (pas plus d'ailleurs qu'elle n'est vraiment une «mécanique», parce qu'elle ne décrit pas par elle-même, sauf par passage à la limite et extrapolation asymptotique, le mouvement de corps matériels)? N'allons pas si loin. Il reste quelque chose de quantique dans cette théorie: c'est le schème de discrétisation des états stationnaires eux-mêmes. Mais ce schème n'a rien de fondamental. Il peut être dérivé de structures plus générales associées à des conditions aux limites. Il dérive des relations de commutation entre opérateurs matriciels, dans la version de la théorie introduite par Heisenberg, ou bien d'une équation isomorphe à celle qui régit des ondes stationnaires dans la version de la théorie introduite par Schrödinger. Et ces structures générales peuvent à leur tour, nous allons le voir brièvement à la prochaine section, être dérivées de principes de portée encore plus vaste, parmi lesquels celui selon lequel les phénomènes sont relatifs à des contextes expérimentaux parfois incompatibles tient une place épistémologiquement centrale.

II

Dans la discussion précédente sur la quantification, nous avons évoqué ponctuellement le rôle que pourraient y jouer les représentations ondulatoires. Il faut à présent revenir avec plus de précision sur l'association de représentations corpusculaires et ondulatoires, qui a longtemps été perçue comme l'un des traits à la fois les plus neufs et les plus énigmatiques de la théorie quantique. L'idée a fait son entrée dès 1905 avec l'hypothèse des quanta de lumière d'Einstein. La prise en compte du rayonnement du corps noir, des phénomènes de fluctuation, et de l'effet photo-électrique, semblait en effet relever de propriétés corpusculaires du rayonnement électromagnétique, tandis que les phénomènes d'interférence, connus depuis longtemps, manifestaient ses propriétés ondulatoires. Au congrès Solvay de 1911, Einstein était suffisamment embarassé par cette apparente contradiction pour insister «(...) sur le caractère provisoire de cette conception (des quanta d'énergie électromagnétique) qui ne semble pas pouvoir se concilier avec les conséquences expérimentalement vérifiées de la théorie des ondulations» . Mais Louis de Broglie, qui eut connaissance de ces débats du congrès Solvay par l'intermédiaire de son frère, en tira un tout autre enseignement. Au lieu de chercher à résoudre la contradiction en éliminant l'une des deux représentations du rayonnement électromagnétique, comme tentèrent de le faire Bohr Kramers et Slater en 1924, il prit la décision de l'étendre à la matière et d'en tirer toutes les conséquences. Guidé par des considérations sur la théorie de la relativité, il fut conduit de 1923 à 1925 «(...) à associer au mouvement uniforme de tout point matériel la propagation d'une certaine onde (...)». Appliquée au mouvement orbital d'un électron dans un atome de Bohr, cette idée lui permit «(...) de retrouver les conditions de stabilité quantique comme expressions de la résonance de l'onde sur la longueur de la trajectoire» . Le résultat fut considéré comme très prometteur par Einstein. Mais retrouver les conditions de quantification de Bohr en utilisant un modèle ondulatoire plutôt qu'en les postulant, ne suffisait pas. Car d'une part ce modèle restait à l'état d'ébauche, et d'autre part les conditions de quantification de Bohr étaient déjà dépassées à cette époque. Ce fut donc le mérite de Schrödinger de résoudre ces deux difficultés d'un coup en Janvier 1926. Il y parvint en introduisant une équation d'onde qui porte désormais son nom, et en s'affranchissant complètement du concept d'orbite électronique initialement utilisé par Bohr. De nouvelles conditions de discrétisation se déduisaient en remplaçant l'électron tournant sur une orbite par une onde stationnaire centrée sur le noyau. Ainsi, dans la «mécanique ondulatoire» de Schrödinger «(les) nombres entiers s'introduisent de la même manière naturelle que le nombre d'entier des noeuds d'une corde vibrante (attachée à ses deux bouts)» . Enfin, en avril 1926, Schrödinger présenta ce qu'il tenait pour une démonstration de l'exacte équivalence formelle entre sa nouvelle mécanique ondulatoire et la mécanique matricielle proposée par Heisenberg un an plus tôt .
On avait ainsi obtenu un cadre mathématique unifié, satisfaisant, et apte à rendre compte de l'ensemble des phénomènes qui avaient motivé l'introduction des concepts quantiques. Mais la question du statut de la représentation ondulatoire mise en jeu par de Broglie et Schrödinger restait posée. Devait-elle simplement être associée à la représentation de trajectoires corpusculaires comme le proposait de Broglie dans sa théorie de l'onde-pilote; était-elle plutôt la seule «réalité» qui subsistait, comme l'affirmait Schrödinger, qui pensait en 1926 pouvoir rendre compte, par son concept de paquet d'ondes, de tous les phénomènes d'apparence corpusculaire; ou devait-elle au contraire, comme le proposa Max Born à l'automne 1926, ne se voir attribuer qu'une fonction subalterne d'instrument de calcul de la probabilité de trouver une particule en tel point de l'espace? Chacune de ces options soulevait des difficultés qui n'ont commencé à être comprises et partiellement résolues que bien plus tard. La théorie broglienne de l'onde pilote, un temps abandonnée, a montré sa viabilité à travers la nouvelle version qu'en a présentée David Bohm en 1952; mais cette viabilité s'obtenait au prix de contraintes importantes, dont la non-localité n'est que l'exemple le plus connu, et dont le caractère principiellement inaccessible (ou «caché») des trajectoires corpusculaires postulées reste le trait épistémologiquement le plus gênant. L'option tout-ondulatoire de Schrödinger a également connu des développements ultérieurs, sous la forme de la théorie des états relatifs d'Everett et de certaines versions des théories de la décohérence. Une théorie des états relatifs présentée par Everett comme descendant directement de la thèse purement ondulatoire de Schrödinger, et des théories de la décohérence qui ont conduit l'un de leurs principaux défenseurs (H.D. Zeh) à donner à un article récent un titre d'esprit très schrödingerien: «Il n'y a ni particules, ni sauts quantiques!». Quant à l'idée d'utiliser la fonction d'onde de Schrödinger comme un instrument de calcul des probabilités, elle est aujourd'hui universellement appliquée, même dans le cadre de celles des interprétations qui considèrent que cette fonction d'onde n'est pas uniquement un tel instrument. Mais on se rend compte aujourd'hui que seule une analyse conduisant à lever les ambiguïtés originelles à propos de ce dont la fonction d'onde permet de calculer la probabilité, et aussi de ce qu'on entend exactement par «probabilité», peut permettre d'en clarifier le domaine d'application et la signification. J'y reviendrai à propos de l'indéterminisme.
Mais avant de quitter le problème de la dualité onde-corpuscule, je voudrais faire un bref commentaire sur l'expérience de Davisson et Germer de 1927. Cette expérience était supposée tester l'hypothèse des ondes de matière de de Broglie. Elle consistait à envoyer un flux d'électrons sur un réseau métallique, et à étudier la distribution du flux réfléchi par ce réseau. Or, ce qu'on a observé, ce sont des figures d'interférence qui sont du même type que les figures de Laue des rayons X dans les cristaux, et qui ont des dimensions en excellent accord avec la valeur de la longueur d'onde électronique calculée à l'aide de la formule de de Broglie. Peut-on dire pour autant, comme on l'a souvent fait, que l'expérience de Davisson et Germer «confirme» l'hypothèse du «caractère ondulatoire des particules matérielles» , ou même qu'elle prouve que «les ondes de de Broglie (sont) une réalité physique» ? Comme précédemment pour l'effet Compton, il faut être très circonspect lorqu'on présente une expérience comme prouvant la réalité ou la nature de quelque chose. Pour pouvoir prendre au sérieux ce genre de conclusion, il faudrait que l'expérience en question ne puisse s'interpréter d'aucune autre manière qu'en supposant que ce quelque chose existe ou est de telle nature. Or, dans le cas des expériences discutées, beaucoup d'autres interprétations sont disponibles. Dans son traité de mécanique quantique de 1951, Bohm rappelle par exemple qu'il y a une possibilité de rendre compte du résultat de l'expérience de Davisson et Germer sans jamais utiliser l'hypothèse qu'une onde est associée au flux d'électrons. Cette possibilité a été suggérée par le physicien américain Duane en 1923, et elle a été développée ultérieurement par Alfred Landé dans un ouvrage publié en 1965. Elle consiste simplement à admettre que les électrons, conçus comme des entités exclusivement corpusculaires, subissent des échanges discrets et aléatoires d'énergie avec les atomes du réseau cristallin. Dans ces conditions, comme l'écrit Landé, on n'a pas besoin d'admettre que les particules «(...) se répandent dans l'espace comme des ondes matérielles (...); c'est le cristal qui est déjà répandu dans l'espace», et qui, en interagissant en bloc de façon quantifiée avec les particules leur fait adopter des distributions analogues à celles d'une onde. Un tel modèle n'est lui-même pas exempt de défauts, mais il a le mérite de mettre en évidence, par sa simple existence, la sous-détermination de la représentation ondulatoire par les expériences du type de celle de Davisson et Germer. Il a aussi un autre mérite, plus important et plus profond; c'est celui de suggérer quelle est la gamme beaucoup plus générale de situations expérimentales dans lesquelles on peut obtenir des effets de type ondulatoire sans ondes. Ces situations ce sont, en général, celles où le résultat d'une expérience combine de façon inséparable ce qui revient à l'objet et ce qui revient au dispositif instrumental avec lequel il a interagi. Ce sont en somme celles où on ne peut pas faire comme si chaque événement expérimental survenait dans l'absolu, mais où l'on doit impérativement tenir compte du fait qu'il n'est défini que relativement au contexte instrumental de son occurrence. En parlant de complémentarité onde-corpuscule plutôt que de dualité, en attribuant les apparences ondulatoires à une classe de situations expérimentales plutôt qu'à des objets, Bohr fut le premier à le suggérer. Un peu plus tard, en 1939, Paulette Destouches-Février mettait en évidence une étroite relation formelle entre effets d'apparence ondulatoire et relativité des phénomènes vis-à-vis de contextes expérimentaux mutuellement incompatibles.

III

Passons à présent à un autre temps fort de la révolution quantique. Celui de l'indéterminisme qui a été couramment associé à la mécanique quantique, et qui a été considéré durant les dix années qui ont suivi sa création comme son apport novateur le plus important et le plus troublant. Je ne me contenterai pas ici de commenter un indéterminisme quantique tenu pour un fait acquis. Je voudrais plutôt, dans le sillage des réflexions de philosophes comme Ernst Cassirer et Alexandre Kojève, le considérer comme une série de questions ouvertes et comme une incitation à de nouvelles clarifications conceptuelles. Qu'est-ce donc que le déterminisme et l'indéterminisme? Quels sont les traits caractéristiques de la mécanique quantique qui ont incité ses créateurs à tenir cette théorie pour indéterministe? Et quelles sont les limites de leurs raisonnements?
Le déterminisme, tout d'abord, peut être défini en première analyse comme une doctrine affirmant l'universalité des relations causales. Mais il faut noter que cette proposition soulève déjà des difficultés. D'une part, certains épistémologues, à la suite d'Auguste Comte, ont dénoncé l'utilisation persistante d'un concept de cause marqué par l'analogie avec l'action humaine, et ont préféré lui substituer le concept de loi. C'est seulement si on conçoit dès le départ, comme Cassirer, le concept de causalité dans un cadre kantien conduisant à rejeter ses connotations aristotéliciennes et scholastiques, qu'une telle réticence perd sa raison d'être. D'autre part, s'en tenir à évoquer l'universalité de relations, qu'elles soient causales ou légales, c'est demeurer à un niveau excessif d'abstraction. La question de savoir quels sont les termes entre lesquels doivent s'établir ces relations reste posée. S'agit-il directement de relations entre événements naturels ou expérimentaux successifs? Ou bien s'agit-il plutôt de relations internes au système d'entités (familières ou théoriques), qui nous permettent d'ordonner, et d'anticiper dans une certaine mesure, les événements expérimentaux? Et si la seconde option est retenue, n'est-on pas conduit à mettre en cause l'équivalence de type laplacien entre déterminisme et stricte prévisibilité des événements expérimentaux?
L'instrument d'une analyse critique étant désormais en place, nous pouvons exposer les raisons qui ont poussé plusieurs créateurs de la mécanique quantique à affirmer qu'elle marque l'avènement d'une physique indéterministe. Les deux raisons principales sont le succès de l'interprétation probabiliste de la fonction d'onde proposée par Max Born en octobre 1926, et la formulation par Heisenberg de ses relations dites d'«incertitude» ou d'«indétermination» au début de 1927. Selon Born tout d'abord, «(...) la mécanique quantique de Schrödinger donne une réponse précise à la question de l'effet d'une collision, mais il ne s'agit pas d'une relation causale. On ne répond pas à la question 'quel est l'état après la collision' mais 'quelle est la probabilité d'obtenir un effet donné après la collision' (...) Ici se pose tout le problème du déterminisme. Du point de vue de notre mécanique quantique, il n'existe pas de grandeur qui, dans un cas particulier, déterminerait causalement l'effet d'une collision» . Quant à Heisenberg, sa remarque cruciale était la suivante: «Ce qui a été réfuté dans la loi exacte de causalité, selon laquelle 'quand nous connaissons le présent avec précision, nous pouvons prédire le futur', ce n'est pas la conclusion mais l'hypothèse». Autrement dit, ce qui a été réfuté par les relations dites d'«incertitude», c'est la possibilité de connaître l'état présent avec une précision arbitrairement bonne. S'appuyant sur cette proposition, Heisenberg se croyait autorisé à affirmer en fin de parcours que «(...) la mécanique quantique établit l'échec final de la causalité» .
Si l'on regarde ces textes fondateurs de près, cependant, le moins qu'on puisse dire est que la conséquence indéterministe qu'ils proclament ne découle pas des prémisses qu'ils posent. Max Born s'en rendait assez bien compte lorsqu'il soulignait, dès son article de l'automne 1926, que l'absence de conditions déterminantes décrites par la mécanique quantique n'implique pas par elle-même que de telles conditions ne pourront jamais être découvertes. «Je serait d'avis quant à moi, écrit-il, de renoncer au déterminisme dans le domaine de l'atome. Mais ceci est une position philosophique, pour lesquels les arguments physiques à eux seuls sont insuffisants» . Heisenberg, lui, était plus catégorique dans son assertion indéterministe, mais dès 1929 un philosophe allemand appelé Hugo Bergmann lui faisait remarquer à juste titre que son raisonnement était incorrect sur le plan de la simple logique. «Une implication logique, soulignait-il, n'est pas réfutée si l'on se contente de prouver que sa prémisse est incorrecte» . En d'autres termes, le fait qu'en vertu des relations de Heisenberg on ne puisse pas disposer au sujet de l'état présent de toutes les informations qui seraient nécessaires pour prédire exactement l'état futur, n'interdit pas de penser que si on disposait de ces informations, on pourrait faire une prédiction exacte. Cette critique du processus déductif de Heisenberg a été reformulée indépendamment, par bien d'autres auteurs, comme A. Kojève et par E. Cassirer.
Au fond, les assertions de Born et de Heisenberg laissaient libre cours à l'idée ou au rêve d'une théorie de processus déterministes sous-jacents, par rapport auxquels l'indéterminisme associé à la mécanique quantique n'aurait à être considéré que comme la manifestation superficielle d'une imperfection de nos instruments de mesure. Toutes les argumentations de ces auteurs et de leur école de pensée allaient donc prendre pour cible le statut épistémologique, ou la simple possibilité, de ces «théories à variables cachées» qui prétendent recouvrer un déterminisme descriptif sous la surface de l'indétermination expérimentale.
Critique épistémologique, d'abord, lorsque les membres de l'«école de Copenhague» présentent les proclamations déterministes des partisans des théories à variables cachées comme métaphysiques puisque expérimentalement inaccessibles. Comme l'écrit Kojève, la véritable leçon que l'école dominante en physique quantique nous pousse à tirer de ses réflexions n'est pas que la fausseté du déterminisme est désormais établie; elle est plutôt que «(...) l'idée classique du déterminisme causal n'est ni vraie ni fausse mais simplement dénuée de sens physique» .
Critique plus radicale ensuite, lorsque les théories à variables cachées sont tenues pour réfutées d'avance, car aucune d'entre elles ne peut parvenir à reproduire certaines prédictions corroborées de la mécanique quantique. Cet argument, cependant, a fait long feu. Il était en effet principalement appuyé sur un théorème formulé par Von Neumann en 1932, dont la validité a été récusée à plusieurs reprises, depuis le premier argument de Grete Hermann en 1935 jusqu'à l'article décisif de Bell en 1966 , en passant par la thèse de M. Mugur-Schächter . Tout ce qu'il reste de ces tentatives d'écarter les théories à variables cachées, c'est une batterie de théorèmes de restriction (parmi lesquels le théorème de Bell sur la non-localité) qui indiquent ce que ne peuvent pas être ces théories si on veut qu'elles convergent avec la mécanique quantique dans le domaine où celle-ci est bien attestée expérimentalement.
A la réflexion, toutefois, ce qui frappe dans ce débat sur le déterminisme, ce sont les présupposés communs à ceux qui semblent par ailleurs s'opposer si vigoureusement. Tous argumentent sur fond de représentations atomistes, même si le statut de ces représentations, descriptif ou seulement heuristique, mimétique ou seulement symbolique, reste un sujet de désaccord entre eux.
Max Born, par exemple, affirme que la fonction d'onde ne nous permet de calculer que la probabilité de détecter une particule en un point de l'espace; mais il persiste à concevoir plus ou moins implicitement cette probabilité comme l'expression d'une ignorance au sujet de la position et de la trajectoire des particules, et ne diffère d'Einstein et des partisans des théories à variables cachées que sur un point. Born pense que cette ignorance est principiellement irréductible, tandis qu'Einstein et les partisans des théories à variables cachées travaillent dans la perspective de sa réduction.
Heisenberg, pour sa part a conçu ses relations dans le but explicite de montrer que le formalisme quantique peut encore être interprété comme représentant «(...) une situation où (une particule) se trouve à peu près - c'est-à-dire à une certaine imprécision près - en une certaine position, et possède à peu près - c'est-à-dire à nouveau à une certaine imprécision près - une vitesse donnée» . Les relations dites d'«incertitude» tendent en somme à préserver quelque chose des représentations atomistes en les soumettant à une limite incompressible de précision expérimentale. Et elles suscitent ainsi immanquablement un désir de transgression de la part d'un pouvoir constructif rationnel qui, quant à lui, n'est pas soumis à de telles limites.
Le problème du déterminisme n'est-il donc pas, tout simplement, mal posé, ou posé de façon trop rigide à l'intérieur d'un cadre représentatif peut-être dépassé? C'est cette conclusion que plusieurs chercheurs parmi lesquels E. Cassirer, C.F. Von Weizsäcker, et P. Mittelstaedt, ont tirée de la remarque de Bohr selon laquelle la causalité et la description des phénomènes dans l'espace et dans le temps sont «complémentaires», c'est-à-dire, en particulier, mutuellement exclusives. Le lien causal strict, qui ne peut être établi entre les différentes positions spatio-temporelles d'un corpuscule matériel, est en revanche applicable à des entités théoriques comme les vecteurs d'état, représentées dans l'espace abstrait de Hilbert. L'évolution des vecteurs d'état de systèmes fermés est en effet régie par une équation aux dérivées partielles strictement déterministe: l'équation de Schrödinger. L'affirmation habituelle selon laquelle «la mécanique quantique est indéterministe» doit donc être nuancée. Il est vrai qu'elle établit un lien seulement probabiliste entre groupes d'événements expérimentaux, mais elle le fait à travers des entités théoriques régies par une loi déterministe.
Evidemment, au regard de l'imprédictibilité de certains événements expérimentaux, la prédictibilité de l'évolution des entités théoriques permettant de calculer des probabilités semble une circonstance accessoire et abstraite. Mais ce n'est là qu'une appréciation hâtive. Cette stricte prédictibilité apparemment purement formelle du devenir des vecteurs d'état n'est en fait pas dénuée de traductions expérimentales. Elle incorpore par exemple la circonstance méthodologiquement centrale de la reproductibilité des mesures. Car elle conduit à prévoir de façon certaine qu'une fois mesurée avec précision la valeur d'une variable particulière sur un système, disons la valeur de la quantité de mouvement, cette valeur se reproduira à l'identique lors d'une mesure immédiatement ultérieure. Et à partir de là, les valeurs de quelques autres variables, que l'on qualifie pour cela de redondantes par rapport à la première, peuvent également être prévue avec certitude. C'est seulement lorsqu'on veut pouvoir prédire la valeur précise d'un couple de variables dites conjuguées, comme la position et la quantité de mouvement, ou encore lorsqu'on veut prédire la valeur précise de l'une après s'être mis dans des conditions fixant la valeur précise de l'autre, que la mécanique quantique se borne à fournir des évaluations probabilistes.
Ceci nous conduit à faire la remarque suivante. La demande de prédire avec précision la valeur d'un couple de variables comme la position et la quantité de mouvement, et non pas chacune des valeurs isolément, ne se justifie vraiment que dans le cadre du modèle antérieur de la physique classique; un modèle où la donnée simultanée d'une valeur précise de la position et de la quantité de mouvement définissait l'état d'un corpuscule matériel. Or, ce concept d'état opère sous l'hypothèse tacite que les deux valeurs qui le définissent sont détachables du contexte de leur mesure et simultanément attribuables en propre au corpuscule. Et ce détachement s'appuie à son tour sur l'indifférence complète des valeurs de variables vis-à-vis de l'ordre des mesures et des moyens employés pour les effectuer. L'indifférence en question était la règle pour des variables conjuguées dans le domaine classique, mais elle fait généralement défaut lorsque les mêmes variables sont mesurées dans le domaine de validité spécifique de la mécanique quantique.
Cette analyse suggère que nous pourrions peut-être retrouver la situation de stricte prédictibilité qui était celle de la mécanique classique, à condition de choisir un ensemble de nouvelles variables pertinentes dont l'indifférence complète vis-à-vis de l'ordre et des moyens de la mesure soit attestée dans le domaine quantique.
Mais où trouver de telles variables? Un indice devrait nous mettre sur la voie. Si les vecteurs d'état permettent rarement de prédire la valeur exacte des variables, ils permettent toujours de prédire leur distribution statistique (définie par leur valeur moyenne et leur écart-type). Il autorisent en particulier à prédire de façon certaine la distribution statistique de couples de variables conjuguées à la suite d'une série de préparations expérimentales identiques, alors même qu'ils n'offrent que des prédictions probabilistes pour les valeurs exactes de ces couples de valeurs conjuguées. Or on connaît de nos jours une classe de procédés expérimentaux dits «adiabatiques» qui donnent directement accès à des valeurs moyennes ou à des écarts types, à partir d'une seule mesure, et non pas d'un grand nombre de mesures. La stricte prédictibilité de l'évolution des vecteurs d'état se traduit ainsi en stricte prédictibilité des valeurs fournies par des mesures adiabatiques. Le déterminisme formel de l'équation de Schrödinger possède donc son correspondant expérimental sous forme d'un déterminisme des valeurs distributives obtenues grâce à des procédés de mesure adiabatique.
En résumé, ce qu'on appelle l'indéterminisme de la mécanique quantique se réduit à ceci: l'indétermination de certains processus définis au moyen d'une grille de lecture classique. Il suffit de changer de grille de lecture, de manipuler systématiquement des concepts propres au nouveau paradigme, comme celui de valeur distributive, pour retrouver une part de déterminisme. Est-ce à dire que nous avons prouvé que les lois de la nature étaient au fond déterministes? En aucune façon, pas davantage que Heisenberg n'avait réussi à prouver par ses relations que les lois de la nature sont au fond in-déterministes. Cette question du caractère déterministe ou indéterministe des lois «ultimes» de la nature est au demeurant indécidable . Mais nous avons au moins montré que la situation présente de la physique n'interdit pas de trouver des niveaux de description des phénomènes eux-mêmes (et pas seulement des variables cachées) sur lesquels puisse encore opérer ce principe régulateur de la recherche scientifique qu'est celui de succession suivant une règle. La seule chose que l'on ait vraiment perdue en passant du paradigme classique au paradigme quantique, c'est la confiance dans une universalité si complète de ce principe qu'on puisse se conduire dans les sciences comme s'il n'était pas seulement régulateur pour la recherche mais aussi constitutif pour son objet.

IV

La leçon à tirer de cette analyse critique de trois des conceptions les plus répandues de la révolution induite par la mécanique quantique est que le problème posé par cette théorie ne concerne pas tant les caractéristiques de l'objet de la physique, que la possibilité et les conditions éventuelles de l'objectivation. La première tâche à affronter, ce n'est pas de se demander si l'objet quantique évolue par sauts ou non, s'il a ou s'il n'a pas des propriétés ondulatoires, s'il obéit ou s'il n'obéit pas à des lois déterministes; c'est de s'assurer que les conditions de possibilité d'un discours sur un objet en général sont remplies dans la gamme de phénomènes que régit la mécanique quantique. L'oubli partiel ou total de cet ordre de priorités suffit selon moi à expliquer la confusion du débat sur l'interprétation des théories quantiques durant les trois-quarts de siècle écoulés.
Objectiver, cela revient en effet avant tout à stabiliser un aspect des phénomènes, à le désolidariser du contexte perceptif ou instrumental de sa manifestation, à le rendre indépendant des circonstances particulières, et à pouvoir ainsi le prendre comme thème d'une description valant pour tous, c'est-à-dire pour tous ceux qui se placeraient dans des conditions perceptives ou instrumentales analogues bien que non nécessairement identiques. Or, justement, l'une des premières conclusions importantes que les créateurs de la mécanique quantique ont tirées de leurs réflexions sur cette théorie et sur la situation épistémologique qu'elle exprime, consiste à dire qu'il est généralement impossible de défaire le lien entre le phénomène et les circonstances expérimentales particulières de sa manifestation. Bohr a été le premier à le souligner fortement, entre 1927 et 1929: «(...) la grandeur finie du quantum d'action, écrit-il, ne permet pas de faire entre phénomène et instrument d'observation la distinction nette qu'exige le concept d'observation (...)» . Plus tard, bien des auteurs qui étaient pourtant loin d'être tous d'accord avec Bohr sur d'autres points de l'interprétation de la mécanique quantique, ont reconnu qu'il avait vu juste en ce qui concerne la contextualité d'une classe entière de phénomènes. Même une théorie à variables cachées comme celle de Bohm comporte un équivalent de la contextualité bohrienne; un équivalent que j'appelle «contextualisme» et qui consiste à supposer d'un côté qu'il y a des objets porteurs de déterminations intrinsèques, et d'un autre côté que ces déterminations sont instantanément influencées par les instruments de leur mise en évidence.
Partant de ces remarques sur la contextualité, quelques-uns des principaux fondateurs de la mécanique quantique ont remis profondément en cause ce que Richard Rorty appelle la conception «spéculaire» de la théorie de la connaissance; une conception qui prévaut depuis le dix-septième siècle, en dépit de l'avertissement kantien. Selon eux, la théorie physique n'est pas la représentation d'un processus naturel indépendant de l'expérimentateur qui lui ferait face; elle est l'expression de la participation de l'expérimentateur à un devenir qui l'englobe. Bohr remarque par exemple que: «(...) la situation qui se présente en physique nous rappelle (...) instamment cette ancienne vérité, que nous sommes aussi bien acteurs que spectateurs dans le grand drame de l'existence» . Quant à Heisenberg, il souligne à la suite de Bohr que «S'il est permis de parler de l'image de la nature selon les sciences exactes de notre temps, il faut entendre par là, plutôt que l'image de la nature, l'image de nos rapports avec la nature» . Malheureusement, Bohr et Heisenberg n'ont pas toujours su prendre la pleine mesure du renversement de perspective qu'ils annonçaient. Au lieu d'inscrire toute leur démarche dans le prolongement de leur conception participative de la connaissance scientifique, ils ont tendu à préserver des fragments de l'ancienne conception spéculaire, voire à essayer d'expliquer l'échec de la conception spéculaire dans un cadre conceptuel qui reste conditionné par elle. Pour commencer, Bohr et Heisenberg ont essayé au tournant des années 1920 et 1930 de rendre compte de la mise à l'écart du concept de propriété absolue des objets au profit de celui de phénomène relatif à un contexte expérimental, en invoquant la perturbation incontrôlable qu'occasionneraient les appareils macroscopiques sur les objets microscopiques. Puisque la perturbation est incontrôlable, disaient-ils, il est impossible de faire la part de ce qui revient aux propriétés de l'objet et de ce qui revient aux propriétés de l'appareil dans chaque processus individuel, et il faut par conséquent se limiter au résultat de la relation entre les deux. Une critique approfondie de ce genre d'«explication» prendrait du temps, mais on peut au moins souligner son absence de répondant expérimental, car il faudrait, pour la mettre à l'épreuve, disposer d'un moyen d'accéder aux propriétés non-perturbées. Et aussi son caractère circulaire, puisqu'elle se sert d'un langage de propriétés absolues (celles de l'objet, perturbées, et celles de l'appareil, perturbantes) pour justifier sa mise à l'écart dans la théorie physique. A partir du milieu des années 1930, il est vrai, Bohr a accordé de moins en moins de crédit à l'explication de la contextualité irréductible des phénomènes par la perturbation de propriétés non contextuelles, et il s'est rapproché de plus en plus d'une démarche où la contextualité serait prise comme point de départ du raisonnement, indépendamment de toute velléité d'explication. Mais même ainsi, son travail d'affranchissement vis-à-vis des formes traditionnelles d'objectivité restait incomplet. Il continuait à admettre que des objets d'échelle atomique «causent» les phénomènes observables à l'échelle macroscopique, de la même façon que les corpuscules matériels de la mécanique classique peuvent causer des impacts sur des écrans. Il persistait également à considérer que les valeurs d'observables incompatibles comme la position et la quantité de mouvement fournissent des informations à propos d'un même objet d'échelle atomique, faisant ainsi de chaque objet d'échelle atomique le fédérateur de deux classes de phénomènes correspondant trait pour trait à ceux qui définissent l'état d'un corpuscule matériel en mécanique classique.
Ainsi, la révolution quantique est-elle restée longtemps inachevée. On reconnaissait l'opportunité de faire une place à une conception participative de la connaissance scientifique, plutôt que d'accorder l'exclusivité à la conception objectivante, mais on le faisait de façon trop indécise pour dissuader les physiciens de continuer à se servir d'un discours conditionné par l'idée commune d'une objectivité pré-constituée. On attribuait la quantification et les distributions d'apparence ondulatoire à des phénomènes holistiques au sens de Bohr, mais beaucoup s'exprimaient et s'expriment encore comme si cela avait un sens d'en faire des comportements propres aux objets eux-mêmes. On percevait les difficultés considérables que soulève l'inscription de l'objet supposé de la physique quantique dans le cadre spatio-temporel, mais on s'en accomodait en invoquant par exemple des actions non-locales entre objets plus ou moins bien localisés.
D'où la nécessité que j'ai ressentie de reprendre toute la question depuis le début ; et par conséquent de commencer par écarter jusqu'au dernier vestige des représentations classiques de l'objet d'échelle atomique qui, en dépit des atténuations, des symbolisations et des fragmentations successives, ont continué à guider les physiciens. La démarche suivie pour cela était simple. Partir des seules certitudes tacites qui conditionnent le travail et la communication au laboratoire; adopter en somme ce que j'appellerai en m'inspirant du premier Carnap et de son «solipsisme méthodologique» un opérationalisme méthologique. Dégager les caractéristiques principales d'un formalisme unifié permettant de prédire de façon probabiliste un ensemble de phénomènes définis relativement à des contextes expérimentaux qui ne sont pas tous compatibles entre eux. Ne revenir que dans un deuxième temps à la question de l'objet de la physique quantique, une fois que le cahier des charges auquel il doit répondre a été fixé indépendamment de toute idée préconçue à son propos. Proposer enfin de transférer les conditions d'invariance constitutives du concept formel d'objet aux structures d'anticipation probabiliste des phénomènes: ces vecteurs d'état, réidentifiables par leur trajectoire dans un espace de Hilbert, et soumis au principe de la succession selon une règle à travers une équation d'évolution comme celle de Schrödinger.
L'un des principaux résultats obtenus à l'issue de cette démarche a été de montrer qu'imposer à la théorie quantique la tâche de fournir un calcul des probabilités généralisé pour des phénomènes définis contextuellement suffit à fixer ses grands traits structuraux. Et aussi que d'autres traits plus spécialisés découlent de la mise en jeu de principes de symétrie qui sont autant de conditions de possibilité d'une connaissance objective.
En d'autres termes, ce procédé a permis d'esquisser une variété modernisée de «déduction transcendantale» de la mécanique quantique . Il a ainsi conduit à suggérer que la signification majeure de la révolution quantique est celle d'un parachèvement et d'un élargissement de la «révolution copernicienne» au sens de Kant. La 'révolution quantique' rend impossibles ou improbables les échappatoires au retournement de l'attention du connu vers les présupposés de la connaissance; et elle le généralise en un retournement de l'attention des phénomènes anticipés vers les conditions formelles de leur anticipation.