Si Einstein avait su ! d’Alain Aspect- recension de Francis Foreaux et Robert Bouzerar

Le physicien Alain Aspect a apporté une contribution majeure à l’avancement de la physique quantique, puisqu’il a été nobélisé, en 2022 pour voir conçu, puis réalisé une des expérimentions les plus importantes de l’histoire de la physique moderne et mis un terme à un différend qui opposa pendant longtemps Albert Einstein et Niels Bohr, deux géants de la mécanique quantique. Le conflit ne portait pas sur sa validité ni sur la valeur heuristique du formalisme de cette physique, le « formalisme quantique » (sa formulation mathématique cohérente et démonstrative, doublée de sa fécondité prédictive), sur lesquelles ils étaient tous les deux d’accord, mais sur son interprétation, à savoir le type de représentation qu’il permet de la réalité. Pour Niels Bohr, le formalisme quantique n’est qu’un instrument efficace permettant de faire des prédictions vérifiables, c’est-à-dire observables dans le cadre d’expérimentations répétables et contrôlables, mais il reste muet au sujet de la réalité intrinsèque des faits qu’il prédit. C’est son efficacité prédictive qui fait toute la valeur du formalisme quantique, rien de plus ; il n’y a rien à chercher au-delà. Einstein ne se satisfait pas de cette conception, il se fait l’avocat d’une vision réaliste de la physique. « Dieu ne joue pas aux dés », ce qui signifie qu’on doit être capable de résorber toute incertitude dans la connaissance que nous prenons de la nature, puisque l’incertitude n’est le signe que d’une ignorance destinée à être comblée.

Cette controverse laisse à l’époque indifférents la plupart des physiciens qui n’y voient qu’un débat philosophique dont l’issue n’a aucune influence sur le développement de la physique. Ils adoptent et pratiquent le précepte, « shut up and calculate » (« tais-toi et calcule »). D’autant plus que le mathématicien et physicien John von Neumann (1903-1957) avait théoriquement démontré la complétude de la mécanique quantique, mais un physicien ne saurait se contenter d’une démonstration uniquement théorique. A. Aspect dut faire preuve d’une remarquable obstination et d’une solide force de caractère pour convaincre le monde des physiciens établis de l’intérêt de s’atteler à une question considérée comme oiseuse et sur le point de sombrer dans l’oubli. Il eut la chance de rencontrer l’un d’eux, Christian Imbert, suffisamment ouvert aux questions théoriques pour accepter de le prendre comme thésard. Le livre est le récit circonstancier de ce qu’il faut bien appeler une aventure intellectuelle et une prouesse scientifique, depuis sa source — le paradoxe EPR —, son impulsion — la lecture d’un article du physicien John Bell sur ce paradoxe —, suivie de l’opération de conviction, puis de la mise en forme du projet de recherche, de sa réalisation sous la forme d’une expérimentation cruciale censée pouvoir trancher le débat, avant de se conclure sur l’exposition des résultats et de leurs conséquences. Mais tout en restant au plus près de sa première intention, dont le récit donne au livre un tour palpitant, le propos d’Alain Aspect dépasse largement cet objectif et c’est ce qui fait aussi son intérêt pour le grand public auquel est destiné le livre. Sa lecture, accessible sans connaissances mathématiques spéciales — il réserve cependant quelques apartés techniques aux spécialistes —, nous en apprend beaucoup sur l’histoire de la physique quantique — étape essentielle pour situer son projet dans une chronologie d’événements scientifiques, mais aussi, à ses yeux, pour relativiser la critique qu’il entreprend d’un aspect de la pensée d’Einstein ; sur l’existence d’une communauté scientifique de pairs qui nous éloigne de l’image héroïque du découvreur solitaire ; sur la pratique réelle de la démarche scientifique qui croise l’abstraction théorique et des dispositifs expérimentaux matériels contraignant le chercheur, devenu expérimentateur, à mettre la main à la pâte (une photo montre l’auteur remplissant un seau du sable qui servira de socle pour assurer la stabilité de son dispositif) et à affronter des questions techniques de pointe ; sur le rôle inattendu de l’imagination dans le travail de recherche théorique et rationnelle ; sur le fossé qui s’est creusé entre les représentations du monde ordinaire et le formalisme théorique ; finalement, il nous donne aussi à réfléchir sur la vérité dans le registre des sciences physiques. Il nous offre un utile document sur la démarche scientifique.

Commençons par jeter un regard, même bref, sur l’histoire de la physique moderne au moment où elle bascule dans sa version moderne. Elle naît des efforts déployés par Marx Planck (1858-1947) pour résoudre le « vieux » problème du corps noir ». On sait empiriquement, il suffit de poser la question à un verrier ou à un forgeron, qu’il y a une relation, qui reste à préciser, entre la température d’un métal que l’on chauffe et sa couleur. Pour expliquer ce rapport, c’est-à-dire lui donner la forme d’une loi généralisable, des physiciens ont conçu, grâce à une masse de résultats accumulés tout au long de la seconde moitié du XIXe siècle concernant le rayonnement thermique des corps, un dispositif expérimental proche d’un modèle idéal non réalisable. Sachant que la lumière se décompose en couleurs, définies chacune par une longueur d’onde, ce dispositif absorbe idéalement toutes les radiations de couleurs qui composent la lumière (n’en réfléchissant aucune, il est « noir »). Il est fabriqué de telle sorte qu’on peut étudier le rayonnement coloré (lié à la longueur d’onde) qui en sort par un orifice, indépendamment de la forme et de la matière de ce corps, en fonction seulement de la température qu’on lui communique. Ce dispositif fut conçu pour établir la relation exacte qui existe entre une température donnée (une énergie) et la longueur d’onde d’un rayonnement. Or, les lois connues de l’optique classique, appliquées à ce cas, donnent des résultats paradoxaux : on obtient une relation conforme à ce qui est attendu dans le spectre de l’infrarouge, mais l’énergie tend, dans l’ultraviolet, vers l’infini, ce qui est contredit par l’expérience bien réelle des verriers et forgerons, puisqu’ils auraient été placés dans la situation délicate d’être carbonisés si la relation déduite des lois connues était confirmée par les faits. C’est pour résoudre ce problème, connu sous le nom de « catastrophe ultraviolette », que Planck propose, d’abord une formule empirique valable pour tout le spectre de la lumière (ses couleurs), mais il n’arrive pas à la démontrer théoriquement dans un premier temps. Pour y arriver, il fait l’hypothèse que le corps noir est un composé d’oscillateurs en agitation thermique, dont les fréquences peuvent être identifiées aux différentes longueurs d’onde (la fréquence est l’inverse de la longueur d’onde) du rayonnement. À son corps défendant, pour rendre cohérente son explication, il doit postuler que l’énergie de ces oscillateurs ne peut prendre que des valeurs discrètes à l’opposé des variations continues habituelles exigées par la physique classique. L’énergie libérée ne se diffuse pas de manière continue, mais par paquets, ou « quanta d’énergie » (d’où le nom de baptême de la nouvelle physique, dite quantique), c’est-à-dire par quantités discrètes bien déterminées. Ce quantum d’énergie implique une constante, d’abord traitée comme un paramètre ajustable de son modèle dont il prédit la valeur par comparaison aux données disponibles, appelée depuis « constante de Planck » (désignée par la lettre h). Le quantum d’énergie s’écrit alors : 𝑒=hν , où e est la quantité d’énergie, ν, la fréquence et h la constante. La solution est belle, elle élimine la catastrophe ultraviolette, mais elle laisse Planck perplexe, car elle entre en contradiction, à l’époque, avec la théorie standard de la lumière, pensée comme une onde qui se déploie de manière continue et non par sauts, ou quanta d’énergie, introduisant une perspective discrète, la rapprochant de la conception atomique (mais ce rapprochement sera fait plus tard). Comment ce qui se manifeste sous la forme d’une onde — un rayonnement lumineux (comme le montrent les interférences) — peut-il se comporter à la manière d’un corpuscule ?

Il revint à Einstein (1879-1955) de confirmer, en 1905, cette hypothèse des quanta d’énergie dans l’explication qu’il proposa de l’effet photoélectrique. On savait depuis 1839, mais sans pouvoir l’expliquer, qu’une plaque métallique frappée par un rayon lumineux incident émet, sous une condition — une fréquence seuil du rayon lumineux incident —, un flux d’électrons. Einstein proposa, avec succès, de mettre en relation l’émission d’un électron et la fréquence ou la longueur d’onde du rayonnement, mais en réemployant la constante de Planck qui gagna ainsi en généralité. Il put avancer que le rayonnement lumineux est composé de corpuscules, ou « grains de lumière », appelés plus tard photons, qui, sous la condition d’être suffisamment chargés énergétiquement, peuvent arracher des électrons à la matière. Niels Bohr (1885-1962) donna encore plus d’extension, et donc de certitude, à la constante de Planck quand il proposa un modèle pour rendre compte de la stabilité de l’atome en supposant que les électrons en mouvement autour du noyau atomique ne peuvent occuper que des orbites bien définies, séparées l’une de l’autre par une quantité (un quantum) d’énergie déterminée par la constante de Planck. Un électron peut « sauter » (« saut quantique ») d’une orbite à une autre, en absorbant ou émettant de la lumière (photon). N. Bohr confirma sa découverte en donnant une description exacte du spectre de l’atome d’hydrogène.

Il ne restait plus qu’à en tirer la conséquence, bouleversante pour les contemporains, de ces hypothèses : divers phénomènes, l’effet photoélectrique, le rayonnement thermique, peuvent recevoir deux descriptions, complémentaires, mais antinomiques, ondulatoire et corpusculaire. Ainsi s’imposa aux esprits scientifiques la dualité onde-corpuscule : un phénomène peut être décrit à la fois comme une onde et comme une particule. Cette étonnante double description, défiant la logique identitaire, déjà introduite par A. Einstein, fut théorisée et généralisée en 1924 par Louis de Broglie (1892-1987) dans une théorie associant une onde à toute particule (la trajectoire de la particule est une approximation de l’onde de matière qui lui est associée), mais, tout inspirante qu’elle fût, cette dualité onde-matière parut d’abord insuffisante. Il fallut attendre qu’elle reçût sa forme canonique dans le formalisme quantique abstrait — une théorisation mathématique cohérente, rigoureuse et efficace — de Werner Heisenberg (1901-1976), puis d’Erwin Schrödinger (1887-1961), qui posa les fondements de la physique quantique considérée désormais comme orthodoxe — la fonction d’onde, notée ψ, décrite par une équation, l’«équation de Schrödinger ». Des lois établies jusqu’alors avec peu de justifications purent être unifiées dans un modèle parfaitement cohérent et déductif.

Le formalisme quantique est, aux yeux des physiciens, parfait, puissant et efficace ; il donne une description exacte des phénomènes connus et permet de faire des prédictions qui jusqu’à présent ont toutes été confirmées par des expérimentations construites pour les tester. Il a plusieurs caractéristiques qui le distinguent de la physique classique : son mode d’explication se situe l’échelle microscopique, alors que la physique classique fonctionne à l’échelle du monde commun, macroscopique, dans lequel nous évoluons ; il décrit et vérifie des phénomènes qui sont un défi à l’expérience commune que nous prenons du monde. Il a donc un côté exotique, qui le rend parfois aussi difficile à comprendre que le seraient pour nous les mœurs d’une culture extraterrestre.

C’est ainsi que la fonction d’onde décrivant un phénomène quantique est conçue par Schrödinger comme un « paquet » d’ondes qui ont chacune une probabilité de se manifester, de devenir observable, à l’exclusion des autres, et ce n’est qu’au moment de la mesure que se produit l’actualisation, la probabilité de l’onde mesurée devenant alors égale à 1 pendant que toutes les autres ont une probabilité nulle. On parle d’une superposition d’états quantiques (la « superposition quantique »), qui sont tous possibles, mais dont l’un, et un seulement, sera actualisé au moment de la mesure. La mesure est ainsi contemporaine, ou responsable, d’une « réduction » ou d’un « effondrement » de la fonction d’onde. Il est absolument impossible de prédire quelle sera la mesure de l’onde élue, l’événement observable, avant la mesure. La seule chose que l’on puisse, indépendamment de toute mesure, prédire est la probabilité de l’ensemble des issues et non la valeur exacte d’une issue. On aimerait croire que cette incertitude est l’effet d’une ignorance de notre part, ignorance passagère susceptible d’être corrigée par un perfectionnement de nos instruments de mesure en lien avec nos dispositifs théoriques. Or il n’en est rien. Werner Heisenberg en démontrant (les « relations d’incertitude ») qu’on ne peut connaître simultanément la vitesse et la position d’une particule — ces deux grandeurs conjuguées ou complémentaires (on ne connaît la vitesse que si on peut déterminer au moins deux positions) sont exclusives, mais il en va de même pour d’autres grandeurs — rend impossible la connaissance entière d’une réalité quantique et la prédiction du mouvement d’une particule, pouvant par ailleurs être décrite par une onde. Max Born (1887-1970) apporta la dernière pierre à l’édifice théorique en ajoutant que la fonction d’onde équivaut à une probabilité de présence (il en produit la formule). La mécanique quantique est résolument probabiliste, point qui la distingue totalement de la mécanique classique issue de Newton.

Après les « relations d’incertitude » de W. Heisenberg, il fallut se résigner à admettre l’existence d’une incertitude objective et irréductible qui rend impossible la détermination complète et exacte d’une particule |— la notion de trajectoire, mise à mal, ne conserve plus qu’un sens approximatif —, en contradiction avec les principes de base de la physique classique. Tout se passe comme si un hasard régnait à l’échelle microscopique où se manifestent les effets quantiques. L’impossibilité selon N. Bohr de connaître un objet quantique indépendamment de la mesure qui le rend observable, confirmée par les relations d’incertitude de W. Heisenberg, conduit à refuser à la physique quantique la capacité de donner une description autonome de la « nature intrinsèque » des choses, une conception assumée et revendiquée par l’« interprétation de Copenhague », en référence à N. Bohr qui vécut dans cette ville. Cette représentation du monde rompt avec la vision réaliste et déterministe du monde défendue par la physique classique. Les phénomènes que décrit la physique quantique incluent dans leur description le contexte expérimental qui les manifeste. Cela n’invalide aucunement la mécanique quantique qui fonctionne à merveille et est capable de rendre compte des phénomènes connus et de faire des prédictions confirmées par l’expérimentation : de ce point de vue, elle est autosuffisante, mais elle l’est seulement en tant qu’elle est un instrument mathématique puissant dépourvu d’une portée ontologique. Ce point de vue est admis par l’immense majorité des physiciens, adeptes de la formule : shut up and calculate. Tout se passe comme si la physique quantique pouvait se dispenser d’un fondement ontologique et devait se contenter de n’être qu’un instrument opératoire.

C’est ce point de vue que n’admet pas A. Einstein. Il ne peut se résoudre à accepter ce qu’il perçoit comme une thèse antiréaliste. Il est persuadé que la science physique doit pouvoir nous dire quelque chose de la réalité et conteste que notre connaissance des phénomènes s’arrête à la mesure qu’on en prend, avec son corollaire qu’un hasard est à l’œuvre au cœur des choses. Parmi toutes les phrases attribuées à d’Einstein, la plus célèbre reste celle qu’il prononça au Congrès Solvay de 1927 : « Dieu ne joue pas aux dés », qu’il faut entendre et recevoir avec toute l’ironie dont s’est montré capable son auteur. Il défend mordicus un « réalisme local » : il doit être théoriquement possible de connaître tous les paramètres d’un état quantique, même si dans les faits cela n’est pas encore envisageable, et toute évolution d’un état quantique doit pouvoir être expliquée par un paramètre ou des paramètres qui en font partie (condition de localité), ne fût-ce que parce qu’un de ces paramètres provient de son passé. Pour lui, le formalisme quantique, dont il ne conteste pas l’efficacité, n’est qu’une théorie statistique qui manifeste une ignorance de notre part et qui, partant, devra être complétée par la découverte de variables cachées susceptibles de lui donner l’allure réaliste et la forme déterministe qui lui font défaut. La controverse ne touche donc pas le formalisme quantique en tant que tel, mais l’interprétation qu’il convient d’en donner. Ce qui explique le désintérêt de beaucoup de physiciens pour cette dispute qui ne concerne en rien leurs recherches : ils pensent qu’ils ont mieux à faire, calculer, et choisissent de se taire ou de réserver le débat pour leurs loisirs.

Une question méritait d’être posée : est-il possible de faire un test expérimental pour trancher entre les deux interprétations opposées ? Il existe un phénomène quantique, prédit par le formalisme quantique, qui pourrait être un bon candidat pour réaliser ce test : l’intrication quantique. On désigne par ce terme, le fait observable qu’il arrive que deux particules qui ont une fois interagi, conservent, une fois séparées, un signe de leur interaction, à tel point qu’une mesure faite sur l’une influence instantanément la mesure prise sur l’autre, alors même que le distance qui les sépare rend inconcevable une relation causale entre les deux, à moins de supposer une action instantanée, c’est-à-dire allant plus vite que la lumière. S’il est impossible de prédire avec certitude l’évolution d’une particule prise isolément — on ne peut prédire qu’une probabilité —, il est possible, en revanche, en prenant une mesure sur l’une de prédire avec certitude celle de l’autre : les deux particules sont corrélées. Voilà un phénomène exotique idéal pour tester, non pas la  physique quantique en tant que telle, que personne encore une fois ne conteste, mais ses interprétations. Reste à préciser quel dispositif prendra faisable le test. Entrent en scène A. Einstein et deux de ses collègues physiciens, Boris Podolsky, Nathan Rosen, qui imaginent, dans un article publié en 1935, une expérience de pensée, restée dans l’histoire sous le nom de « paradoxe EPR », destinée à contrer N. Bohr. Voici : imaginons deux particules (A et B) qui, après avoir interagi, sont projetées dans deux directions opposées, à une distance l’une de l’autre telle qu’une action sur A ne puisse raisonnablement avoir un effet instantané sur B, à moins de supposer, ce qui est exclu par la théorie relativiste de la causalité, que l’action se propage plus vite que la lumière (« hypothèse de non-localité »). Si l’on constate cependant que l’action, en l’occurrence la mesure que l’on prend de la particule A, modifie instantanément la mesure que l’on prend sur la particule B, il faut supposer, admettent nos trois physiciens, que cette dernière avait emporté avec elle une information commune (un « élément de réalité ») à elle et à A (hypothèse de la localité). Pour reprendre l’exemple proposé par A. Aspect, si deux jumeaux éloignés dans l’espace, qu’on peut considérer par analogie comme deux réalités intriquées, contractent en même temps la même maladie, que l’on diagnostique d’abord chez l’un (A) puis chez l’autre (B), on peut raisonnablement supposer que la cause de la pathologie se trouve dans le même code génétique que A et B ont en partage. Avec cet exemple, nous restons bien dans le cadre d’un réalisme local, car on postule, premièrement, une réalité indépendante de la mesure, en l’occurrence la cause pathogène, et, deuxièmement, que la cause de l’effet est dans l’environnement (local) de la personne affectée par la maladie — l’héritage génétique.

Le paradoxe EPR adopte un raisonnement par l’absurde : si l’on suppose une modification identique et instantanée dans les particules A et B, pourtant très éloignées dans l’espace sans postuler un réalisme local, il faut soit renoncer à un principe fondamental de la physique quantique, à savoir que la vitesse de la lumière est une vitesse finie infranchissable (qui exclut toute relation causale instantanée), renoncement qui est rédhibitoire, soit accepter une espèce de communication magique, télépathique, entre A et B, ironise Einstein. L’expérience EPR, irréalisable en l’état, a pour finalité de montrer, prioritairement, qu’il existe une réalité indépendante de la mesure qu’on en prend ; deuxièmement, qu’il y a un ordre déterministe (condition de localité) dans les choses et, troisièmement, de mettre sur la sellette la représentation aléatoire des choses, car s’il existe une cause objective de la maladie du premier jumeau examiné (A), une tumeur congénitale par exemple, il est possible de prédire avec certitude que le second (B) a de fortes chances de contracter la maladie ; en revanche, si la découverte de la maladie de A ne dépend que d’une mesure aléatoire, sans cause réelle indépendante, alors il devient impossible de prédire avec certitude l’état pathologique de B. Même si cet exemple ne peut être pris à la lettre, car en le choisissant nous avons abandonné l’échelon microscopique où se manifestent des effets quantiques, il donne cependant une image de ce qui est en jeu. La conclusion d’A. Einstein et de ses deux collègues est claire : si l’on veut éviter les absurdités auxquelles conduit une représentation non localement réaliste de la physique quantique, il faut soit renoncer à son formalisme, un pas qu’ils refusent de faire, soit reconnaître qu’elle est incomplète, qu’existent des variables cachées dans la nature qu’il faudra mettre en évidence pour la rendre compatible avec la conception réaliste et déterministe de la physique qu’ils soutiennent. Bref, selon eux, il faut logiquement accepter une « théorie locale à variables cachées ». N. Bohr, qui avait jusqu’alors résisté et rétorqué au coup par coup aux arguments d’Einstein, marque le pas ; il est troublé par cette expérience de pensée.

Le projet d’Alain Aspect est de concevoir puis de bâtir une expérience bien réelle qui soit au plus proche de l’expérience de pensée EPR afin de pouvoir trancher le débat sur l’interprétation de la physique quantique, mais avec l’espoir d’en tirer des conséquences qui auront un impact sur le développement de la physique, montrant ainsi que la question n’était pas aussi oiseuse que le pensaient la majorité des physiciens contemporains.

Il est clair qu’en rester à la description originale de l’expérience EPR ne permettait pas d’avancer d’un iota dans sa réalisation. Heureusement, et ce fut le déclic, A. Aspect tomba sur un article, publié en 1964, du physicien John Bell (1928-1990) qui donne une piste vers une possible réalisation en reformulant l’expérience. L’essentiel de son article revient à démontrer qu’une théorie locale à variables cachées aurait des prédictions différentes de la théorie orthodoxe de la mécanique quantique. Il introduit ainsi un critère observable — reste à le rendre expérimentalement observable — permettant de faire la différence entre les deux interprétations. L’essentiel de l’article consiste à apporter les modifications qu’il faut faire subir à l’expérience EPR pour rendre le test possible. Concevoir un dispositif consistant à envoyer deux particules qui ont interagi dans des directions opposées, pour vérifier ensuite si la mesure prise sur l’une est la même que celle prise au même instant sur l’autre, c’est-à-dire si elles sont corrélées. J. Bell ajoute une hypothèse : la présence de variables cachées, dont il ne préjuge pas de la nature, aurait pour conséquence de limiter les corrélations, 𝐶𝐶1,𝐶𝐶2…, mesurées entre les deux particules, en les cantonnant entre les bornes d’une fourchette qu’il établit, −2 ≤C1,C2,…≥=+2, appelée « inégalités de Bell ». Par voie de conséquence, si l’on arrive à montrer par des données expérimentales que les corrélations mesurées tombent significativement hors de ces bornes, la physique quantique est validée, car les inégalités de Bell sont violées.

La seconde moitié du livre d’A. Aspect est consacrée à expliquer comment, pendant une période s’étalant de 1974 à 1982, il a conçu, puis construit un dispositif expérimental capable de tester les inégalités de Bell, ce qui ne fut pas une mince affaire. Il ne fut pas le premier à se lancer dans l’aventure, mais eut comme prédécesseurs les physiciens John Clauser et Jerome Freedman (Berkeley) qui élaborèrent, en 1972, un dispositif expérimental les autorisant à conclure que les inégalités de Bell sont violées, confirmant ainsi l’interprétation orthodoxe non locale du formalisme quantique. Mais, la même année, deux autres physiciens, Richard Holt et Francis Pipkin (Harvard) tentèrent à leur tour l’expérience et aboutirent au résultat inverse, c’est l’interprétation réaliste avec des variables cachées qui sortit gagnante. Il fallut donc trancher et, en 1975, J. Clauser renouvela son test, mais en l’améliorant et, cette fois, les résultats tombèrent en faveur du formalisme quantique. L’aventure devint collective, voire prit comme souvent dans l’histoire des sciences l’allure d’une compétition. Quand A. Aspect se lance dans la course, il comprend que les résultats ne pourront être conclusifs tant que ne seront pas levés plusieurs biais qui peuvent laisser planer un doute sur les résultats. Pour mener à terme cette tâche, il lui faut conjoindre deux compétences, un savoir le plus exact possible de l’état présent de la physique et une habileté technique, proche de ce que les anciens Grecs désignaient par le mot de « métis », une intelligence rusée, capable d’inventer les meilleurs expédients pour trouver la bonne solution adaptée à une situation inédite ou pour en sortir. Là encore, la recherche est collégiale, il nous explique qu’il n’aurait pas pu réussir son exploit sans l’aide des compétences d’ingénieurs et de techniciens de l’Institut d’Optique d’Orsay qui l’ont accompagné, sans les conseils avisés et amicaux de quelques autorités scientifiques, dont J. Belle, sans les discussions avec des collègues de l’Université d’Orsay en France ou lors de colloques à l’étranger.

Il faut prendre la mesure des difficultés, autant théoriques que pratiques, à résoudre. On ne peut donner qu’une vision simplifiée du processus expérimental en faisant l’impasse sur les conditions techniques, les innovations et même les ruses qu’il fallut trouver pour le mettre en place. Le choix des particules devant servir au test importait au plus haut point : dès 1981, lors de sa première expérimentation, A. Aspect opta, à l’instar de J. Clauser, pour des photons visibles, car des photons, n’ayant pas de masse, présentent l’avantage d’être insensibles aux perturbations extérieures et, étant visibles — c’est-à-dire situés dans le spectre des fréquences perceptibles pour l’œil humain —, ils rendent possible une observable dichotomique (seulement deux résultats possibles, notés +1 et -1) par polarisation. Pour se représenter la chose : un rayon lumineux qui traverse un cristal, fonctionnant comme un polariseur, se scinde en deux rayons, et seulement deux rayons, qui se diffusent dans deux voies différentes, l’une perpendiculaire, l’autre parallèle à la direction. L’expérience ne portant pas sur une, mais sur deux particules qui doivent être intriquées, il faut être capable de produire les deux particules. La solution trouvée : l’excitation d’un atome de calcium. Grâce à un rayon laser — une innovation d’A. Aspect. Il utilisera ensuite deux rayons laser qu’il fallut synchroniser —, on augmente l’énergie de l’atome jusqu’à un certain niveau, ce qui génère un effet quantique, les électrons de l’atome sautent (un « saut quantique ») sur une orbite supérieure en absorbant deux photons, mais, comme l’atome de calcium a la particularité de se désexciter spontanément, les deux photons sont expulsés en cascade. Cette opération faite, nous disposons de deux particules, deux photons qui ont interagi et sont intriqués. Il faut maintenant une source émettrice capable de les expulser à une vitesse suffisamment grande, dans deux voies opposées et de telle sorte que chaque photon traverse, dans la voie qu’il emprunte, un polariseur orienté, placé entre la source émettrice et un compteur. En traversant le polariseur, chaque photon polarisé se divise en deux rayonnements dichotomiques, l’un parallèle, l’autre perpendiculaire (+1, -1) à la direction initiale. Enfin, les photons polarisés aboutissent sur un compteur qui les détecte et les comptabilise en enregistrant la polarisation + 1 ou -1. Comme l’opération a lieu pour les deux photons intriqués, on peut mesurer le taux de corrélations : ce qui peut donner +1, +1 ; -1, -1 (les photons sont corrélés) et +1, -1 ; -1, +1. Si le taux de corrélation est supérieur ou inférieur à la fourchette prédite dans l’hypothèse de la présence de variables cachées, alors les inégalités de Bell sont violées et le formalisme quantique (sans réalisme local, l’enjeu de l’expérimentation) est validé. C’est ce résultat qu’obtient la première expérimentation faite en 1982 par A. Aspect et avec une marge d’erreur suffisante pour qu’il soit concluant. Pour se faire une idée de la prouesse de l’expérimentation, il faut avoir présent à l’esprit l’ordre des grandeurs mesurées : des nanomètres, soit des milliardièmes de mètre pour les longueurs, des nanosecondes, soit des milliardièmes de seconde, pour les durées.

Pouvait-on se satisfaire de ce premier résultat ? Non, car l’expérimentation présente des failles qui peuvent donner des raisons, faibles, mais suffisantes pour laisser planer un doute favorable aux partisans du réalisme local et continuer de soutenir la possibilité que des variables cachées existent. Alain Aspect, au cours de deux autres expérimentations, passa en revue ces failles : le système de détection doit comptabiliser tous les photons, alors que dans son premier test, seule une partie, néanmoins significative, d’entre eux est enregistrée ; le polarisateur doit être à double sortie pour autoriser l’expulsion des photons + 1 et -1, et non seulement celle d’une de ces valeurs (par soustraction, on estimait les autres) selon le premier test ; l’orientation d’un polariseur peut interagir suffisamment avec l’autre et influencer les résultats (des « polariseurs complotistes »). Au cours des deux nouvelles expérimentations qu’il mettra sur pied, A. Aspect corrigea son dispositif pour écarter les failles qui servaient d’échappatoires aux tenants du réalisme local avec des variables cachées. Retenons la plus spectaculaire de ces améliorations, la plus décisive aussi d’un point de vue spéculatif. Rien n’autorise à rejeter l’hypothèse, aussi faible soit-elle, qu’il existerait des biais influant sur les résultats : l’existence, d’une part, d’une interaction, d’une « conspiration », entre les deux polariseurs du fait de leur orientation et entre, d’autre part, les polariseurs et la source émettrice de photons. Bell avait postulé, mais sans justification, leur indépendance ; il fallait affiner le dispositif pour éliminer ces deux failles. A. Aspect proposa alors de changer rapidement l’orientation de chaque polariseur pendant que le photon est « en vol », c’est-à-dire avant qu’il arrive sur l’enregistreur, ce qui exclut derechef la possibilité d’une interaction entre le polariseur est l’appareil enregistreur, à moins de supposer qu’elle se fasse plus vitre que la lumière. Cette innovation exigea un matériel sophistiqué et hautement performant, compte tenu de la vitesse d’un photon ; on la trouva pour les besoins de la cause. Surtout, avec cette sophistication, on fit entrer en scène dans la pièce qui se jouait dans le laboratoire un nouvel acteur, utilisé à contre-emploi, A. Einstein lui-même, et, ce faisant, on agrégea au test un argument spéculatif suffisamment dissuasif pour les tenants de la conception réaliste à variable locale : l’impossibilité qu’une interaction se propage plus vite que la lumière. Il y eut là un tour de force, car il ne s’est agi de rien de moins que d’amener A. Einstein à témoigner contre lui-même, ou plutôt à le faire parler in absentia contre lui-même, en délégitimant toute raison théorique de s’opposer à la vision non locale de la mécanique quantique. Si Einstein avait connu cette expérience (s’il avait su ! pour reprendre le titre de l’ouvrage), il n’aurait pu qu’y donner son assentiment, à moins de se mettre en désaccord avec lui-même, en contredisant la base de la théorie relativiste qu’il a fondée. Alain Aspect mit habilement Einstein dans son camp et, par la même occasion, se racheta une bonne conscience, car il l’avait mauvaise d’être en situation de contredire, même sur un point (qui n’est pas négligeable) celui qu’il considère toujours comme un maître, Einstein. S’il a pensé contre Einstein, c’est aussi avec Einstein qu’il a pensé ; les mânes d’Einstein n’ayant pas été dérangés, il put dormir tranquille. Que l’on comprenne bien, il est vrai que le paradoxe EPR aboutissait à une conclusion fausse, mais en proposant un raisonnement par l’absurde, il contenait la possibilité d’établir le vrai ; il était le poison et l’antidote. Les deux tests que réalise A. Aspect sont concluants, et sans contestation possible : les inégalités de Bell sont violées, le réalisme local est invalidé. D’autres tests suivront, faits par d’autres physiciens, avec un niveau de sophistication élimant tous les biais envisageables — la distance séparant les récepteurs des photons qui sera portée en 1998 à 10 kilomètres, une distance qui rend inconcevable une interaction à distance entre les particules intriquées. D’autres suivront qui confirmeront les résultats obtenus.

Que retenir de ces tests ? Bien sûr, ils sont concluants, ils invalident le réalisme local et confirment que le formalisme de la mécanique quantique n’a pas besoin d’être complété — Exit les « variables supplémentaires » ou « variables cachées ». Ils donnent raison à N. Bohr contre A. Einstein. Mais cette conclusion, pourtant logique, ne satisfait pas tout à fait notre auteur qui, s’il admet sans réserve la non-localité quantique, se montre plus réservé sur le rejet du réalisme. Quand il propose ce qu’on peut qualifier d’une demi-mesure, la non-localité, mais sans le rejet du réalisme, on le sent moins sûr de lui. Il en appelle à l’opinion générale des physiciens qui, selon lui, rechignent comme lui, dans leur grande majorité à renoncer au réalisme. On peut comprendre son hésitation, car si l’interprétation orthodoxe de la mécanique quantique, celle de Copenhague, est la bonne, on prend le risque de se retrouver dans la situation qui fut celle décrite par Descartes, dans la première de ses méditations, après qu’il eut donné une tournure hyperbolique à son doute méthodique : quand je pense logiquement, je ne peux douter des vérités mathématiques qui s’imposent à mon esprit avec une évidence incontestable, par exemple que la somme des angles d’un triangle soit égale à deux droits. Mais qu’est-ce qui me prouve que Dieu — en l’occurrence un malin génie — en créant le monde, et toutes ses créatures, n’a pas fait en sorte que les conclusions de l’esprit humain les mieux logiquement déduites ne correspondent pas à ce qui existe dans le monde extérieur ? Pour donner une forme moderne à l’argument, il se peut qu’une béance sépare la pensée la mieux ordonnée et l’être des choses extérieures, la réalité en soi. Cela est concevable et il faut admettre que bien que je sois certain que 2+2=4 et que j’use utilement de cette vérité dans ma pratique quotidienne pour faire des prédictions, il n’en va peut-être pas de même dans l’ordre des choses. Bien sûr, tout physicien répondra qu’il dispose d’un critère suffisant pour prouver que la pensée « calculatrice et géométrique » accroche sur ce qui existe indépendamment d’elle : la réussite de ses prédictions, la validation empirique des tests qu’il entreprend, ce qui lui suffit pour soutenir que la physique quantique, dépourvue d’un fondement ontologique, dont elle n’a cure, n’est pas simplement un rêve cohérent (une « fabula mundi » pour reprendre le mot de Descartes) ; sa fécondité, faite de prédictions vérifiables, atteste qu’elle a une emprise sur le réel, qu’elle est réaliste. Mais un esprit philosophiquement coriace, retord, dira notre physicien, lui rétorquera que cet argument n’est pas aussi infaillible qu’il en a l’air, d’abord parce qu’une théorie fausse peut très bien faire de bonnes prédictions, comme on l’a vu avec le système de Ptolémée qui permettait de prédire avec une exactitude suffisante, les éclipses de soleil et de lune, et même le mouvement rétrograde de Mars (certes au prix d’une complication, en introduisant des épicycles), et, ensuite, que dans la mesure où un test expérimental ne peut être interprété que dans le cadre de la théorie qu’il a pour charge de valider, on peut s’attendre à une confirmation. Ce dernier argument est repris et développé par Karl Popper qui défend l’idée que la vérité d’une théorie ne se prouve pas par sa vérification, mais dans sa non-réfutation par les tests expérimentaux, ce qui ménage une distance entre elle et la réalité en soi des choses (sa non-invalidation ne dit pas qu’elle est matériellement vraie, mais seulement qu’elle n’est pas encore réfutée et qu’elle reste réfutable). Ainsi, une théorie est considérée comme vraie tant qu’elle n’est pas réfutée et la faillibilité (falsifiabilité dans le vocabulaire de Popper) est élevée au rang d’un critère de scientificité ; une théorie non falsifiable n’est pas scientifique, mais est une pseudoscience, une idéologie ou une croyance. Une conception non réaliste de la science reste, de ce point de vue, concevable. Aspect ne l’évoque jamais, ce n’est pas son propos, mais comme on le sent hésitant avec la demi-mesure qu’il adopte — un réalisme sans la condition de localisation —, il se réfère à la croyance spontanée au réalisme des physiciens qui rechignent, comme lui, à y renoncer. Mais comme une opinion, même majoritaire et générale, reste une opinion et peut toujours être contestée, il cherche un raisonnement susceptible de contraindre rationnellement, sans les forcer, ses contemporains à adhérer à une conception réaliste de la physique allégée de sa condition de localité.

La question tourne autour de l’action instantanée à distance, caractéristique de l’intrication, qui entre à première vue en contradiction avec le principe de la causalité relativiste (qui exclut que les faits séparés par un intervalle de type espace puissent interagir entre eux, car cela reviendrait à admettre qu’un effet pourrait être produit à une vitesse excédant celle, limite, de la lumière). L’argumentation d’Aspect consiste à faire raisonnablement admettre que les résultats des expériences qu’il a menées ne conduisent pas à rejeter la causalité relativiste. Il recourt à une expérience de pensée pour démontrer que la non-localité quantique ne viole pas « le principe de causalité relativiste opérationnelle, c’est-à-dire l’impossibilité de transmettre un signal ou une information utilisable plus vite que la lumière » (p. 318) et par « information utilisable », il entend un signal capable de provoquer une action, comme allumer une lampe à distance, observable dans le monde macroscopique qui est pour nous le monde réel, celui dans lequel nous vivons, agissons et interagissons. Bref, la non-localité, présente dans les phénomènes d’intrication quantique, respecte la causalité relativiste qui est à l’œuvre dans notre monde, qui est le monde réel. Pour le démontrer, il reprend le modèle expérimental décrivant une intrication entre des photons et imagine deux agents, A et B, recevant les particules intriquées propulsées par une source émettrice située entre eux deux. Les chances pour qu’une particule polarisée +1 arrive sur le récepteur de l’un et de l’autre sont les mêmes, soit 50 %. Supposons que A. change brusquement l’orientation de son polariseur, avant que le photon arrive sur son récepteur, afin de transmettre une nouvelle information à B. L’intrication des deux photons doit impliquer que celui de B change instantanément. Que se passe-t-il en fait ? Rien de nouveau finalement, car la chance pour B de voir (mesurer) +1 ou —1 reste de 50 %, et pour savoir si sa mesure correspond à ce qu’a voulu lui communiquer A, il faut qu’il compare sa mesure avec la perturbation de la mesure introduite par l’action de A, et il ne pourra le faire que par la voie normale de communication qui ne peut franchir la vitesse de la lumière. L’intrication quantique, un effet déduit du formalisme quantique, ne contredit donc pas le principe de causalité relativiste qui reste la pièce maîtresse du monde macroscopique et de l’explication physique objective des phénomènes qui s’y déroulent. Finalement, tout repose sur le caractère aléatoire des phénomènes quantiques et sur l’impossibilité de connaître intégralement un état quantique. B n’en connaîtra qu’un aspect, la mesure qu’il en prend, du photon réceptionné par lui, mais il ne pourra pas en déduire l’état quantique en A avec toutes ses variables. Cet argument permet à Aspect de transformer sa croyance spontanée au réalisme, qu’il dit partager avec beaucoup d’autres physiciens, en une pensée rationnelle, nécessairement partageable. Le formalisme quantique n’est pas incompatible avec un réalisme : un ordre naturel existe bel et bien, sous la forme relativiste (et déterministe) que lui a donnée la géométrie einsteinienne, mais au niveau macroscopique. On peut objecter que l’argumentation repose sur la dualité, prise comme allant de soi, entre le monde microscopique des particules où règnent les effets quantiques aléatoires et le monde macroscopique qui est déterministe, car soumis au principe de relativité relativiste. Quand et comment se fait le passage de l’un à l’autre ? Notons cependant que des processus comme la superfluidité, la supraconductivité ou les condensats montrent un comportement quantique à l’échelle macrocosmique.

Le livre d’Alain Aspect, si l’on ne retient que son objectif explicite, peut s’achever sur le constat d’une réussite : l’exceptionnelle conception et réalisation d’une expérience matérielle, au plus proche d’une expérience de pensée — le « paradoxe EPR » — pour trancher un différend théorique, voire spéculatif, qui opposa des physiciens, d’un côté, N. Bohr, W. Heisenberg et, de l’autre, A. Einstein, E. Schrödinger. Il le tranche en faveur des premiers et la conclusion est sans appel : la complétude du formalisme quantique ne fait désormais plus question. Alain Aspect se ménage toutefois une réserve : s’il admet la non-localité quantique, il conserve le réalisme, position qui reste sujette à débats. Cependant, il lui fallait aller plus loin. Trancher un conflit qui n’a qu’un caractère spéculatif est certes honorifique, il fut justement récompensé par l’attribution en 2022, du prix Nobel, mais reste insuffisant pour convaincre de l’intérêt des recherches entreprises, qui ont quand même un coût. Le livre se termine sur des considérations pratiques : la validité de l’intrication quantique a des conséquences sur la conception des ordinateurs quantiques, censés dépasser en vitesse de calculs les anciens modèles (pas encore si anciens que ça, car les ordinateurs quantiques en sont encore à l’étape des essais) et la téléportation quantique (rien de magique dans le mot, qui se limite à une signification toute technique) dont on attend un bouleversement des systèmes de communications. Une preuve, s’il en fallait une, que la recherche, malgré ses côtés individuels, audacieux et aventureux, comme l’atteste Alain Aspect, reste inscrite structurellement dans les besoins qu’une société crée et qui, à leur tour, la relancent.

Si Einstein avait su ! d’Alain Aspect, prix Nobel de physique, Odile Jacob, 2025, 363 pages.