Les représentations de notre réalité par les sciences physiques
Physique quantique: les concepts fondamentaux
Onde et particule, le double visage de la matière
Abandon de la notion de trajectoire - États entremêlés - Univers parallèles
Une interrogation sur la réalité objective
Alain Boudet
Dr en Sciences Physiques
Résumé: La physique quantique est née dans les années 1920 après qu'Einstein ait introduit la notion de quantum dans les rayons lumineux pour expliquer l'effet photoélectrique, et que De Broglie ait généralisé le double visage onde/particule aux particules de matière. Sa géniale hypothèse a été confirmée expérimentalement par les phénomènes d'interférences des électrons. Les lois mathématiques qui permettent de décrire la particule ont été développées par Schrödinger et Heisenberg. Leurs conséquences sont étonnantes. Il est intrinsèquement impossible de localiser la particule sur une trajectoire, on ne peut calculer que des probabilités de sa présence. L'état d'une particule inclut l'ensemble de toutes ses possibilités superposées. De même, des particules jumelles restent indissociables dans un état intriqué, même à de grandes distances. Mais tout processus de mesure modifie ces états.
La fin du déterminisme, la participation de l'observateur, le lien immuable entre particules corrélées, sont des thèmes qui rejoignent les enseignements spirituels traditionnels sur l'unité du monde, et cela a le mérite d'amorcer une réconciliation entre la science et la spiritualité. Toutefois, l'interprétation de ces résultats donne lieu à des controverses. La majorité des physiciens suivent l'opinion de Bohr selon laquelle seule existe la réalité empirique des phénomènes, bien qu'elle nous semble déroutante. Envisager l'existence d'une réalité sous-jacente ne serait que spéculation stérile. D'autres ont cherché à trouver un sens aux phénomènes et ont proposé qu'il existe une réalité voilée, ou bien que les informations pourraient voyager dans le temps, ou encore qu'il existe des mondes parallèles qui correspondraient aux différentes possibilités de mesure. Le Pr Shnoll a mis en évidence que des processus qui sont considérés comme aléatoires sont en réalité contrôlés par un facteur cosmologique. Mon avis est que ces suggestions reviennent à proposer l'existence d'une réalité supérieure indifférenciée. Mais alors que les physiciens ne l'envisagent que sur un plan matériel, les enseignements spirituels nous décrivent une réalité supérieure qui comprend des plans subtils étagés qui est en rapport avec notre propre évolution de vie et que certains ont pu explorer en état de conscience élargie.
Depuis quelques années, les concepts de la physique quantique suscitent un engouement certain. Elle exerce même parfois une véritable fascination, au point que, sans même en connaitre le sens véritable, on adjoint le mot quantique à toutes sortes de pratiques et d'annonces publicitaires. Et en effet, certaines découvertes de la science quantique sont à l'origine d'une nouvelle façon d'appréhender le fonctionnement de la vie et débouchent sur de nouvelles technologies de l'information.
Par certains aspects, les propositions de cette physique rejoignent les enseignements spirituels des philosophies modernes et ancestrales, comme celles de l'hindouisme, du bouddhisme, des amérindiens, des mayas, de la kabbale, du christianisme, de la théosophie, ... L'analogie entre vision spirituelle et physique quantique reste néanmoins balbutiante. Il n'est pas nécessaire de connaitre la physique quantique pour devenir sage et aimant. Les enseignements spirituels véritables sont beaucoup plus profonds que la science. Ils décrivent des réalités bien plus élevées et plus complexes. Et surtout, ils donnent un sens à la vie en nous apprenant à élever notre conscience et à retrouver notre identité cosmique (voir article Le sens de la Vie).
Cependant, les occidentaux sont éduqués dans un bain de savoir et d'idées alimenté par deux apports contradictoires, la science d'un côté, la religion ou la spiritualité de l'autre. Les deux ne s'accordent généralement pas. L'une décrit une réalité matérielle construite sur le hasard, refuse d'y voir aucun sens, et nie la réalité d'un au-delà. L'autre décrit un au-delà et affirme que la création a un sens, mais, sauf exceptions, elle ne présente pas de propositions véritablement solides sur le fonctionnement de cet au-delà et sur le processus de la création. La religion reste en-dehors des découvertes scientifiques qu'elle ne sait pas intégrer, attitude qui heureusement remplace depuis peu celle du passé où elle condamnait comme hérétiques les nouvelles connaissances. Science et religion ont chacune leurs domaines qui coexistent en nous. Nous sommes habités conjointement par ces deux personnalités antagonistes. À chacun de se débrouiller avec sa dissociation intérieure. Aussi, en montrant comment la physique peut, sinon expliquer, du moins aller dans le même sens que la spiritualité, on commence enfin à entamer une réparation de ce conflit intérieur et on permet de soulager toutes les tensions qui en résultent.
C'est pour contribuer à cette pacification et pour satisfaire la curiosité de ceux que la physique quantique interpelle, que j'offre cette étude qui expose son élaboration, ses fondements, ses visions du monde, tels qu'ils sont reconnus et enseignés à l'université.
Comme je l'ai exposé dans l'article précédent (Matière et rayonnements), les théories scientifiques ne sont pas des vérités absolues. Elles reflètent les représentations du monde de leurs contemporains, les mentalités et les préjugés d'une époque. Il est donc important de comprendre dans quel contexte et par quel cheminement elles sont nées. C'est ce que je me suis efforcé de faire dans cet article.
J'ai étudié la physique quantique lorsque j'étais étudiant à la faculté des sciences. Malheureusement, dans le cadre de l'université, on n'éveille pas les étudiants à comprendre l'élaboration, le sens et la valeur d'une théorie scientifique. Ce qui compte pour eux, et ce qu'on leur demande, c'est de pouvoir résoudre les exercices posés aux examens, point, et c'était aussi ma préoccupation. C'est donc après avoir revu et actualisé les connaissances qui s'y rapportent, et pris le temps d'une nouvelle réflexion à partir des apports les plus récents, que je suis en mesure de vous présenter aujourd'hui la physique quantique.
Vers 1900, il semble que les théories de la physique classique décrivent et expliquent presque tous les phénomènes connus de la nature "inanimée" dans une synthèse harmonieuse et définitive. La théorie atomique de Boltzmann et la théorie de l'électron de Lorentz offrent une vue élégante de la constitution de la matière. Les lois de la mécanique et de la gravitation universelle de Newton décrivent les mouvements des particules aussi bien que ceux des planètes. Les phénomènes électriques et magnétiques sont parfaitement décrits par la théorie électromagnétique de Maxwell (voir article précédent Matière et rayonnements).
Pourtant quelques phénomènes, comme l'effet photoélectrique décrit un peu plus loin, résistent à être intégrés dans le cadre de ces théories. Ils mettent en évidence des comportements inhabituels de la matière au niveau microscopique. La recherche de nouvelles explications à ces phénomènes est à l'origine de la remise en cause des bases fondamentales de la physique classique.
On a d'abord adjoint à la physique classique des concepts qui lui sont étrangers (le quantum, la dualité onde-corpuscule) sans qu'on puisse les relier à la théorie existante. Puis, vers 1930, ces nouveaux principes ont été reformulés en un ensemble cohérent, la physique quantique. Ils ont ébranlé en profondeur la vision que nous avons sur ce que nous pensons être la réalité du monde.
Le mot quantique qui caractérise cette physique vient du latin quantum qui signifie une petite quantité, comme on dirait une poignée ou une cuillerée. Alors que le monde décrit par la physique classique est continu, celui de la physique quantique est quantifié. Comment cette notion de quantification a-t-elle été introduite dans les concepts de la science physique?
Max Planck
Merci à Wikipédia
La notion de quantum (pluriel quanta) est née en 1900, à la suite des travaux du physicien allemand Max Planck (1858 - 1947). Cette année-là, le 14 décembre, Max Planck présentait ses travaux sur le rayonnement du corps noir à la société allemande de physique à Berlin.
Pour nous aujourd'hui, l'expression corps noir ne nous évoque rien et nous pouvons nous demander ce qu'il a d'intéressant. Mais si nous nous reportons dans l'ambiance scientifique de cette époque, nous constatons que les physiciens étaient très soucieux de comprendre comment les rayonnements divers (lumière, chaleur, électrons) interagissaient avec la matière gazeuse, liquide ou solide. L'analyse des interactions donnaient des indications précieuses sur la structure interne de la matière et sur la nature des rayonnements.
Dans les années 1880, les physiciens s'intéressent de très près à la manière dont les substances émettent de la lumière quand on les chauffe et en absorbent quand on les éclaire. Vous pouvez avoir une idée de ce phénomène en pensant à une ampoule électrique à filament. Lorsqu'on allume l'ampoule, le filament chauffe et sous l'effet de cette chaleur il émet de la lumière, dont le spectre se répartit dans toutes les couleurs et cela produit une lumière blanche à dominante jaune. Un autre exemple est celui d'une barre de métal qu'on chauffe dans le feu et qui devient rouge.
La notion de corps noir est apparue en thermodynamique qui est la science de la chaleur. Le corps noir est un objet fictif idéal qui absorbe toutes les radiations. Il y a équilibre entre les rayonnements émis et absorbés. Les objets réels n'en sont que des approximations.
La loi classique de Rayleigh-Jeans, qui fonctionne bien aux basses fréquences, prédit que la densité d'énergie d'un rayonnement est proportionnelle à la puissance 2 de la fréquence. Ce résultat est absurde pour les grandes fréquences (rayons ultraviolets) car il implique que l’énergie totale rayonnée par un corps noir est infinie (courbe en noir - Pour plus de détails voir Du corps noir aux trous noirs, site Futura-Sciences).
Merci à Wikipédia
En cherchant à ajuster la courbe aux résultats expérimentaux (courbe bleue), Max Planck découvre que l'ajustement est parfaitement correct si on admet que les échanges d'énergie entre la matière et le rayonnement se font par paquets d'énergie. La quantité d’énergie transportée par un quantum d’énergie est proportionnelle à la fréquence du rayonnement associé.
Le rapport de proportionnalité h est une constante universelle (la constante de Planck) qui a une valeur numérique bien déterminée, vraiment très petite. C'est le quantum élémentaire d'action. En physique, une action est une quantité physique correspondant à une énergie multipliée par un temps.
Les physiciens ont constaté que la lumière émise est composée d'un éventail continu de couleurs dont la distribution présente un maximum, qui est la couleur dominante (voir encart). Ce maximum se déplace vers les fréquences plus élevées lorsqu'on augmente la température. C'est pourquoi quand on chauffe une barre de métal, elle devient rouge, puis orange, puis jaune. Vers 2000°C, elle vire au blanc, puis vers 3000°C, on ne voit plus de lumière car elle émet des rayons ultraviolets.
Selon ces physiciens, les émissions de lumière sont dues à l'oscillation des électrons de la matière. Plus on chauffe et plus vite les électrons oscillent. Cherchant à mettre en calcul les résultats expérimentaux à partir des théories classiques sur le rayonnement, ils constatent que ces théories prévoient des résultats absurdes pour les fréquences ultraviolettes.
Afin d'ajuster la théorie aux résultats des mesures, Planck essaie de trouver des arrangements mathématiques en modifiant la densité d'énergie du rayonnement, en fonction de sa longueur d'onde. Après quelques semaines qui furent certes remplies par le travail le plus acharné de ma vie, un éclair se fit dans l'obscurité où je me débattais et des perspectives insoupçonnées s'ouvrirent à moi. (Max Planck, Initiations à la physique, Flammarion, 1941 - cité par B. Nicolescu, Nous, la particule et le monde).
L'éclair dans l'obscurité, c'est l'idée que les échanges d'énergie se font par petites quantités finies, des grains d'énergie. Autrement dit l'énergie est délivrée non comme on verse de l'eau d'un pichet, mais comme lorsqu'on déverse des grains de blé.
L'introduction de la nouvelle notion de quantum était une révolution car elle semblait antinaturelle. Planck lui-même ne cherchait pas à donner aux quanta une signification physique. C'était un artifice mathématique. Ce quantum représentait [...] quelque chose d'absolument nouveau, d'insoupçonné jusqu’alors et qui semblait destiné à révolutionner une pensée physique basée sur la notion de continuité elle-même, inhérente à toutes les relations causales, depuis la découverte du calcul infinitésimal par Leibniz et Newton. (Max Planck, Initiations à la physique, Flammarion, 1941 - cité par B. Nicolescu)
En 1905, quelques années après l'introduction par Planck de l'idée de quantum, Albert Einstein (physicien théoricien d'origine allemande, 1879 - 1955) entre en scène avec un article dans un journal scientifique où il propose un point de vue heuristique sur la nature de la lumière.
Albert Einstein
Crédit: Yousuf Karsh
Merci à La boite verte
Alors que pour Planck, le quantum n'est qu'un artifice de calcul, Einstein reprend l'idée pour en faire un élément constitutif de la lumière elle-même, par analogie avec la structure atomique de la matière. Il existe une profonde différence formelle entre les représentations théoriques que se sont forgées les physiciens à propos des gaz et des autres corps pondérables, et la théorie de Maxwell des processus électromagnétiques dans ce qu'il est convenu d'appeler l’espace vide... Selon la théorie de Maxwell, l'énergie doit être conçue pour tous les phénomènes purement électromagnétiques, et donc également pour la lumière, comme une fonction continue de l'espace, alors que l'énergie d'un corps pondérable doit, selon la conception actuelle des physiciens, être décrite comme une somme portant sur les atomes et les électrons. (A. Einstein, Annales de physique 1905, cité par M.E. Berthon, Le défi quantique)
Einstein propose que les grains d'énergie ne sont pas seulement la façon dont la matière s'y prend pour émettre des rayonnements. Les quanta sont une caractéristique intrinsèque du rayonnement lumineux, qui existe toujours sous cette forme.
L’invention du concept de quantum de lumière a constitué le premier pas vers une révolution des fondements de la physique classique. Rétrospectivement on peut dire que c'est peut-être l'acte de naissance de la physique quantique, même si elle est apparue progressivement, et que personne n'avait encore ce concept à l'esprit. Ce n'est que 20 ans plus tard, après les travaux de Schrödinger et d'Heisenberg, que les bases de la physique quantique ont été posées sous forme de principes et de lois mathématiques.
Les quanta de lumière ont été baptisés photons en 1926 par le chimiste américain Gilbert Lewis. Plus tard, Einstein, malgré son apport décisif, n'a pas suivi les conceptions des fondateurs de la mécanique quantique, dont il a combattu avec obstination certains aspects, comme nous le verrons plus loin. Pourtant ses contestations argumentées ont largement contribué à pousser les physiciens dans leurs retranchements pour approfondir leurs recherches et leurs interprétations.
Einstein n'a pas avancé l'hypothèse de l'existence des quanta seulement comme une théorie. Il a démontré qu'elle permet d'expliquer certains phénomènes dus à la lumière. C'est le cas de l'effet photoélectrique. D'autres découvertes expérimentales comme la diffusion Compton sont venues confirmer sa vision.
Vous connaissez probablement les panneaux photovoltaïques posés sur nos toits, qui produisent de l'électricité lorsqu'ils sont exposés à la lumière. Comment est-ce possible? La lumière exerce une pression sur les atomes de silicium du panneau, qui en extrait les électrons. Ces électrons sont mis en circulation, et, comme vous le savez, le courant électrique est une circulation d'électrons.
Ce phénomène d'extraction est nommé effet photoélectrique ou effet photovoltaïque par les physiciens. Il a été mis en évidence en 1839 par Antoine Becquerel (physicien français, 1788 - 1878). En éclairant une électrode immergée dans un liquide conducteur, il détecte un courant électrique.
Par la suite de nombreux scientifiques se sont penchés sur ce phénomène, dont Heinrich Hertz (physicien allemand , 1857-1894) en 1887. Il constate qu'une plaque de zinc chargée négativement se décharge si on l'éclaire d'une lumière riche en rayons ultraviolets (UV). Cela signifie que les UV expulsent des électrons négatifs du zinc.
Pour comprendre la nature du phénomène, il faut mesurer les caractéristiques des électrons émis et déterminer comment elles varient selon l'intensité et la fréquence de la lumière incidente. C'est ce qu'a fait Philipp von Lenard (physicien hongrois, 1862 - 1947). Entre 1899 et 1902, il observe les électrons soumis à des champs électrique et magnétique produits dans un tube au vide poussé du type Crookes (voir article précédent, Matière et rayonnements). Les électrons sont produits en irradiant des métaux avec de la lumière ultraviolette dans le vide.
Lorsqu'on envoie un rayonnement électromagnétique sur une substance gazeuse, liquide ou solide, il est dévié et dispersé dans sa course - autrement dit diffusé - comme lorsque vous projetez un jet d'eau sur un grillage. Des rayons sont redirigés dans diverses directions et leur énergie est modifiée.
En mesurant l'intensité et l'énergie des rayons diffusés dans chacune des directions (autrement dit le spectre du rayonnement de sortie), on peut en déduire aussi bien des caractéristiques sur les interactions survenues pendant la traversée des rayons dans la matière que des indications sur la matière traversée. Cette opération est nommée spectroscopie.
Pour cela, on confronte les données expérimentales aux formules mathématiques qui décrivent les interactions entre les rayonnements et la matière. Les phénomènes sont différents selon la fréquence du rayonnement envoyé. On a donc des spectroscopies infrarouge, lumineuse, ultraviolette, aux rayons X.
Lorsque le rayonnement est dévié à la façon d'une balle qui rebondit sur une particule libre, le photon incident transfère une petite partie de son énergie à la particule avec laquelle il entre en collision, sans la modifier, comme dans l'effet Compton (diffusion élastique).
Lorsque la particule n'est pas libre, comme dans le cas d'un électron inséré dans une orbitale atomique profonde, une partie de l'énergie du photon sert à faire sauter l'électron sur une orbitale d'énergie plus élevée ou même à l'extraire de l'atome, comme dans l'effet photoélectrique. C'est une diffusion inélastique.
Mettant de côté les pertes inélastiques, l'intensité du spectre élastique résulte de 3 facteurs qui se combinent. Il y a d'abord la diffusion par un atome isolé. Dans la substance traversée, on compte des millions d'atomes assemblés. Si comme dans un gaz, la position des atomes est désordonnée, les intensités dues à chaque atome s'ajoutent.
Mais si, comme dans les cristaux, les atomes sont arrangés en structures ordonnées, les rayons diffusés par chaque atome interfèrent en figures caractéristiques. On parle alors de diffraction. L'analyse du spectre donne accès au positionnement des atomes les uns par rapport aux autres. C'est ainsi que la diffraction des rayons X permet de déterminer la structure des cristaux (voir article Géométrie cristalline).
Enfin, dans le cas de petites particules telles que des poussières, de tout petits cristaux, ou de grosses molécules en suspension dans l'eau ou autre solvant, les intensités du spectre sont modulées par un facteur dû à la forme globale de la particule. On peut recueillir des informations sur sa taille.
On peut opérer également des spectroscopies à l'aide de faisceaux d'électrons (diffusion et diffraction électroniques) ou de neutrons (diffusion de neutrons).
Lenard constate que la quantité d’électrons arrachés au zinc augmente lorsque l’intensité lumineuse augmente, ce à quoi on pouvait s'attendre. Mais par contre, il mesure que l'énergie cinétique (énergie due à l'impact de la vitesse) de ces électrons n'augmente pas avec l'intensité de la lumière, mais seulement avec la fréquence de la lumière. Ceci ne s'explique pas par les modèles habituels de répartition continue de l’énergie lumineuse. En 1902, Lenard n'était pas prêt à abandonner la théorie classique de la lumière et c'est Einstein qui pourra donner une interprétation satisfaisante de l'expérience.
Car elle s'explique bien si on considère la lumière comme formée de grains dont l'énergie est déterminée E = h.ν, comme le propose Albert Einstein dans l'article de 1905 cité plus haut. En effet, si les quanta de lumière se comportent comme des particules de matière, ils percutent les électrons des atomes de zinc et les expulsent comme le feraient des boules de pétanques. Or l'électron est lié à l'atome, et il faut que l'énergie du quantum soit supérieure à l'énergie de liaison pour l'en arracher. Le surplus est transformé en vitesse de l'électron. C'est conforme aux résultats de Lenard.
En 1916, le physicien étasunien Robert Andrew Millikan (1868 - 1953) effectue des mesures minutieuses de l'énergie cinétique des électrons émis par le métal et en déduit une valeur précise de la constante de Planck h.
En 1923, Arthur Holly Compton (physicien étasunien, 1892 - 1962) constate que des rayons X qu'il projette sur un bloc de graphite sont déviés (diffusés) (voir encart). Le graphite est une forme de carbone qui conduit l'électricité comme un métal (voir Géométrie cristalline). Dans les matériaux conducteurs, les électrons de circulation sont très peu retenus par le noyau, ils peuvent s'en détacher facilement. Autrement dit les électrons sont quasiment libres.
Compton constate que certains rayonnements électroniques à la sortie du graphite ont des fréquences inférieures à leur fréquence d'entrée. Si on considère le rayonnement X comme un flux de photons, alors le résultat s'interprète facilement comme les chocs des photons X sur les électrons libres du graphite. Le photon X transfère son énergie sur un électron et en sort affaibli en énergie. C'est le phénomène nommé diffusion Compton.
L'analyse mathématique des résultats expérimentaux confirme que les lois physiques relatives au choc de particules y sont bien respectées (conservation de l'énergie et conservation de la quantité de mouvement). L'expérience de Compton prouve que les rayons X se comportent comme des photons.
C'est cette expérience qui rallia beaucoup de physiciens à la vision que la lumière et d'autres rayonnements électromagnétiques comme les rayons X peuvent se comporter comme un faisceau de particules. La lumière ne peut plus être décrite uniquement comme une onde.
Un autre aspect quantifié de la lumière se révèle dans l'étude de la lumière émise ou absorbée par les gaz. Lorsqu'on projette un faisceau de lumière sur un gaz enfermé dans un récipient hermétique et que l'on analyse la lumière qui en sort, on constate que certaines des longueurs d'onde du spectre (spectre: répartition des différentes longueurs d'onde) de la lumière d'entrée sont manquantes dans la lumière émergente. Son spectre présente des raies noires, signalant ces absences.
Ces raies sont tout à fait spécifiques du gaz considéré et constituent sa signature. On peut déterminer la nature du gaz par le simple fait de répertorier les raies manquantes.
On observe le même phénomène mais inversé lorsqu'on enflamme le gaz, comme on le fait sur une plaque de cuisson. La lumière de la flamme présente les mêmes raies, mais cette fois-ci comme lumière émise à ces longueurs d'onde. À partir des années 1880, on utilise un dispositif beaucoup plus précis que l'inflammation pour provoquer l'émission de lumière par le gaz. On déclenche une décharge électrique dans le gaz contenu dans un tube de verre de type Crookes (voir article précédent, Matière et rayonnements). Cela est possible si le gaz s'y trouve à faible pression. De la lumière est émise par fluorescence, et c'est selon ce principe que sont construits nos tubes au néon et ampoules à basse consommation.
Avec les données plus abondantes et plus précises fournies par ce dispositif, Johann Jakob Balmer (physicien et mathématicien suisse, 1825 - 1898) découvre en 1885 que la fréquence des raies d'émission d'un gaz n'est pas quelconque. Leur valeur suit une règle liée directement à des petits nombres entiers 1, 2, 3, etc. [La règle sous forme mathématique contient l'expression 1/n2].
Cette apparition de nombres entiers dans la matière était vraiment stupéfiante. Malgré de nombreuses tentatives, il n'était pas possible de l'interpréter dans le cadre de la mécanique classique. Le modèle atomique de Thompson où des électrons circulent dans une masse positive n'en rendait pas compte (voir article précédent, Matière et rayonnements). C'est alors que Niels Bohr va proposer un concept révolutionnaire qui le conduit à une nouvelle représentation de l'atome. Les fréquences spéciales des raies sont dues à un autre type de quantification, présent dans l'atome lui-même.
Depuis le modèle de Thompson, la représentation de l'atome avait évolué. On savait maintenant qu'il était constitué d'un noyau et d'électrons.
En bombardant la matière avec des particules α (hélium), Ernest Rutherford (physicien néo-zélandais, 1871 - 1937) remarque que certaines de ces particules sont renvoyées en arrière. Cela indique la présence dans les atomes d'un noyau central dur sur lequel elles rebondissent. Ses calculs lui indiquent que la masse de l'atome est concentrée dans son noyau. Les électrons sont situés à la périphérie. Le rayon du noyau est de l'ordre de 10-15m, alors que celui de l'atome entier est de l'ordre de 10-10m. Cela signifie que si le noyau avait un diamètre de 1 cm, celui de l'atome serait de 1 km. L'atome semble constitué essentiellement de vide. Dans l'article suivant nous discuterons la nature de ce vide.
Par ailleurs, Jean Perrin (physicien français, 1870 - 1942) avait proposé intuitivement que les électrons gravitent autour du noyau comme les planètes dans le système solaire.
En 1913, Niels Bohr (physicien danois, 1885 - 1962), se basant sur les théories de Rutherford, fait paraitre un article où il expose son modèle de la structure de l'atome. Autour du noyau, les électrons circulent sur des orbites, dans des plans différents. Chaque orbite peut comporter plusieurs électrons, d'autant plus qu'elle est éloignée du centre. Ce qui est nouveau est que ces orbites ne sont pas situées n'importe où, leur rayon n'est pas quelconque. Seulement certaines valeurs du rayon sont autorisées, celles qui correspondent à des états stationnaires des électrons (voir en annexe Quantification des orbites atomiques).
Grâce à ce modèle, Bohr peut facilement expliquer l'origine des fréquences des raies de Balmer. Un électron a la possibilité de passer d'une orbite stable à une autre. S'il passe d'une orbite d'énergie élevée à une orbite d'énergie plus basse, l'électron émet un photon dont l'énergie est la différence d'énergie des deux orbites. Inversement, en absorbant un photon, il fait le saut vers l'orbite d'énergie supérieure. Chaque orbite est indexée par son nombre quantique n et correspond à une quantité définie d'énergie proportionnelle à 1/n2. La soustraction des énergies de deux orbites redonne les formules de Balmer, complétées par celles de Rydberg.
Le mécanisme de saut d'un photon d'une orbite à l'autre donne une nouvelle consistance théorique au photon.
Niels Bohr Merci à Wikipédia | L'atome de Niels Bohr des débuts de la théorie des quanta. Ce modèle a été rapidement détrôné par la représentation de la mécanique quantique Merci à Secrets de la matière |
Le modèle de l'atome de Bohr introduit une nouvelle quantification, celle de l'atome. Mais il ne s'agit pas encore de mécanique quantique, ni même d'un nouveau formalisme. Il s'inscrit encore dans le cadre de la mécanique classique, à laquelle on adjoint des règles qui restreignent les orbites possibles.
Quand la véritable mécanique quantique sera élaborée plus tard, ce modèle sera abandonné et remplacé par un autre (voir plus bas).
Sur le moment, ce modèle reçoit un accueil tiède et même des rejets. Mais l'année suivante, en 1914, une expérience faite par James Frank (physicien allemand, 1882 - 1964) et Gustav Hertz (physicien allemand, le neveu de Heinrich rencontré dans l'effet photoélectrique, 1887 - 1975) va conforter la représentation en niveaux d'énergie. Comme dans l'expérience de Compton, ils projettent des particules sur des atomes. Mais les cibles sont des atomes de vapeur de mercure, et les projectiles sont des électrons. Ils constatent que sous l'effet des chocs des électrons, certains atomes sont excités. Autrement dit leur énergie a augmenté d'une quantité finie, celle qui fait passer un électron d'une orbite à une orbite de niveau d'énergie supérieur.
Dans le rayonnement du corps noir, Planck pensait que les restrictions sur les niveaux d'énergie étaient celles des oscillations des électrons dans la matière. Bohr, en instituant l'idée d'orbites en nombre limité, reporte les restrictions sur des électrons qui tournent en cercle.
Ainsi la notion de discontinuité s'étend à des domaines plus vastes de la physique. La discontinuité dans la matière nous est familière, avec ses particules et ses objets distincts les uns des autres. On peut empiler des cailloux, remplir un sac de grains de blé, ou faire couler un flot de sable fin sans que l'esprit soit choqué de la discontinuité de cette matière fluide. Puis arrive la discontinuité de la lumière sous forme de quanta, plutôt dure à avaler pour les scientifiques et les philosophes de l'époque. Et voilà que cette discontinuité apparait dans les niveaux d'énergie des atomes. Mais surtout, et c'est encore plus perturbant, elle apparait dans le processus de saut entre deux niveaux d'énergie.
En effet, lorsqu'un électron saute d'une orbite à l'autre, il n'y va pas comme un oiseau saute d'une branche à une autre, avec une trajectoire que l'on peut suivre et qui a une durée. L'électron est à un niveau et instantanément il se retrouve transporté à l'autre niveau, sans parcours entre les deux, par une sorte de dématérialisation et de rematérialisation immédiate. C'est ce qu'on nomme un saut quantique.
L'idée de saut quantique sans trajectoire bouleversait tout ce qu'on savait du mouvement des corpuscules. Même actuellement, nous avons de la peine à l'imaginer. Elle a provoqué des polémiques violentes et des résistances farouches de la part des physiciens, même longtemps après l'introduction de la notion de quantum par Planck en 1900. Par exemple en 1926, Schrödinger, un des fondateurs de la mécanique quantique, s'est opposé à Bohr, qui défendait la discontinuité et le concept de saut quantique: Si on doit adhérer à ce satané saut quantique, alors je regretterai toujours d'y avoir été impliqué (cité par Max Jammer, The conceptual development of Quantum Mechanics, 1966)
Décrire la lumière comme faite de corpuscules, les photons, apporte une explication plausible à une série de phénomènes comme l'effet photoélectrique, la diffusion Compton, et la structure des spectres atomiques. Mais cela n'invalide pas pour autant tous les phénomènes d'interférence et de diffraction, ni les travaux de Maxwell sur l'électromagnétisme, qui mettent en évidence l'aspect ondulatoire de la lumière (voir article précédent, Matière et rayonnements). Comment concilier ces deux aspects?
Pendant des siècles, les scientifiques se sont battus pour défendre soit l'aspect de corpuscule, soit l'aspect d'onde. Mais pourquoi une représentation serait-elle exclusive? Qui a dit qu'il ne fallait retenir qu'un seul aspect et rejeter l'autre? Vers 1920, les physiciens doivent se résoudre à reconnaitre que la lumière se manifeste tantôt sous son aspect corpusculaire, tantôt sous son aspect ondulatoire, selon les circonstances expérimentales. On ne sait pas relier ces deux aspects, on ne sait pas comment la lumière s'arrange pour passer de l'un à l'autre, on se contente de les juxtaposer dans ce qu'on a nommé la dualité onde-corpuscule.
Dans sa représentation de la dualité de la lumière, Bohr fait l'analogie avec le comportement d'une personne à double personnalité que vous êtes amené à rencontrer régulièrement. Tantôt vous la rencontrez dans sa personnalité A, tantôt dans sa personnalité B, mais il vous est impossible de comprendre quel est le noyau commun à ces deux personnalités.
La quantité de mouvement d'une particule ou d'un solide, parfois appelée impulsion, est une grandeur physique dérivée de la vitesse, de symbole . Elle est définie par
où m est la masse de la particule, et sa vitesse. L'énergie relativiste est
On réalise la correspondance entre la particule et l'onde en écrivant l'égalité de cette énergie à celle du quantum
De Broglie généralise la formule obtenue pour le photon en posant qu'à une particule d'impulsion p, on associe une onde de longueur d'onde
λ = h/p
Particule et onde sont donc reliées par la constante de Planck h.
La lumière et les ondes électromagnétiques ont pris l'aspect de particules, les photons, qui ont une masse nulle et sont donc immatériels. Pourquoi les particules matérielles connues alors (électrons, protons et neutrons) ne pourraient-elles pas prendre l'aspect d'ondes?
Louis de Broglie
Merci à Wikipédia
C'était l'interrogation qui occupait l'esprit du mathématicien et physicien français Louis de Broglie (1892 - 1987). Son nom, d'origine italienne (Broglia ou Brolia), se prononce de Breuil. Issu d'une famille noble, il a eu le titre de prince puis de duc. Plutôt que suivre la carrière de haut-fonctionnaire à laquelle il était promis, il s'est dirigé dans les sciences, passionné par les nouvelles théories de la physique.
En 1924, il soutient publiquement sa thèse de doctorat qui pose les bases d'une nouvelle théorie de la mécanique qu'il nomme mécanique ondulatoire et qui donne une impulsion stupéfiante à l'exploration quantique.
Dans son système, une onde est associée à chaque particule. Les caractéristiques de cette onde (longueur d'onde ou fréquence) sont en correspondance avec les caractéristiques de la particule (sa vitesse ou son impulsion) par des relations extrêmement simples (voir encart).
Dans l'esprit de de Broglie, l'onde est réelle, mais sa nature reste abstraite. Elle est une sorte de guide pour la particule qui se déplace de façon à rester en phase avec elle.
Or, en s'appuyant sur les relations mathématiques de correspondance établies par de Broglie, des expériences vont révéler que les ondes associées aux particules ont bien une réalité physique. En effet, les électrons peuvent se comporter comme une onde, de façon analogue à la lumière.
Dans le cas de la lumière, son comportement ondulatoire avait auparavant été mis en évidence par une série de phénomènes et d'expériences dont l'une des plus démonstratives est celle des fentes de Young (voir article précédent, Matière et rayonnements). Young a fait interférer deux faisceaux de lumière issus d'une même source, en les faisant passer par deux petits trous (ou fentes) percés dans un panneau opaque. Sur un écran disposé en face, il a observé des franges d'interférence, motif où alternent des franges sombres et des franges illuminées. D'autres chercheurs ont obtenu des interférences semblables en envoyant le faisceau lumineux sur un fil fin, qui se divise en deux ondes qui passent de chaque côté du fil et interfèrent.
De même, les rayons X, qui sont des photons de fréquence plus élevée que celle de la lumière visible, sont aussi susceptibles d'interférer si les trous pouvaient être très proches l'un de l'autre, d'une distance en rapport avec leur longueur d'onde, inférieure au nanomètre (un millionième de millimètre). Cette distance est si faible qu'il est matériellement impossible de la réaliser aussi simplement dans une feuille de carton. Par contre, les plans cristallins d'un cristal sont analogues à une série de fentes et ont la bonne distance. C'est pourquoi la diffraction des rayons X par les cristaux signe leur nature ondulatoire (voir article Géométrie cristalline).
Venons-en aux particules de matière. Des expériences analogues d'interférences ont été menées avec des faisceaux d'électrons.
Dès 1927, une expérience a été effectuée par Clinton Davisson (physicien étasunien, 1881 – 1958) et Lester Germer (physicien étasunien, 1896 – 1971) avec un faisceau d'électrons projeté sur un cristal de nickel. Ils ont constaté que les électrons sont diffractés et forment des franges d'interférence analogues à celles produites par la diffraction des rayons X. Cela montre que les électrons se sont comportés comme des ondes.
En mesurant les distances entre les franges d'interférence, Davisson et Germer peuvent calculer la longueur d'onde. Ils constatent qu'elle est en accord avec les prévisions des formules de de Broglie. La diffraction a lieu effectivement quand la longueur d'onde est du même ordre de grandeur que la distance entre les rangées d'atomes du nickel (0, 215 nm).
Par analogie avec l'optique des ondes lumineuses, des chercheurs ont développé une optique électronique. En 1933, le physicien allemand Ernst Ruska (1906 - 1988) construit le premier microscope électronique. La formation d'images en microscopie électronique est l'application directe de la nature ondulatoire des faisceaux d'électrons. Comme la longueur de l'onde électronique est beaucoup plus petite que celle des ondes lumineuses (environ 10'000 fois moins), on peut obtenir de meilleures résolutions des images et des grandissements plus forts (voir des applications dans les articles Structures des polymères et L'ADN et le code génétique)
Réplique du premier microscope électronique mis au point en 1933 par Ernst Ruska. | Franges de diffraction d'un faisceau d'électrons produites par un fil d'araignée installé dans un microscope électronique en transmission. Le résultat varie en fonction du potentiel du fil métallisé (lié à la longueur d'onde), de 0 à 7 volts de haut en bas. Expérience réalisée par C. Fert et J. Faget, Laboratoire d'Optique Électronique, Toulouse. Extrait de Principes d'optique électronique, 1996, Peter Hawkes |
Des expériences ultérieures effectuées par d'autres équipes confirment le comportement ondulatoire des faisceaux d'électrons qui peuvent être diffusés, diffractés ou qui peuvent interférer.
Par exemple, en 1956, Charles Fert et Jean Faget étudient l'interférence des ondes électroniques divisées de chaque côté d'un fil d'araignée métallisé chargé électriquement, un biprisme, installé à l'intérieur de la colonne du microscope. Ce microscope est celui du Laboratoire d'Optique électronique de Toulouse, devenu le CEMES par la suite, ce même laboratoire dans lequel j'ai effectué ma carrière de chercheur au CNRS à partir de 1971. J'y ai d'ailleurs connu Charles Fert qui était alors directeur du Laboratoire de Physique des Solides à l'Université des Sciences de Toulouse.
Une expérience d’interférences analogue a été réalisée en 1961 par Claus Jönsson avec un dispositif différent. Le faisceau d’électrons est séparé par deux fentes fines très rapprochées entaillées sur une feuille de cuivre, ce qui en fait l'équivalent des fentes de Young pour la lumière. Là encore, les figures d'interférence sont présentes.
Dans l'observation des franges d'interférence produites aussi bien par les électrons que par les photons, on peut facilement comprendre que les franges claires sont le lieu qui reçoit le maximum d'impacts de photons ou d'électrons. On peut donc interpréter l'intensité de l'onde en un point de l'écran par la densité des particules en ce point.
Sources: Diffraction of Electrons by a Crystal of Nickel, C. Davisson, L. H. Germer, 1927, Phys. Rev. 30, 705–740; Diffraction et interférences en optique électronique, Jean Faget et Charles Fert, 1957, Cahier de physique
Avec l'association d'une onde à une particule, la vision de la mécanique subit une mutation sévère. On abandonne l'idée des balles qui suivent leur trajectoire selon les lois de Newton. On n'a plus seulement une particule, mais une entité composée de la particule et de son onde associée. Mais quelle est donc cette onde? Comment en donner une expression mathématique? Il est revenu au physicien autrichien Erwin Schrödinger (1887 – 1961) de trouver en 1925 la formule mathématique qui permet de calculer la fonction d'onde.
Erwin Schrödinger
Merci à Wikipédia
Sa formule n'est pas née du néant. On exprime généralement les lois de la mécanique classique régissant le mouvement des corps matériels sous la forme des lois de Newton. Or il existe une formulation équivalente, mais plus générale, qui est le principe de moindre action. En gros cela signifie qu'un corps suit la trajectoire qui lui permet de dépenser le moins d'énergie. Il a d'abord été calculé par Lagrange (voir article précédent Matière et rayonnements), puis Hamilton en a donné une autre version en prenant pour base l'évaluation de l'énergie totale du système (appelée plus tard l'hamiltonien - voir annexe). [Ce principe de la mécanique classique, bien que très peu évoqué dans l'enseignement général, est essentiel pour comprendre comment Schrödinger a pu former son équation d'onde].
Or il existe un principe analogue pour les ondes, c'est le principe de Fermat, selon lequel les rayons lumineux suivent un trajet de durée minimum dans les milieux traversés. C'est en recherchant leurs correspondances que Schrödinger est parvenu à l'équation qui permet de calculer la fonction mathématique de l'onde.
Grâce à cette équation, il est possible de décrire un ensemble de particules par une fonction d'onde unique qui contient toutes leurs coordonnées. Si nous considérons un système de particules évoluant dans un champ de forces, sa fonction d'onde représente l'état du système et son évolution dans le temps. La fonction d'onde d'un système de particules remplace les équations de la dynamique classique.
Par définition, une onde s'étend dans tout l'espace, mais elle peut prendre des valeurs d'amplitude plus élevées à un endroit et négligeables à un autre (définition d'une onde - voir Matière et rayonnements). Lorsque l'onde décrit une seule particule, ses valeurs appréciables sont regroupées en un pic compact correspondant à l'endroit où se trouve la particule.
La fonction d'onde de Schrödinger représentait une fois de plus une avancée puissante dans l'élaboration d'une nouvelle approche de la réalité. Elle conférait une unité et un sens à tous les phénomènes de la matière connus alors, aussi bien ceux qui se manifestaient sous forme particulaire que ceux qui mettaient en évidence sa nature ondulatoire, comme les effets de diffraction et d'interférence des électrons.
Après l'apport de de Broglie, c'est un acte essentiel dans la naissance de la mécanique quantique. Toutefois, il faut remarquer que la fonction d'onde reste un outil mathématique qui ne nous dit rien de sa propre nature, ni de la nature de son association avec la particule.
Dans cette épopée, le physicien britannique Paul Dirac (1902 - 1984) mérite aussi d'être cité car il a brillamment contribué à l'élaboration du formalisme de la mécanique quantique. En particulier, il a fourni le moyen de représenter les ondes par des vecteurs dans des espaces à dimensions très grandes. Il a aussi étendu le formalisme aux particules relativistes, c'est-à-dire dont la vitesse est très grande, proche de celle de la lumière.
Lorsqu'on a affaire à un système qui ne comprend qu'une seule particule, que représente son onde associée? Pour Schrödinger comme pour de Broglie, l'onde a une réalité physique, c'est le guide de la particule, comme un avion peut être guidé par des ondes radar. L'avion est une réalité et l'onde radar également.
Mais en 1926, Max Born (physicien allemand puis britannique, 1882 - 1970) propose une nouvelle façon d'interpréter l'onde en abandonnant toute notion physique et en introduisant les probabilités. La fonction d'onde associée à la particule en un point de l'espace à un moment donné (plus précisément le carré de son module) représente la probabilité de trouver cette particule en ce point à cet instant.
Par exemple, dans l'expérience des interférences de Young, l'onde associée à une particule décrit à la fois la probabilité que la particule passe par un trou ou qu'elle passe par l'autre. Autrement dit, elle décrit un état de la particule qui est composé des deux possibilités, la combinaison de deux états, ou encore, un état où la particule est passée par les deux trous en même temps.
Affirmer que l'onde représente la probabilité de présence, reste du domaine de l'interprétation. Ce n'est pas une déduction logique issue des faits. Les écrits de vulgarisation ne sont généralement pas explicites à ce sujet et présentent cette interprétation comme la réalité, d'autant plus que c'est ce point et ses développements ultérieurs qui ont suscité un nouveau regard sur le monde et beaucoup d'excitations parmi le public et les journalistes concernés.
Comme expliqué dans l'article Matière et rayonnements, il est important que la distinction entre déduction logique et interprétation reste claire dans nos esprits. L'interprétation de Born est très fructueuse. Elle a suscité de nombreux développements et de nombreuses expériences qui sont en accord avec cette représentation. Mais est-elle définitive, est-ce la seule possible? Non. Einstein lui-même n'adhérait pas à cette interprétation. D'autres écoles de pensée existent. Nous les évoquerons plus bas.
Si l'intensité des franges d'interférence est liée à la densité des particules, que deviennent-elles lorsqu'on réduit le faisceau de façon à projeter les particules une à une sur l'écran? La particule isolée passe-t-elle par un trou en continuant son trajet en droite ligne vers l'écran? Mais dans ce cas, nous aurions seulement deux impacts, les images des deux trous et les interférences ne devraient plus se produire.
Les expériences montrent qu'on obtient des figures d'interférences (voir encart plus bas). L'électron unique se comporte comme une onde, qui se sépare en deux ondes qui interfèrent, comme dans les fentes de Young. En quelque sorte, l'électron interfère avec lui-même et cette interférence est correctement décrite par sa fonction d'onde.
Apparition de franges d'interférences avec des électrons projetés un à un sur un fil métallisé chargé électriquement (biprisme). Expérience réalisée par A. Tonomura. Nombre d'électrons: a- 11; b- 200; c- 6000; d- 40'000; e- 140'000 Merci à Wikipédia |
Les observations de Akira Tonomura (physicien japonais, 1942 – 2012) en 1989 avec un faisceau d'électrons illustrent bien le phénomène. Comme Fert et Faget, il utilise un fil micrométrique chargé. Au début de l'observation (photos a, b, c), avec un petit nombre d'électrons, les points d'impact des électrons semblent répartis complètement au hasard. Or, comme on le voit sur les photos d et e, il n'en est rien. Ils se répartissent selon une loi statistique de distribution, liée aux interférences de l'onde associée aux particules.
L'expérience de la double fente dans un microscope électronique par Tonomura, en vidéo
Merci à Hitachi
En 2006, l'expérience d'interférence d'électrons de Tonomura a été renouvelée selon un procédé totalement différent par François Frémont et ses collaborateurs (physiciens français). Par des processus de collision et d'excitation, des atomes d'hydrogène émettent des électrons. Ils sont diffusés non plus par un fil mais par des noyaux d'hélium chargés, c'est-à-dire deux protons. On mesure l'intensité de la diffusion en fonction de l'angle d'émission. On constate qu'elle présente des maxima et des minima dus à un phénomène d'interférences.
De façon analogue, en utilisant une source à photon unique, des expériences ont montré qu’un photon interfère avec lui-même.
Préalablement en 1909, sir Geoffrey Ingram Taylor (physicien britannique, 1886 - 1975) avait réalisé une expérience avec un très faible faisceau de lumière. C'était bien avant la connaissance de la dualité onde - corpuscule. Il avait montré qu'il est encore possible d'obtenir des franges autour d'une épingle fine avec des sources de lumière très faibles. Mais on sait maintenant qu'atténuer une faisceau ne suffit pas pour produire des photons uniques.
La première expérience à photon unique a été réalisée en 1986 par A. Aspect et Ph. Grangier avec une source lumineuse bien plus élaborée. Les interférences sont bien présentes. Actuellement, on peut réaliser des expériences beaucoup plus précises avec des sources lumineuses à photon unique perfectionnées, telles que des diamants enfermant des pièges colorés.
Sources: Interference Fringes with Feeble Light, G. I. Taylor, 1909, Proc. Com. Philos. Soc., 15, 114-115; Experimental Evidence for a Photon Anticorrelation Effect on a Beam Splitter: A New Light on Single-Photon Interferences, P. Grangier, G. Roger, and A. Aspect, Europhys. Lett. 1, 173 (1986); Demonstration of single-electron build-up of an interference pattern, A. Tonomura, J. Endo, T. Matsuda, T. Kawasaki, H. Ezawa, 1989, American Journal of Physics, 57, 117-120 (voir l'article en pdf); Impulsions à un photon, Jean-François Roch, conférence, 2005; Single-photon wavefront-splitting interference, an illustration of the light quantum in action, V. Jacques, E.Wu, T. Toury, F. Treussart, A. Aspect, P. Grangier, and J.-F. Roch, Eur. Phys. J. D 2005, 35, 561; Interférences de type Young avec un seul électron, F. Frémont, A. Hajaji, R.O. Barrachina, J.Y. Chesnel, C.R. Académie des Sciences, 2008, Physique, 9, 469-475
Le comportement ondulatoire des faisceaux de particules a été observé par la suite avec des particules plus massives: des protons, des neutrons, des atomes de néon, des molécules de fullerène...
En 1991, Oliver Carnal et Jürgen Mlynek (Université de Constance, Allemagne) ont réalisé une expérience au cours de laquelle des atomes d'hélium traversent deux fentes percées dans une feuille d'or. Les impacts individuels sont dénombrés par un détecteur mobile. On constate que des interférences ont bien lieu (voir le détail dans la fiche pédagogique Eduscol).
En 1992, des interférences ont été mises en évidence avec des atomes de néon par les physiciens japonais F. Shimizu, K. Shimizu et H. Takuma.
En Autriche, le même type de phénomène a été rapporté en 1999, puis en 2003, par Markus Arndt, Olaf Nairz et Anton Zeilinger (physicien autrichien, né en 1945) et leurs collaborateurs, sur des molécules de fullerène également nommées C60 parce faites d'une boule de 60 atomes de carbone, puis sur d'autres biomolécules.
Dans tous les cas, la prédiction du lieu des impacts concorde avec la fonction d'onde associée à l'atome.
Sources: Young's double-slit experiment: A simple atom interferometer, O. Carnal et J. Mlynek, 1991, Phys. Rev. Lett. 66, 2689; Double-slit Interference whith ultracold metastable neon atoms, F. Shimizu, K. Shimizu, H. Takuma, 1992, Phys. Rev. A 46, R17; Wave–particle duality of C60 molecules, M. Arndt, O. Nairz, J. Vos-Andreae, C. Keller, G. van der Zouw, A. Zeilinger, 1999, Nature, 401, 680; Quantum interférence experiments with large molecules, O. Nairz, M. Arndt, A. Zeillinger, 2003, Am. J. Phys. 71, 4; Wave nature of biomolecules and fluorofullerenes, Hackermüller L, Uttenthaler S, Hornberger K, Reiger E, Brezger B, Zeilinger A, Arndt M, 2003, Phys Rev Lett. 91
Lorsque nous parlons de particule, nous sommes habitués à nous la représenter comme une bille évoluant sur une trajectoire avec une position précise. Mais si nous conservons cette représentation dans le cas des électrons ou des photons intervenant dans les expériences précédentes, l'apparition des interférences devient incompréhensible.
En effet, si la particule avait une trajectoire déterminée, elle passerait soit par un trou soit par l'autre, puis continuerait son trajet en ligne droite jusqu'à toucher l'écran en un point. On aurait au total 2 points lumineux sur l'écran correspondant aux deux trajets possibles. On n'aurait donc pas d'interférence.
Or puisqu'on observe des interférences, il faut abandonner la représentation d'une particule qui suit une trajectoire. Autrement dit, il est impossible de la suivre cheminant entre la source et son point d'impact sur l'écran. Il est donc impossible de savoir si elle est passée par un trou ou par l'autre.
En physique quantique, la représentation de la trajectoire d'une particule est abandonnée et remplacée par la description de son onde associée.
L'onde associée à une particule fournit la probabilité que la particule soit détectée à un endroit ou à un autre de l'écran. C'est cette probabilité qui, dans le cas des trous de Young, est alternativement forte et faible et se manifeste sous la forme de franges claires et sombres.
Une conséquence de la représentation d'une particule par une onde est qu'on ne peut pas donner des précisions à la fois sur la localisation de la particule (ou du paquet d'onde) et sur l'énergie ou la vitesse de cette particule (ou de l'onde). Ceci est connu comme caractéristique d'une onde quelle qu'elle soit, même en-dehors du champ de la physique quantique.
Ainsi dans le domaine d'une onde sonore, l'onde d'un son pur, de fréquence (donc d'énergie) bien déterminée, est étendue dans tout l'espace. C'est une longue suite régulière de vagues sinusoïdales se succédant selon la même fréquence. L'énergie est déterminée, mais la localisation est impossible.
Si au contraire, l'onde est regroupée en un pic compact, on connait la position du pic, mais il y a peu de crêtes et il est impossible de définir une fréquence ou une longueur d'onde. On montre mathématiquement (par transformée de Fourier) qu'une onde compacte peut être décrite comme la superposition d'ondes dont les fréquences sont très dispersées.
Werner Heisenberg
Merci à Wikipédia
Il en est de même si l'onde représente une particule. Si son impulsion (p = m.V) ou son énergie (E = h.ν = p2/2m) sont bien déterminées, il s'agit d'une onde plane étendue dans l'espace qu'il est impossible de localiser. Il y a donc une incompatibilité entre la précision sur la position de la particule (Δx) et celle sur son impulsion (Δp).
Le physicien allemand Werner Heisenberg (1901 - 1976) a montré que la limite des précisions réciproques entre ces 2 grandeurs complémentaires était régie par une formule faisant intervenir la constante de Planck h (Δx. Δp ≥ h/4π). Cette loi a été nommée de son nom principe d'indétermination de Heisenberg.
Remarque, espaces conjugués: Il est intéressant de noter que, même si on a l'habitude de décrire la propagation de l'onde dans l'espace des coordonnées de position, il est mathématiquement équivalent de la décrire dans l'espace des coordonnées d'impulsion. La même réalité globale position+impulsion peut être décrite indifféremment par une projection dans l'un ou l'autre de ces espaces. Les deux espaces présentent une symétrie, et on passe de l'un à l'autre par une sorte d'inversion, la transformée de Fourier. On dit que ces espaces et ces grandeurs sont conjugués.
Heisenberg a montré que son principe s'étendait à l'indétermination réciproque de la valeur de l'énergie de la particule et de sa localisation dans le temps (ΔE. Δt ≥ h/4π). En effet, l'impulsion est reliée à l'énergie, tandis que la localisation dans l'espace doit être précisée à un moment donné. La précision sur une grandeur entraine une indétermination sur l'autre.
C'est pourquoi l’énergie d'un système évaluée sur de très courtes durées a une forte probabilité de fluctuer. C'est sur la base de cette possibilité que des physiciens ont conçu la notion de champ du point zéro (voir article suivant).
La physique quantique affirme qu'il est impossible de déterminer les trajectoires des éléments d'un système car les valeurs des caractéristiques de ces éléments ne sont déterminées que dans certaines limites. On ne peut en donner que des probabilités. Cela bouleverse la vision déterministe de la mécanique classique. Pour celle-ci, un système fonctionne comme une machine composée d'éléments distincts qui interagissent selon des lois bien définies. En précisant les valeurs des caractéristiques des éléments du système à un instant donné, on peut calculer son état à n'importe quel moment de son futur et retrouver son état à n'importe quel moment de son passé (voir Matière et rayonnements).
Ce n'est pas l'emploi des probabilités en soi qui choquait les physiciens de l'époque, car ce n'était pas nouveau en physique. Pour calculer les caractéristiques d'un gaz ou d'un système constitué de très nombreuses particules, la physique statistique établit des valeurs moyennes à partir d'une distribution de valeurs probables des caractéristiques des particules. Dans ce cas, la statistique se substitue à notre impossibilité de décrire le système particule par particule. Elle n'est que l'expression de notre limite de calcul (voir Matière et rayonnements).
Mais avec Born et Heisenberg en physique quantique, la probabilité et l'indétermination sur la valeur d'une caractéristique ne sont pas liées à une trop grande abondance de données. Elles sont intrinsèques à tout système, même pour une seule particule. L'indétermination de Heisenberg est ontologique, de la même façon qu'on ne peut à la fois inspirer et expirer, ou à la fois se concentrer sur une action et se laisse rêver. L'onde d'une particule détient une multitude d'états possibles pour cette particule. Une interaction avec l'environnement peut donner lieu à des évolutions diverses dont chacune a une probabilité calculable d'apparaitre. En définitive, l'onde est la représentation mathématique de toutes les informations sur le système.
Qu'il soit impossible d'attribuer des valeurs précises à un ensemble de grandeurs, non à cause des limitations de calcul, ni à cause de l'imperfection des appareils de mesure, mais à cause des lois inhérentes à la nature quantique, voilà un concept qui détrônait les habitudes mentales les plus ancrées. La description quantique des phénomènes n’est plus déterministe, mais indéterministe. Inutile d'ajouter que ce concept a rencontré de fortes résistances et suscité de nombreux débats. Einstein estimait que l'emploi des probabilités est le signe que la théorie est incomplète et qu'elle rend compte seulement partiellement de la réalité (voir plus bas).
Quelle est l'origine de cette détermination? La mécanique quantique ne répond pas à cette question. Elle dit seulement que c'est l'aspect même du réel de rester indéterminé. Elle constate le fait et le formalise. C'est une position de principe qui semble en accord avec les faits expérimentaux, ce n'est pas une déduction logique.
En réalité, l'idée d'indéterminisme avait déjà fait son entrée dans la physique par deux fois, avant l'onde de Schrödinger et son interprétation par Born. La première était due à Bohr, dans son modèle d'atome planétaire, dans lequel il a introduit la notion révolutionnaire de saut quantique. En effet, l'instant où a lieu le saut d'un électron d'une orbite à une autre est indéterminé. On ne peut en donner qu'une probabilité pour un instant donné. Il en est de même dans la cas de la radioactivité. Un atome radioactif peut se désintégrer à tout moment, et ce moment reste indéterminé.
Du moins, c'est ce qu'on énonce dans le cadre du corps de connaissances admises par la communauté scientifique. Car en réalité le Pr. Shnoll a mis en évidence que des phénomènes qui semblent aléatoires sont en réalité contrôlés par des facteurs cosmologiques, comme nous l'expliquerons plus bas.
Mais dans le cas où l'on admet que le moment de saut ou de désintégration reste indéterminé, la fonction d'onde permet seulement de calculer la probabilité de ce moment. Aussi, à un instant donné, l'atome a la possibilité d'être ou non désintégré. La fonction d'onde qui le représente combine les 2 états, celui de l'atome entier et celui de l'atome désintégré. Cette fonction évolue dans le temps et tant qu'on ne sonde pas l'atome pour savoir dans quel état il se trouve, on est en présence d'une combinaison des 2 états.
Ceci nous met à nouveau en face d'une nouvelle façon de voir la réalité. Normalement, dans la vie quotidienne, si j'ai chez moi un vieux cabanon qui se délabre, je peux VOIR s'il est toujours debout ou s'il s'est effondré. S'agissant d'un atome ou d'une particule, on ne les voit pas, car la notion d'objet n'existe plus et seule existe la fonction d'onde combinée.
Une façon imagée de montrer l'étrangeté de cette nouvelle interprétation, et la perplexité de beaucoup de scientifiques vis-à-vis d'elle, a été donnée par Schrödinger. Il imagine un chat dans une boite, en présence d'un atome radioactif qui le tue par un dispositif adéquat lorsqu'il se désintègre. Comme on ne sait pas à quel moment l'atome se désintègre, on ne sait pas si le chat est mort ou vivant tant qu'on n'ouvre pas la boite. Donc quantiquement, le chat est dans les 2 états à la fois. Bien entendu, cela nous choque parce que nous imaginons que le chat conserve sa réalité entre les observations, ce qui est vrai dans notre quotidien. Mais, selon une interprétation de la physique quantique, il n'y a pas d'objet, pas de réalité objective en-dehors des observations.
Je ne trouve pas l'image du chat particulière bien choisie - pauvre chat - mais elle a tellement été reprise et discutée depuis son évocation par Schrödinger que les physiciens nomment "chat" cet état qui combine deux états superposés d'une même particule, un état où l'objet est à la fois "mort" et "vivant" ou ici et là.
Dans l'expérience des trous de Young, arrêtons-nous un moment sur la description de la particule dans ses deux états simultanés, l'un où elle est passée par un trou et l'autre par l'autre trou. Cela sort complètement de nos représentations habituelles. Il n'est plus possible de décrire un objet en tant que tel, il est la superposition des états possibles de cet objet.
Mais peut-être n'insiste-t-on pas assez, même dans les textes de physique professionnels, sur le fait qu'un photon ou un électron en tant que particules n'est qu'une image. Parler d'un objet ou d'une particule nous laisse croire à leur réalité. Par analogie avec des grains de sable ou des petites billes, nous nous les représentons comme des petites sphères compactes avec une masse et une charge électrique (électrons). C'est également comme cela qu'on les dessine dans les cours de physique ou dans les logiciels spécialisés. Mais rien n'autorise à cela. La particule n'est pas une grandeur observable, mais un concept. C'est seulement une image commode, mais limitée. On ne connait des électrons que les manifestations énergétiques lorsqu'ils sont interceptés au cours d'une mesure. Tout ce qu'on peut dire est qu'ils se manifestent comme des grains localisés d'énergie (voir Matière et rayonnements).
Si nous abandonnons l'image d'une boule dure pour la remplacer par un paquet d'énergie, il devient moins étrange de l'imaginer passant par les deux trous en même temps. La notion d'objet avec ses caractéristiques perd son sens. Elle est remplacée par l'onde de probabilité qui représente l'état du système considéré qui est la superposition de tous les états possibles avec leur probabilité. Ces états sont les solutions de l'équation de Schrödinger.
En physique quantique, le modèle de l'atome analogue à un système solaire en miniature tel que Bohr le décrivait à ses débuts en 1913 (voir plus haut) n'est plus possible, à cause de l'abandon de la notion d'objet et de trajectoire. Les électrons n'existent plus en tant qu'objets et ils n'ont pas de trajectoire sous forme d'orbite. Il existe seulement des probabilités de présence de ces électrons à un endroit donné. On décrit donc l'électron par sa fonction d'onde qui fournit sa distribution spatiale.
Par contre, s'il y a une indétermination sur la position, il existe des états stationnaires où les énergies sont bien spécifiées et quantifiées. Comme on l'a vu plus haut, on les définit par leurs nombres quantiques. Les orbites sont donc remplacées par des couches d'énergie déterminée, remplies d'électrons caractérisés par des nombres quantiques spécifiés.
Considérons une entité particule/onde qui voyage, dont la probabilité de présence en un endroit donné à un instant donné, est donnée selon Born par la fonction d'onde. Si le paquet d'énergie est assez bien regroupé autour d'un emplacement, il représente une particule bien localisée. Au fil du temps, si la particule ne subit aucune interaction, l'onde s'étale de plus en plus, et la localisation de la particule est de moins en moins déterminée. La particule a une probabilité non nulle d'être dans tous ces endroits à la fois.
Imaginons maintenant que nous cherchons à la localiser avec un appareil précis qui détecte son passage. Au moment où la particule est détectée, nous savons où elle se trouve. Sa fonction d'onde s'est donc rassemblée autour de l'endroit où la particule est détectée. Elle doit être réécrite en tenant compte de cette nouvelle donnée. Ce réarrangement mathématique a été nommé par les physiciens réduction du paquet d'onde ou "effondrement" de la fonction d'onde (termes consacrés par l'usage).
Prenons l'exemple concret des trous de Young. Que signifie réduction du paquet d'onde? Au départ, la fonction d'onde décrit la combinaison des deux trajets de l'onde/particule, soit par un trou, soit par l'autre. Si nous voulons déterminer par quel trou la particule est passée, nous pouvons placer un détecteur optique très sensible. Une fois la particule détectée, la fonction d'onde est réduite à un seul trajet.
Mais alors la fonction d'onde ne contient plus qu'un seul état, et elle ne peut pas créer des interférences. L'expérience a été faite réellement. Grâce à un faisceau laser situé devant chacun des deux trous, on a pu déterminer quand le photon passait dans le trou de droite, ou dans celui de gauche. Et on a pu constater que la figure d'interférence disparait complètement.
La mesure est un événement qui agit sur la particule/onde. Avant l'observation, l'entité onde/particule est dans un certain état, ni objet, ni trajectoire. On ne connait que des probabilités. Tandis que le dispositif des trous de Young avec un écran la montre dans son état ondulatoire, la mesure de localisation la contraint à se montrer dans son état de particule. Le processus de mesure change son état en réduisant l'onde.
On peut dire que la mesure induit la façon dont l'entité onde/particule se manifeste. On ne connait d'elle que les facettes mises en évidence par les mesures. Ces mesures sont autant d'événements qui l'affectent et qui modifient son état. En physique quantique, on décrit des événements, non des objets.
Réécrire la fonction d'onde dans son nouvel état réduit après une mesure constitue un procédé technique ajouté artificiellement. C'est une mise à jour qui n'est pas prise en compte par le formalisme quantique mathématique. Il n'y a pas de fonction mathématique qui décrit le processus de mesure, et d'ailleurs on ne sait pas définir rigoureusement ce qu'est une "mesure". La fonction d'onde n'inclut ni le dispositif expérimental, ni l'observateur. Le réajustement de la fonction d'onde est dû à l'intervention de l'observateur qui effectue la mesure et qui en tient compte en modifiant ses données.
C'est pourquoi le sens de la réduction de l'onde a fait beaucoup parler et discuter. Les interprétations qui en ont été données sont non une théorie, mais réellement des interprétations, c'est-à-dire au fond des opinions, même si elles ouvrent des perspectives et des réflexions très intéressantes. La majorité des physiciens ont justifié ce procédé en énonçant que la nature ne se révèle qu'au cours d'une expérience ou d'une mesure et elle ne révèle qu'un aspect d'elle-même, celui qui correspond au dispositif de mesure. En-dehors de ces événements, elle reste cachée, voilée, inconnaissable.
Cette réflexion a conduit Heisenberg, Bohr, et Dirac à penser que la physique ne décrit pas la nature elle-même. Il n'y a pas de monde quantique. Il n'y a qu'une description physique quantique abstraite. Il est faux de penser que le but de la physique consiste à trouver comment est faite la nature. La physique se rapporte à ce que nous pouvons dire à propos de la nature... (N. Bohr)
Jusqu'alors, on supposait que le monde, l'univers, la nature, avaient une vraie existence en tant que réalité extérieure à nous. En conséquence, on pensait que la physique a pour but de fournir une description de plus en plus précise de cette réalité. Mais le caractère probabiliste de la fonction d'onde nous entraine dans un monde bien différent dans lequel mesurer ne revient pas à révéler l'état de l'onde ou de la particule telle qu'elle est au moment où on la sonde. Le processus de la mesure modifie l'onde elle-même. On ne peut donc recueillir que les données concernant l'onde modifiée, on n'a pas accès aux données de son état juste avant la mesure.
Ce que nous observons n'est pas la nature elle-même, mais la nature exposée à nos méthodes d'investigation...
Les lois naturelles que, dans la théorie des quanta, nous formulons mathématiquement, ne concernent plus les particules élémentaires proprement dites, mais la connaissance que nous en avons. La question de savoir si ces particules existent en elles-mêmes dans l'espace et dans le temps ne peut donc plus être posée sous cette forme; en effet, nous ne pouvons parler que des événements qui se déroulent lorsque, par l'action réciproque de la particule et de n'importe quel autre système physique, par exemple des instruments de mesure, on tente de connaitre le comportement de la particule. (W. Heisenberg, La nature dans la physique contemporaine, Gallimard 1968)
Par exemple, si on veut observer un petit corpuscule, il nous faut l'aide d'un microscope. Le microscope peut révéler des détails dont la taille est supérieure à son pouvoir séparateur, qui est lié à la longueur d'onde de la lumière d'éclairage (d ≃ λ/2). Mais la lumière d'éclairage est constitué de photons qui agissent comme des particules et interagissent avec le corpuscule observé. Ils entrent en collision avec lui et modifient son énergie et sa position. Une observation n'est jamais neutre, elle a toujours un effet sur l'objet observé.
La nécessité, en mécanique atomique, de tenir compte de l'interaction entre instruments de mesure et objets observés, rappelle les difficultés rencontrées par l'analyse psychologique et provenant du fait que le contenu de la conscience change immanquablement aussitôt que l'on essaie de concentrer l'attention sur un de ses éléments. (N. Bohr, Physique atomique et connaissance humaine, Gonthier-Médiations 1964)
La vision d'une nature qui non seulement reste inconnaissable en-dehors de la mesure, mais peut-être même n'existe pas, est dite interprétation de Copenhague (car Bohr résidait à Copenhague). Ceux qui s'y rallient énoncent que c'est l'observateur qui crée sa réalité lorsqu'il procède à un sondage de la matière. Lorsqu'il fait une expérience, il utilise des appareils qui sont dans un état bien défini et occupent une région bien déterminée de l'espace. Selon Bohr, le phénomène mis en évidence dans une investigation quantique inclut le dispositif émetteur, la particule, le milieu traversé et le détecteur.
John Wheeler
© NAAPO
Merci à Futura-Sciences
Par le choix de son appareil de mesure, l'observateur met en évidence un aspect particulier du système étudié, par exemple soit l'onde soit la particule. En quelque sorte, la nature répond en fonction de la question posée par l'observateur au travers de son appareillage.
Le physicien John Wheeler (étasunien, 1911 - 2008) nous dit que lorsque nous sommes dans le processus de sondage de la nature, nous devenons des participants. Pour observer un objet aussi minuscule qu'un électron, l'observateur doit atteindre l'objet. Il doit installer l'équipement de mesure qu'il a choisi. C'est à lui de décider s'il mesurera la position ou la vitesse. En tout état de cause, il ne peut pas mesurer les deux. En outre, la mesure modifie l'état de l'électron. L'univers ne sera jamais le même ensuite. Pour décrire ce qui s'est produit, il faut rayer l'ancien mot d'observateur et lui substituer le terme de participant. D'assez étrange façon, l'univers est un univers de participation. (John Wheeler, dans The Physicist's Conception of Nature, 1973)
L'être humain, participant de l'univers ! Oula, quelle formule fantastique ! Elle en fait rêver plus d'un, car elle touche à nos archétypes, nos origines cosmiques. Mais elle ne doit pas nous faire illusion. L'être humain participe à l'univers dans le cas où il sonde le monde atomique et sous-atomique, là où nous perdons la notion d'objet et de position. Ce n'est pas le cas lorsque vous mesurez la longueur de votre table. Elle reste telle qu'elle est, elle n'est pas modifiée de façon détectable par votre intervention, car nous sommes dans le monde macroscopique, c'est-à-dire à une échelle où les fonctions d'onde se diluent et s'éparpillent (voir plus bas la décorrélation). Le principe de participation ne s'applique donc pas dans le monde macroscopique, dans notre vie quotidienne. Vraiment?
Et bien si! En réalité nous influençons le monde par nos pensées et nos émotions, même à distance. Ceci a été bien démontré par quelques expériences d'avant-garde (voir article Ma vie, reflet de mes émotions). Par la seule pensée et les émotions associées, on peut influencer une réaction chimique, la cristallisation d'une substance, les nombres générés par un ordinateur, la croissance d'une plante, le taux de délinquance d'une ville, etc... Mais ces résultats ne s'inscrivent pas (encore) dans le formalisme de la physique quantique. Ils restent inexplicables dans ce cadre et d'ailleurs ils restent largement ignorés de la communauté scientifique.
J'ai le sentiment que la physique quantique universitaire ne peut pas tenir compte des forces de la pensée parce qu'elle reste au niveau de la densité matérielle. La pensée s'exerce à un niveau supérieur de réalité, celui du champ de cohérence universelle, selon la terminologie de Lynn MacTaggart (Ariane éditions), un champ qui possède ses propres lois en-dehors de l'espace-temps, et qui en retour a des manifestations dans notre densité. C'est un tout autre monde que celui de la physique de Schrödinger. Mais son exploration reste balbutiante. Nous l'approcherons un peu plus dans un prochain article.
L'interprétation de Copenhague ne fait pas l'unanimité. Énoncer que l'onde décrit toute la réalité, et qu'il n'y a pas d'autre réalité descriptible en-dehors des sondages que l'on effectue sur la nature, cela a beaucoup choqué une partie des physiciens, qui réagissaient par des discussions animées. Parmi eux de Broglie, Einstein et Schrödinger refusaient l'absence d'une réalité entre deux mesures.
Pour eux, la réalité objective existe bel et bien. La lune existe même si on ne la regarde pas, et le chat dans sa boite quantique est soit mort, soit vivant, mais pas les deux à la fois, même si on n'a pas encore examiné son état. Cette vision est nommée hypothèse du réalisme par les scientifiques, la réalité en question étant l'existence des objets eux-mêmes en-dehors de la présence d'un observateur.
Toutefois, il est incontestable que la réalité atomique et sous-atomique ne se dévoile pas complètement à l'expérience physique, puisque celle-ci la modifie. Elle se dérobe. C'est une réalité voilée, selon le terme du physicien et philosophe français Bernard d'Espagnat (né en 1921). Il y a une réalité empirique, celle qu'on observe, et une réalité sous-jacente, que la physique tente de comprendre. La physique se contente de décrire la réalité des phénomènes, qui n'est pas la réalité sous-jacente elle-même qui est voilée.
À quoi bon parler de réalité sous-jacente si on ne peut rien en dire? C'est la position de l'interprétation de Copenhague. Mais cela ne satisfait pas les esprits qui cherchent un sens à l'existence. Ils ne peuvent pas se résoudre à accepter des affirmations qui les réduisent à l'état d'une poussière apparue de façon aléatoire dans l'univers, au gré de fonctions d'onde et de probabilités. Ils cherchent à appréhender ce que pourrait bien être cette réalité sous-jacente. Mais ils ne peuvent qu'élaborer des scénarios, calculer leurs conséquences matérielles et les confronter aux expériences. Comme on peut imaginer un grand nombre de scénarios possibles, les physiciens se sont opposés et continuent à s'opposer sur différents types de scénarios.
Albert Einstein était convaincu qu'une réalité sous-jacente existe bel et bien. Il ne pouvait pas accepter "la toquade statistique" telle qu'elle se manifestait dans les spéculations de Born ou Heisenberg. La théorie quantique n'est tout simplement pas complète, puisqu'elle est incapable de décrire la réalité. Dans une lettre adressée à Born, il écrit: Dans nos spéculations scientifiques, nous sommes arrivés aux antipodes l'un de l'autre. Tu crois en un Dieu qui joue aux dés et moi en des règles qui régissent un monde où quelque chose existe objectivement et que j'essaie de saisir de façon fortement spéculative. Il était persuadé qu'il existe des mécanismes cachés encore à découvrir, comme celui qui déclenche la désintégration d'un atome radioactif à un moment précis que nous ne pouvons prévoir. Sans doute avait-il raison, puisque Schnoll a découvert certains de ces mécanismes (voir plus bas).
Pour certains, l'onde revêt une réalité physique, elle ne se réduit pas à une formule mathématique. Schrödinger pensait que les choses vibraient réellement, et que l'onde était un rayonnement à préciser qui guidait la particule. En cela, il rejoignait de Broglie qui, dans sa thèse, faisait de l'onde le pilote du corpuscule. À la fin de sa vie, il a repris et développé cette idée.
J’admets que, dans la constante association des ondes et des corpuscules naguère révélée par le succès de la Mécanique ondulatoire, l’onde et le corpuscule sont des réalités physiques dont l'évolution est susceptible d’être clairement représentée dans l’espace au cours du temps. L’onde réelle, que je nomme l’onde v, est pour moi un processus physique qui évolue dans l’espace au cours du temps suivant les équations de propagation qui sont bien connues dans les différentes branches de la Mécanique ondulatoire (équation de Schrödinger, dégénérescence non relativiste de l’équation de Klein-Gordon, équations de Dirac, équations de Maxwell, etc.). Quant au corpuscule, il est pour moi une sorte de petit objet, siège d’une haute concentration d’énergie, qui est constamment bien localisé dans son onde et qui s’y déplace suivant des lois qui vont être précisées ci-dessous (L. de Broglie, Journal de Physique, 1967). On pourrait dire aussi que le corpuscule est poussé sur l'onde comme un surfeur sur la crête d'une vague déferlante.
De Broglie a précisé sa théorie afin de la rendre compatible avec le calcul des probabilités de la fonction d'onde. C'est la théorie de la double solution. Pour lui, il existe deux ondes, qui se déduisent l'une de l'autre. L'une est l'onde pilote, elle est réelle et produit les phénomènes observables. Elle a une amplitude dont la valeur a un sens physique. L'autre est abstraite, normalisée et sert à calculer les probabilités. La théorie de l'onde pilote a été reprise et défendue par David Bohm (physicien étasunien, 1917 - 1992) à partir de 1924.
Selon Louis de Broglie et David Bohm, le caractère probabiliste de la physique quantique provient de paramètres (ou variables) de la réalité qui restent cachés à notre expérience. Ces variables cachées sont les moteurs de l'évolution du système entre deux mesures, mais nous n'en connaissons que les moyennes. C'est analogue à un gaz composé d'innombrables molécules agitées en tout sens, qui sont en équilibre thermique (système appelé thermostat par les physiciens) et dont les caractéristiques macroscopiques sont les valeurs moyennes des caractéristiques des molécules.
Il y aurait donc un milieu analogue à un gaz. L'existence d'une onde qui voyage implique l'existence d'un milieu de transmission (l'ancien éther). Autrement dit, le vide de l'espace n'est pas vide, mais contient une substance.
Jean-Pierre Vigier (physicien français, 1920 - 2004) pense que la particule se trouve constamment en contact avec un milieu caché, baptisé milieu subquantique, qui joue le rôle du thermostat caché. L'univers renferme une mer d'énergie à l'intérieur de laquelle les particules quantiques se révéleraient être des lieux particuliers… L'hypothèse d'un éther est aussi défendu par David Bohm. Il permettrait d'expliquer la transmission instantanée d'une information d'un lieu à l'autre.
De Broglie s'associe à cette vision en imaginant que l'onde représente un fluide d'une autre nature, dans lequel le corpuscule serait en mouvement comme une molécule dans un liquide en écoulement. Pour rendre plus rigoureuse la démonstration dont je viens de parler, il m’a paru depuis une dizaine d’années nécessaire d’admettre que le corpuscule se trouve constamment en contact énergétique avec un milieu caché qu’il est naturel d’identifier avec le "milieu subquantique" dont l’existence avait été envisagée dès 1954 dans un article de la Physical Review par MM. Bohm et Vigier. (L. de Broglie, Journal de Physique, 1967)
L'idée que la réalité sous-jacente soit de nature physique a été développée par plusieurs physiciens actuels, tel Milo Wolff pour qui l'espace a les propriétés d'un milieu de transmission d'onde. Toute la réalité physique est constituée d'ondes. La matière n'est pas superposée à l'onde, ni insérée dans l'onde, la matière est l'onde elle-même condensée dans une expression particulière due à un état de résonance stationnaire.
Nous approfondirons ces concepts dans l'article suivant.
Certaines des variables cachées ont effectivement été découvertes dans les processus de radioactivité et d'autres processus réputés aléatoires. Comment se rendre compte que des lois interviennent de façon subtile pour déterminer le moment où un atome radioactif se désintègre? Cela nécessite des études très fines avec des détecteurs très sensibles.
Or, ce qui est incroyable, c'est que ces études ont été effectuées et publiées pendant 40 ans en Russie par l'équipe du Pr Simon Shnoll (ou Shnol - biophysicien russe né en 1930). Bien que (ou parce que) révolutionnaires, elles sont restées inconnues ou ignorées par la communauté scientifique. Pourtant les résultats apportent une nouvelle façon d'envisager les processus stochastiques (autre mot pour aléatoire). Car ce qu'en a déduit Shnoll, ce n'est rien moins que de très nombreux phénomènes considérés jusqu'à présent comme aléatoires sont en réalité régis ou fortement influencés par un facteur cosmologique universel.
C'est grâce à un article de 21th Century en 2000 que ces recherches ont commencé à être connues plus largement par un public spécialisé. Quant à moi, j'en ai pris connaissance grâce au remarquable effort de popularisation effectué par David Wilcock dans son livre en ligne Science of Oneness (2001).
Qui est le Pr Shnoll? Il a fait des recherches à l'Institut de biophysique théorique et expérimentale à Pushchino (Université d'état de Moscou) dans des domaines variés tels que la théorie de l'évolution, la chronobiologie et les phénomènes oscillatoires en biologie. Il a formé de nombreux étudiants, dont Anatoly Zhabotinsky devenu célèbre par ses analyses de la réaction chimique oscillante de Bélousov - Zhabotinsky. En mélangeant une solution contenant de l'acide citrique et une autre contenant du bromate, la concentration des produits de réaction obtenus oscille entre deux valeurs. On peut visualiser ce phénomène de façon spectaculaire en ajoutant un réactif coloré qui passe alternativement du bleu au rouge.
Pr Simon Shnoll Merci à Wikipédia | Lorsqu'une variable X prend des valeurs distribuées au hasard autour d'une valeur moyenne, l'occurrence de ces valeurs est distribuée selon une loi statistique en cloche autour de la valeur moyenne Ici statistique de Poisson. Merci à V. Zoonek | Nombre de particules alpha détectées par intervalles de 6s (axe horizontal), au cours de la désintégration de plutonium 239. Axe vertical: nombre d'occurrences de chaque valeur de ce nombre pour 15000 mesures. La valeur moyenne se situe aux alentours de 90 particules. ©Extrait de Shnoll et coll., 1998 |
Depuis 1954, Shnoll et son équipe ont inlassablement et minutieusement recueilli des données sur des processus réputés être aléatoires, en biologie, en chimie, et en radioactivité. Pour donner une idée de quoi il s'agit, prenons le cas de la désintégration d'atomes radioactifs de plutonium 239, l'un des multiples systèmes analysés par l'équipe. Les atomes se transforment en uranium 235 en émettant une particule alpha. Un détecteur enregistre le nombre de particules émises pendant des intervalles de temps égaux et successifs, par exemple 6 secondes, un grand nombre de fois. Les valeurs obtenues sont reportées sur un graphique appelé un histogramme (voir encart).
Le nombre de fois où une variable (par exemple le nombre de particules détectées en 6s) prend une certaine valeur, s'appelle l'occurrence de cette valeur. Si on reporte sur un graphique l'occurrence d'une valeur pour chacune des valeurs (combien de fois on a détecté 20 particules, combien de fois on en a détecté 60, ou 100 etc.), on obtient l'histogramme de la variable.
Dans des phénomènes statistiques comportant un grand nombre d'événements, comme le nombre de particules dans un litre de gaz, ou le nombre d'atomes qui se désintègrent dans un gramme de plutonium, il arrive souvent que cette occurrence tourne autour d'une valeur moyenne. Cela ressemble à l'occurrence du nombre de parents qui amènent leurs enfants à l'école autour de 8h30. L'occurrence des valeurs plus grandes ou plus petites que cette valeur moyenne (exemple: 8h30) chute rapidement, de sorte qu'on a une courbe en cloche, selon la statistique de Poisson ou celle de Gauss (voir tableau ci-dessus).Dans les mesures effectuées par Shnoll, la courbe est en effet centrée sur une valeur moyenne, mais elle comporte de plus une structure secondaire superposée, faites de pics très étroits (voir tableau ci-dessus). Cela peut arriver dans des processus aléatoires si ces processus sont l'aboutissement d'une réaction en chaine de plusieurs sous-réactions aléatoires, et cela peut par exemple créer des réactions oscillantes. Mais Schnoll a montré que dans les cas innombrables qu'il a étudiés, compte tenu que la structure secondaire a des formes similaires, la cause ne pouvait pas être aléatoire.
En analysant des histogrammes obtenus dans des circonstances diverses avec des systèmes variés, Shnoll a fait une surprenante découverte. Les histogrammes se révèlent avoir des formes similaires. On peut les classer en 15 à 25 types de formes différentes.
Il a comparé les formes des histogrammes de différents types de réactions radioactives, de réactions biochimiques (hydrolyse de protéines de types différents par l'ATPase), de réactions chimiques avec des substances de faible poids moléculaire, réactions qui ont eu lieu dans l'eau ou dans d'autres solvants. L'équipe a également trouvé des formes semblables dans des mesures physico-chimiques telles que la vitesse de particules de latex dans un champ électrique.
Intrigués par ces résultats, ils ont cherché des causes techniques possibles. Mais les histogrammes sont restés les mêmes avec des détecteurs employant des technologies différentes. Ils sont restés les mêmes dans des laboratoires éloignés de centaines de kilomètres, sur un bateau dans l'océan pacifique, dans l'océan indien, et au-delà du cercle arctique.
La similitude est notable lorsque les mesures sont faites à des moments proches. Mais pas seulement. La similitude de forme se reproduit sur des cycles de temps de 24h, de 27 jours (exactement 27,28) et de 365 jours (exactement 3 valeurs 364,4 - 365,2 et 366,6 jours). Or 27,28 jours est la durée de la révolution synodique du soleil.
Les similitudes dans des circonstances aussi diverses, et pour des cycles de temps aussi précis ne peuvent se comprendre que si on fait intervenir une cause cosmologique universelle. Ce que disent ces expériences, c'est que les atomes, les molécules et leurs processus d'interaction sont influencés par le mouvement de la Terre et des planètes.
Shnoll ne dit rien de ce que pourrait être ce facteur cosmologique universel. Ses expériences ne le révèlent pas. Mais, comme le suggère Wilcock, si on fait l'hypothèse de l'existence d'un milieu subquantique, comme évoqué plus haut, alors, cela devient beaucoup plus simple et plus clair. Il suffit d'imaginer que ce milieu est mis en mouvement par le mouvement des planètes (voir un prochain article). Dès lors, il influence aussi bien les processus de désintégration radioactive que les processus chimiques ou biochimiques.
Sources: Realization of discrete states during fluctuations in macroscopic processes, S.E. Shnoll, V.A. Kolombet, E.V. Pozharskii, T.A. Zenchenko, I.M. Zvereva, and A.A. Konradov, 1998, Uspekhi Fisicheskikh Nauk, Vol. 41, No. 10, pp. 1025-1035. Russian Discovery Challenges Existence of “Absolute Time”, Jonathan Tennenbaum, 2000, 21st Century Science and Technology Magazine
Au cours des controverses qu'il soulevait sur l'incomplétude du formalisme de la physique quantique, Einstein introduisait des arguments très subtils et très pertinents, qui obligeaient ses contradicteurs à affiner et approfondir leurs propres conceptions. Ses arguments ont parfois mis Bohr dans un doute désespérant. De cette façon, Einstein a contribué à faire progresser malgré lui la théorie quantique, dans le sens inverse de ce qu'il souhaitait.
Einstein cherchait un moyen de mettre en défaut les prévisions de la mécanique quantique en ce qui concerne le principe d'indétermination de Heisenberg. Il imaginait des situations où l'on aurait pu déterminer simultanément les caractéristiques conjuguées d'une particule. C'est de cette manière qu'il s'est tourné vers le cas critique de deux particules corrélées.
Des particules sont dites corrélées si un lien a été établi entre elles, de quelque nature qu'il soit, de telle sorte que si on agit sur l'une, il y a une répercussion sur l'autre. Autrement dit elles sont étroitement associées, d'où l'image de particules jumelles. Einstein propose le cas de 2 photons qui sont corrélés parce qu'ils ont été produits simultanément par le même atome excité au moment où il retourne à son état stable.
Le cas des photons jumeaux ressemble un peu au cas du chat de Schrödinger. Dans les deux cas, nous sommes en présence d'une onde composée de 2 états entremêlés. Mais dans le cas du chat, les deux états se rapportent à un même corps, l'un vivant, l'autre mort, alors que dans le cas des photons jumeaux, les deux états se rapportent chacun à une particule différente.
Après leur émission, les deux photons suivent leurs trajectoires respectives. Einstein suppose qu'ils s'éloignent suffisamment l'un de l'autre pour devenir indépendants afin de pouvoir les mesurer indépendamment l'un de l'autre. Comme les photons ont été émis ensemble et compte tenu de la conservation de l'impulsion totale, ils portent la même information. Il suffit donc de mesurer une caractéristique sur l'un pour connaitre celle de l'autre. Sur un photon, on mesure la vitesse et sur l'autre on mesure la position. Connaissant la vitesse de l'un on peut calculer la vitesse de l'autre et même chose pour la position. On aurait alors déterminé pour chaque photon à la fois sa vitesse et sa position, ce qui est théoriquement impossible selon les lois d'indétermination.
Y a-t-il une erreur de raisonnement, ou bien l'interprétation de Copenhague ne tient-elle pas debout? Cette expérience de pensée a été publiée par Einstein en 1935, en collaboration avec Boris Podolsky et Nathan Rosen (Can Quantum-Mechanical Description of Physical Reality Be Considered Complete? Phys. Rev., vol. 47, 777-780) et a été nommée le paradoxe EPR. Elle a mis dans l'embarras les tenants de l'interprétation de Copenhague, jusqu'à ce que le problème soit repris en 1964, comme nous l'apprenons ci-dessous.
Dans cette section, nous entrons dans une discussion un peu délicate, mais cruciale. Si cela vous semble ardu, vous pouvez passer aux deux derniers paragraphes.
La condition qui est discutable dans l'énoncé EPR est l'indépendance des deux particules lorsqu'elles sont éloignées. L'idée de séparation et d'indépendance entre deux objets suppose que nous pouvons influencer un objet ou un système à un endroit sans que cela affecte un autre système situé à un autre endroit éloigné. Chaque objet a sa place bien localisée et indépendante. C'est ce qu'on nomme la condition de localité.
Or Einstein est aussi l'inventeur de la Relativité spéciale. Pour lui, influencer une particule depuis une autre particule signifie qu'un signal qui voyage à la vitesse de la lumière en provenance d'une particule peut atteindre la deuxième. Dans le cas contraire, si la distance entre les deux particules au moment de la mesure est trop grande pour qu'un signal puisse atteindre la deuxième particule, elles sont considérées comme indépendantes. Cette définition est donc liée au principe de la limite de vitesse de propagation d'un signal lumineux, principe dont rien ne garantit qu'il ne peut pas être remis en cause.
Au paradoxe EPR, Bohr répondit (en gros, car c'est assez compliqué) que mesurer la vitesse d'une particule se fait avec un certain appareillage, qui est inclus dans la situation décrite; que mesurer la position se fait avec un autre appareillage, donc dans une autre situation; en conséquence que les deux réalités mesurées sont différentes et ne peuvent pas être rapportées au même système évalué.
Dans la version d'Einstein d'une réalité voilée, les particules sont imaginées comme des entités réelles et localisées. Elles possèdent leurs caractéristiques intrinsèques, de même que des billes ont une taille, un poids, une couleur. Les particules possèdent des propriétés dont la valeur est supposée être fixée dès le départ, en relation avec les conditions de l'expérience.
Considérons deux particules jumelles (autrement dit corrélées) possédant une ou plusieurs caractéristiques pouvant prendre des valeurs variables. Selon l'hypothèse du réalisme, chacune des particules, même séparées, emporte avec elle la valeur de cette variable. C'est ce qui explique que les deux particules restent corrélées lorsqu'elles voyagent, même à de grandes distances. La mesure effectuée sur une particule reflète la propriété qu'elle portait au départ, indépendamment de sa détection.
De son côté, l'interprétation de Copenhague affirme que la valeur de la caractéristique des deux particules corrélées n'est pas fixée. Elle n'a pas de sens en-dehors d'une mesure. Bien qu'elle apparaisse rigoureusement la même (ou la complémentaire) pour les deux dans toute mesure à cause de leur corrélation, elle reste indéterminée tant qu'elle n'est pas observée par un appareil de mesure. C'est la mesure qui confère une existence à la caractéristique et une réalité à sa valeur. Qui a raison?
Alain Aspect
Merci à Wikipédia
Le problème rebondit en 1964, lorsqu'un physicien nord-irlandais, John Stewart Bell (1928 - 1990) démontre un théorème de statistique qui s'applique à des groupes d'objets dénombrables qui ont été en interaction (corrélés), puis ont été séparés et ne peuvent plus communiquer l'un avec l'autre. On se place dans l'hypothèse de localité (indépendance à une certaine distance). On suppose également que ces objets possèdent une ou plusieurs propriétés dont la valeur est identique chez les individus corrélés, et qu'ils la conservent lorsqu'ils sont séparés (réalisme). Ce sont là les hypothèses de la réalité voilée. Le théorème énonce que, dans ces conditions, le nombre des objets dont la propriété a telle valeur satisfait à des lois appelées inégalités de Bell.
Avec ces lois, il suffisait de faire l'expérience sur des groupes de particules corrélées pour savoir si elles satisfont aux inégalités de Bell. Mais les conditions techniques d'une telle expérience sont très compliquées. Il a fallu attendre 1982 pour détenir des moyens techniques suffisamment précis pour la réaliser. Elle a été effectuée par le physicien français Alain Aspect (né en 1947) et ses collaborateurs. Les particules corrélées sont des photons et la caractéristique mesurée est leur polarisation. Par la suite, l'expérience a été renouvelée et perfectionnée par Aspect lui-même et par d'autres équipes (Nicolas Gisin, Anton Zellinger ... - voir annexe).
Les résultats expérimentaux d'Aspect et des autres équipes ont montré que les mesures statistiques sur les caractéristiques des particules ne suivent pas les inégalités de Bell. Cela semble invalider le modèle de la réalité voilée et donner raison à l'école de Copenhague. Toutefois, la conclusion n'est pas aussi tranchée. Ce qu'on déduit logiquement des résultats négatifs, c'est qu'il faut renoncer à au moins une des deux hypothèses sur lesquelles les inégalités de Bell ont été établies.
Je rappelle ces hypothèses: D'une part le fait qu'on est en présence d'objets séparés qui existent en permanence avec leurs caractéristiques intrinsèques bien définies, même si on ne les a pas mesurées (hypothèse du réalisme). D'autre part la validité de la relativité spéciale qui énonce qu'un signal ne peut pas voyager à une vitesse supérieure à celle de la lumière dans le vide (hypothèse de localité).
Suite aux résultats statistiques expérimentaux de l'expérience d'Aspect, on a le choix d'abandonner l'une ou l'autre des hypothèses, ou les deux.
Peu de physiciens sont enclins à abandonner la Relativité qui est pour eux une théorie bien établie (voir les développements de cette hypothèse dans l'encart). Cette position semble dogmatique, puisqu'une théorie devrait toujours pouvoir être remise en cause. Elle peut se révéler valide seulement dans des circonstances précises, celles qu'on rencontre habituellement, et inadéquate dans d'autres. Mais suivons les raisonnements de ces physiciens, car ils peuvent s'avérer fructueux.
Suite aux conclusions de l'expérience d'Aspect, nous avons choisi de conserver la validité de la Relativité et de renoncer au réalisme. Quelques physiciens ont examiné l'inverse: nous gardons l'hypothèse du réalisme et nous renonçons au principe de Relativité.
Prenons le cas de 2 photons jumeaux, dont nous mesurons la polarisation qui peut prendre deux valeurs: V (verticale) ou H (horizontale).
Garder le réalisme signifie que les photons ont un état défini de polarisation (soit V, soit H) dès le départ, même si on ne le connait pas. Pour rendre compte de la corrélation mise en évidence lors des mesures statistiques, il faut supposer que le photon B peut calquer l'état du photon A, et donc que le photon A communique son état au photon B par un signal qui se déplace plus vite que la lumière.
En 2003, sur le modèle des inégalités de Bell, Sir Anthony J. Leggett (physicien britannique, né en 1938, prix Nobel de physique 2003) a formulé une série d'inégalités mathématiques relatives aux mesures des propriétés des deux particules, qui devraient être vérifiées dans ce cas.
Elles ont été testées par l'équipe de l'Institut d'optique et d'information quantiques de Vienne (Autriche), entre 2006 et 2007, sous la direction de Anton Zellinger. Les expériences ont montré que ces inégalités n'étaient pas vérifiées.
Elles suggèrent que le réalisme non-local, avec un signal plus rapide que la lumière, n'est pas envisageable. L'interprétation de Copenhague semble donc validée.
Source: An experimental test of non-local realism, Simon Gröblacher, Tomasz Paterek, Rainer Kaltenbaek, Caslav Brukner, Marek Zukowski, Markus Aspelmeyer, Anton Zeilinger, 2007, Nature 446, 871-875
Conservons la localité et abandonnons le réalisme. En-dehors des mesures, on ne peut pas parler de réalité, de valeurs des variables, mais seulement d'onde de probabilité.
Si des corpuscules localisables interagissent à un instant donné, ils forment un ensemble corrélé (on dit aussi intriqué) dont la fonction d'onde est une combinaison des états des différents corpuscules. Leurs variables sont corrélées, ce qui, rappelons-le, signifie que dans toute mesure, elles seront en concordance entre elles, même si les corpuscules sont très éloignés. Comment interpréter cette déduction logique?
Les corpuscules corrélés continuent à être connectés quel que soit leur éloignement, même à des années-lumière de distance. Ils forment une seule réalité inséparable. Leur fonction d'onde est globale et faite de leurs états entremêlés (intriqués). C'est l'état de non-séparabilité.
Dire que les variables mesurées de corpuscules intriqués sont toujours en concordance, c'est dire que même s'ils sont séparés, la modification de la caractéristique de l'un entraine la modification de celle de l'autre. On peut faire une analogie avec des jumeaux humains. Si l'un subit une grande émotion, l'autre peut la ressentir, même s'ils sont très éloignés. Il y a une limite à cette analogie par le fait que les jumeaux continuent à exister en-dehors de toute mesure, ce qui n'est pas le cas des corpuscules.
Il faut insister sur le fait que l'influence entre les corpuscules corrélés est instantanée. Les physiciens de cette école de pensée se représentent aucun transport. Le transfert d'information a lieu sans aucun signal qui voyagerait d'un corpuscule à l'autre, même à vitesse infinie. Cela implique que si on effectue une mesure sur l'un des corpuscules, on obtient aussi l'information sur l'autre.
Cette perspective a enflammé les imaginations, car certains en ont aussitôt entrevu les applications pratiques possibles. On pourrait téléporter de l'information à vitesse infinie! La recherche dans ce domaine va bon train. Des expériences de téléportation quantique ont bien eu lieu, impliquant jusqu'à 8 photons intriqués. Des applications pratiques sont déjà en cours dans le domaine de la cryptographie. (voir en annexe)
Mettre au point des expériences pour préparer des particules intriquées n'est pas aisé. Il faut des conditions environnementales très strictes, faute desquelles l'intrication va être rapidement détruite.
Le système corrélé subit forcément plus ou moins des interactions avec son environnement qui le perturbent. Peu à peu (en fait très très rapidement), les états superposés de la fonction d'onde sont déphasés et le système évolue vers un état classique macroscopique observable. Il subit une décorrélation ou décohérence. Même le simple fait d'éclairer un système quantique suffit à provoquer une décohérence.
La théorie de la décohérence a été introduite par Hans Dieter Zeh en 1970, en prenant appui sur les idées de Hugh Everett que nous abordons ci-dessous. Elle a reçu ses premières confirmations expérimentales en 1992. De nombreuses démonstrations de ce phénomène ont été réalisées avec diverses particules (photons, ions, électrons…). C'est ce qui explique pourquoi les lois quantiques qui sont valables dans le monde atomique cessent de l'être à l'échelle macroscopique.
Nombreux sont les scénarios qui tentent de décrire une réalité cachée qui se substituerait à la vision positiviste de Copenhague. Parmi eux, il y a ceux qui font intervenir une information qui remonte dans le temps, à un moment de décision de la particule. Cela semble assez fou, mais ce qu'on nomme fou, c'est seulement ce qui heurte nos habitudes. Ça n'est pas pour autant que l'hypothèse ne tient pas debout.
Ainsi, réfléchissant à la situation de photons corrélés, Olivier Costa de Beauregard (physicien français 1911 - 2007) a suggéré sous le nom de causalité rétrograde, qu'un message partant du photon 1 pouvait remonter le temps jusqu'au moment où les deux photons sont produits afin que le photon 2 soit averti du résultat de la mesure et adopte la même valeur (Le temps déployé, Ed. Du Rocher, 1968 ). Cette interprétation se place dans le cadre où l'on confère une certaine réalité physique à l'onde.
À l'appui de cette hypothèse, il faut remarquer que dans les équations du mouvement de la particule - autre dit dans l'équation de Schrödinger - rien n'interdit de choisir comme solution une onde qui remonte le temps. Si le temps est irréversible à l'échelle macroscopique, ça n'est pas inscrit à l'échelle microscopique.
Dans le cas d'un photon qui peut prendre deux chemins possibles, dont l'onde est la combinaison de deux états superposés - situation de l'expérience des trous de Young - John Wheeler s'est demandé ce qui se passerait si, au lieu de prévoir à l'avance le type de montage expérimental (détection de particule ou détection d'onde), on le décidait au dernier moment, de sorte que le photon ne puisse pas "savoir" ce qu'on attend de lui.
En 1978, il imagine une expérience avec un appareillage modernisé dans lequel les trous de Young sont remplacés par la lame d'entrée semi-réfléchissante d'un interféromètre. On prend une source à photon unique, telle que celles des expériences vues plus haut (encart Interférences avec des particules uniques). L'onde lumineuse du photon unique suit deux chemins, qu'on peut recombiner en une onde à la sortie grâce à une autre lame semi-réfléchissante. Mais si on enlève cette lame de sortie, alors, on peut savoir si le photon en tant que particule est passé par un chemin ou par l'autre. Que se passe-t-il si, par une mécanisme électronique aléatoire indépendant de l'expérimentateur, la décision d'insérer la lame de sortie a lieu après que le photon soit passé dans la lame d'entrée? On pourrait penser que tout est joué et qu'il n'y a plus qu'à constater son comportement. Une autre version de cette expérience de pensée a été proposée en 1982 par M.O. Scully and K. Drühl (université du Texas).
Le test a été réalisé concrètement en 1998 par l'équipe de Yanhua Shih (University of Maryland, États-Unis), puis en 2007 par Jean-François Roch et ses collègues de l'ENS de Cachan (France). Les résultats sont stupéfiants. Même décidé après que l'onde ait largement dépassé la lame, c'est le choix de l'observateur (en fait la machine aléatoire) qui détermine si le photon est passé par un chemin ou par l'autre en tant que particule ou par les deux en même temps en tant qu'onde.
La même expérience de décision retardée a été réalisée par l'équipe d'Anton Zellinger en 2012, avec un système de deux paires de photons intriqués. Le choix consiste à décider si les photons sont intriqués ou séparés. Il est effectué après avoir mesuré la polarisation des photons. Les résultats sont que, là encore, si les photons sont séparés, leurs polarisations sont bien définies, tandis que s'ils sont intriqués, leurs polarisations sont les mêmes sans être définies. Ils confirment que les valeurs sont conformes au choix de l'expérimentateur, même effectué en différé.
Comment est-ce possible? L'intervention différée du détecteur semble modifier le passé du photon. On peut imaginer que le photon ait eu la possibilité de remonter dans son passé - juste avant de passer dans le détecteur - pour déterminer son comportement.
Toutefois, aussi bien pour Roch que pour Zellinger, fidèles à l'interprétation de Copenhague, les résultats expérimentaux ne font que confirmer qu'aucune réalité physique n'existe, ni en tant qu'onde ni en tant que photon, tant qu'on ne réalise pas la mesure. Il n'existe que des possibilités.
Sources: A Delayed Choice Quantum Eraser, Yoon-Ho Kim, R. Yu, S.P. Kulik, Y.H. Shih, Marlan .O. Scully, Phys.Rev.Lett. 2000, 84, 1-5; Choix retardé: quand la mécanique quantique "agit" sur le passé, Laurent Sacco, Futura-Sciences, 27/02/2007; Sources de photons uniques et expérience à choix retardé de Wheeler: la dualité onde corpuscule à l'épreuve de l'expérience, Vincent Jacques, Ann. Phys. Fr., 2007, 32, 1-136; Delayed-Choice Test of Quantum Complementarity with Interfering Single Photons, Vincent Jacques et al., Phys. Rev. Lett. 2008, 100; Experimental delayed-choice entanglement swapping, Xiao-song Ma, Stefan Zotter, Johannes Kofler, Rupert Ursin, Thomas Jennewein, Časlav Brukner, Anton Zeilinger, Nature Physics, 2012, 8, 479–484; Entangled In the Past: “Experimental delayed-choice entanglement swapping”, Chad Orzel,2012, ScienceBlogs
Multiples sont les scénarios qui tentent de décrire une réalité cachée qui se substituerait à la vision positiviste de Copenhague. L'un des plus intéressants est celui des mondes parallèles.
Alors que la fonction d'onde avant la mesure est potentiellement porteuse de plusieurs états probables, selon l'interprétation de Copenhague un seul est capté par la mesure. Tous les autres sont irrémédiablement perdus pour notre réalité perceptible. Ce qui semble bizarre, c'est que le choix de l'état retenu par la mesure semble complètement arbitraire. Rien dans la fonction d'onde ne fournit d'indication pour prévoir lequel va être capté. Et lorsqu'on réduit la fonction d'onde après la mesure, ce n'est pas en appliquant une fonction mathématique issue de l'équation de Schrödinger, mais par un procédé ajouté à la théorie, qui semble dire que la fonction d'onde n'est pas la bonne et qu'il faut la réajuster.
Hugh Everett
Merci à University of California
Ces bizarreries ont conduit Hugh Everett (physicien et mathématicien étasunien, 1930 - 1982) à proposer un autre modèle de réalité sous-jacente, présenté en 1957 dans sa thèse de doctorat sous la direction de John Wheeler. Dans ce modèle, les états abandonnés par la mesure ne sont pas perdus, ils continuent à exister dans des mondes parallèles.
Au moment d'une interaction quantique réalisée par un expérimentateur, le monde se divise en plusieurs branches, dont chacune correspond à l'un des résultats possibles, contenus dans l'équation d'onde de Schrödinger. Chacune de ces branches décrit la réalité qui correspond à l'état retenu. Puis elles évoluent en parallèle de façon indépendante en s'ignorant mutuellement. Si l'expérimentateur mesure la polarisation d'un photon, le monde se divise en deux réalités. Dans l'une, le photon a une polarisation de valeur + et dans l'autre, elle a une valeur -.
Le modèle d'Everett a l"originalité de considérer l'existence de réalités multiples et parallèles. Il n'y est plus question de probabilités, ni de réduction du paquet d'onde. Tout est réel.
Mais pourquoi ne percevons-nous qu'une seule de toutes ces réalités? Parce que, pour Everett, l'observateur est inclus dans la branche de réalité, et il ne perçoit que celle à laquelle il appartient. L'observateur n'est plus extérieur au système quantique, ni son appareillage de mesure. L'observateur et l'appareillage, qui sont indissociables du processus de mesure et de son résultat, sont décrits par une fonction d'onde élargie universelle qui est composée de l'état mesuré de l'objet, de l'état de l'appareillage et de l'état de l'observateur. Autrement dit, dans chaque branche de réalité, il y a une version différente de l'observateur, qui avec son appareillage observe un résultat de mesure différent.
Historiquement, cette interprétation a été rejetée par Bohr, qui la considérait comme ayant une valeur uniquement métaphysique. Elle a cependant été timidement soutenue par Wheeler, le directeur de thèse d'Everett. Mais celui-ci, découragé par le désintérêt ou le rejet de la communauté scientifique, s'est tourné vers d'autres activités dans le domaine des applications militaires. Il ne s'est plus soucié de sa théorie, sauf occasionnellement lorsque des admirateurs le sollicitaient.
Or sa théorie a été appréciée par d'autres physiciens comme Bryce Seligman DeWitt (physicien étasunien, 1923 – 2004), qui en a conduit des développements. Actuellement, elle reçoit un regain d'intérêt de la part des scientifiques, même si elle reste très controversée. Pour Thibault Damour (physicien français, né en 1951), c'est même celle qui s'impose désormais (dans La Recherche, 2009).
Aujourd'hui la théorie des mondes parallèles n'est plus considérée seulement comme une spéculation métaphysique, mais comme une piste prometteuse.
Il faut dire que l'idée des mondes parallèles est dans l'air, puisque d'autres modèles scientifiques de mondes parallèles ont vu le jour. Ils ne sont pas issus de la physique quantique, mais de la théorie de la gravité et des études sur l'origine de l'univers. Cela vaut le coup de présenter brièvement deux d'entre eux.
L'un des modèles part de la description standard de l'univers et de son expansion continuelle à partir du Big Bang. Dans cette description, la vitesse de fuite d'un point par rapport à un autre est proportionnelle à leur distance, et leur rapport est la constante de Hubble H. Toutefois, toujours selon cette description, il y a eu un moment, tout de suite après le Big Bang, où cette expansion a été beaucoup plus rapide. Elle était exponentielle. Cette phase est appelée phase d'inflation. Le modèle des bulles de mondes parallèles, ou plus exactement des multi-univers ou multivers, énonce que certaines régions de l'univers continuent à connaitre une phase d'inflation. C'est comme si un big bang se produisait dans chacune de ces régions qui deviennent un univers dans l'univers, une bulle d'univers. Chaque bulle pourrait être régie par des lois physiques différentes.
Selon un autre modèle, des univers pourraient naitre à partir de trous noirs en expansion. Selon Lee Smolin (physicien canadien né en 1955), notre monde aurait ainsi au moins 1018 univers-enfants créés par des trous noirs. Des univers peuvent être imbriqués les uns dans les autres. Un univers-enfant peut contenir des univers petits-enfants.
Au terme de notre visite rapide dans les terrains complexes de la physique quantique, parfois vertigineux parfois tourmentés, se présente à nous une vision bien étrange de notre monde, qui me laisse perplexe.
Il semble établi que la connaissance que nous pouvons recueillir d'un système quantique, c'est-à-dire du monde et de l'univers eux-mêmes, est entièrement décrite par sa fonction d'onde. Mais quelle est la nature de cette onde? Quelle réalité décrit-elle? Décrit-elle d'ailleurs une réalité?
Pour la majorité des physiciens, seule compte la réalité empirique qui se manifeste au moment des observations et des mesures. Le reste est spéculation. La fonction d'onde est un outil de calcul extrêmement puissant, sans rapport avec une réalité sous-jacente quelconque. Il est inutile de se préoccuper de l'existence d'une telle réalité qui reste au-delà de nos possibilités d'investigation. Ce n'est que métaphysique.
Mais alors, pourquoi la matière se manifeste-t-elle tantôt sous sa forme particulaire, tantôt sous sa forme ondulatoire, comme les expériences l'ont montré sans ambiguïté? Pourquoi cette dualité?
Au passage, je souligne que le mot particule lui-même, qui est employé dans les discours scientifiques, fait souvent croire à sa réalité, alors qu'il n'est qu'un modèle, une représentation. Dans les faits, on n'observe pas des boules dures, mais les manifestations d'un paquet d'énergie, de ses interactions avec l'appareillage, et de sa dynamique.
Du double visage particule et onde de la matière, les physiciens se sont d'abord fait une représentation empirique, en réunissant les deux aspects. C'est l'un ou l'autre de ces aspects qui apparait selon les circonstances, mais ils ne peuvent pas apparaitre simultanément. Autrement dit, la nature se révèle à nous selon la façon dont on l'interroge, un peu comme lorsqu'on interroge une personne pudique, qui ne se dévoile que lorsqu'on lui pose des questions. Elle répond avec parcimonie, et ne révèle que quelques fragments de sa réalité, ceux qui sont en rapport avec nos questions. On ne saura rien de sa vérité profonde si on ne lui pose pas les questions correspondantes. De même, la nature se révèle selon les dispositifs instrumentaux des expériences scientifiques, qui sont eux-mêmes le produit des esprits scientifiques, avec les limites de leur imagination dues à leur culture et aux modes de représentation de leur temps.
Mais la nature détient-elle une vérité plus profonde derrière les phénomènes, à l'image d'une personne pudique? Puisque la nature se manifeste parfois comme onde, parfois comme particule, y aurait-il une entité quantique à part entière qui existerait même en-dehors des observations?
Pour cette question, nous pouvons faire l'analogie du phénomène avec un écran de télévision qui nous montre des images et émet des sons, alors qu'une réalité sous-jacente est présente entre la station de diffusion et l'écran: c'est l'onde électromagnétique porteuse de signaux codés. Ces signaux restent indifférenciés, n'étant ni image, ni son, mais support électromagnétique, tant qu'ils ne sont pas mis en évidence par le dispositif de détection, le décodeur et l'écran. Derrière les phénomènes naturels, y aurait-il un plan où évoluent des entités abstraites porteuses des signaux codés indifférenciés qui ne sont ni onde ni particule?
Pouvons-nous nous contenter d'un monde de phénomènes, sans aucun sens particulier à l'existence? Nous avons pu voir que certains courants scientifiques ont tenté de répondre non, mais ils ont été rejetés ou mis prudemment à l'écart. C'est le cas des modèles basés sur le "réalisme" (au sens des inégalités de Bell), ou encore des mondes parallèles d'Everett.
Peut-être sont-ils encore trop limités? Le réalisme envisagé reste un monde d'objets concrets, avec leurs caractéristiques propres et bien définies. Les mondes parallèles d'Everett restent très matériels, semblables au nôtre. Vous êtes fumeur dans l'un, non-fumeur dans l'autre. Pourrions-nous envisager une autre forme de réalité?
Certains scientifiques tentent de le faire de façon rudimentaire et timide. On les comprend, soit à cause de leur propre éducation scientifique, soit parce que la communauté scientifique n'y est pas favorable et que suggérer un plan ou un sens à notre existence et à la structure de l'univers relève d'une hérésie condamnable.
Basarab Nicolescu (physicien français d'origine roumaine, né en 1942, fondateur du CIRET), en se référant au philosophe Stéphane Lupasco, propose une structure ternaire: l'onde, la particule, et un troisième état placé à un niveau supérieur de réalité. Ce troisième état contient un potentiel qui se manifeste (s'actualise) au moment de la mesure. Le troisième état représente donc une réalité sur-jacente qui serait plus réelle que la réalité matérielle. Nicolescu ne s'aventure pas dans la description de ce que pourrait être cet état.
Le physicien suisse Nicolas Gisin (né en 1952) envisage la possibilité que ce que nous observons est seulement l'ombre (la projection) dans notre espace 3D d'une réalité plus vaste comportant de nombreuses dimensions. Il ne dit rien de ce que pourraient être ces dimensions.
En abordant le sujet de l'existence possible d'un plan supérieur indifférencié, nous effleurons le domaine de la spiritualité. Rien d'étonnant à cela puisque la quête du physicien et la quête du mystique se rejoignent sur les mêmes questions: qu'est-ce que l'univers? Qui sommes-nous? Quels sont nos rapports avec lui? Mais tandis que le mystique cherche des réponses en lui, en explorant ses profondeurs, en élargissant éventuellement son état de conscience par la méditation, le physicien aborde le sujet de l'extérieur, en évitant de modifier le sujet observé.
Or voilà que la physique quantique nous annonce que l'observateur et l'observation modifient justement l'objet, et qu'il en ressort différent !! Et que la réalité n'est pas ce qu'on croyait; elle inclut peut-être une instance supérieure, un plan indifférencié !
Les philosophies traditionnelles décrivent toutes, chacune à leur façon, un monde de l'au-delà, dont les lois ne sont pas celles de la matière, un autre plan de réalité qui est sous-jacent aux phénomènes, en tant que potentialité non-réalisée. Il assure la cohérence et l'unité de toute chose. Il n'est pas statique, il contient des dynamiques qui assurent l'évolution des systèmes naturels. Il est un réservoir d'informations, de programmes de développement. Ces enseignements quasiment universels devraient nous mettre la puce à l'oreille. Alors pourquoi les physiciens s'évertuent-ils à écarter toute évocation d'un tel plan supérieur, même comme guide à titre d'hypothèse, au prix de grandes contorsions intellectuelles?
En réalité, ce n'est pas le cas de tous. Dans l'histoire de la physique quantique, plusieurs scientifiques ont été proches ou même inspirés par des considérations spirituelles. C'est par exemple le cas d'Einstein. Ou encore celui de Bohr. Au cours d'une visite en Chine en 1937, alors qu'il avait déjà élaboré sa vision quantique, il a été tellement frappé par les notions de pôles opposés exposées dans les anciens textes chinois, que 10 ans plus tard, lorsqu'il fut anobli par le gouvernement danois, il choisit comme blason le célèbre symbole du Yin et du Yang avec la devise: Contraria sunt complementa.
La convergence de la physique et de la spiritualité a été initiée et popularisée par le physicien Fritjof Capra (étasunien, né autrichien en 1939) par son livre Le Tao de la physique (1975). Les apports de la physique quantique, de la relativité et de l'astrophysique ont complètement changé la vision que l'humanité avait encore du monde au milieu du 20e siècle. Le monde n'était plus une machine au mouvement régulier et immuable comme le voulait la mécanique de Newton et de Lagrange. Il est devenu un monde en perpétuelle évolution, qui se crée en permanence.
L'univers est engagé dans une danse cosmique ininterrompue. C'est un système composé d'éléments inséparables, sans cesse en mouvement, animés par un continuel processus d'interaction. L'observateur en fait partie intégrante. Ce système reflète une réalité, située au-delà du monde de la perception sensorielle ordinaire, il implique des dimensions plus vastes et transcende le langage ordinaire et la logique raisonnante (F. Capra). En cela, la science rejoint les enseignements spirituels traditionnels.
À cause de ces convergences, beaucoup de gens extrapolent et font dire à la physique quantique ce qu'elle n'a jamais dit. La possibilité de participation, d'intrication et de téléportation fait rêver et on croit que la physique quantique en est au point d'expliquer des visions à distance et autres facultés paranormales. Revenons à la réalité qui vient d'être exposée: actuellement, la participation se limite en gros au choix du résultat de la mesure de la polarisation d'un photon, et l'intrication a pu être réalisée avec 8 photons. C'est un exploit fantastique, mais à ce jour aucun être humain n'a été corrélé.
Des fantasmes à ce sujet sont surtout répandus par ceux qui ne se renseignent pas vraiment sur ce qu'est cette physique et sur ce qu'elle énonce réellement. Il est vrai qu'elle est très complexe et particulièrement difficile à vulgariser. J'espère avoir réussi dans une certaine mesure.
Et pourtant, ces phénomènes paranormaux, ces visions à distance, ont bien été attestés, y compris dans le cadre de recherches militaires russes et américaines. Il a également été bien établi que la pensée et les émotions ont une influence sur notre environnement et qu'un expérimentateur peut par sa pensée influencer le résultat d'une expérience. On devrait en tenir compte dans le protocole des expériences de la physique quantique qui ne s'en soucie aucunement. Par la pensée, nous pouvons changer les qualités d'une eau, et nous pouvons influencer notre état de santé. Bien plus, ce que je vis individuellement dans ma vie est relié à mon système de pensées et d'émotions (voir article Ce que je vis est le reflet de mes émotions). Ceci a été enseigné depuis longtemps dans de nombreuses écoles spirituelles telles que l'hindouisme, l'hermétisme ou la kabbale parmi bien d'autres.
Mais l'explication n'est pas fournie par la physique quantique elle-même, tout au moins la physique validée par les universités. Il faut la chercher ailleurs. Une approche expérimentale nous est fournie par la mise en évidence d'un biochamp électromagnétique sous forme d'hologramme régi par l'ADN (travaux de Popp, Gariev et d'autres - voir article L'ADN électromagnétique).
Malgré les convergences de la physique et de la spiritualité, je constate que, en ce qui concerne nos questionnements sur notre place dans l'univers et le sens à donner à notre existence, les apports de la physique quantique restent rudimentaires par rapport aux enseignements spirituels ésotériques avancés.
Ces enseignements, ou plus simplement les expériences mystiques vécues par beaucoup de gens sur toute la planète (y compris dans votre entourage, même s'ils n'osent pas vous l'avouer de peur d'être ridiculisés), nous éclairent sur la réalité des plans supérieurs. Par l'exploration des mondes supérieurs en conscience élargie, volontaire ou non, le mystique a accès à des mondes et des réalités que la physique ne peut atteindre avec ses moyens d'investigation actuels (voir parmi des milliers d'autres témoignages, le récit de l'expérience intense vécue par Anita Moorjani).
Bien que la physique ait obtenu des succès considérables dans l'explication de certains phénomènes, bien qu'elle ait conduit l'esprit humain hors des chemins battus, ses moyens d'investigation restent dans le plan de la matérialité, une matérialité qui certes devient de plus en plus subtile, mais qui ne peut sonder que le plan inférieur de la réalité. À cela s'ajoute que toute nouvelle connaissance des physiciens est immédiatement orientée en termes de possibilités d'applications techniques et commerciales (par exemple, les ordinateurs quantiques).
Je peux donner l'analogie suivante sur la situation des physiciens. Imaginons que nous vivons dans l'air et que nous ne savons rien du monde intérieur de l'eau. Nos instruments observent la surface de l'eau. Nous y voyons des ronds se former, et des poissons sauter et nous imaginons une certaine vie interne. Mais nos scénarios sont très hasardeux. Que pouvons-nous savoir de la vie dans l'eau elle-même tant que nous n'entrons pas dans l'eau avec des instruments adaptés à l'eau? De même nous ne pouvons connaitre le monde mystique que par des investigations mystiques, celles qu'on effleure dans les rêves, dans certaines pratiques artistiques ou par la méditation, non par les instruments de la matière. Beaucoup l'ont fait depuis des siècles et ce sujet est bien documenté.
Que nous apprennent les enseignements spirituels sur le monde supérieur? Qu'il comporte plusieurs niveaux. Oui, il y a bien des mondes parallèles, mais ils sont étagés selon une densité de plus en plus tenue, un état vibratoire de plus en plus élevé qui correspond au niveau d'évolution de l'âme. Notre corps comporte ces mêmes niveaux de densité, qui sont appelés corps subtils (voir article Corps subtils et chakras). Ces plans obéissent à d'autres lois, dont l'influence de la pensée en est un exemple. Dans ces plans, se trouvent les schémas de pensées et les codes d'évolution des créatures.
ANNEXES
Lorsqu'une onde oscille sur place, elle est dans un état stationnaire. Lorsqu'une onde se propage en cercle et si la longueur du cercle vaut un nombre entier de fois sa longueur d'onde, lorsqu'elle a effectué un tour complet, elle se retrouve en phase avec elle-même et se renforce. Elle vibre sur place et se trouve dans un état stationnaire. (voir article Matière et rayonnements)
C'est le cas par exemple des ondes électriques de Schumann qui se propagent autour de la Terre dans l'ionosphère. Les états stationnaires sont un cas fréquent en physique classique. On en trouve sur les cordes qui vibrent et produisent des sons. Ce sont aussi des ondes stationnaires sonores qui sont à l'origine des extraordinaires figures de Chladni dans le sable ou celles de Lauterwasser dans l'eau (voir article Sons créateurs de formes). Des ondes stationnaires se produisent chaque fois que l'onde entre en résonance avec l'espace dans lequel elle est astreinte à rester.
Le modèle de l'atome de Bohr, quoique abandonné par la physique quantique, l'a guidée pour avancer dans sa compréhension de la quantification de l'énergie des orbites des électrons. En effet, si on écrit que l'onde associée à l'électron est stationnaire, on en déduit facilement la règle de quantification.
Soit un électron qui décrit une orbite circulaire de rayon r. L'onde qui lui est associée, de longueur d'onde λ=h/p, entre en résonance avec la circonférence 2π.r si celle-ci est un multiple de λ.
Soit
De même, l'énergie totale de l'électron, somme de son énergie cinétique et de son énergie potentielle (attraction de l'électron de charge e par le noyau de charge Ze à la distance r) est quantifiée par des sauts d'énergie en 1/n2
Il s'ensuit que le moment cinétique de l'électron M = r.p ne peut prendre que des valeurs précises, n.h/2πLa résolution de l'équation de Schrödinger confirme le résultat, car elle montre qu'il n'existe des ondes possibles que pour certaines valeurs de l'énergie totale de la particule.
Pour plus de précisions, voir par exemple: Introduction à la physique quantique par ERGA (Ph. Tourrenc, P. Angelo, J. Gariel)
Avec les inégalités de Bell, les chercheurs disposaient d'un outil statistique pour tester la validité du réalisme et de la localité. Mais la réalisation pratique de particules corrélées ou intriquées satisfaisant aux conditions exigées par ces inégalités est délicate. Pour que la localité ne puisse pas intervenir, il faut que les particules intriquées ne puissent pas communiquer avant d'être détectées, autrement dit que les détecteurs soient suffisamment éloignés pour qu'un signal partant de l'un et voyageant à la vitesse de la lumière ne puisse pas atteindre l'autre.
Pour appliquer le théorème de Bell qui concerne une population d'individus aux caractéristiques précises, il faut pouvoir définir des caractéristiques locales sur chaque particule (réalisme). On choisit deux caractéristiques conjuguées, c'est-à-dire dont les mesures précises sont incompatibles selon le principe d'Heisenberg. Elles pourraient se révéler compatibles si les particules devenaient indépendantes. En 1951, le physicien David Bohm a suggéré qu'on pouvait utiliser la polarisation du photon, au lieu de la quantité de mouvement et la position retenues dans la situation EPR. La polarisation peut prendre deux valeurs notées + et - ou encore H (horizontale) et V (verticale).
Dans les années 1970, des expériences ont eu lieu avec des photons et des protons intriqués, mais elles n'étaient pas assez fiables pour en tirer des conclusions. Le premier test des inégalités de Bell a été effectué en 1972 par Stuart Freedman et John Clauser, de l'université de Californie. Il a confirmé les prédictions de la mécanique quantique. Les expériences se sont succédées pour enlever peu à peu toutes les circonstances qui pourraient faire douter que toutes les conditions soient réunies. Dans toutes les expériences, les résultats ont montré que les inégalités de Bell ne sont pas respectées.
L'expérience réalisée par Alain Aspect et ses collaborateurs à l'Institut d'Optique à Orsay (France) entre 1980 et 1982 est historiquement la première expérience qui a contredit de manière satisfaisante les inégalités de Bell. Les particules corrélées étaient des photons, dont on mesurait la polarisation. Les détecteurs étaient éloignés de 12 m afin qu'un éventuel signal lumineux issu d'une particule n'atteignent pas l'autre dans le temps considéré.
Des photons intriqués ont été produits en quantité suffisante en excitant des atomes de calcium par des faisceaux laser. Puis les atomes en se désexcitant par abaissement de leur niveau énergétique sur deux couches, dont l'une comporte deux états possibles, émettent deux photons jumeaux de même énergie. À cause de la conservation de la quantité de mouvement et du moment cinétique, les deux photons doivent partir dans deux directions opposées avec des spins de sens opposés.
La polarisation de deux particules intriquées est opposée, mais selon la mécanique quantique, elle reste non connue avant d'être observée par un appareil de mesure, un polariseur qui ne laisse passer que les photons présentant un certain type de polarisation.
À l'aide de polariseurs en cristal (P1 et P2), on mesure la polarisation linéaire des photons corrélés émis selon deux directions faisant entre elles un angle donné variable (α-β). Pour chacune de ces directions, la polarisation linéaire peut prendre 2 valeurs (par exemple + parallèle ou - perpendiculaire à l'axe du détecteur). On mesure celle du photon 1 et celle du photon 2 et on effectue des statistiques sur un grand nombre de paires corrélées. (voir Polarisation de la lumière)
On a en moyenne une chance sur 2 d'avoir + ou - pour chaque photon. Mais à cause de leur intrication, la valeur de l'un est liée à la valeur de l'autre et cette intrication dépend de l'angle entre les 2 polariseurs (α-β). La mécanique quantique prédit les probabilités de trouver l'une des 4 valeurs (+,+), (-,-), (+,-) et (-,+) sur les polariseurs (P1 et P2) en fonction des angles (α et β). Par exemple si les deux polariseurs sont parallèles (α=β), si un photon est +, l'autre l'est aussi. Elle prédit aussi que la violation maximale des inégalités de Bell se produit pour |α-β| = 22,5°
Or ces prévisions de la mécanique quantique ont été confirmées par les résultats de l'expérience. Il existe donc bien des intrications entre le photon en P1 et le photon en P2, sans avoir recours à un signal qui voyagerait de l'un à l'autre.
Suite à ces résultats, des objections ont été soulevées sur le fait que certaines conditions expérimentales de l'expérience d'Aspect pouvaient prêter à discussion. On pouvait par exemple imaginer qu'il se produisait des transferts d'information entre les 2 détecteurs ou que le nombre de photons corrélés était insuffisant pour obtenir une statistique fiable. C'est pour lever ces doutes que d'autres expériences ont été engagées par la suite par plusieurs équipes. Aspect lui-même en a refait une dans laquelle les polariseurs tournaient automatiquement d'angles α et β aléatoires. Les chercheurs ont augmenté les distances entre détecteurs. Ils ont mis au point de nouvelles sources de production de particules corrélées, plus efficaces. Ils ont réalisé des systèmes corrélés avec d'autres particules que des photons. Enfin ils ont observé l'intrication de particules en nombre supérieur à 2, jusqu'à 8 photons.
En 1998, en Suisse à Genève, Nicolas Gisin et son équipe ont testé les corrélations entre deux détecteurs distants de 30 kilomètres, en utilisant le réseau suisse de télécommunication par fibre optique et des conditions beaucoup plus minutieuses. Les angles des polariseurs (α,β) étaient également commutés automatiquement de façon aléatoire. En 2001, l'équipe d'Antoine Suarez incluant Nicolas Gisin a reproduit l'expérience avec des miroirs ou des détecteurs en mouvement, afin d'éliminer tout cause de transmission de signal. L'expérience a été renouvelée en 2008 dans les fibres optiques de la compagnie téléphonique suisse aboutissant aux détecteurs séparés de 18 km.
En 2000, l'expérience a été effectuée à Boulder (États-Unis) en utilisant comme particules des ions piégés.
À Vienne en Autriche, l'équipe d'Anton Zeilinger a vérifié une intrication de photons entre deux emplacements des Iles Canaries distants de 144 km. Puis ils ont imaginé des états intriqués intégrant plus de 2 particules (situation connue sous le nom d'états de Greenberger-Horne-Zeilinger ou GHZ). Les lois statistiques des corrélations de 3 particules sont beaucoup plus fortes que celles comportant deux particules. Une seule mesure permettrait de vérifier si les conditions de localité et de réalisme sont pertinentes ou non, au lieu du test sur les inégalités de Bell concernant 2 particules, qui nécessite un grand nombre de mesures. L'expérience avec 3 photons a été menée en 1999 par D. Bouwmeester, A. Zeilinger et leurs collaborateurs. Les résultats confirment l'intrication en-dehors de tout réalisme local.En 2012, la même équipe élargie a voulu améliorer une condition sensible des expériences d'Aspect, concernant la valeur de l'échantillonnage statistique des paires. Ils ont utilisé une nouveau détecteur supraconducteur refroidi à très basse température (0,1 K) qui a un pouvoir de détection bien supérieur à ceux utilisés auparavant.
L'état d'intrication a été obtenu avec un nombre croissant de photons. En 2012, des chercheurs de Changaï (Chine) l'ont obtenu avec 8 photons.
Des états intriqués ont aussi pu être réalisés avec des atomes excités qui émettent un photon et restent corrélés au photon émis. On a ainsi une paire atome-photon.
À chaque fois, les prévisions des inégalités de Bell n'ont pas été vérifiées.
Sources: Alain Aspect, Phys Rev Lett, 1981, 47, 7, 460; Phys Rev Lett, 1982, 49, 1804; Observation of Three-Photon Greenberger-Horne-Zeilinger Entanglement, Dik Bouwmeester, Jian-Wei Pan, Matthew Daniell, Harald Weinfurter, Anton Zeilinger, 1999, Phys.Rev.Lett. 82, 1345-49; Experimental demonstration of five-photon entanglement and open-destination teleportation, Zhi Zhao, Yu-Ao Chen, An-Ning Zhang, Tao Yang, Hans J. Briegel & Jian-Wei Pan, 2004, Nature 430, 54-58; Observation of eight-photon entanglement, Xing-Can Yao, Tian-Xiong Wang, Ping Xu, He Lu, Ge-Sheng Pan, Xiao-Hui Bao, Cheng-Zhi Peng, Chao-Yang Lu, Yu-Ao Chen, Jian-Wei Pan, 2012, Nature Photonics 6, 225–228; New Quantum Record: Physicists Entangle 8 Photons, Matthew Francis, Wired, 14/02/2012; Entanglement between light and an optical atomic excitation, L. Li, Y. O. Dudin, Alex Kuzmich, 2013, Nature 498, 466–469; Bell violation with entangled photons, free of the fair-sampling assumption, Marissa Giustina, Alexandra Mech, Sven Ramelow, Bernhard Wittmann, Johannes Kofler, Jörn Beyer, Adriana Lita, Brice Calkins, Thomas Gerrits, Sae Woo Nam, Rupert Ursin, Anton Zeilinger, Nature dec 2012
Il est possible d'utiliser la propriété d'intrication de 2 ou plusieurs particules pour transférer une information d'une particule à l'autre.
C'est ce qu'une équipe de chercheurs (Charles Bennett, Gilles Brassard, Claude Crépeau) a proposé en 1993. Le principe consiste à transférer l'état quantique d'une particule. Ce transfert a été nommé téléportation quantique par les scientifiques, à mauvais escient. En effet, dans le langage commun de Harry Potter et de Star Trek, on parle de téléportation quand un corps disparait à un endroit pour apparaitre simultanément ailleurs. Il y a donc transfert de matière. Ce n'est pas le cas dans la téléportation quantique, où ce n'est pas la particule qui est transférée, mais seulement son état.
De nombreux laboratoires travaillent sur cette technologie qui promet des applications importantes dans le domaine des ordinateurs quantiques, car elle augmenterait la vitesse de calcul de manière exponentielle. Mais on est encore loin d'une telle application pratique. Par contre, les études sur les applications dans le domaine de la cryptographie quantique sont en plein essor et ont abouti à des dispositifs commercialisés. La cryptologie consiste à coder des messages pour qu'ils restent inviolables pour ceux à qui ils ne sont pas destinés (voir article Codage d'information).
Le procédé de téléportation est très délicat car il ne doit pas être perturbé par la décohérence. Le principe est de faire intervenir soit une troisième particule, soit une caractéristique de la particule qui est différente de celle qui est impliquée dans l'intrication.
C'est l'équipe de A. Zeilinger à l'université d'Innsbruck (Autriche) qui en 1997 a réalisé la première concrétisation de ce principe. Le message de polarisation d'un photon a été téléporté sur quelques millimètres. Mais le procédé ne pouvait faire mieux que téléporter un quart des photons en moyenne. En 2003, N. Gisin et son équipe de l'université de Genève ont réussi une téléportation quantique sur 2 km. En 2004, des physiciens allemands, chinois et autrichiens ont annoncé des expériences de téléportation de l'état d'un photon vers 4 autres photons.
Dans l'expérience de Zeilinger de 1997, on prépare deux particules intriquées qui se trouvent, l'une au point A, l'autre au point B. En A, se trouve Aurélie et en B, Bruno (les publications américaines sollicitent toujours Alice et Bob, mais ils sont fatigués). Aurélie modifie l'état de A avec une particule X et elle mesure l'état A+X. C'est l'état A+X de cette particule qui constitue le message à envoyer à Bruno. Puisque B est intriqué, cela change pareillement son état. Mais on ne le connait pas. Aussi Aurélie doit-elle téléphoner à Bruno (donc communiquer par une voie non quantique) pour lui annoncer le résultat. Cela permet à Bruno de faire une manœuvre sur B, qui induit le même état que sur A.
En 1998, une équipe de l'université de Rome a modifié le procédé. Aurélie ne fait pas intervenir une particule X, mais elle encode sur le photon A la polarisation de A comme message à transférer, tandis que l'intrication de A et B est assurée par la direction de déplacement de ces photons (leurs impulsions).Après les photons, on est passé à des atomes. Les premières expériences de téléportation avec des atomes ont été réalisées en 2004, par deux équipes indépendantes. Le groupe de David Wineland (NIST, université de Boulder, Colorado, USA) ont téléporté l'état d'un atome de béryllium sur quelques millimètres. L'équipe autrichienne de Rainer Blatt à l'université d'Innsbruck a utilisé trois ions calcium à une distance de 5 micromètres l'un de l'autre. Avec des atomes, le processus de téléportation quantique se produit à la demande avec 100 % de succès. En 2009, la distance de téléportation d'états atomiques a atteint un mètre dans l'expérience de Christopher Monroe et ses collègues (JQI, université du Maryland, USA) avec des ions d’ytterbium.
Sources: Teleporting an unknown quantum state via dual classical and Einstein-Podolsky-Rosen channels, C H Bennett, G Brassard, C Crépeau, R Jozsa, A Peres, W K Wootters, 1993, Physical Review Letters 70(13), 1895-1899; The fastest way from A to B, Tony Sudbery, 1997, Nature 390, 551-552; Bouwmeester D et al, 1997, Nature, 390, 575-579; Boschi D, Branca S, De Martini F, Hardy L, Popescu S, 1998, Phys. Rev. Lett., 80, 1121; Gisin Nature. 2003 30; Experimental Demonstration of Five-photon Entanglement and Open-destination Teleportation, Zhi Zhao, Yu-Ao Chen, An-Ning Zhang, Tao Yang, Hans Briegel, Jian-Wei Pan, 2004, Nature, 430, 54; Deterministic quantum teleportation with atoms, M. Riebe, H. Häffner, C. F. Roos, W. Hänsel, J. Benhelm, G. P. T. Lancaster, T. W. Körber, C. Becher, F. Schmidt-Kaler, D. F. V. James, R. Blatt, Nature, 2004, 429, 734; Deterministic quantum teleportation of atomic qubits, M. D. Barrett, J. Chiaverini, T. Schaetz, J. Britton, W. M. Itano, J. D. Jost, E. Knill, C. Langer, D. Leibfried, R. Ozeri, D. J. Wineland, Nature, 2004, 429, 737; On a téléporté des atomes, Nicolas Cerf et Nicolas Gisin, La Recherche, 2005, 386, 35; Quantum Teleportation Between Distant Matter Qubits, S. Olmschenk, D. N. Matsukevich, P. Maunz, D. Hayes, L.-M. Duan, C. Monroe, Science, 2009, 323, 486; Long-distance teleportation between atomes (article de journalisme), Rue89, 2009; La première téléportation quantique à grande distance entre atomes ! (article de journalisme), Laurent Sacco, Futura-Sciences, 24/01/2009
Schrödinger a élaboré la fonction d'onde qui définit un système de particules à partir de la notion d'hamiltonien d'un système. En physique, il arrive souvent que les lois puissent être exprimées sous différentes formes mathématiques qui sont équivalentes. Ainsi en mécanique classique, bien que la formulation de Newton soit la plus connue, il existe une autre formulation qui a été élaborée par Joseph Louis Lagrange, puis Sir William Hamilton (1805-1865).
En annexe de l'article précédent (Matière et rayonnements), j'ai expliqué ce qu'était le Lagrangien, l'énergie cinétique diminuée du potentiel: L= 1/2 mv2 - V soit
en fonction des coordonnées d'espace qi et des vitesses des particules i. On en déduit la grandeur appelée action du système, une énergie multipliée par un temps:
Dans ce formalisme, l'impulsion reçoit une nouvelle définition plus générale, l'impulsion généralisée
L'hamiltonien représente l'énergie du système. Il s'écrit à partir du lagrangien L en fonction des impulsions généralisées pi et des coordonnées d'espace qi.
L'hamiltonien peut être déduit de l'action S par
(équation d'Hamilton - Jacobi)
C'est cette équation qui sera reprise par Schrödinger pour développer sa mécanique ondulatoire. Si la fonction d'onde est notée Ψ , l'équation de Schrödinger est
Enfin, de l'hamiltonien on peut tirer les lois de la dynamique
et (équations de Hamilton)
Ce sont ces équations qui ont inspiré Heisenberg et Born pour formuler les états quantiques sous forme de matrices.
Plus de précisions dans de nombreux sites spécialisés, par exemple dans Futura-Sciences, Équations de Hamilton
Accéder aux autres parties
Cours de mécanique quantique: La physique quantique, Thierry Lombry, Luxorion; Phénomènes quantiques, Jean-Louis Basdevant, Jean Dalibard, 2002, éditions polytechniques; Introduction à la Mécanique Quantique, HA Thuy Long, 2007
en anglais
14 octobre 2013 - ajout important (Expériences de Shnoll) 2 nov 2013