MÉCANIQUE QUANTIQUE, une section de la physique théorique, qui est un système de concepts et d'appareils mathématiques nécessaires pour décrire les phénomènes physiques provoqués par l'existence dans la nature du plus petit quantum d'action h (constante de Planck). La valeur numérique h = 6,62607∙10ˉ 34 J∙s (et une autre valeur souvent utilisée ħ = h/2π = 1,05457∙10ˉ 34 J∙s) est extrêmement petite, mais le fait qu'elle soit finie distingue fondamentalement les phénomènes quantiques de tous. d'autres et détermine leurs principales caractéristiques. Les phénomènes quantiques comprennent les processus de rayonnement, les phénomènes de physique atomique et nucléaire, la physique de la matière condensée, les liaisons chimiques, etc.

L'histoire de la création de la mécanique quantique. Historiquement, le premier phénomène pour expliquer lequel le concept de quantum d'action h a été introduit en 1900 était le spectre de rayonnement d'un corps absolument noir, c'est-à-dire la dépendance de l'intensité du rayonnement thermique sur sa fréquence v et la température T. du corps chauffé. Initialement, le lien entre ce phénomène et les processus se produisant dans l'atome n'était pas clair ; À cette époque, l’idée de l’atome lui-même n’était généralement pas acceptée, même si l’on connaissait déjà des observations faisant état d’une structure intra-atomique complexe.

En 1802, Wollaston découvrit des raies spectrales étroites dans le spectre du rayonnement solaire, qui furent décrites en détail par J. Fraunhofer en 1814. En 1859, G. Kirchhoff et R. Bunsen ont établi que chaque élément chimique possède un ensemble individuel de raies spectrales, et le scientifique suisse I. Ya. Balmer (1885), le physicien suédois J. Rydberg (1890) et le scientifique allemand W. Ritz (1908) a découvert certains modèles à leur emplacement. En 1896, P. Zeeman observe la division des raies spectrales dans un champ magnétique (effet Zeeman), que H. A. Lorenz l'année prochaine expliqué par le mouvement d’un électron dans un atome. L'existence de l'électron a été prouvée expérimentalement en 1897 par J. J. Thomson.

Les théories physiques existantes se sont révélées insuffisantes pour expliquer les lois de l'effet photoélectrique : il s'est avéré que l'énergie des électrons émis par une substance lorsqu'elle est irradiée par la lumière ne dépend que de la fréquence de la lumière v, et non de son intensité (A. G. Stoletov , 1889 ; F. von Lenard, 1904). Ce fait contredisait complètement la nature ondulatoire généralement acceptée de la lumière à cette époque, mais s'expliquait naturellement par l'hypothèse selon laquelle la lumière se propage sous la forme de quanta d'énergie E = hv (A. Einstein, 1905), appelés plus tard photons (H. Lewis, 1926).

Dix ans après la découverte de l’électron, plusieurs modèles de l’atome ont été proposés, mais n’ont pas été étayés par des expériences. En 1909-11, E. Rutherford, étudiant la diffusion des particules α sur les atomes, établit l'existence d'un noyau compact chargé positivement dans lequel est concentrée la quasi-totalité de la masse de l'atome. Ces expériences sont devenues la base du modèle planétaire de l’atome : un noyau chargé positivement autour duquel tournent des électrons chargés négativement. Ce modèle contredisait cependant le fait de la stabilité de l'atome, puisque de l'électrodynamique classique il découlait qu'après un temps de l'ordre de 10 -9 s, l'électron en rotation tomberait sur le noyau, perdant de l'énergie à cause du rayonnement.

En 1913, N. Bohr suggérait que la stabilité de l'atome planétaire s'expliquait par la finitude du quantum d'action h. Il a postulé qu'il existe des orbites stationnaires dans l'atome dans lesquelles l'électron ne rayonne pas (premier postulat de Bohr), et a isolé ces orbites de toutes les orbites. conditions possibles quantification : 2πmυr = nh, où m est la masse de l'électron, υ est sa vitesse orbitale, r est la distance au noyau, n = 1,2,3,... sont des nombres entiers. A partir de cette condition, Bohr a déterminé les énergies E n = -me 4 /2ħ 2 n 2 (e est la charge électrique de l'électron) des états stationnaires, ainsi que le diamètre de l'atome d'hydrogène (environ 10 -8 cm) - en totale conformité avec les conclusions de la théorie cinétique de la matière.

Le deuxième postulat de Bohr affirmait que le rayonnement se produit uniquement lors des transitions électroniques d'une orbite stationnaire à une autre, et que la fréquence de rayonnement v nk des transitions de l'état E n à l'état E k est égale à v nk = (E k - E n)/ h (voir Physique atomique ). La théorie de Bohr expliquait naturellement les configurations du spectre des atomes, mais ses postulats étaient en contradiction évidente avec la mécanique classique et la théorie du champ électromagnétique.

En 1922, A. Compton, étudiant la diffusion des rayons X par les électrons, établit que les quanta d'énergie des rayons X incidents et diffusés se comportent comme des particules. En 1923, C. T. R. Wilson et D. V. Skobeltsyn observaient un électron de recul dans cette réaction et confirmaient ainsi la nature corpusculaire des rayons X (rayonnement nucléaire). Ceci contredit cependant les expériences de M. Laue, qui observa en 1912 la diffraction des rayons X et prouva ainsi leur nature ondulatoire.

En 1921, le physicien allemand K. Ramsauer découvrit qu'à une certaine énergie, les électrons traversent les gaz pratiquement sans diffusion, comme les ondes lumineuses dans un milieu transparent. Ce fut la première preuve expérimentale des propriétés ondulatoires de l'électron, dont la réalité fut confirmée en 1927 par des expériences directes de K. J. Davisson, L. Germer et J. P. Thompson.

En 1923, L. de Broglie introduit le concept d'ondes de matière : chaque particule de masse m et de vitesse υ peut être associée à une onde de longueur λ = h/mυ, tout comme chaque onde de fréquence v = c/λ peut être associée avec une particule d'énergie E = hv. Une généralisation de cette hypothèse, connue sous le nom de dualité onde-particule, est devenue le fondement et le principe universel de la physique quantique. Son essence est que les mêmes objets d'étude se manifestent de deux manières : soit sous forme de particule, soit sous forme d'onde, selon les conditions de leur observation.

Les relations entre les caractéristiques d'une onde et d'une particule ont été établies avant même la création de la mécanique quantique : E = hv (1900) et λ = h/mυ = h/р (1923), où la fréquence v et la longueur d'onde λ sont les caractéristiques des ondes. , et énergie E et masse m, vitesse υ et élan p = mυ - caractéristiques de la particule ; la connexion entre ces deux types de caractéristiques s'effectue grâce à la constante de Planck h. Les relations de dualité s'expriment le plus clairement à travers la fréquence circulaire ω = 2πν et le vecteur d'onde k = 2π/λ :

E = ħω, p = ħk.

Une illustration claire de la dualité onde-particule est présentée sur la figure 1 : les anneaux de diffraction observés en diffusion d'électrons et de rayons X sont presque identiques.

Mécanique quantique- la base théorique de toute physique quantique - a été créée en moins de trois ans. En 1925, W. Heisenberg, s'appuyant sur les idées de Bohr, propose la mécanique matricielle qui, à la fin de la même année, acquiert la forme d'une théorie complète dans les travaux de M. Born, du physicien allemand P. Jordan et P. Dirac. Les principaux objets de cette théorie étaient les matrices type spécial, qui en mécanique quantique représentent les grandeurs physiques de la mécanique classique.

En 1926, E. Schrödinger, basé sur les idées de L. de Broglie sur les ondes de la matière, propose la mécanique des ondes, où le rôle principal est joué par la fonction d'onde de l'état quantique, qui obéit équation différentielle 2ème ordre avec conditions aux limites données. Les deux théories expliquaient également bien la stabilité de l’atome planétaire et permettaient de calculer ses principales caractéristiques. La même année, M. Born proposa une interprétation statistique de la fonction d'onde, Schrödinger (ainsi que W. Pauli et d'autres, indépendamment) prouva l'équivalence mathématique de la mécanique matricielle et ondulatoire, et Born, avec N. Wiener, introduisit la concept d'opérateur de grandeur physique.

En 1927, W. Heisenberg découvre la relation d'incertitude et N. Bohr formule le principe de complémentarité. La découverte du spin électronique (J. Uhlenbeck et S. Goudsmit, 1925) et la dérivation de l'équation de Pauli, qui prend en compte le spin électronique (1927), ont complété le schéma logique et informatique de la mécanique quantique non relativiste, et P. Dirac et J. von Neumann ont présenté la mécanique quantique comme une théorie indépendante conceptuellement complète basée sur un ensemble limité de concepts et de postulats, tels que l'opérateur, le vecteur d'état, l'amplitude de probabilité, la superposition d'états, etc.

Concepts de base et formalisme de la mécanique quantique. L'équation fondamentale de la mécanique quantique est l'équation des ondes de Schrödinger, dont le rôle est similaire à celui des équations de Newton dans mécanique classique et les équations de Maxwell en électrodynamique. Dans l'espace des variables x (coordonnée) et t (temps) il a la forme

où H est l'opérateur de Hamilton ; sa forme coïncide avec l'opérateur de Hamilton de la mécanique classique, dans lequel la coordonnée x et l'impulsion p sont remplacées par les opérateurs x et p de ces variables, c'est-à-dire

où V(x) est l'énergie potentielle du système.

Contrairement à l'équation de Newton, à partir de laquelle on trouve la trajectoire observée x(t) d'un point matériel se déplaçant dans le champ de forces potentielles V(x), à partir de l'équation de Schrödinger on trouve la fonction d'onde inobservable ψ(x) d'un système quantique, à l'aide duquel on peut cependant calculer les valeurs de toutes les grandeurs mesurables. Immédiatement après la découverte de l'équation de Schrödinger, M. Born expliqua la signification de la fonction d'onde : |ψ(x)| 2 est la densité de probabilité, et |ψ(x)| 2 ·Δx - probabilité de détecter un système quantique dans l'intervalle Δx des valeurs de coordonnées x.

Chaque grandeur physique (variable dynamique de la mécanique classique) en mécanique quantique est associée à un observable a et à l'opérateur hermitien correspondant Â, qui dans la base choisie de fonctions complexes |i> = f i (x) est représenté par la matrice

où f*(x) est une fonction complexe conjuguée à la fonction f (x).

La base orthogonale dans cet espace est l'ensemble des fonctions propres |n) = f n (x)), n = 1,2,3, pour lesquelles l'action de l'opérateur  se réduit à la multiplication par un nombre (la valeur propre a n de l'espace opérateur Â ):

La base des fonctions |n) est normalisée par la condition pour n = n’, pour n ≠ n’.

et le nombre de fonctions de base (contrairement aux vecteurs de base de l'espace tridimensionnel de la physique classique) est infini, et l'indice n peut changer à la fois de manière discrète et continue. Toutes les valeurs possibles du a observé sont contenues dans l'ensemble (a n ) des valeurs propres de l'opérateur correspondant Â, et seules ces valeurs peuvent devenir les résultats de mesures.

L'objet principal de la mécanique quantique est le vecteur d'état |ψ), qui peut être développé en fonctions propres |n) de l'opérateur sélectionné  :

où ψ n est l'amplitude de probabilité (fonction d'onde) de l'état |n), et |ψ n | 2 est égal au poids de l’état n dans le développement |ψ), et

c'est-à-dire que la probabilité totale de trouver le système dans l'un des états quantiques n est égale à un.

En mécanique quantique de Heisenberg, les opérateurs  et leurs matrices correspondantes obéissent aux équations

où |Â,Ĥ|=ÂĤ - Ĥ est le commutateur des opérateurs  et Ĥ. Contrairement au schéma de Schrödinger, où la fonction d'onde ψ dépend du temps, dans le schéma de Heisenberg, la dépendance temporelle est attribuée à l'opérateur Â. Les deux approches sont mathématiquement équivalentes, mais dans de nombreuses applications de la mécanique quantique, l’approche de Schrödinger s’est avérée préférable.

La valeur propre de l'opérateur de Hamilton Ĥ est l'énergie totale du système E, indépendante du temps, qui se trouve comme solution de l'équation stationnaire de Schrödinger

Ses solutions sont divisées en deux types selon le type de conditions aux limites.

Pour un état localisé, la fonction d'onde satisfait la condition aux limites naturelle ψ(∞) = 0. Dans ce cas, l'équation de Schrödinger n'a de solution que pour un ensemble discret d'énergies E n, n = 1,2,3,.. ., qui correspondent aux fonctions d'onde ψ n ( r) :

Un exemple d’état localisé est l’atome d’hydrogène. Son hamiltonien Ĥ a la forme

où Δ = ∂ 2 /∂х 2 + ∂ 2 /∂у 2 + ∂ 2 /∂z 2 est l'opérateur de Laplace, e 2 /r est le potentiel d'interaction de l'électron et du noyau, r est la distance du noyau à l'électron, et les valeurs propres de l'énergie E n calculées à partir de l'équation de Schrödinger coïncident avec les niveaux d'énergie de l'atome de Bohr.

L'exemple le plus simple d'un état non localisé est le libre mouvement unidimensionnel d'un électron avec une impulsion p. Cela correspond à l'équation de Schrödinger

dont la solution est une onde plane

où dans le cas général C = |C|exp(iφ) est une fonction complexe, |C| et φ - son module et sa phase. Dans ce cas, l'énergie électronique E = p 2 /2m, et l'indice p de la solution ψ p (x) prend une série continue de valeurs.

Les opérateurs de coordonnées et d'impulsion (et toute autre paire de variables canoniquement conjuguées) obéissent à la relation de commutation :

Il n’existe pas de base commune de fonctions propres pour des paires de tels opérateurs, et les grandeurs physiques correspondantes ne peuvent pas être déterminées simultanément avec une précision arbitraire. De la relation de commutation pour les opérateurs x̂ et p̂, il s'ensuit que la précision Δх et Δр de la détermination de la coordonnée x et de son impulsion conjuguée p d'un système quantique (relation d'incertitude de Heisenberg) suit :

De là, en particulier, découle immédiatement la conclusion sur la stabilité de l'atome, puisque la relation Δх = Δр = 0, correspondant à l'incidence d'un électron sur le noyau, est interdite dans ce schéma.

L'ensemble des grandeurs simultanément mesurables caractérisant un système quantique est représenté par un ensemble d'opérateurs

faisant la navette entre eux, c'est-à-dire satisfaisant les relations А̂В̂ - В̂А̂ = А̂С̂ - С̂А̂ = В̂С̂ - С̂В̂ =... = 0. Pour un atome d'hydrogène non relativiste, un tel ensemble est constitué, par exemple, des opérateurs : Ĥ ( opérateur d'énergie totale), (carré du moment de l'opérateur) et (composante z de l'opérateur du moment). Le vecteur d'état atomique est défini comme l'ensemble des fonctions propres communes ψ i (r) de tous les opérateurs

qui sont numérotés par un ensemble (i) = (nlm) de nombres quantiques d'énergie (n = 1,2,3,...), de moment orbital (l = 0,1,..., n - 1) et de sa projection sur l'axe z (m = -l,...,-1,0,1,...,l). Fonctions |ψ je (r)| 2 peut être conventionnellement considéré comme la forme d'un atome dans divers états quantiques i (les soi-disant silhouettes blanches).

La valeur d'une grandeur physique (mécanique quantique observable) est définie comme la valeur moyenne  de son opérateur correspondant  :

Cette relation est valable pour les états purs, c'est-à-dire pour les systèmes quantiques isolés. Dans le cas général des états mixtes, nous avons toujours affaire à un grand ensemble (ensemble statistique) de systèmes identiques (par exemple des atomes) dont les propriétés sont déterminées par moyenne sur cet ensemble. Dans ce cas, la valeur moyenne  de l'opérateur  prend la forme

où p nm est la matrice de densité (LD Landau ; J. von Neumann, 1929) avec la condition de normalisation ∑ n ρ pp = 1. Le formalisme de la matrice de densité nous permet de combiner la moyenne mécanique quantique sur les états et la moyenne statistique sur un ensemble. La matrice de densité joue également un rôle important dans la théorie des mesures quantiques, dont l'essence réside toujours dans l'interaction des sous-systèmes quantiques et classiques. Le concept de matrice de densité est la base de la statistique quantique et la base de l'une des formulations alternatives de la mécanique quantique. Une autre forme de mécanique quantique, basée sur le concept d'intégrale de chemin (ou intégrale de chemin), a été proposée par R. Feynman en 1948.

Principe de correspondance. La mécanique quantique a de profondes racines dans la mécanique classique et statistique. Déjà dans son premier ouvrage, N. Bohr avait formulé le principe de correspondance, selon lequel les relations quantiques devraient se transformer en relations classiques pour les grands nombres quantiques n. P. Ehrenfest montra en 1927 que, compte tenu des équations de la mécanique quantique, la valeur moyenne  de l'opérateur  satisfait l'équation du mouvement de la mécanique classique. Le théorème d'Ehrenfest est un cas particulier du principe général de correspondance : à la limite h → 0, les équations de la mécanique quantique se transforment en équations de la mécanique classique. En particulier, l'équation des ondes de Schrödinger dans la limite h → 0 se transforme en une équation d'optique géométrique pour la trajectoire d'un faisceau lumineux (et de tout rayonnement) sans tenir compte de ses propriétés ondulatoires. En représentant la solution ψ(x) de l'équation de Schrödinger sous la forme ψ(x) = exp(iS/ħ), où S = ∫ p(x)dx est un analogue de l'intégrale d'action classique, on peut vérifier que dans la limite ħ → 0 la fonction S satisfait l'équation classique de Hamilton-Jacobi. De plus, dans la limite h → 0, les opérateurs x̂ et p̂ commutent et les valeurs correspondantes de coordonnée et de quantité de mouvement peuvent être déterminées simultanément, comme cela est supposé en mécanique classique.

Les analogies les plus significatives entre les relations de la mécanique classique et quantique pour les mouvements périodiques peuvent être tracées sur le plan de phase des variables canoniquement conjuguées, par exemple la coordonnée x et l'impulsion p du système. Les intégrales du type ∮р(х)dx, parcourues le long d'une trajectoire fermée (invariants intégraux de Poincaré), sont connues dans la préhistoire de la mécanique quantique sous le nom d'invariants adiabatiques d'Ehrenfest. A. Sommerfeld les a utilisés pour décrire les lois quantiques dans le langage de la mécanique classique, notamment pour la quantification spatiale de l'atome et l'introduction des nombres quantiques l et m (c'est lui qui a introduit ce terme en 1915).

La dimension de l'intégrale de phase ∮pdx coïncide avec la dimension de la constante de Planck h, et en 1911 A. Poincaré et M. Planck proposent de considérer le quantum d'action h comme le volume minimum de l'espace des phases, dont le nombre n de cellules est un multiple de h : n = ∮pdx/h. En particulier, lorsqu'un électron se déplace le long d'une trajectoire circulaire avec une impulsion constante p, de la relation n = ∮р(х)dx/h = р ∙ 2πr/h la condition de quantification de Bohr suit immédiatement : mυr=nħ (P. Debye , 1913).

Cependant, dans le cas d'un mouvement unidimensionnel dans le potentiel V(x) = mω 2 0 x 2 /2 (oscillateur harmonique de fréquence propre ω 0), la condition de quantification ∮р(х)dx = nh implique un certain nombre de valeurs d'énergie E n = ħω 0 n, tandis que la solution exacte des équations quantiques pour l'oscillateur conduit à la séquence E n = ħω 0 (n + 1/2). Ce résultat de la mécanique quantique, obtenu pour la première fois par W. Heisenberg, est fondamentalement différent du résultat approximatif par la présence d'une énergie d'oscillation du point zéro E 0 = ħω 0 /2, qui a une nature purement quantique : l'état de repos (x = 0, p = 0) est interdite en mécanique quantique, car elle contredit la relation d'incertitude Δх∙ Δр ≥ ħ/2.

Le principe de superposition d'états et d'interprétation probabiliste. La contradiction principale et évidente entre les images corpusculaires et ondulatoires des phénomènes quantiques a été éliminée en 1926, après que M. Born a proposé d'interpréter la fonction d'onde complexe ψ n (x) = |ψ n (x)|·exp(iφ n) comme la probabilité d'état d'amplitude n et le carré de son module |ψ n (x)| 2 - comme densité de probabilité de détection de l'état n au point x. Un système quantique peut être dans différents états, y compris alternatifs, et son amplitude de probabilité est égale à une combinaison linéaire des amplitudes de probabilité de ces états : ψ = ψ 1 + ψ 2 + ...

La densité de probabilité de l'état résultant est égale au carré de la somme des amplitudes de probabilité, et non à la somme des carrés des amplitudes, comme c'est le cas en physique statistique :

Ce postulat - le principe de superposition d'états - est l'un des concepts les plus importants du système de mécanique quantique ; cela a de nombreuses conséquences observables. L’un d’eux, à savoir le passage d’un électron à travers deux fentes rapprochées, est plus souvent évoqué que les autres (Fig. 2). Un faisceau d'électrons tombe de la gauche, traverse les fentes de la cloison et est ensuite enregistré sur l'écran (ou la plaque photographique) de droite. Si nous fermons chacun des emplacements un par un, alors sur l'écran de droite, nous verrons l'image d'un emplacement ouvert. Mais si nous ouvrons les deux fentes en même temps, alors au lieu de deux fentes nous verrons un système de franges d'interférence dont l'intensité est décrite par l'expression :

Le dernier terme de cette somme représente l'interférence de deux ondes de probabilité arrivant en un point donné de l'écran depuis différentes fentes de la cloison, et dépend de la différence de phase des fonctions d'onde Δφ = φ 1 - φ 2. Dans le cas d'amplitudes égales |ψ 1 | = |ψ 2 | :

c'est-à-dire l'intensité de l'image des fentes dans différents points l'écran passe de 0 à 4|ψ 1 | 2 - en fonction du changement de différence de phase Δφ de 0 à π/2. En particulier, il se peut qu'avec deux fentes ouvertes à la place de l'image d'une fente unique on ne détecte aucun signal, ce qui est absurde d'un point de vue corpusculaire.

Il est important que cette image du phénomène ne dépende pas de l'intensité du faisceau d'électrons, c'est-à-dire qu'elle ne soit pas le résultat de leur interaction les uns avec les autres. Un motif d'interférence apparaît même à la limite lorsque les électrons traversent les fentes de la cloison un par un, c'est-à-dire que chaque électron interfère avec lui-même. Ceci est impossible pour une particule, mais tout à fait naturel pour une onde, par exemple lorsqu'elle est réfléchie ou diffractée par un obstacle dont les dimensions sont comparables à sa longueur. Dans cette expérience, la dualité onde-particule se manifeste par le fait que le même électron est enregistré comme une particule, mais se propage comme une onde d'une nature particulière : c'est une onde de probabilité de détection d'un électron à un moment donné de l'espace. Dans une telle image du processus de diffusion, la question est : « Par laquelle des fentes la particule électronique est-elle passée ? » perd son sens, puisque l'onde de probabilité correspondante traverse les deux fentes à la fois.

Un autre exemple illustrant le caractère probabiliste des phénomènes de la mécanique quantique est le passage de la lumière à travers une plaque translucide. Par définition, la réflectance de la lumière est égale au rapport entre le nombre de photons réfléchis par la plaque et le nombre de photons incidents. Cependant, cela n’est pas le résultat d’une moyenne d’un grand nombre d’événements, mais d’une caractéristique initialement inhérente à chaque photon.

Le principe de superposition et la notion de probabilité ont permis de réaliser une synthèse cohérente des notions d'« onde » et de « particule » : chacun des événements quantiques et son enregistrement sont discrets, mais leur répartition est dictée par la loi de propagation d'ondes de probabilité continues.

Effet tunnel et diffusion résonante. L’effet tunnel est peut-être le phénomène le plus célèbre de la physique quantique. Elle est causée par les propriétés ondulatoires des objets quantiques et n’a reçu une explication adéquate que dans le cadre de la mécanique quantique. Un exemple d'effet tunnel est la désintégration d'un noyau de radium en un noyau de radon et une particule α : Ra → Rn + α.

La figure 3 montre un diagramme du potentiel de désintégration α V(r) : une particule α oscille avec une fréquence v dans le « puits de potentiel » d'un noyau de charge Z 0 , et après l'avoir quitté, elle se déplace dans le répulsif. Potentiel coulombien 2Ze 2 /r, où Z=Z 0 -2. En mécanique classique, une particule ne peut pas quitter un puits de potentiel si son énergie E est inférieure à la hauteur de la barrière de potentiel V max. En mécanique quantique, en raison de la relation d'incertitude, une particule avec une probabilité finie W pénètre dans la région sous-barrière r 0< r < r 1 и может «просочиться» из области r < r 0 в область r >r 1 est similaire à la façon dont la lumière pénètre dans la région d'une ombre géométrique sur des distances comparables à la longueur d'onde de la lumière. A l'aide de l'équation de Schrödinger, on peut calculer le coefficient D de passage d'une particule α à travers une barrière, qui en approximation semiclassique est égal à :

Au fil du temps, le nombre de noyaux de radium N(t) diminue selon la loi : N(t) = N 0 exp(-t/τ), où τ est la durée de vie moyenne d'un noyau, N 0 est le nombre initial de noyaux à t = 0. La probabilité de désintégration α W = vD est liée à la durée de vie par la relation W = l/τ, d'où découle la loi de Geiger-Nettol :

où υ est la vitesse de la particule α, Z est la charge du noyau résultant. Cette dépendance a été découverte expérimentalement en 1909, mais ce n'est qu'en 1928 que G. Gamow (et indépendamment le physicien anglais R. Gurney et le physicien américain E. Condon) l'ont expliqué pour la première fois dans le langage de la mécanique quantique. Ainsi, il a été démontré que la mécanique quantique décrit non seulement les processus de rayonnement et d'autres phénomènes de la physique atomique, mais également les phénomènes de la physique nucléaire.

En physique atomique, l’effet tunnel explique le phénomène d’émission électronique de champ. Dans un champ électrique uniforme d'intensité E, le potentiel coulombien V(r) = -e 2 /r d'attraction entre le noyau et l'électron est déformé : V(r) = - e 2 /r - eEr, les niveaux d'énergie de les atomes E nl m sont décalés, ce qui entraîne une modification des fréquences ν nk des transitions entre eux (effet Stark). De plus, qualitativement, ce potentiel devient similaire au potentiel de désintégration α, ce qui entraîne une probabilité finie de passage d'électrons à travers la barrière de potentiel (R. Oppenheimer, 1928). Lorsque les valeurs critiques de E sont atteintes, la barrière diminue tellement que l'électron quitte l'atome (ce qu'on appelle l'ionisation par avalanche).

La désintégration alpha est un cas particulier de désintégration d'un état quasi-stationnaire, étroitement lié au concept de résonance mécanique quantique et nous permet de comprendre d'autres aspects des processus non stationnaires en mécanique quantique. De l'équation de Schrödinger, il s'ensuit que ses solutions dépendent du temps :

où E est la valeur propre de l'hamiltonien Ĥ, qui est réelle pour les opérateurs hermitiens de la mécanique quantique, et l'observable correspondante (énergie totale E) ne dépend pas du temps. Cependant, l'énergie des systèmes non stationnaires dépend du temps, et ce fait peut être formellement pris en compte si l'énergie d'un tel système se présente sous forme complexe : E = E 0 - iΓ/2. Dans ce cas, la dépendance de la fonction d'onde au temps a la forme

et la probabilité de détecter l'état correspondant diminue de façon exponentielle :

dont la forme coïncide avec la loi de désintégration α avec une constante de désintégration τ = ħ/Г.

Dans le processus inverse, par exemple lors de la collision des noyaux de deutérium et de tritium, qui entraîne la formation d'hélium et d'un neutron (réaction fusion thermonucléaire), le concept de section efficace de réaction σ est utilisé, qui est défini comme une mesure de la probabilité d'une réaction pour un flux unitaire de particules en collision.

Pour les particules classiques, la section efficace de diffusion sur une boule de rayon r 0 coïncide avec sa section efficace géométrique et est égale à σ = πr 0 2 . En mécanique quantique, cela peut être représenté à travers les phases de diffusion δl(k) :

où k = р/ħ = √2mE/ħ est le nombre d'onde, l est le moment orbital du système. Dans la limite des très faibles énergies de collision, la section efficace de diffusion quantique σ = 4πr 0 2 est 4 fois plus grande que la section efficace géométrique de la boule. (Cet effet est l'une des conséquences de la nature ondulatoire des phénomènes quantiques.) Au voisinage de la résonance à E ≈ E 0, la phase de diffusion se comporte comme

et la section efficace de diffusion est égale à

où λ = 1/k, W(E) est la fonction de Breit-Wigner :

À de faibles énergies de diffusion l 0 ≈ 0, et la longueur d'onde de De Broglie λ est nettement supérieure à la taille des noyaux, donc, à E = E 0, les sections efficaces résonantes des noyaux σ res ≈ 4πλ 0 2 peuvent être des milliers et des millions de fois supérieures à leurs sections efficaces géométriques πr 0 2. En physique nucléaire, le fonctionnement des réacteurs nucléaires et thermonucléaires dépend de ces sections efficaces. En physique atomique, ce phénomène a été observé pour la première fois par J. Frank et G. Hertz (1913) dans des expériences sur l'absorption résonante d'électrons par des atomes de mercure. Dans le cas contraire (δ 0 = 0), la section efficace de diffusion est anormalement petite (effet Ramsauer, 1921).

La fonction W(E) est connue en optique sous le nom de profil de raie d'émission de Lorentz et a la forme d'une courbe de résonance typique avec un maximum à E = E 0 et la largeur de résonance Г = 2∆E = 2 (E - E 0 ) est déterminé à partir de la relation W(E 0 ± ΔΕ) = W(E 0)/2. La fonction W(E) est de nature universelle et décrit à la fois la désintégration d'un état quasi-stationnaire et la dépendance résonnante de la section efficace de diffusion sur l'énergie de collision E, et dans les phénomènes de rayonnement, elle détermine la largeur naturelle Г de la raie spectrale , qui est liée à la durée de vie τ de l'émetteur par la relation τ = ħ/Г . Ce rapport détermine également la durée de vie des particules élémentaires.

De la définition de τ = ħ/G, en tenant compte de l'égalité Г = 2∆E, la relation d'incertitude pour l'énergie et le temps suit : ∆E ∙ ∆t ≥ ħ/2, où ∆t ≥ τ. Dans sa forme, elle est similaire à la relation ∆х ∙ ∆р ≥ ħ/2, mais le statut ontologique de cette inégalité est différent, puisqu'en mécanique quantique le temps t n'est pas une variable dynamique. Par conséquent, la relation ∆E ∙ ∆t ≥ ħ/2 ne découle pas directement des postulats de base de la mécanique quantique stationnaire et, à proprement parler, n’a de sens que pour les systèmes dont l’énergie change avec le temps. Sa signification physique est que pendant le temps ∆t, l'énergie du système ne peut pas être mesurée avec plus de précision que la valeur ∆E, déterminée par la relation ∆E ∙ ∆t ≥ ħ/2. L'état stationnaire (ΔE→0) existe indéfiniment (∆t→∞).

Spin, identité des particules et interaction d'échange. Le concept de « spin » a été établi en physique grâce aux travaux de W. Pauli, du physicien néerlandais R. Kronig, S. Goudsmit et J. Uhlenbeck (1924-27), bien que des preuves expérimentales de son existence aient été obtenues bien avant la création. de la mécanique quantique dans les expériences de A. Einstein et W. J. de Haas (1915), ainsi que de O. Stern et du physicien allemand W. Gerlach (1922). Le spin (l'impulsion mécanique de la particule) pour un électron est égal à S = ħ/2. C'est pareil caractéristique importante particule quantique, comme la charge et la masse, qui n’a cependant pas d’analogues classiques.

L'opérateur de spin Ŝ = ħσˆ/2, où σˆ= (σˆ x, σˆ y, σˆ z) sont des matrices de Pauli bidimensionnelles, est défini dans l'espace des fonctions propres à deux composantes u = (u + , u -) du opérateur Ŝ z de la projection de spin sur l'axe z : σˆ z u = σu, σ=±1/2. Le moment magnétique intrinsèque μ d'une particule de masse m et de spin S est égal à μ = 2μ 0 S, où μ 0 = еħ/2mс est le magnéton de Bohr. Les opérateurs Ŝ 2 et Ŝ z commutent avec l'ensemble Ĥ 0 L 2 et L z des opérateurs de l'atome d'hydrogène et forment ensemble l'hamiltonien de l'équation de Pauli (1927), dont les solutions sont numérotées par l'ensemble i = ( nlmσ) des nombres quantiques de valeurs propres de l'ensemble des opérateurs de navettage Ĥ 0 , L 2 , L z , Ŝ 2 , Ŝ z . Ces solutions décrivent les caractéristiques les plus subtiles des spectres d'atomes observés, en particulier la division des raies spectrales dans un champ magnétique (effet Zeeman normal et anormal), ainsi que leur structure multiplet résultant de l'interaction du spin électronique avec le moment orbital de l'atome (structure fine) et le spin du noyau (structure hyperfine).

En 1924, avant même la création de la mécanique quantique, W. Pauli formulait le principe d'interdiction : un atome ne peut pas avoir deux électrons avec le même ensemble de nombres quantiques i = (nlmσ). Ce principe a permis de comprendre la structure tableau périodiqueéléments chimiques et expliquent la périodicité des changements de leurs propriétés chimiques avec une augmentation monotone de la charge de leurs noyaux.

Le principe d'exclusion est un cas particulier d'un principe plus général qui établit un lien entre le spin d'une particule et la symétrie de sa fonction d'onde. En fonction de la valeur de spin, toutes les particules élémentaires sont divisées en deux classes : les fermions - particules à spin demi-entier (électron, proton, méson μ, etc.) et les bosons - particules à spin nul ou entier (photon, méson π , K-méson, etc.). En 1940, Pauli a prouvé un théorème général sur le lien entre le spin et les statistiques, d'où il résulte que les fonctions d'onde de tout système de fermions ont une parité négative (elles changent de signe lorsqu'elles sont réarrangées par paires), et la parité de la fonction d'onde d’un système de bosons est toujours positif. Conformément à cela, il existe deux types de distributions d'énergie des particules : la distribution de Fermi-Dirac et la distribution de Bose-Einstein, dont un cas particulier est la distribution de Planck pour un système de photons.

L'une des conséquences du principe de Pauli est l'existence de ce que l'on appelle l'interaction d'échange, qui se manifeste déjà dans un système de deux électrons. En particulier, c'est cette interaction qui assure la liaison chimique covalente des atomes dans les molécules H 2, N 2, O 2, etc. L'interaction d'échange est un effet exclusivement quantique, un analogue d'une telle interaction dans physique classique Non. Sa spécificité s'explique par le fait que la densité de probabilité de la fonction d'onde d'un système de deux électrons |ψ(r 1 ,r 2)| 2 contient non seulement des termes |ψ n (r 1)| 2 |ψ m (r 2)| 2, où n et m sont les états quantiques des électrons des deux atomes, mais aussi les « termes d'échange » ψ n * (r 1)ψ m * (r 1)ψ n (r 2)ψ m (r 2) , résultant de la superposition principale, qui permet à chaque électron d'être simultanément dans différents états quantiques n et m des deux atomes. De plus, en raison du principe de Pauli, la partie spin de la fonction d'onde d'une molécule doit être antisymétrique par rapport au réarrangement des électrons, c'est-à-dire que la liaison chimique des atomes dans une molécule est réalisée par une paire d'électrons avec des directions opposées tours dirigés. La fonction d'onde de molécules complexes peut être représentée comme une superposition de fonctions d'onde correspondant à diverses configurations possibles de la molécule (théorie de la résonance, L. Pauling, 1928).

Les méthodes de calcul développées en mécanique quantique (méthode Hartree-Fock, méthode des orbitales moléculaires, etc.) permettent de calculer sur les ordinateurs modernes toutes les caractéristiques de configurations stables de molécules complexes : l'ordre de remplissage des couches électroniques dans un atome, les distances d'équilibre entre les atomes dans les molécules, l'énergie et la direction des liaisons chimiques, l'emplacement des atomes dans l'espace et la construction de surfaces potentielles qui déterminent la direction des réactions chimiques. Cette approche permet également de calculer les potentiels d'interactions interatomiques et intermoléculaires, notamment la force de van der Waals, d'estimer la force des liaisons hydrogène, etc. Ainsi, le problème de la liaison chimique se réduit au problème du calcul de la force quantique caractéristiques d'un système de particules à interaction coulombienne, et de ce point de vue, la chimie structurale peut être considérée comme l'une des branches de la mécanique quantique.

L'interaction d'échange dépend significativement du type d'interaction potentielle entre les particules. En particulier, dans certains métaux c'est grâce à lui que l'état des paires d'électrons à spins parallèles est plus stable, ce qui explique le phénomène de ferromagnétisme.

Applications de la mécanique quantique. La mécanique quantique est la base théorique de la physique quantique. Il a permis de comprendre la structure des coquilles électroniques des atomes et les schémas de leurs spectres d'émission, la structure des noyaux et les lois de leur désintégration radioactive, l'origine des éléments chimiques et l'évolution des étoiles, y compris les explosions de novae. et supernovae, ainsi que la source d'énergie solaire. La mécanique quantique a expliqué la signification du tableau périodique des éléments, la nature des liaisons chimiques et la structure des cristaux, la capacité thermique et Propriétés magnétiques substances, les phénomènes de supraconductivité et de superfluidité, etc. Mécanique quantique - base physique de nombreuses applications techniques : analyse spectrale, laser, transistor et ordinateur, réacteur nucléaire et bombe atomique, etc.

Les propriétés des métaux, des diélectriques, des semi-conducteurs et d'autres substances trouvent également une explication naturelle dans le cadre de la mécanique quantique. Dans les cristaux, les atomes effectuent de petites vibrations proches des positions d'équilibre avec une fréquence ω, qui sont associées aux quanta de vibrations du réseau cristallin et aux quasi-particules correspondantes - les phonons d'énergie E = ħω. La capacité thermique d'un cristal est largement déterminée par la capacité thermique de son gaz phonon, et sa conductivité thermique peut être interprétée comme la conductivité thermique d'un gaz phonon. Dans les métaux, les électrons de conduction sont un gaz de fermions, et leur diffusion par les phonons est la principale cause de la résistance électrique des conducteurs, et explique également la similitude des propriétés thermiques et électriques des métaux (voir loi de Wiedemann-Franz). Dans les structures magnétiquement ordonnées, des quasiparticules apparaissent - des magnons, qui correspondent aux ondes de spin ; dans les liquides quantiques, des quanta d'excitation rotationnelle - des rotons apparaissent, et les propriétés magnétiques des substances sont déterminées par les spins des électrons et des noyaux (voir Magnétisme). Interaction des spins des électrons et des noyaux avec champ magnétique- la base d'applications pratiques des phénomènes de résonance paramagnétique électronique et magnétique nucléaire, notamment dans les tomographes médicaux.

La structure ordonnée des cristaux donne lieu à une symétrie supplémentaire de l'hamiltonien par rapport au décalage x → x + a, où a est la période du réseau cristallin. La prise en compte de la structure périodique d'un système quantique conduit à diviser son spectre énergétique en zones autorisées et interdites. Cette structure de niveaux d'énergie sous-tend le fonctionnement des transistors et de toute l'électronique basée sur ceux-ci (TV, ordinateur, téléphone portable et etc.). Au début du XXIe siècle, des progrès significatifs ont été réalisés dans la création de cristaux aux propriétés et structures de bandes énergétiques précises (super-réseaux, cristaux photoniques et hétérostructures : points quantiques, fils quantiques, nanotubes, etc.).

À mesure que la température diminue, certaines substances passent à l'état de liquide quantique dont l'énergie à température T → 0 se rapproche de l'énergie des oscillations du point zéro du système. Dans certains métaux, à basse température, des paires de Cooper se forment - des systèmes de deux électrons avec des spins et des impulsions opposés. Dans ce cas, le gaz électronique des fermions se transforme en gaz de bosons, ce qui entraîne une condensation de Bose, expliquant le phénomène de supraconductivité.

À basse température, la longueur d'onde de Broglie des mouvements thermiques des atomes devient comparable aux distances interatomiques et une corrélation des phases des fonctions d'onde de nombreuses particules apparaît, ce qui conduit à des effets quantiques macroscopiques (effet Josephson, quantification du flux magnétique, Hall quantique fractionnaire effet, réflexion d'Andreev).

Sur la base de phénomènes quantiques, les étalons quantiques les plus précis de diverses grandeurs physiques ont été créés : fréquences (laser hélium-néon), tension électrique(effet Josephson), résistance (effet Hall quantique), etc., ainsi que des instruments pour diverses mesures de précision : SQUIDS, horloges quantiques, gyroscope quantique, etc.

La mécanique quantique est née comme une théorie pour expliquer des phénomènes spécifiques de la physique atomique (au début on l'appelait dynamique atomique), mais peu à peu il est devenu clair que la mécanique quantique constitue également la base de toute physique subatomique, et que tous ses concepts de base sont applicables pour décrire le phénomènes de physique nucléaire et particules élémentaires. La mécanique quantique originale n’était pas relativiste, c’est-à-dire qu’elle décrivait le mouvement des systèmes à des vitesses bien inférieures à la vitesse de la lumière. L'interaction des particules dans cette théorie était encore décrite en termes classiques. En 1928, P. Dirac trouve une équation relativiste de la mécanique quantique (équation de Dirac), qui, tout en préservant tous ses concepts, prend en compte les exigences de la théorie de la relativité. De plus, le formalisme de quantification secondaire a été développé, qui décrit la naissance et la destruction de particules, en particulier la naissance et l'absorption de photons dans les processus de rayonnement. Sur cette base est née l'électrodynamique quantique, qui a permis de calculer avec une grande précision toutes les propriétés des systèmes à interaction électromagnétique. Elle s'est ensuite développée en théorie quantique des champs, qui unit les particules et les champs à travers lesquels elles interagissent dans un formalisme unique.

Pour décrire les particules élémentaires et leurs interactions, tous les concepts fondamentaux de la mécanique quantique sont utilisés : le dualisme onde-particule reste valable, le langage des opérateurs et des nombres quantiques, l'interprétation probabiliste des phénomènes observés, etc. En particulier, pour expliquer l'interconversion de trois types de neutrinos : v e, ν μ et ν τ (oscillations des neutrinos), ainsi que des mésons K neutres, le principe de superposition d'états est utilisé.

Interprétation de la mécanique quantique. La validité des équations et des conclusions de la mécanique quantique a été confirmée à plusieurs reprises par de nombreuses expériences. Le système de ses concepts, créé par les travaux de N. Bohr, de ses étudiants et disciples, connu sous le nom d'« interprétation de Copenhague », est désormais généralement accepté, bien qu'un certain nombre de créateurs de la mécanique quantique (M. Planck, A. Einstein et E. Schrödinger, etc.) sont restés jusqu'à la fin de leur vie convaincus que la mécanique quantique est une théorie incomplète. La difficulté spécifique de comprendre la mécanique quantique tient notamment au fait que la plupart de ses concepts de base (onde, particule, observation, etc.) sont issus de la physique classique. En mécanique quantique, leur signification et leur champ d'application sont limités en raison de la finitude du quantum d'action h, ce qui, à son tour, a nécessité une révision des dispositions établies de la philosophie de la connaissance.

Tout d’abord, en mécanique quantique, le sens du concept d’« observation » a changé. En physique classique, on supposait que les perturbations du système étudié provoquées par le processus de mesure pouvaient être correctement prises en compte, après quoi il était possible de restaurer l'état initial du système, indépendamment des moyens d'observation. En mécanique quantique, la relation d'incertitude pose une limite fondamentale à cette voie, qui n'a rien à voir avec l'habileté de l'expérimentateur et la subtilité des méthodes d'observation utilisées. Le quantum d'action h détermine les limites de la mécanique quantique, comme la vitesse de la lumière dans la théorie des phénomènes électromagnétiques ou zéro absolu températures en thermodynamique.

La raison du rejet de la relation d'incertitude et la manière de surmonter les difficultés de perception de ses conséquences logiques ont été proposées par N. Bohr dans le concept de complémentarité (voir Principe de complémentarité). Selon Bohr, une description complète et adéquate des phénomènes quantiques nécessite une paire de concepts supplémentaires et une paire correspondante d’observables. Pour mesurer ces observables, deux différents types appareils aux propriétés incompatibles. Par exemple, pour mesurer avec précision une coordonnée, il faut un appareil stable et massif, mais pour mesurer une impulsion, au contraire, il faut un appareil léger et sensible. Ces deux dispositifs sont incompatibles, mais ils sont complémentaires dans le sens où les deux quantités mesurées par eux sont également nécessaires pour caractériser pleinement un objet ou un phénomène quantique. Bohr a expliqué que « phénomène » et « observation » sont des concepts supplémentaires et ne peuvent être définis séparément : le processus d'observation est déjà un certain phénomène, et sans observation, le phénomène est une « chose en soi ». En réalité, nous n'avons toujours pas affaire au phénomène lui-même, mais au résultat de l'observation du phénomène, et ce résultat dépend, entre autres, du choix du type d'appareil utilisé pour mesurer les caractéristiques d'un objet quantique. La mécanique quantique explique et prédit les résultats de telles observations sans aucun arbitraire.

Une différence importante entre les équations quantiques et les équations classiques est également que la fonction d'onde d'un système quantique lui-même n'est pas observable et que toutes les quantités calculées avec son aide ont une signification probabiliste. De plus, le concept de probabilité en mécanique quantique est fondamentalement différent de la compréhension habituelle de la probabilité en tant que mesure de notre ignorance des détails des processus. La probabilité en mécanique quantique est une propriété interne d'un phénomène quantique individuel, inhérente initialement et indépendamment des mesures, et non une manière de représenter les résultats des mesures. Selon cela, le principe de superposition en mécanique quantique ne se réfère pas à des probabilités, mais à des amplitudes de probabilité. De plus, en raison de la nature probabiliste des événements, une superposition d'états quantiques peut inclure des états incompatibles du point de vue classique, par exemple les états des photons réfléchis et transmis à la limite d'un écran translucide, ou des états alternatifs. d'un électron passant à travers l'une des fentes de la célèbre expérience d'interférence.

Le rejet de l’interprétation probabiliste de la mécanique quantique a donné lieu à de nombreuses tentatives visant à modifier les principes fondamentaux de la mécanique quantique. L'une de ces tentatives est l'introduction de paramètres cachés dans la mécanique quantique, qui changent conformément à des lois strictes de causalité, et la nature probabiliste de la description en mécanique quantique résulte de la moyenne de ces paramètres. La preuve de l'impossibilité d'introduire des paramètres cachés dans la mécanique quantique sans violer le système de ses postulats a été donnée par J. von Neumann en 1929. Une analyse plus détaillée du système de postulats de la mécanique quantique a été entreprise par J. Bell en 1965. La vérification expérimentale des inégalités dites de Bell (1972) a une fois de plus confirmé le schéma généralement accepté de la mécanique quantique.

De nos jours, la mécanique quantique est une théorie complète qui donne toujours des prédictions correctes dans les limites de son applicabilité. Toutes les tentatives connues pour le modifier (une dizaine d'entre elles sont connues) n'ont pas modifié sa structure, mais ont jeté les bases de nouvelles branches de la science sur les phénomènes quantiques : électrodynamique quantique, théorie quantique des champs, théorie de l'interaction électrofaible, chromodynamique quantique, théorie quantique. de la gravité, théorie des cordes et supercordes, etc.

La mécanique quantique fait partie des réalisations scientifiques telles que la mécanique classique, la doctrine de l'électricité, la théorie de la relativité et la théorie cinétique. Aucune théorie physique n'a expliqué un éventail aussi large de phénomènes physiques dans la nature : sur les 94 prix Nobel de physique décernés au XXe siècle, seuls 12 ne sont pas directement liés à la physique quantique. L'importance de la mécanique quantique dans l'ensemble du système de connaissance de la nature environnante dépasse largement le cadre de la doctrine des phénomènes quantiques : elle a créé un langage de communication dans physique moderne, la chimie et même la biologie, ont conduit à une révision de la philosophie des sciences et de la théorie de la connaissance, et ses conséquences technologiques déterminent encore aujourd'hui l'orientation du développement de la civilisation moderne.

Lit. : Neumann I. Fondements mathématiques de la mécanique quantique. M., 1964 ; Davydov A. S. Mécanique quantique. 2e éd. M., 1973 ; Dirac P. Principes de la mécanique quantique. 2e éd. M., 1979 ; Blokhintsev D.I. Fondamentaux de la mécanique quantique. 7e éd. Saint-Pétersbourg, 2004 ; Landau L. D., Lifshits E. M. Mécanique quantique. Théorie non relativiste. 5e éd. M., 2004 ; Feynman R., Layton R., Sands M. Mécanique quantique. 3e éd. M., 2004 ; Ponomarev L.I. Sous le signe du quantique. 2e éd. M., 2007 ; Fok V. A. Les débuts de la mécanique quantique. 5e éd. M., 2008.

La formation de la mécanique quantique en tant que théorie cohérente avec des fondements physiques spécifiques est largement associée aux travaux de W. Heisenberg, dans lesquels elle a été formulée relation d'incertitude (principe). Cette position fondamentale de la mécanique quantique révèle la signification physique de ses équations, et détermine également son lien avec la mécanique classique.

Principe incertain postulats : un objet du micromonde ne peut pas se trouver dans des états dans lesquels les coordonnées de son centre d'inertie et de sa quantité de mouvement prennent simultanément des valeurs bien définies et précises.

Quantitativement, ce principe se formule ainsi. Si ∆x – incertitude de la valeur des coordonnées X , UN ∆p - incertitude de quantité de mouvement, alors le produit de ces incertitudes en ordre de grandeur ne peut être inférieur à la constante de Planck :

X p h.

Il résulte du principe d'incertitude que plus l'une des quantités incluses dans l'inégalité est déterminée avec précision, moins la valeur de l'autre est déterminée avec précision. Aucune expérience ne peut mesurer simultanément avec précision ces variables dynamiques, et cela n’est pas dû à l’influence des instruments de mesure ou à leurs imperfections. La relation d'incertitude reflète les propriétés objectives du micromonde, découlant de sa dualité onde-particule.

Le fait qu'un même objet se manifeste à la fois comme particule et comme onde détruit les idées traditionnelles et prive la description des processus de la clarté habituelle. Le concept de particule implique un objet contenu dans une petite région de l'espace, tandis qu'une onde se propage dans ses régions étendues. Il est impossible d’imaginer un objet possédant simultanément ces qualités, et il ne faut pas essayer. Il est impossible de construire un modèle visuel pour la pensée humaine et adapté au micromonde. Les équations de la mécanique quantique ne fixent cependant pas un tel objectif. Leur signification réside dans une description mathématiquement adéquate des propriétés des objets du micromonde et des processus qui s'y déroulent.

Si nous parlons du lien entre la mécanique quantique et la mécanique classique, alors la relation d'incertitude est une limitation quantique sur l'applicabilité de la mécanique classique aux objets du micromonde. À proprement parler, la relation d'incertitude s'applique à tout système physique, cependant, puisque la nature ondulatoire des macro-objets n'est pratiquement pas manifestée, les coordonnées et la quantité de mouvement de ces objets peuvent être mesurées simultanément avec une assez grande précision. Cela signifie que pour décrire leur mouvement, il suffit amplement d’utiliser les lois de la mécanique classique. Rappelons que la situation est similaire en mécanique relativiste (théorie restreinte de la relativité) : à des vitesses de mouvement nettement inférieures à la vitesse de la lumière, les corrections relativistes deviennent insignifiantes et les transformations de Lorentz se transforment en transformations galiléennes.

Ainsi, la relation d'incertitude pour les coordonnées et l'impulsion reflète le dualisme onde-corpuscule du micromonde et non lié à l'influence des instruments de mesure. Une relation d’incertitude similaire pour énergieE Et tempst :

E t h.

Il s'ensuit que l'énergie du système ne peut être mesurée qu'avec une précision n'excédant pas h /∆ t, t – durée de mesure. La raison de cette incertitude réside dans le processus même d'interaction du système (microobjet) avecinstrument de mesure. Pour une situation stationnaire, l'inégalité ci-dessus signifie que l'énergie d'interaction entre l'appareil de mesure et le système ne peut être prise en compte qu'avec une précision de h /∆t. Dans le cas limite d’une mesure instantanée, l’échange d’énergie qui se produit s’avère totalement incertain.

Si sous E l'incertitude sur la valeur énergétique de l'état non stationnaire est comprise, alors t est un temps caractéristique pendant lequel les valeurs des grandeurs physiques dans le système changent de manière significative. De là, en particulier, découle une conclusion importante concernant les états excités des atomes et autres microsystèmes : l'énergie du niveau excité ne peut être strictement déterminée, ce qui indique la présence largeur naturelle ce niveau.

Les propriétés objectives des systèmes quantiques se reflètent dans une autre position fondamentale de la mécanique quantique : Le principe de complémentarité de Bohr, Par lequel l'obtention par toute méthode expérimentale d'informations sur certaines grandeurs physiques qui décrivent un microobjet est inévitablement associée à la perte d'informations sur certaines autres grandeurs, supplémentaires aux premières.

Sont notamment complémentaires les coordonnées de la particule et son élan (voir ci-dessus - le principe d'incertitude), l'énergie cinétique et potentielle, l'intensité du champ électrique et le nombre de photons.

Les principes fondamentaux considérés de la mécanique quantique indiquent qu'en raison du dualisme onde-particule du microcosme qu'elle étudie, le déterminisme de la physique classique lui est étranger. Un abandon complet de la modélisation visuelle des processus donne un intérêt particulier la question de quoi nature physique de Broglie fait signe. Pour répondre à cette question, il est d’usage de « partir » du comportement des photons. On sait que lorsqu'un faisceau lumineux traverse une plaque translucide S une partie de la lumière la traverse et une autre est réfléchie (Fig. 4).

Riz. 4

Qu’arrive-t-il aux photons individuels ? Expériences avec des faisceaux lumineux de très faible intensité utilisant la technologie moderne ( UN– détecteur de photons), qui permet de surveiller le comportement de chaque photon (ce qu'on appelle le mode de comptage de photons), montre qu'il est hors de question de diviser un photon individuel (sinon la lumière changerait de fréquence). Il a été établi de manière fiable que certains photons traversent la plaque et que d'autres en sont réfléchis. Cela signifie que particules identiques dansdans les mêmes conditions, il peut se comporter différemment,c'est-à-dire que le comportement d'un photon individuel lorsqu'il rencontre la surface d'une plaque ne peut pas être prédit sans ambiguïté.

La réflexion d'un photon sur une plaque ou son passage à travers celle-ci sont des événements aléatoires. Et les modèles quantitatifs de tels événements sont décrits à l’aide de la théorie des probabilités. Un photon peut avec probabilité w 1 passer à travers la plaque et avec probabilité w 2 être reflété par elle. La probabilité que l’un de ces deux événements alternatifs arrive à un photon est égale à la somme des probabilités : w 1 +w 2 = 1.

Des expériences similaires avec un faisceau d'électrons ou d'autres microparticules montrent également la nature probabiliste du comportement des particules individuelles. Ainsi, le problème de la mécanique quantique peut être formulé comme une prédictionprobabilités de processus dans le microcosme, contrairement au problème de la mécanique classique – prédire la fiabilité des événements dans le macrocosme.

On sait cependant que la description probabiliste est également utilisée en physique statistique classique. Alors, quelle est la différence fondamentale ? Pour répondre à cette question, compliquons l’expérience de réflexion de la lumière. Utiliser un miroir S 2 dépliez le faisceau réfléchi en plaçant le détecteur UN, en enregistrant les photons dans la zone de son intersection avec le faisceau transmis, c'est-à-dire que nous fournirons les conditions de l'expérience d'interférence (Fig. 5).

Riz. 5

En raison des interférences, l'intensité lumineuse, en fonction de l'emplacement du miroir et du détecteur, changera périodiquement sur la section transversale de la région de chevauchement du faisceau dans une large plage (y compris jusqu'à zéro). Comment les photons individuels se comportent-ils dans cette expérience ? Il s'avère que dans ce cas les deux chemins optiques vers le détecteur ne sont plus alternatifs (mutuellement exclusifs) et il est donc impossible de dire quel chemin le photon a emprunté depuis la source jusqu'au détecteur. Nous devons supposer qu’il pourrait pénétrer simultanément dans le détecteur de deux manières, formant finalement un motif d’interférence. Des expériences avec d'autres microparticules donnent un résultat similaire : les particules qui passent successivement créent la même image que le flux de photons.

Il s’agit d’une différence fondamentale par rapport aux concepts classiques : il est impossible d’imaginer simultanément le mouvement d’une particule le long de deux trajectoires différentes. Or, la mécanique quantique ne pose pas un tel problème. Il prédit que les bandes lumineuses auront une forte probabilité d’apparition d’un photon.

L'optique ondulatoire explique facilement le résultat d'une expérience d'interférence utilisant le principe de superposition, selon lequel des ondes lumineuses sont ajoutées en tenant compte de la relation de leurs phases. En d'autres termes, les ondes sont d'abord additionnées en amplitude en tenant compte de la différence de phase, une distribution périodique d'amplitude est formée, puis le détecteur enregistre l'intensité correspondante (qui correspond à l'opération mathématique de quadrature modulo, c'est-à-dire des informations sur la phase la distribution est perdue). Dans ce cas, la distribution d'intensité est périodique :

je = je 1 +Je 2 + 2 UN 1 UN 2 parce que (φ 1 – φ 2 ),

UN , φ , je = | UN | 2 amplitude,phase Et intensité vagues, respectivement, et les indices 1, 2 indiquent leur appartenance à la première ou à la deuxième de ces vagues. Il est clair que lorsque UN 1 = UN 2 Et cos(φ 1 φ 2 ) = – 1 valeur d'intensité je = 0 , ce qui correspond à l'extinction mutuelle des ondes lumineuses (avec leur superposition et interaction en amplitude).

Pour interpréter les phénomènes ondulatoires d'un point de vue corpusculaire, le principe de superposition est transféré à la mécanique quantique, c'est-à-dire que le concept est introduit amplitudes de probabilité – par analogie avec les ondes optiques : Ψ = UN exp(jeφ ). Cela signifie que la probabilité est le carré de cette valeur (modulo), c'est-à-dire W = |Ψ| 2 .L’amplitude de probabilité est appelée en mécanique quantique fonction d'onde . Ce concept a été introduit en 1926 par le physicien allemand M. Born, donnant ainsi interprétation probabiliste de Broglie fait signe. Satisfaire le principe de superposition signifie que si Ψ 1 Et Ψ 2 – amplitudes de probabilité qu'une particule passe par les premier et deuxième chemins, alors l'amplitude de probabilité lors du passage des deux chemins doit être : Ψ = Ψ 1 + Ψ 2 . Alors formellement, l’affirmation selon laquelle « la particule a parcouru deux chemins » prend un sens ondulatoire, et la probabilité W = |Ψ 1 + Ψ 2 | 2 expose la propriété répartition des interférences.

Ainsi, la quantité qui décrit l'état d'un système physique en mécanique quantique est la fonction d'onde du système en supposant que le principe de superposition est valide. Concernant la fonction d'onde, l'équation de base de la mécanique des vagues est écrite : l'équation de Schrödinger. L’une des tâches principales de la mécanique quantique est donc de trouver la fonction d’onde correspondant à un état donné du système étudié.

Il est important que la description de l'état d'une particule à l'aide de la fonction d'onde soit de nature probabiliste, puisque Le carré du module de la fonction d'onde détermine la probabilité de trouver une particule à un instant donné dans un certain volume limité. C’est en cela que la théorie quantique se distingue fondamentalement de la physique classique par son déterminisme.

Autrefois, la mécanique classique devait son triomphe à la grande précision de la prédiction du comportement des macro-objets. Naturellement, pendant longtemps, les scientifiques ont cru que les progrès de la physique et de la science en général seraient intégralement liés à une augmentation de la précision et de la fiabilité de ce type de prédictions. Le principe d’incertitude et le caractère probabiliste de la description des microsystèmes en mécanique quantique ont radicalement changé ce point de vue.

Puis d’autres extrêmes ont commencé à apparaître. Puisque le principe d’incertitude implique impossibilité de simultanéitédétermination de la position et de l'élan, nous pouvons conclure que l'état du système au moment initial n'est pas déterminé avec précision et, par conséquent, les états ultérieurs ne peuvent pas être prédits, c'est-à-dire qu'il est violé principe de causalité.

Cependant, une telle affirmation n’est possible qu’avec une vision classique de la réalité non classique. En mécanique quantique, l’état d’une particule est entièrement déterminé par la fonction d’onde. Sa valeur, spécifiée à un moment donné, détermine ses valeurs ultérieures. Puisque la causalité agit comme l'une des manifestations du déterminisme, il est conseillé, dans le cas de la mécanique quantique, de parler de déterminisme probabiliste, basé sur des lois statistiques, c'est-à-dire qu'il offre une précision d'autant plus grande que plus d'événements du même type sont enregistrés. Le concept moderne de déterminisme présuppose donc une combinaison organique, une unité dialectique nécessité Et les accidents.

Le développement de la mécanique quantique a ainsi eu un impact notable sur les progrès de la pensée philosophique. D'un point de vue épistémologique, le phénomène déjà mentionné principe de correspondance, formulé par N. Bohr en 1923, selon lequel toute théorie nouvelle, plus générale, qui est un développement de la théorie classique, ne la rejette pas complètement, mais inclut la théorie classique, indiquant les limites de son applicabilité et y passant dans certains cas limites.

Il est facile de voir que le principe de correspondance illustre parfaitement la relation entre la mécanique classique et l’électrodynamique avec la théorie de la relativité et la mécanique quantique.

La mécanique quantique est une théorie physique fondamentale qui, dans la description d'objets microscopiques, élargit, affine et combine les résultats de la mécanique classique et de l'électrodynamique classique. Cette théorie constitue la base de nombreux domaines de la physique et de la chimie, notamment la physique du solide, la chimie quantique et la physique des particules. Le terme « quantique » (du latin Quantum - « combien ») est associé à des parties discrètes que la théorie attribue à certaines grandeurs physiques, par exemple l'énergie d'un atome.

La mécanique est une science qui décrit le mouvement des corps et met en corrélation des quantités physiques, telles que l'énergie ou l'élan. Il fournit des résultats précis et fiables pour de nombreux phénomènes. Cela s'applique aussi bien aux phénomènes à l'échelle microscopique (ici la mécanique classique n'est même pas capable d'expliquer l'existence d'un atome stable) et à certains phénomènes macroscopiques, tels que la supraconductivité, la superfluidité ou le rayonnement du corps noir. Au cours du siècle d’existence de la mécanique quantique, ses prédictions n’ont jamais été remises en question par l’expérience. La mécanique quantique explique au moins trois types de phénomènes que la mécanique classique et l'électrodynamique classique ne peuvent décrire :

1) quantification de certaines grandeurs physiques ;

2) la dualité onde-particule ;

3) l'existence d'états quantiques mixtes.

La mécanique quantique peut être formulée comme une théorie relativiste ou non relativiste. Bien que la mécanique quantique relativiste soit l’une des théories les plus fondamentales, la mécanique quantique non relativiste est également souvent utilisée pour des raisons de commodité.

Base théorique de la mécanique quantique

Diverses formulations de la mécanique quantique

L'une des premières formulations de la mécanique quantique est la « mécanique ondulatoire », proposée par Erwin Schrödinger. Dans ce concept, l'état du système étudié est déterminé par une « fonction d'onde » qui reflète la distribution de probabilité de toutes les grandeurs physiques mesurées du système. Tels que l'énergie, les coordonnées, l'élan ou le moment cinétique. La fonction d'onde (d'un point de vue mathématique) est une fonction complexe quadratiquement intégrable des coordonnées et du temps du système.

En mécanique quantique, les grandeurs physiques ne sont pas associées à des valeurs numériques spécifiques. D'autre part, des hypothèses sont faites sur la distribution de probabilité des valeurs du paramètre mesuré. En règle générale, ces probabilités dépendront du type de vecteur d’état au moment de la mesure. Bien que, pour être plus précis, chaque valeur spécifique de la grandeur mesurée corresponde à un certain vecteur d'état, appelé « état propre » de la grandeur mesurée.

Prenons un exemple précis. Imaginons une particule libre. Son vecteur d'état est arbitraire. Notre tâche est de déterminer les coordonnées de la particule. L'état propre des coordonnées d'une particule dans l'espace est un vecteur d'état ; la norme en un certain point x est assez grande, tandis qu'en tout autre endroit de l'espace, elle est nulle. Si nous effectuons maintenant des mesures, nous obtiendrons avec une probabilité de cent pour cent la valeur même de x.

Parfois, le système qui nous intéresse n’est pas dans son propre état ou dans la grandeur physique que nous mesurons. Cependant, si nous essayons d’effectuer des mesures, la fonction d’onde devient instantanément un état propre de la grandeur mesurée. Ce processus est appelé effondrement de la fonction d’onde. Si nous connaissons la fonction d’onde au moment précédant la mesure, nous sommes en mesure de calculer la probabilité d’effondrement dans chacun des états propres possibles. Par exemple, une particule libre dans notre exemple de mesure précédent aura une fonction d'onde, est un paquet d'ondes centré en un point x0 et n'est pas un état propre de la coordonnée. Lorsque l’on commence à mesurer les coordonnées d’une particule, il est impossible de prédire le résultat que nous obtiendrons. Il est probable, mais pas certain, qu’elle soit proche de x0, là où l’amplitude de la fonction d’onde est grande. Après la mesure, lorsque nous obtenons un résultat x, la fonction d'onde s'effondre dans une position avec un état propre concentré précisément en x.

Les vecteurs d'état sont des fonctions du temps. ψ = ψ (t) L'équation de Schrödinger détermine l'évolution du vecteur d'état au fil du temps.

Certains vecteurs d’état donnent lieu à des distributions de probabilité constantes dans le temps. De nombreux systèmes considérés comme dynamiques en mécanique classique sont en fait décrits par de telles fonctions « statiques ». Par exemple, un électron dans un atome non excité en physique classique est représenté comme une particule qui se déplace selon une trajectoire circulaire autour du noyau de l'atome, tandis qu'en mécanique quantique, il est statique, un nuage probabiliste à symétrie sphérique autour du noyau.

L’évolution d’un vecteur d’état au fil du temps est déterministe dans le sens où, étant donné un certain vecteur d’état au moment initial, on peut prédire avec précision ce qu’il sera à tout autre moment. Au cours du processus de mesure, le changement de configuration du vecteur d'état est probabiliste et non déterministe. La nature probabiliste de la mécanique quantique se manifeste donc précisément dans le processus de réalisation des mesures.

Il existe plusieurs interprétations de la mécanique quantique qui introduisent un nouveau concept dans l’acte même de mesure en mécanique quantique. La principale interprétation de la mécanique quantique, généralement acceptée aujourd’hui, est l’interprétation probabiliste.

Fondements physiques de la mécanique quantique

Le principe d'incertitude, qui stipule qu'il existe des obstacles fondamentaux à la mesure précise de deux ou plusieurs paramètres d'un système simultanément avec une incertitude arbitraire. Dans l’exemple avec une particule libre, cela signifie qu’il est fondamentalement impossible de trouver une fonction d’onde qui serait à la fois un état propre de l’impulsion et des coordonnées. Il s'ensuit que la coordonnée et la quantité de mouvement ne peuvent pas être déterminées simultanément avec une erreur arbitraire. À mesure que la précision de la mesure des coordonnées augmente, la précision maximale de la mesure des impulsions diminue et vice versa. Les paramètres pour lesquels une telle affirmation est vraie sont appelés canoniquement conjugués en physique classique.

Base expérimentale de la mécanique quantique

Il existe des expériences qui ne peuvent être expliquées sans le recours à la mécanique quantique. Le premier type d’effets quantiques est la quantification de certaines grandeurs physiques. Si nous localisons une particule libre de l'exemple considéré ci-dessus dans un puits de potentiel rectangulaire - une proto-zone de taille L, délimitée des deux côtés par une barrière de potentiel infiniment élevée, alors il s'avère que l'impulsion de la particule ne peut que avoir certaines valeurs discrètes, où h est la constante de Planck et n est un nombre naturel arbitraire. Les paramètres qui ne peuvent acquérir que des valeurs discrètes sont dits quantifiés. Des exemples de paramètres quantifiés sont également le moment cinétique, l'énergie totale d'un système spatialement limité, ainsi que l'énergie un rayonnement électromagnétique une certaine fréquence.

Un autre effet quantique est la dualité onde-particule. On peut montrer que dans certaines conditions expérimentales, des objets microscopiques, tels que des atomes ou des électrons, acquièrent les propriétés de particules (c'est-à-dire qu'ils peuvent être localisés dans une certaine région de l'espace). Dans d’autres conditions, les mêmes objets acquièrent les propriétés des ondes et présentent des effets tels que des interférences.

Le prochain effet quantique est l’effet des états quantiques intriqués. Dans certains cas, le vecteur d'état d'un système de nombreuses particules ne peut pas être représenté comme la somme des fonctions d'onde individuelles correspondant à chacune des particules. Dans ce cas, on dit que les états des particules sont confus. Et puis, les mesures effectuées pour une seule particule entraîneront l’effondrement de la fonction d’onde globale du système, c’est-à-dire une telle mesure aura un effet instantané sur les fonctions d’onde des autres particules du système, même si certaines d’entre elles sont situées à une distance considérable. (Cela ne contredit pas la théorie restreinte de la relativité, puisque le transfert d’informations à distance est ainsi impossible.)

Appareil mathématique de mécanique quantique

Dans les mathématiques rigoureuses de la mécanique quantique, développées par Paul Dirac et John von Neumann, les états possibles d'un système mécanique quantique sont représentés par des vecteurs d'état dans un espace de Hilbert complexe et séparable. L'évolution d'un état quantique est décrite par l'équation de Schrödinger, dans laquelle l'opérateur de Hamilton, ou hamiltonien, correspondant à l'énergie totale du système, détermine son évolution dans le temps.

Chaque paramètre variable du système est représenté par des opérateurs hermitiens dans l'espace des états. Chaque état propre du paramètre mesuré correspond à un vecteur propre de l'opérateur, et la valeur propre correspondante est égale à la valeur du paramètre mesuré dans cet état propre. Au cours du processus de mesure, la probabilité que le système passe à l'un de ses états propres est déterminée comme le carré du produit scalaire du vecteur d'état propre et du vecteur d'état avant la mesure. Les résultats possibles de la mesure sont les valeurs propres de l'opérateur, explique le choix des opérateurs hermitiens pour lesquels toutes les valeurs propres sont des nombres réels. La distribution de probabilité du paramètre mesuré peut être obtenue en calculant la décomposition spectrale de l'opérateur correspondant (ici le spectre de l'opérateur est la somme de toutes les valeurs possibles de la grandeur physique correspondante). Le principe d'incertitude de Heisenberg correspond au fait que les opérateurs des grandeurs physiques correspondantes ne commutent pas entre eux. Les détails de l'appareil mathématique sont présentés dans un article spécial, Appareils mathématiques de mécanique quantique.

Une solution analytique à l'équation de Schrödinger existe pour un petit nombre d'hamiltoniens, par exemple pour un oscillateur harmonique, un modèle de l'atome d'hydrogène. Même l’atome d’hélium, qui diffère de l’atome d’hydrogène d’un électron, n’a pas de solution complètement analytique à l’équation de Schrödinger. Il existe cependant certaines méthodes permettant de résoudre approximativement ces équations. Par exemple, les méthodes de la théorie des perturbations, où résultat analytique les solutions d'un modèle de mécanique quantique simple sont utilisées pour obtenir des solutions pour des systèmes plus complexes en ajoutant une certaine « perturbation » sous la forme, par exemple, d'énergie potentielle. Une autre méthode, les « équations squasi-classiques du mouvement », est appliquée aux systèmes pour lesquels la mécanique quantique ne produit que de faibles écarts par rapport au comportement classique. De tels écarts peuvent être calculés à l’aide de méthodes physiques classiques. Cette approche est importante dans la théorie du chaos quantique, qui s’est rapidement développée récemment.

Interaction avec d'autres théories

Les principes fondamentaux de la mécanique quantique sont assez abstraits. Ils affirment que l'espace d'état du système est Hilbert et que les grandeurs physiques correspondent aux opérateurs hermitiens agissant dans cet espace, mais n'indiquent pas spécifiquement de quel type d'espace de Hilbert il s'agit et de quel type d'opérateurs il s'agit. Ils doivent être choisis de manière appropriée pour obtenir une description quantitative du système quantique. Un guide important ici est le principe de correspondance, qui stipule que les effets de la mécanique quantique cessent d'être significatifs et que le système acquiert des caractéristiques classiques à mesure que sa taille augmente. Cette limite « grand système » est aussi appelée limite classique ou limite de conformité. Alternativement, on peut commencer par considérer un modèle classique d’un système, puis essayer de comprendre quel modèle quantique correspond à quel modèle classique se trouve en dehors de la limite de correspondance.

Lorsque la mécanique quantique a été formulée pour la première fois, elle a été appliquée à des modèles correspondant aux modèles classiques de la mécanique non relativiste. Par exemple, le modèle bien connu de l'oscillateur harmonique utilise une description franchement non relativiste de l'énergie cinétique de l'oscillateur, tout comme le modèle quantique correspondant.

Les premières tentatives visant à relier la mécanique quantique à la théorie de la relativité restreinte ont conduit au remplacement de l'équation de Schrödinger par les équations de Dirac. Ces théories ont réussi à expliquer de nombreux résultats expérimentaux, mais ont ignoré des faits tels que la création relativiste et l'annihilation des particules élémentaires. Une théorie quantique entièrement relativiste nécessite le développement d’une théorie quantique des champs qui appliquerait le concept de quantification à un champ plutôt qu’à une liste fixe de particules. La première théorie quantique des champs achevée, l'électrodynamique quantique, fournit une description entièrement quantique des processus d'interaction électromagnétique.

L’ensemble de la théorie quantique des champs est souvent excessif pour décrire les systèmes électromagnétiques. Une approche simple, tirée de la mécanique quantique, suggère que les particules chargées sont des objets de mécanique quantique dans un champ électromagnétique classique. Par exemple, le modèle quantique élémentaire de l’atome d’hydrogène décrit le champ électromagnétique de l’atome en utilisant le potentiel de Coulomb classique (c’est-à-dire inversement proportionnel à la distance). Cette approche « pseudoclassique » ne fonctionnera pas si les fluctuations quantiques du champ électromagnétique, telles que l’émission de photons par des particules chargées, commencent à jouer un rôle important.

Des théories quantiques des champs pour les interactions nucléaires fortes et faibles ont également été développées. La théorie quantique des champs pour les interactions fortes est appelée chromodynamique quantique et décrit l'interaction des particules subnucléaires - les quarks et les gluons. Les forces nucléaires et électromagnétiques faibles ont été combinées sous leur forme quantique en une seule théorie quantique des champs appelée théorie des forces électrofaibles.

Il n’a pas encore été possible de construire un modèle quantique de la gravité, la dernière des forces fondamentales. Les approximations pseudoclassiques fonctionnent et prévoient même certains effets tels que le rayonnement de Hawking. Mais la formulation d’une théorie complète de la gravité quantique est compliquée par les contradictions existantes entre la relativité générale, la théorie de la gravité la plus précise connue aujourd’hui, et certains principes fondamentaux de la théorie quantique. L’intersection de ces contradictions est un domaine de recherche scientifique active, et des théories telles que la théorie des cordes sont des candidats possibles pour une future théorie de la gravité quantique.

Application de la mécanique quantique

La mécanique quantique a réussi à expliquer de nombreux phénomènes environnementaux. Le comportement des particules microscopiques qui forment toutes les formes de matière : électrons, protons, neutrons, etc. - ne peut souvent être expliqué de manière satisfaisante que par les méthodes de la mécanique quantique.

La mécanique quantique est importante pour comprendre comment les atomes individuels se combinent pour former des éléments et des composés chimiques. L’application de la mécanique quantique aux processus chimiques est connue sous le nom de chimie quantique. La mécanique quantique peut en outre fournir une compréhension qualitativement nouvelle des processus de formation des composés chimiques, montrant quelles molécules sont énergétiquement plus favorables que d’autres, et dans quelle mesure. La plupart des calculs effectués en chimie computationnelle sont basés sur des principes de mécanique quantique.

Les technologies modernes ont déjà atteint l'échelle où effets quantiques devenir important. Les exemples sont les lasers, les transistors, les microscopes électroniques, l'imagerie par résonance magnétique. Le développement des semi-conducteurs a conduit à l’invention de la diode et du transistor, indispensables dans l’électronique moderne.

Les chercheurs recherchent aujourd’hui des méthodes fiables pour manipuler directement les états quantiques. Des tentatives réussies ont été faites pour créer les bases de la cryptographie quantique, qui garantiront un transfert secret d'informations. Un objectif plus lointain est le développement d’ordinateurs quantiques, qui devraient être capables de mettre en œuvre certains algorithmes beaucoup plus efficacement que les ordinateurs classiques. Un autre sujet de recherche actif est la téléportation quantique, qui concerne les technologies permettant de transmettre des états quantiques sur des distances importantes.

Aspect philosophique de la mécanique quantique

Dès le moment de la création de la mécanique quantique, ses conclusions ont contredit la compréhension traditionnelle de l'ordre mondial, entraînant un débat philosophique actif et l'émergence de nombreuses interprétations. Même des principes aussi fondamentaux que les règles d'amplitudes et de distributions de probabilité formulées par Max Born ont mis des décennies à être acceptés par la communauté scientifique.

Un autre problème de la mécanique quantique est que la nature de l’objet qu’elle étudie est inconnue. Dans le sens où les coordonnées d'un objet, ou la distribution spatiale de la probabilité de sa présence, ne peuvent être déterminées que s'il possède certaines propriétés (charge, par exemple) et conditions environnementales (présence de potentiel électrique).

L'interprétation de Copenhague, principalement grâce à Niels Bohr, a été l'interprétation de base de la mécanique quantique depuis sa formulation jusqu'à nos jours. Elle a fait valoir que la nature probabiliste des prédictions de la mécanique quantique ne pouvait pas être expliquée en termes d'autres théories déterministes et a imposé des limites à notre connaissance de environnement. La mécanique quantique ne fournit donc que des résultats probabilistes ; la nature même de l’Univers est probabiliste, quoique déterministe au nouveau sens quantique.

Albert Einstein, lui-même l'un des fondateurs de la théorie quantique, n'était pas à l'aise avec le fait que cette théorie s'écartait du déterminisme classique dans la détermination des valeurs des quantités physiques d'objets. Il pensait que la théorie existante était incomplète et qu’il aurait dû y avoir une théorie supplémentaire. C'est pourquoi il a avancé une série de commentaires sur la théorie quantique, dont le plus célèbre était ce qu'on appelle le paradoxe EPR. John Bell a montré que ce paradoxe pouvait conduire à des divergences mesurables dans la théorie quantique. Mais les expériences ont montré que la mécanique quantique a raison. Cependant, certaines « incohérences » dans ces expériences laissent des questions encore sans réponse.

L'interprétation des mondes multiples d'Everett, formulée en 1956, propose un modèle du monde dans lequel toutes les possibilités pour les quantités physiques de prendre certaines valeurs dans la théorie quantique se produisent simultanément dans la réalité, dans un « multivers » assemblé à partir d'univers parallèles pour la plupart indépendants. Le multivers est déterministe, mais nous obtenons le comportement probabiliste de l’univers uniquement parce que nous ne pouvons pas observer tous les univers en même temps.

Histoire

Les bases de la mécanique quantique ont été posées dans la première moitié du XXe siècle par Max Planck, Albert Einstein, Werner Heisenberg, Erwin Schrödinger, Max Born, Paul Dirac, Richard Feynman et d'autres. Certains aspects fondamentaux de la théorie doivent encore être étudiés. En 1900, Max Planck a proposé le concept de quantification de l'énergie afin d'obtenir la formule correcte de l'énergie du rayonnement du corps noir. En 1905, Einstein a expliqué la nature de l'effet photoélectrique, en postulant que l'énergie lumineuse n'est pas absorbée de manière continue, mais par portions, qu'il a appelées quanta. En 1913, Bohr expliqua la configuration des raies spectrales de l'atome d'hydrogène, toujours en utilisant la quantification. En 1924, Louis de Broglie propose l'hypothèse de la dualité onde-corpusculaire.

Ces théories, bien que réussies, étaient trop fragmentaires et constituent ensemble ce qu’on appelle l’ancienne théorie quantique.

La mécanique quantique moderne est née en 1925, lorsque Heisenberg a développé la mécanique matricielle et que Schrödinger a proposé la mécanique ondulatoire et son équation. Par la suite, Janos von Neumann a prouvé que les deux approches sont équivalentes.

L’étape suivante a eu lieu lorsque Heisenberg a formulé le principe d’incertitude en 1927, et c’est à cette époque que l’interprétation probabiliste a commencé à prendre forme. En 1927, Paul Dirac combinait la mécanique quantique et la relativité restreinte. Il a également été le premier à utiliser la théorie des opérateurs, y compris la notation populaire entre parenthèses. En 1932, John von Neumann a formulé les bases mathématiques de la mécanique quantique basées sur la théorie des opérateurs.

L'ère de la chimie quantique a été lancée par Walter Heitler et Fritz London, qui ont publié la théorie de la formation de liaisons covalentes dans la molécule d'hydrogène en 1927. La chimie quantique a ensuite été développée par une large communauté de scientifiques du monde entier.

À partir de 1927, des tentatives ont commencé pour appliquer la mécanique quantique aux systèmes multiparticulaires, aboutissant à l’émergence de la théorie quantique des champs. Des travaux dans ce sens ont été menés par Dirac, Pauli, Weiskopf et Jordan. Cette ligne de recherche a culminé avec l’électrodynamique quantique, formulée par Feynman, Dyson, Schwinger et Tomonaga dans les années 1940. L'électrodynamique quantique est la théorie quantique des électrons, des positons et du champ électromagnétique.

La théorie de la chromodynamique quantique a été formulée au début des années 1960. Cette théorie, telle que nous la connaissons aujourd'hui, a été proposée par Polizter, Gross et Wilczek en 1975. S'appuyant sur les travaux de Schwinger, Higgs, Goldston et d'autres, Glashow, Weinberg et Salam ont montré indépendamment que les forces nucléaires faibles et l'électrodynamique quantique peuvent être unifiées. et être considéré comme une seule force électrofaible.

Quantification

En mécanique quantique, le terme de quantification est utilisé dans plusieurs sens proches mais différents.

La quantification est la discérisation des valeurs d'une grandeur physique qui, en physique classique, est continue. Par exemple, les électrons des atomes ne peuvent se trouver que sur certaines orbitales avec certaines valeurs d'énergie. Un autre exemple est que le moment orbital d’une particule de mécanique quantique ne peut avoir que des valeurs très spécifiques. La discrétisation des niveaux d'énergie d'un système physique à mesure que ses dimensions diminuent est appelée quantification de taille.
La quantification est également appelée la transition d'une description classique d'un système physique à une description quantique. En particulier, la procédure permettant de décomposer les champs classiques (par exemple le champ électromagnétique) en modes normaux et de les représenter sous forme de quanta de champ (pour le champ électromagnétique, ce sont des photons) est appelée quantification secondaire.

Les principes de base de la mécanique quantique sont le principe d'incertitude de W. Heisenberg et le principe de complémentarité de N. Bohr.

Selon le principe d’incertitude, il est impossible de déterminer simultanément avec précision l’emplacement d’une particule et sa quantité de mouvement. Plus l'emplacement, ou les coordonnées, d'une particule est déterminé avec précision, plus sa quantité de mouvement devient incertaine. A l’inverse, plus l’impulsion est définie avec précision, plus sa localisation reste incertaine.

Ce principe peut être illustré à l'aide de l'expérience de T. Jung sur les interférences. Cette expérience montre que lorsque la lumière traverse un système de deux petits trous rapprochés dans un écran opaque, elle ne se comporte pas comme des particules se propageant de manière rectiligne, mais comme des ondes en interaction, à la suite de quoi un motif d'interférence apparaît sur la surface située derrière l'écran. sous forme de rayures alternées claires et foncées Si un seul trou reste ouvert à la fois, le motif d’interférence de la distribution des photons disparaît.

Vous pouvez analyser les résultats de cette expérience à l’aide de l’expérience de pensée suivante. Afin de déterminer l’emplacement d’un électron, il doit être éclairé, c’est-à-dire qu’un photon doit être dirigé vers lui. En cas de collision de deux particules élémentaires, nous pourrons calculer avec précision les coordonnées de l'électron (l'emplacement où il se trouvait au moment de la collision est déterminé). Cependant, à la suite d'une collision, l'électron changera inévitablement de trajectoire, car à la suite de la collision, l'impulsion du photon lui sera transférée. Par conséquent, si nous déterminons avec précision les coordonnées de l’électron, nous perdrons en même temps la connaissance de la trajectoire de son mouvement ultérieur. L'expérience de pensée d'une collision entre un électron et un photon est analogue à la fermeture d'un des trous dans l'expérience de Young : une collision avec un photon est analogue à la fermeture d'un des trous d'un écran : dans ce cas en fermant, le motif d'interférence est détruit ou (ce qui revient au même) la trajectoire de l'électron devient incertaine.

La signification du principe d'incertitude. La relation d'incertitude signifie que les principes et les lois de la dynamique newtonienne classique ne peuvent pas être utilisés pour décrire des processus impliquant des micro-objets.

Ce principe signifie essentiellement un rejet du déterminisme et la reconnaissance du rôle fondamental du hasard dans les processus impliquant des micro-objets. Dans la description classique, le concept d'aléatoire est utilisé pour décrire le comportement des éléments d'ensembles statistiques et n'est qu'un sacrifice délibéré de l'exhaustivité de la description au nom de la simplification de la solution du problème. Dans le micromonde, une prévision précise du comportement des objets, donnant les valeurs de ses paramètres traditionnelles pour la description classique, est généralement impossible. Il y a encore de vives discussions à ce sujet : les adeptes du déterminisme classique, sans nier la possibilité d'utiliser les équations de la mécanique quantique pour des calculs pratiques, voient dans le caractère aléatoire qu'ils prennent en compte le résultat de notre compréhension incomplète des lois régissant le comportement des micro -des objets encore imprévisibles pour nous. A. Einstein était un partisan de cette approche. Étant le fondateur des sciences naturelles modernes, qui a osé réviser les positions apparemment inébranlables de l'approche classique, il n'a pas jugé possible d'abandonner le principe du déterminisme dans les sciences naturelles. La position d'A. Einstein et de ses partisans sur cette question peut être formulée dans une déclaration bien connue et très figurative selon laquelle il est très difficile de croire en l'existence de Dieu, qui jette à chaque fois des dés pour prendre des décisions sur le comportement des micro. -objets. Cependant, à ce jour, aucun fait expérimental n'a été découvert indiquant l'existence de mécanismes internes contrôlant le comportement « aléatoire » des micro-objets.

Il convient de souligner que le principe d'incertitude n'est associé à aucune lacune dans la conception des instruments de mesure. Il est fondamentalement impossible de créer un appareil capable de mesurer avec autant de précision la position et l’impulsion d’une microparticule. Le principe d'incertitude se manifeste par le dualisme onde-particule de la nature.

Il découle également du principe d'incertitude que la mécanique quantique rejette la possibilité fondamentale, postulée dans les sciences naturelles classiques, d'effectuer des mesures et des observations d'objets et des processus qui se produisent avec eux sans affecter l'évolution du système étudié.

Le principe d’incertitude est un cas particulier du principe plus général de complémentarité. Du principe de complémentarité, il s'ensuit que si dans une expérience nous pouvons observer un côté phénomène physique, alors en même temps nous sommes privés de la possibilité d'observer une face supplémentaire à la première face du phénomène. Des propriétés supplémentaires qui n'apparaissent que dans différentes expériences menées dans des conditions mutuellement exclusives peuvent être la position et l'impulsion de la particule, la nature ondulatoire et corpusculaire de la substance ou le rayonnement.

Le principe de superposition est important en mécanique quantique. Le principe de superposition (principe d'imposition) est l'hypothèse selon laquelle l'effet résultant représente la somme des effets provoqués par chaque phénomène d'influence séparément. L’un des exemples les plus simples est la règle du parallélogramme, selon laquelle deux forces agissant sur un corps s’ajoutent. Dans le micromonde, le principe de superposition est un principe fondamental qui, avec le principe d'incertitude, constitue la base de l'appareil mathématique de la mécanique quantique. En mécanique quantique relativiste, qui suppose la transformation mutuelle des particules élémentaires, le principe de superposition doit être complété par le principe de supersélection. Par exemple, lors de l'annihilation d'un électron et d'un positron, le principe de superposition est complété par le principe de conservation de la charge électrique : avant et après la transformation, la somme des charges des particules doit être constante. Puisque les charges de l’électron et du positron sont égales et mutuellement opposées, une particule non chargée doit apparaître, qui est le photon né dans ce processus d’annihilation.

PRINCIPES DE BASE DE LA MÉCANIQUE QUANTIQUE.

Le nom du paramètre Signification
Sujet de l'article : PRINCIPES DE BASE DE LA MÉCANIQUE QUANTIQUE.
Rubrique (catégorie thématique) Mécanique

En 1900ᴦ. Le physicien allemand Max Planck a suggéré que l'émission et l'absorption de la lumière par la matière se produisent en portions finies - des quanta, et que l'énergie de chaque quantum est proportionnelle à la fréquence du rayonnement émis :

où est la fréquence du rayonnement émis (ou absorbé), et h est une constante universelle appelée constante de Planck. Selon les données modernes

h = (6,62618 0,00004)∙ 10 -34 J∙s.

L'hypothèse de Planck a été le point de départ de l'émergence de concepts quantiques qui ont constitué la base d'une physique fondamentalement nouvelle - la physique du micromonde, appelée physique quantique. Les idées profondes du physicien danois Niels Bohr et de son école ont joué un rôle majeur dans sa formation. À la base de la mécanique quantique se trouve une synthèse cohérente des propriétés corpusculaires et ondulatoires de la matière. Une vague est un processus très étendu dans l’espace (rappelez-vous les vagues sur l’eau), et une particule est un objet beaucoup plus local qu’une vague. Dans certaines conditions, la lumière ne se comporte pas comme une onde, mais comme un flux de particules. Dans le même temps, les particules élémentaires présentent parfois des propriétés ondulatoires. Dans le cadre de la théorie classique, il est impossible de combiner les propriétés ondulatoires et corpusculaires. Pour cette raison, la création d'une nouvelle théorie décrivant les lois du micromonde a conduit à l'abandon des concepts conventionnels valables pour les objets macroscopiques.

D'un point de vue quantique, la lumière et les particules sont des objets complexes qui présentent à la fois des propriétés d'onde et de particule (ce qu'on appelle la dualité onde-particule). La création de la physique quantique a été stimulée par les tentatives visant à comprendre la structure de l'atome et les modèles de spectres d'émission des atomes.

A la fin du XIXème siècle, on a découvert que lorsque la lumière tombe sur la surface d'un métal, des électrons sont émis par celui-ci. Ce phénomène a été appelé effet photo.

En 1905ᴦ. Einstein a expliqué l'effet photoélectrique en se basant sur la théorie quantique. Il a introduit l’hypothèse selon laquelle l’énergie d’un faisceau de lumière monochromatique est constituée de portions dont la magnitude est égale à h. La dimension physique de la quantité h est égale à temps ∙énergie = longueur ∙impulsion = moment angulaire. Une quantité appelée action a cette dimension, et en relation avec cela h est appelée le quantum élémentaire d'action. Selon Einstein, un électron dans un métal, ayant absorbé une telle partie de l'énergie, effectue un travail de sortie du métal et acquiert de l'énergie cinétique.

E k = h − A dehors.

C'est l'équation d'Einstein pour l'effet photoélectrique.

Les portions discrètes de lumière furent plus tard (en 1927 ᴦ.) appelées photons.

En science, pour déterminer l'appareil mathématique, il faut toujours partir de la nature des phénomènes expérimentaux observés. Le physicien allemand Schrödinger a obtenu d'énormes résultats en essayant une stratégie de recherche scientifique différente : d'abord les mathématiques, puis la compréhension de sa signification physique et, par conséquent, l'interprétation de la nature des phénomènes quantiques.

Il était clair que les équations de la mécanique quantique devaient être des équations ondulatoires (après tout, les objets quantiques ont des propriétés ondulatoires). Ces équations doivent avoir des solutions discrètes (les phénomènes quantiques ont des éléments de discrétion). Des équations de ce type étaient connues en mathématiques. Sur cette base, Schrödinger a proposé d'utiliser le concept de fonction d'onde ʼʼψʼʼ. Pour une particule se déplaçant librement le long de l'axe X, la fonction d'onde ψ = e - i|h(Et-px), où p est l'impulsion, x est la coordonnée, E-énergie, h est la constante de Planck. La fonction ʼʼψʼʼ est généralement appelée fonction d'onde car une fonction exponentielle est utilisée pour la décrire.

L'état d'une particule en mécanique quantique est décrit par une fonction d'onde, qui permet de déterminer uniquement la probabilité de trouver une particule en un point donné de l'espace. La fonction d'onde ne décrit pas l'objet lui-même ni même ses capacités potentielles. Les opérations avec la fonction d'onde permettent de calculer les probabilités d'événements de mécanique quantique.

Principes fondamentaux la physique quantique est principes de superposition, d’incertitude, de complémentarité et d’identité.

Principe superpositions en physique classique, il permet d'obtenir l'effet résultant de l'imposition (superposition) de plusieurs influences indépendantes comme la somme des effets provoqués par chaque influence séparément. Il est valable pour les systèmes ou champs décrits par des équations linéaires. Ce principe est très important en mécanique, en théorie des oscillations et en théorie ondulatoire des champs physiques. En mécanique quantique, le principe de superposition s'applique aux fonctions d'onde : si un système physique peut être dans des états décrits par deux ou plusieurs fonctions d'onde ψ 1, ψ 2,…ψ ń, alors il peut être dans un état décrit par n'importe quelle combinaison linéaire de ces fonctions :

Ψ=c 1 ψ 1 +c 2 ψ 2 +….+с n ψ n,

où с 1, с 2,…с n sont des nombres complexes arbitraires.

Le principe de superposition est un raffinement des concepts correspondants de la physique classique. Selon cette dernière, dans un milieu qui ne change pas ses propriétés sous l'influence de perturbations, les ondes se propagent indépendamment les unes des autres. Par conséquent, la perturbation résultant en un point quelconque du milieu lorsque plusieurs ondes s'y propagent est égale à la somme des perturbations correspondant à chacune de ces ondes :

S = S 1 +S 2 +….+S n,

où S 1, S 2,….. S n sont les perturbations provoquées par l'onde. Dans le cas d’une onde non harmonique, elle peut être représentée comme une somme d’ondes harmoniques.

Principe incertitude est qu'il est impossible de déterminer simultanément deux caractéristiques d'une microparticule, par exemple la vitesse et les coordonnées. Cela reflète la nature à double onde corpusculaire des particules élémentaires. Les erreurs, inexactitudes, erreurs dans la détermination simultanée de quantités supplémentaires dans une expérience sont liées par la relation d'incertitude établie en 1925. Werner Heisenberg. La relation d’incertitude est que le produit des imprécisions de toute paire de quantités supplémentaires (par exemple, la coordonnée et la projection de l’impulsion sur celle-ci, de l’énergie et du temps) est déterminé par la constante de Planck h. Les relations d'incertitude indiquent que plus la valeur de l'un des paramètres inclus dans la relation est certaine, plus la valeur de l'autre paramètre est incertaine et vice versa. Cela signifie que les paramètres sont mesurés simultanément.

La physique classique nous a appris que tous les paramètres des objets et les processus qui s'y produisent peuvent être mesurés simultanément avec n'importe quelle précision. Cette position est réfutée par la mécanique quantique.

Le physicien danois Niels Bohr est arrivé à la conclusion que les objets quantiques sont relatifs aux moyens d'observation. Les paramètres des phénomènes quantiques ne peuvent être jugés qu'après leur interaction avec les moyens d'observation, ᴛ.ᴇ. avec des instruments. Le comportement des objets atomiques ne peut être clairement séparé de leur interaction avec les instruments de mesure qui enregistrent les conditions dans lesquelles ces phénomènes se produisent. Il faut tenir compte du fait que les instruments utilisés pour mesurer les paramètres sont de différents types. Les données obtenues dans différentes conditions expérimentales doivent être considérées comme complémentaires dans le sens où seule une combinaison de différentes mesures peut donner une image complète des propriétés de l'objet. C'est le contenu du principe de complémentarité.

En physique classique, on considérait que la mesure ne perturbait pas l’objet d’étude. La mesure laisse l'objet inchangé. Selon la mécanique quantique, chaque mesure individuelle détruit un microobjet. Pour effectuer une nouvelle mesure, il faut à nouveau préparer le microobjet. Cela complique le processus de synthèse des mesures. À cet égard, Bohr plaide en faveur de la complémentarité des mesures quantiques. Les données des mesures classiques ne sont pas complémentaires, elles ont une signification indépendante indépendamment les unes des autres. La complémentarité se produit lorsque les objets étudiés ne se distinguent pas les uns des autres et sont interconnectés.

Bohr n’a pas seulement corrélé le principe de complémentarité avec les sciences physiques : « l’intégrité des organismes vivants et les caractéristiques des personnes conscientes, ainsi que les cultures humaines, représentent des caractéristiques d’intégrité dont la mise en évidence nécessite une méthode de description typiquement supplémentaire. » Selon Bohr, les capacités des êtres vivants sont si diverses et si étroitement liées que lors de leur étude, il faut à nouveau recourir à la procédure de complément des données d'observation. Dans le même temps, cette idée de Bohr n’était pas correctement développée.

Caractéristiques et spécificité des interactions entre les composants de micro et macrosystèmes complexes. ainsi que les interactions externes entre eux conduisent à leur énorme diversité. Les micro et macrosystèmes sont caractérisés par l'individualité, chaque système est décrit par un ensemble de toutes les propriétés possibles qui lui sont inhérentes. Il existe des différences entre les noyaux d’hydrogène et d’uranium, bien que tous deux appartiennent à des microsystèmes. Il n’y a pas moins de différences entre la Terre et Mars, bien que ces planètes appartiennent au même système solaire.

Dans ce cas, on peut parler de l'identité des particules élémentaires. Les particules identiques ont des particules identiques propriétés physiques: masse, charge électrique et autres caractéristiques internes. Par exemple, tous les électrons de l’Univers sont considérés comme identiques. Les particules identiques obéissent au principe d'identité - un principe fondamental de la mécanique quantique, selon lequel : les états d'un système de particules obtenus les unes des autres en réarrangeant des particules identiques ne peuvent être distingués dans aucune expérience.

Ce principe constitue la principale différence entre la mécanique classique et la mécanique quantique. En mécanique quantique, les particules identiques n’ont aucune individualité.

STRUCTURE DE L'ATOME ET DU NOYAU ATOMIQUE. PARTICULES ÉLÉMENTAIRES.

Les premières idées sur la structure de la matière sont nées en La Grèce ancienne dans 6-4 siècles. AVANT JC. Aristote considérait la matière comme continue, ᴛ.ᴇ. il peut être broyé en autant de petites parties que l'on souhaite, mais sans jamais atteindre la plus petite particule qui ne serait pas divisée davantage. Démocrite croyait que tout dans le monde était constitué d'atomes et de vide. Les atomes sont les plus petites particules de matière, ce qui signifie « indivisible », et selon Démocrite, les atomes sont des sphères à la surface irrégulière.

Cette vision du monde a existé jusqu'à la fin du XIXe siècle. En 1897ᴦ. Joseph John Thomson (1856-1940ᴦ.ᴦ.), fils indigène W. Thomson, deux fois lauréat du prix Nobel, a découvert une particule élémentaire appelée électron. Il a été découvert qu’un électron s’envole des atomes et possède une charge électrique négative. Valeur de charge électronique e=1,6.10 -19 C (Coulomb), masse électronique m=9.11.10 -31 kᴦ.

Après la découverte de l'électron, Thomson a émis l'hypothèse en 1903 que l'atome était une sphère avec une charge positive répartie à travers elle, avec des électrons avec des charges négatives intercalés sous forme de raisins secs. Une charge positive est égale à une charge négative ; en général, l’atome est électriquement neutre (la charge totale est 0).

En 1911, en menant une expérience, Ernst Rutherford a découvert que la charge positive ne se propage pas dans tout le volume de l'atome, mais n'en occupe qu'une petite partie. Après cela, il proposa un modèle de l'atome, qui fut plus tard appelé planétaire. Selon ce modèle, un atome est en réalité une sphère au centre de laquelle se trouve une charge positive occupant une petite partie de cette sphère - environ 10 à 13 cm. La charge négative se trouve sur la couche externe, appelée couche électronique. .

Un modèle quantique plus avancé de l'atome a été proposé par le physicien danois N. Bohr en 1913, qui travaillait dans le laboratoire de Rutherford. Il s'est basé sur le modèle atomique de Rutherford et l'a complété par de nouvelles hypothèses qui contredisent les idées classiques. Ces hypothèses sont connues sous le nom de postulats de Bohr. Οʜᴎ se résume à ce qui suit.

1. Chaque électron d’un atome peut effectuer un mouvement orbital stable le long d’une certaine orbite, avec une certaine valeur énergétique, sans émettre ni absorber de rayonnement électromagnétique. Dans ces états, les systèmes atomiques ont des énergies qui forment une série discrète : E 1, E 2,…E n. Tout changement d'énergie résultant de l'émission ou de l'absorption d'un rayonnement électromagnétique peut se produire brusquement d'un état à un autre.

2. Lorsqu'un électron se déplace d'une orbite stationnaire à une autre, de l'énergie est émise ou absorbée. Si, lors du passage d'un électron d'une orbite à une autre, l'énergie de l'atome passe de E m à E n, alors h v= E m - E n , où v– fréquence de rayonnement.

Bohr a utilisé ces postulats pour calculer l'atome d'hydrogène le plus simple,

La région dans laquelle la charge positive est concentrée s’appelle le noyau. On supposait que le noyau était constitué de particules élémentaires positives. Ces particules, appelées protons (proton signifie premier en grec), ont été découvertes par Rutherford en 1919. Leur charge en module est égale à la charge de l'électron (mais positive), la masse du proton est de 1,6724,10 -27 kᴦ. L’existence du proton a été confirmée par une réaction nucléaire artificielle transformant l’azote en oxygène. Les atomes d'azote ont été irradiés avec des noyaux d'hélium. Le résultat était de l’oxygène et un proton. Un proton est une particule stable.

En 1932, James Chadwick découvre une particule dépourvue de charge électrique et d’une masse de presque masse égale proton. Cette particule s’appelait un neutron. La masse du neutron est de 1.675.10 -27 kᴦ. Le neutron a été découvert suite à l'irradiation d'une plaque de béryllium avec des particules alpha. Le neutron est une particule instable. Le manque de charge explique sa capacité à pénétrer facilement dans les noyaux des atomes.

La découverte du proton et du neutron a conduit à la création du modèle proton-neutron de l’atome. Il a été proposé en 1932 par les physiciens soviétiques Ivanenko, Gapon et le physicien allemand Heisenberg. Selon ce modèle, le noyau d'un atome est constitué de protons et de neutrons, à l'exception du noyau d'hydrogène, qui est constitué d'un proton.

La charge d'un noyau est déterminée par le nombre de protons qu'il contient et est indiquée par le symbole Z . La masse totale d'un atome est contenue dans la masse de son noyau et est déterminée par la masse des protons et des neutrons qui y pénètrent, puisque la masse de l'électron est négligeable par rapport aux masses du proton et du neutron. Le numéro d'ordre du tableau périodique de Mendeleïev correspond à la charge du noyau d'un élément chimique donné. Nombre de masse d'un atome UN égale à la masse des neutrons et des protons : A=Z+N, Z – nombre de protons, N – nombre de neutrons. Classiquement, tout élément est désigné par le symbole : Un X z.

Il existe des noyaux qui contiennent le même nombre de protons, mais un nombre différent de neutrons, ᴛ.ᴇ. différant en nombre de masse. Ces noyaux sont appelés isotopes. Par exemple, 1 N 1 - l'hydrogène ordinaire, 2N1 - le deutérium, 3N1 - le tritium. Les noyaux les plus stables sont ceux dans lesquels le nombre de protons est égal au nombre de neutrons ou aux deux à la fois = 2, 8, 20, 28, 50, 82, 126 - nombres magiques.

Les dimensions d'un atome sont d'environ 10 à 8 cm. Un atome est constitué d'un noyau de 10 à 13 cm. Entre le noyau d'un atome et la limite d'un atome, il y a un espace immense à l'échelle microscopique. La densité dans le noyau d'un atome est énorme, environ 1,5·108 t/cm 3 . Éléments chimiques de masse A<50 называются легкими, а с А>50 – lourd. C'est un peu encombré dans les noyaux d'éléments lourds, ᴛ.ᴇ. une condition énergétique préalable à leur désintégration radioactive est créée.

L'énergie nécessaire pour diviser un noyau en ses nucléons constitutifs est appelée énergie de liaison. (Les nucléons sont un nom généralisé pour les protons et les neutrons et traduit en russe signifie « particules nucléaires ») :

E St = Δm∙с 2,

Δm – défaut de masse nucléaire (différence entre les masses des nucléons formant le noyau et la masse du noyau).

En 1928ᴦ. Le physicien théoricien Dirac a proposé la théorie de l'électron. Les particules élémentaires peuvent se comporter comme une onde : elles ont une dualité onde-particule. La théorie de Dirac a permis de déterminer quand un électron se comporte comme une onde et quand il se comporte comme une particule. Il a conclu qu’il devait exister une particule élémentaire possédant les mêmes propriétés qu’un électron, mais avec une charge positive. Une telle particule a été découverte plus tard en 1932 et appelée positon. Le physicien américain Andersen a découvert la trace d'une particule sur une photographie de rayons cosmiques, semblable à un électron, mais avec une charge positive.

Il découle de la théorie selon laquelle un électron et un positon, interagissant l'un avec l'autre (réaction d'annihilation), forment une paire de photons, ᴛ.ᴇ. quanta de rayonnement électromagnétique. Le processus inverse est également possible, lorsqu'un photon, interagissant avec un noyau, se transforme en une paire électron-positon. Chaque particule est associée à une fonction d'onde dont le carré de l'amplitude est égal à la probabilité de détecter la particule dans un certain volume.

Dans les années 50 du XXe siècle, l'existence d'un antiproton et d'un antineutron a été prouvée.

Il y a encore 30 ans, on croyait que les neutrons et les protons étaient des particules élémentaires, mais des expériences sur l'interaction de protons et d'électrons se déplaçant à grande vitesse ont montré que les protons sont constitués de particules encore plus petites. Ces particules ont été étudiées pour la première fois par Gell Mann et les ont appelées quarks. Plusieurs variétés de quarks sont connues. On suppose qu'il existe 6 saveurs : U - quark (haut), d-quark (bas), quark étrange (étrange), quark charmé (charme), b - quark (beauté), t-quark (vérité).

Chaque fromage blanc aromatisé a l'une des trois couleurs suivantes : rouge, vert, bleu. Ceci est juste une désignation, parce que La taille des quarks est bien inférieure à la longueur d’onde de la lumière visible et ils n’ont donc aucune couleur.

Considérons quelques caractéristiques des particules élémentaires. En mécanique quantique, chaque particule se voit attribuer un moment mécanique intrinsèque particulier, qui n'est associé ni à son mouvement dans l'espace ni à sa rotation. Ce propre moment mécanique est appelé. rotation. Ainsi, si vous faites tourner un électron à 360°, vous vous attendez à ce qu’il revienne à son état d’origine. Dans ce cas, l’état initial ne sera atteint qu’avec une rotation supplémentaire de 360°. Autrement dit, pour ramener un électron à son état d'origine, il doit subir une rotation de 720° ; par rapport au spin, nous ne percevons le monde qu'à moitié. Par exemple, sur une boucle à double fil, la perle reviendra à sa position d'origine lors d'une rotation de 720°. De telles particules ont un spin demi-entier ½. Spin nous donne des informations sur l’apparence d’une particule vue sous différents angles. Par exemple, une particule de spin ʼʼ0ʼʼ est similaire à un point : elle a la même apparence de tous les côtés. Une particule de spin ʼʼ1ʼʼ peut être comparée à une flèche : elle a un aspect différent selon les côtés et prend la même apparence lorsqu'elle est tournée à 360°. Une particule avec une rotation de ʼʼ2ʼʼ peut être comparée à une flèche aiguisée des deux côtés : chacune de ses positions se répète d'un demi-tour (180°). Les particules avec un spin plus élevé reviennent à leur état d'origine lorsqu'elles tournent sur une fraction encore plus petite d'une rotation complète.

Les particules à spin demi-entier sont appelées fermions et les particules à spin entier sont appelées bosons. Jusqu'à récemment, on croyait que les bosons et les fermions étaient les seuls types possibles de particules indiscernables. En fait, il existe un certain nombre de possibilités intermédiaires, les fermions et les bosons ne représentant que deux cas extrêmes. Cette classe de particules est appelée anyons.

Les particules de matière obéissent au principe d'exclusion de Pauli, découvert en 1923 par le physicien autrichien Wolfgang Pauli. Le principe de Pauli stipule : dans un système de deux particules identiques avec des spins demi-entiers, il ne peut y avoir plus d'une particule dans le même état quantique. Il n'y a aucune restriction pour les particules à spin entier. Cela signifie que deux particules identiques ne peuvent pas avoir les mêmes coordonnées et vitesses avec la précision spécifiée par le principe d'incertitude. Si les particules de matière ont des valeurs de coordonnées très proches, alors leurs vitesses doivent être différentes et, par conséquent, elles ne peuvent pas rester longtemps aux points ayant ces coordonnées.

En mécanique quantique, on suppose que toutes les forces et interactions entre particules sont portées par des particules de spin entier égal à 0,1,2. Cela se produit comme suit : par exemple, une particule de matière émet une particule porteuse d'interaction (par exemple, un photon). En raison du recul, la vitesse de la particule change. Ensuite, la particule porteuse « vole » sur une autre particule de la substance et est absorbée par celle-ci. Cette collision modifie la vitesse de la deuxième particule, comme si une force agissait entre ces deux particules de matière. Les particules porteuses échangées entre particules de matière sont dites virtuelles car, contrairement aux particules réelles, elles ne peuvent pas être enregistrées à l'aide d'un détecteur de particules. Cependant, ils existent parce qu’ils créent un effet mesurable.

Les particules porteuses peuvent être classées en 4 types en fonction du degré d'interaction qu'elles transportent, des particules avec lesquelles elles interagissent et des particules avec lesquelles elles interagissent :

1) Force gravitationnelle. Chaque particule est sous l’influence d’une force gravitationnelle dont l’ampleur dépend de la masse et de l’énergie de la particule. C'est une force faible. Les forces gravitationnelles agissent sur de longues distances et sont toujours des forces attractives. Ainsi, par exemple, l’interaction gravitationnelle maintient les planètes sur leurs orbites et nous sur Terre.

Dans l'approche mécanique quantique du champ gravitationnel, on pense que la force agissant entre les particules de matière est portée par une particule de spin ʼʼ2ʼʼ, généralement appelée graviton. Le graviton n’a pas sa propre masse et la force qu’il transporte est donc à longue portée. L'interaction gravitationnelle entre le Soleil et la Terre s'explique par le fait que les particules qui composent le Soleil et la Terre échangent des gravitons. L'effet de l'échange de ces particules virtuelles est mesurable, car cet effet est la rotation de la Terre autour du Soleil.

2) Le type d'interaction suivant est créé forces électromagnétiques, qui agissent entre des particules chargées électriquement. L’interaction électromagnétique est bien plus forte que la force gravitationnelle : la force électromagnétique agissant entre deux électrons est environ 10 à 40 fois supérieure à la force gravitationnelle. L'interaction électromagnétique détermine l'existence d'atomes et de molécules stables (interaction entre électrons et protons). Le porteur de l'interaction électromagnétique est le photon.

3) Faible interaction. Il est responsable de la radioactivité et existe entre toutes les particules d'une substance de spin ½. L'interaction faible assure la combustion longue et uniforme de notre Soleil, qui fournit de l'énergie à tous les processus biologiques sur Terre. Les porteurs de l'interaction faible sont trois particules - les bosons W ± et Z 0. Οʜᴎ n'ont été ouverts qu'en 1983ᴦ. Le rayon de l'interaction faible est extrêmement petit et ses porteurs doivent donc avoir de grandes masses. Conformément au principe d'incertitude, la durée de vie des particules d'une masse aussi importante devrait être extrêmement courte - 10 à 26 s.

4) Forte interaction représente une interaction qui maintient les quarks à l’intérieur des protons et des neutrons, et les protons et les neutrons à l’intérieur du noyau atomique. Le porteur de l’interaction forte est considéré comme une particule avec un spin de ʼʼ1ʼʼ, généralement appelée gluon. Les gluons n'interagissent qu'avec les quarks et autres gluons. Les quarks, grâce aux gluons, sont liés par paires ou triplets. L'interaction forte s'affaiblit aux hautes énergies et les quarks et les gluons commencent à se comporter comme des particules libres. Cette propriété est appelée liberté asymptotique. À la suite d'expériences réalisées sur de puissants accélérateurs, des photographies de traces (traces) de quarks libres produites à la suite de collisions de protons et d'antiprotons de haute énergie ont été obtenues. Une forte interaction garantit la stabilité relative et l’existence des noyaux atomiques. Les interactions fortes et faibles sont caractéristiques des processus du micromonde conduisant à des interconversions de particules.

Les interactions fortes et faibles n'ont été connues de l'homme que dans le premier tiers du XXe siècle, dans le cadre de l'étude de la radioactivité et de la compréhension des résultats du bombardement d'atomes de divers éléments avec des particules α. Les particules α éliminent à la fois les protons et les neutrons. Le but de ce raisonnement a conduit les physiciens à croire que les protons et les neutrons se trouvent dans les noyaux des atomes et sont étroitement liés les uns aux autres. Il y a des interactions fortes. En revanche, les substances radioactives émettent des rayons α, β et γ. Lorsqu'en 1934 Fermi créa la première théorie suffisamment adaptée aux données expérimentales, il dut supposer la présence dans les noyaux des atomes d'interactions d'intensité insignifiante, appelées faibles.

Des tentatives sont actuellement faites pour combiner les interactions électromagnétiques, faibles et fortes, de sorte que le résultat soit ce qu'on appelle THÉORIE DE LA GRANDE UNIFICATION. Cette théorie met en lumière notre existence même. Il est possible que notre existence soit une conséquence de la formation de protons. Cette image du début de l’Univers semble la plus naturelle. La matière terrestre est principalement constituée de protons, mais elle ne contient ni antiprotons ni antineutrons. Des expériences avec les rayons cosmiques ont montré qu’il en va de même pour toute la matière de notre Galaxie.

Les caractéristiques des interactions fortes, faibles, électromagnétiques et gravitationnelles sont données dans le tableau.

L'ordre d'intensité de chaque interaction indiqué dans le tableau est déterminé par rapport à l'intensité de l'interaction forte, prise égale à 1.

Donnons une classification des particules élémentaires les plus connues actuellement.

PHOTON. Sa masse au repos et sa charge électrique sont égales à 0. Le photon a un spin entier et est un boson.

LEPTONS. Cette classe de particules ne participe pas à l’interaction forte, mais possède des interactions électromagnétiques, faibles et gravitationnelles. Les leptons ont un spin demi-entier et sont classés comme fermions. Les particules élémentaires incluses dans ce groupe se voient attribuer une certaine caractéristique appelée charge leptonique. La charge leptonique, contrairement à la charge électrique, n’est source d’aucune interaction ; son rôle n’est pas encore totalement élucidé. La valeur de la charge du lepton pour les leptons est L=1, pour les antileptons L= -1, pour toutes les autres particules élémentaires L=0.

MÉSONS. Ce sont des particules instables caractérisées par forte interaction. Le nom « mésons » signifie « intermédiaire » et est dû au fait que les mésons initialement découverts avaient une masse supérieure à celle d'un électron, mais inférieure à celle d'un proton. On connaît aujourd'hui des mésons dont les masses sont supérieures à la masse des protons. Tous les mésons ont un spin entier et sont donc des bosons.

BARIONS. Cette classe comprend un groupe de particules élémentaires lourdes avec un spin demi-entier (fermions) et une masse non inférieure à la masse d'un proton. Le seul baryon stable est le proton ; le neutron n'est stable qu'à l'intérieur du noyau. Les baryons sont caractérisés par 4 types d'interactions. Dans toutes les réactions et interactions nucléaires, leur nombre total reste inchangé.

PRINCIPES DE BASE DE LA MÉCANIQUE QUANTIQUE. - concept et types. Classification et caractéristiques de la catégorie « PRINCIPES DE BASE DE LA MÉCANIQUE QUANTIQUE ». 2017, 2018.