QUANTUMMECHANIK, ein Abschnitt der theoretischen Physik, der ein System von Begriffen und mathematischen Apparaten ist, die zur Beschreibung physikalischer Phänomene aufgrund der Existenz des kleinsten Wirkungsquantums h (Planck-Konstante) in der Natur notwendig sind. Der Zahlenwert h = 6.62607 ∙ 10ˉ 34 J ∙ s (und ein weiterer, oft verwendeter Wert ħ = h / 2π = 1.05457 ∙ 10ˉ 34 J hebt Phänomene von allen anderen ab und bestimmt deren Hauptmerkmale. Quantenphänomene umfassen Strahlungsprozesse, Phänomene der Atom- und Kernphysik, Physik der kondensierten Materie, chemische Bindungen usw.

Die Entstehungsgeschichte der Quantenmechanik. Historisch gesehen war das erste Phänomen, zu dessen Erklärung 1900 der Begriff des Wirkungsquantums h eingeführt wurde, das Strahlungsspektrum eines absolut schwarzen Körpers, also die Abhängigkeit der Intensität der Wärmestrahlung von seiner Frequenz v und die Temperatur T eines erhitzten Körpers. Der Zusammenhang dieses Phänomens mit den im Atom ablaufenden Vorgängen war zunächst nicht klar; Damals war die Idee des Atoms noch nicht allgemein anerkannt, obwohl schon damals Beobachtungen bekannt waren, die auf eine komplexe intraatomare Struktur hindeuteten.

1802 entdeckte W. Wollaston schmale Spektrallinien im Sonnenstrahlungsspektrum, die 1814 von J. Fraunhofer ausführlich beschrieben wurden. 1859 stellten G. Kirchhoff und R. Bunsen fest, dass jedes chemische Element einen individuellen Satz von Spektrallinien hat, und der Schweizer Wissenschaftler I. Ya. Balmer (1885), der schwedische Physiker J. Rydberg (1890) und der deutsche Wissenschaftler W Ritz (1908) fand bestimmte Muster in ihrer Lage. 1896 beobachtete P. Zeeman die Aufspaltung von Spektrallinien in einem Magnetfeld (den Zeeman-Effekt), die H. A. Lorentz in nächstes Jahr durch die Bewegung eines Elektrons in einem Atom erklärt. Die Existenz des Elektrons wurde 1897 von J.J. Thomson experimentell bewiesen.

Die existierenden physikalischen Theorien erwiesen sich als unzureichend, um die Gesetze des photoelektrischen Effekts zu erklären: Es stellte sich heraus, dass die Energie der Elektronen, die von einer Substanz emittiert werden, wenn sie mit Licht bestrahlt wird, nur von der Frequenz des Lichts v und nicht von seiner Intensität abhängt (AG Stoletov, 1889; F. von Lenard, 1904). Diese Tatsache widersprach völlig der damals allgemein akzeptierten Wellennatur des Lichts, wurde aber natürlich unter der Annahme erklärt, dass sich Licht in Form von Energiequanten E = hv ausbreitet (A. Einstein, 1905), später Photonen genannt (G. Lewis, 1926).

Innerhalb von 10 Jahren nach der Entdeckung des Elektrons wurden mehrere Atommodelle vorgeschlagen, die jedoch nicht durch Experimente gestützt wurden. 1909-11 stellte E. Rutherford, der die Streuung von α-Teilchen an Atomen untersuchte, die Existenz eines kompakten positiv geladenen Kerns fest, in dem fast die gesamte Masse eines Atoms konzentriert ist. Diese Experimente wurden zur Grundlage des Planetenmodells des Atoms: ein positiv geladener Kern, um den sich negativ geladene Elektronen drehen. Ein solches Modell widersprach jedoch der Tatsache der Stabilität des Atoms, da aus der klassischen Elektrodynamik folgte, dass das rotierende Elektron nach einer Zeit in der Größenordnung von 10 -9 s auf den Kern fallen würde und Energie an Strahlung verlor.

1913 schlug N. Bohr vor, dass die Stabilität des planetarischen Atoms durch die Endlichkeit des Wirkungsquantums h erklärt wird. Er postulierte, dass es im Atom stationäre Bahnen gibt, in denen das Elektron nicht emittiert (Bohrs erstes Postulat), und sonderte diese Bahnen aus allen heraus möglicher Zustand Quantisierung: 2πmυr = nh, wobei m die Elektronenmasse, υ seine Bahngeschwindigkeit, r der Abstand zum Kern ist, n = 1,2,3, ... ganze Zahlen sind. Aus dieser Bedingung bestimmt Bohr die Energien E n = -me 4 / 2ħ 2 n 2 (e ist die elektrische Ladung eines Elektrons) stationärer Zustände sowie den Durchmesser eines Wasserstoffatoms (ca. 10 -8 cm) - in voller Übereinstimmung mit den Schlussfolgerungen der kinetischen Theorie der Materie.

Bohrs zweites Postulat behauptete, dass Strahlung nur bei Übergängen von Elektronen von einer stationären Bahn zu einer anderen auftritt, und die Strahlungsfrequenz v nk der Übergänge vom Zustand E n in den Zustand E k ist gleich v nk = (E k - E n) / h (siehe Atomphysik ). Bohrs Theorie erklärte natürlich die Muster in den Spektren von Atomen, aber ihre Postulate standen in offensichtlichem Widerspruch zur klassischen Mechanik und der Theorie des elektromagnetischen Feldes.

Im Jahr 1922 stellte A. Compton, der die Streuung von Röntgenstrahlen durch Elektronen untersuchte, fest, dass sich die einfallenden und gestreuten Röntgenenergiequanten wie Teilchen verhalten. 1923 beobachteten Ch. TR Wilson und DV Skobel'tsyn bei dieser Reaktion ein Rückstoßelektron und bestätigten damit die korpuskulare Natur der Röntgenstrahlung (nukleare γ-Strahlung). Dies widersprach jedoch den Experimenten von M. Laue, der bereits 1912 die Beugung von Röntgenstrahlen beobachtete und damit deren Wellennatur bewies.

1921 entdeckte der deutsche Physiker K. Ramsauer, dass Elektronen bei einer bestimmten Energie praktisch ohne Streuung durch Gase hindurchgehen, wie Lichtwellen in einem transparenten Medium. Dies war der erste experimentelle Nachweis der Welleneigenschaften des Elektrons, dessen Realität 1927 durch die direkten Experimente von C.J.Davisson, L. Jermer und J.P. Thomson.

1923 führte L. de Broglie das Konzept der Materiewellen ein: Jedes Teilchen mit der Masse m und der Geschwindigkeit υ kann einer Welle der Länge λ = h / mυ zugeordnet werden, genau wie jeder Welle mit einer Frequenz v = c / λ kann einem Teilchen mit der Energie E = hv zugeordnet werden. Eine Verallgemeinerung dieser Hypothese, bekannt als Welle-Teilchen-Dualismus, ist zur Grundlage und zum universellen Prinzip der Quantenphysik geworden. Sein Wesen liegt darin, dass sich dieselben Untersuchungsobjekte auf zwei Arten manifestieren: entweder als Teilchen oder als Welle, je nach den Bedingungen ihrer Beobachtung.

Die Beziehungen zwischen den Eigenschaften einer Welle und eines Teilchens wurden bereits vor der Entstehung der Quantenmechanik festgestellt: E = hv (1900) und λ = h / mυ = h / p (1923), wobei Frequenz v und Wellenlänge λ Eigenschaften von sind Welle, Energie E und Masse m, Geschwindigkeit υ und Impuls p = mυ sind die Eigenschaften des Teilchens; der Zusammenhang zwischen diesen beiden Kennlinientypen erfolgt über die Planck-Konstante h. Die Dualitätsbeziehungen werden am deutlichsten durch die Kreisfrequenz ω = 2πν und den Wellenvektor k = 2π / λ ausgedrückt:

E = , p = ħk.

Eine anschauliche Darstellung des Welle-Teilchen-Dualismus zeigt Abbildung 1: Die bei der Streuung von Elektronen und Röntgenstrahlen beobachteten Beugungsringe sind praktisch identisch.

Quantenmechanik- die theoretische Grundlage aller Quantenphysik - wurde in weniger als drei Jahren geschaffen. 1925 schlug W. Heisenberg in Anlehnung an Bohrs Ideen die Matrixmechanik vor, die Ende desselben Jahres in den Werken von M. Born, den deutschen Physikern P. Jordan und P. Dirac die Form einer vollständigen Theorie erhielt. Die Hauptobjekte dieser Theorie waren Matrizen besondere Art, die in der Quantenmechanik die physikalischen Größen der klassischen Mechanik darstellen.

1926 schlug E. Schrödinger ausgehend von L. de Broglies Ideen über Materiewellen die Wellenmechanik vor, bei der die Hauptrolle der Wellenfunktion eines Quantenzustandes zukommt, der Differentialgleichung 2. Ordnung mit gegebenen Randbedingungen. Beide Theorien erklärten gleichermaßen gut die Stabilität des planetarischen Atoms und ermöglichten es, seine Haupteigenschaften zu berechnen. Im selben Jahr schlug M. Born eine statistische Interpretation der Wellenfunktion vor, Schrödinger (und auch unabhängig W. Pauli et al.) bewies die mathematische Äquivalenz von Matrix und Wellenmechanik und Born führte zusammen mit N. Wiener ein das Konzept eines Operators einer physikalischen Größe.

1927 entdeckte W. Heisenberg die Unschärferelation und N. Bohr formulierte das Komplementaritätsprinzip. Die Entdeckung des Elektronenspins (J. Uhlenbeck und S. Goudsmit, 1925) und die Herleitung der Pauli-Gleichung, die den Elektronenspin berücksichtigt (1927), vervollständigten die logischen und rechnerischen Schemata der nichtrelativistischen Quantenmechanik, und P. Dirac und J. von Neumann präsentierten die Quantenmechanik als vollständig konzeptionell eine unabhängige Theorie, die auf einer begrenzten Menge von Konzepten und Postulaten basiert, wie Operator, Zustandsvektor, Wahrscheinlichkeitsamplitude, Superposition von Zuständen usw.

Grundbegriffe und Formalismus der Quantenmechanik. Die Hauptgleichung der Quantenmechanik ist die Schrödinger-Wellengleichung, deren Rolle ähnlich der der Newtonschen Gleichungen in klassische Mechanik und Maxwell-Gleichungen in der Elektrodynamik. Im Raum der Variablen x (Koordinate) und t (Zeit) hat sie die Form

wobei H der Hamilton-Operator ist; seine Form stimmt mit dem Hamilton-Operator der klassischen Mechanik überein, bei dem die Koordinate x und der Impuls p durch die Operatoren x und p dieser Variablen ersetzt werden, d.h.

wobei V (x) die potentielle Energie des Systems ist.

Im Gegensatz zur Newtonschen Gleichung, aus der die beobachtete Trajektorie x (t) eines im Potentialfeld V (x) bewegten materiellen Punktes ermittelt wird, ergibt sich aus der Schrödinger-Gleichung eine nicht beobachtbare Wellenfunktion ψ (x) eines Quantensystems gefunden wird, mit dem es jedoch möglich ist, die Werte aller messbaren Größen zu berechnen. Unmittelbar nach der Entdeckung der Schrödinger-Gleichung erklärte M. Born die Bedeutung der Wellenfunktion: |ψ (x) | 2 ist die Wahrscheinlichkeitsdichte und |ψ (x) | 2 · Δx ist die Wahrscheinlichkeit, ein Quantensystem im Bereich der Δx-Werte der x-Koordinate zu detektieren.

Jeder physikalischen Größe (dynamische Variable der klassischen Mechanik) in der Quantenmechanik ist eine Observable a und der zugehörige hermitesche Operator J zugeordnet, der in der gewählten Basis komplexer Funktionen | i> = f i (x) durch die Matrix

wobei f * (x) die zur Funktion f (x) konjugierte Funktion ist.

Die orthogonale Basis in diesem Raum ist die Menge der Eigenfunktionen | n) = fn (x)), n = 1,2,3, für die die Wirkung des Operators В auf die Multiplikation mit einer Zahl (der Eigenwert an der Betreiber В):

Die Basis der Funktionen |n) wird durch die Bedingung für n = n ’, für n ≠ n’ normiert.

und die Anzahl der Basisfunktionen (im Gegensatz zu den Basisvektoren des dreidimensionalen Raums der klassischen Physik) ist unendlich, und der Index n kann sowohl diskret als auch kontinuierlich variieren. Alle möglichen Werte der Observablen a sind in der Menge (a n) der Eigenwerte des entsprechenden Operators enthalten, und nur diese Werte können zu Messergebnissen werden.

Das Hauptobjekt der Quantenmechanik ist der Zustandsvektor | ψ), der durch Eigenfunktionen | n) des gewählten Operators В entwickelt werden kann:

wobei ψ n die Wahrscheinlichkeitsamplitude (Wellenfunktion) des Zustands | n ist) und | ψ n | 2 gleich dem Gewicht des Zustands n in der Entwicklung | ), und

h., die Gesamtwahrscheinlichkeit, ein System in einem der Quantenzustände n zu finden, ist gleich Eins.

In der Heisenberg-Quantenmechanik gehorchen die Operatoren J und die entsprechenden Matrizen den Gleichungen

wobei | Â, Ĥ | = ÂĤ - Ĥ der Kommutator der Operatoren  und ist. Im Gegensatz zum Schrödinger-Schema, bei dem die Wellenfunktion ψ von der Zeit abhängt, bezieht sich beim Heisenberg-Schema die Zeitabhängigkeit auf den Operator J. Beide Ansätze sind mathematisch äquivalent, aber in zahlreichen Anwendungen der Quantenmechanik hat sich Schrödingers Ansatz als vorzuziehen erwiesen.

Der Eigenwert des Hamilton-Operators Ĥ ist die zeitunabhängige Gesamtenergie des Systems E, die sich als Lösung der stationären Schrödinger-Gleichung

Seine Lösungen werden je nach Art der Randbedingungen in zwei Typen unterteilt.

Für einen lokalisierten Zustand erfüllt die Wellenfunktion die natürliche Randbedingung ψ (∞) = 0. In diesem Fall hat die Schrödinger-Gleichung nur eine Lösung für eine diskrete Menge von Energien Е n, n = 1,2,3, .. ., zu denen die Wellenfunktionen ψ n ( r):

Ein Beispiel für einen lokalisierten Zustand ist ein Wasserstoffatom. Sein Hamiltonoperator Ĥ hat die Form

wobei Δ = ∂ 2 / ∂х 2 + ∂ 2 / ∂у 2 + ∂ 2 / ∂z 2 der Laplace-Operator ist, e 2 / r das Wechselwirkungspotential des Elektrons und des Kerns ist, r der Abstand vom Kern ist zum Elektron, und die aus der Schrödinger-Gleichung berechneten Energieeigenwerte Е n stimmen mit den Energieniveaus des Bohrschen Atoms überein.

Das einfachste Beispiel für einen nicht lokalisierten Zustand ist die freie eindimensionale Bewegung eines Elektrons mit Impuls p. Sie entspricht der Schrödinger-Gleichung

deren Lösung eine ebene Welle ist

wobei im allgemeinen Fall С = | С | exp (iφ) eine komplexe Funktion ist, | С | und φ ist sein Modul und seine Phase. In diesem Fall ist die Elektronenenergie E = p 2 / 2m, und der Index p der Lösung ψ p (x) nimmt eine kontinuierliche Reihe von Werten an.

Die Koordinaten- und Impulsoperatoren (und jedes andere Paar kanonisch konjugierter Variablen) gehorchen der Permutations-(Kommutierungs-)Beziehung:

Es gibt keine gemeinsame Basis für die Eigenfunktionen für Paare solcher Operatoren, und die ihnen entsprechenden physikalischen Größen können nicht gleichzeitig mit beliebiger Genauigkeit bestimmt werden. Aus der Kommutierungsrelation für die Operatoren x̂ und p̂ folgt eine Einschränkung der Genauigkeit Δх und Δр der Bestimmung der Koordinate x und ihres konjugierten Impulses p eines Quantensystems (Heisenbergsche Unschärferelation):

Damit folgt insbesondere sofort der Rückschluss auf die Stabilität des Atoms, da die Beziehung Δх = Δр = 0, die dem Fall eines Elektrons auf den Kern entspricht, in diesem Schema verboten ist.

Die Menge gleichzeitig messbarer Größen, die ein Quantensystem charakterisieren, wird durch eine Menge von Operatoren repräsentiert

miteinander vertauschen, d. h. die Relationen А̂В̂ - В̂А̂ = А̂С̂ - С̂А̂ = В̂С̂ - С̂В̂ = ... = 0 erfüllen. Für ein nichtrelativistisches Wasserstoffatom besteht eine solche Menge beispielsweise aus den Operatoren: Ĥ (total Energieoperator), (das Quadrat des Operatormoments) und (z-Komponente des Momentenoperators). Der Zustandsvektor eines Atoms ist definiert als eine Menge gemeinsamer Eigenfunktionen ψ i (r) aller Operatoren

die durch eine Menge (i) = (nlm) von Energiequantenzahlen (n = 1,2,3, ...), Bahndrehimpuls (l = 0,1, ..., n - 1) nummeriert sind und seine Projektion auf die z-Achse (m = -l, ..., - 1,0,1, ..., l). Funktionen |ψ i (r) | 2 kann konventionell als die Form eines Atoms in verschiedenen Quantenzuständen i (den sogenannten Weißen Silhouetten) betrachtet werden.

Der Wert einer physikalischen Größe (beobachtbare Quantenmechanik) ist definiert als der Mittelwert Ā des entsprechenden Operators Â:

Diese Beziehung gilt für reine Zustände, also für isolierte Quantensysteme. Im allgemeinen Fall gemischter Zustände haben wir es immer mit einer großen Ansammlung (statistisches Ensemble) identischer Systeme (zB Atome) zu tun, deren Eigenschaften durch Mittelung über dieses Ensemble bestimmt werden. In diesem Fall hat der Mittelwert Ā des Operators J die Form

wobei р nm die Dichtematrix (LD Landau; J. von Neumann, 1929) mit der Normierungsbedingung ∑ n ρ пп = 1 ist. Der Formalismus der Dichtematrix erlaubt es uns, quantenmechanische Mittelung über Zustände und statistische Mittelung über das Ensemble zu kombinieren . Auch in der Theorie der Quantenmessungen spielt die Dichtematrix eine wichtige Rolle, deren Essenz immer in der Wechselwirkung von Quanten- und klassischen Subsystemen besteht. Das Konzept einer Dichtematrix ist die Grundlage der Quantenstatistik und die Grundlage für eine der alternativen Formulierungen der Quantenmechanik. Eine andere Form der Quantenmechanik, die auf dem Konzept des Pfadintegrals (oder Pfadintegrals) basiert, wurde 1948 von R. Feynman vorgeschlagen.

Compliance-Prinzip... Die Quantenmechanik hat tiefe Wurzeln sowohl in der klassischen als auch in der statistischen Mechanik. Bereits in seiner ersten Arbeit formulierte N. Bohr das Korrespondenzprinzip, nach dem sich Quantenrelationen für große Quantenzahlen n in klassische umwandeln sollen. P. Ehrenfest zeigte 1927, dass unter Berücksichtigung der Gleichungen der Quantenmechanik der Mittelwert Ā des Operators  der Bewegungsgleichung der klassischen Mechanik genügt. Der Satz von Ehrenfest ist ein Sonderfall des allgemeinen Korrespondenzprinzips: Im Grenzfall h → 0 gehen die Gleichungen der Quantenmechanik in die Gleichungen der klassischen Mechanik über. Insbesondere wird aus der Schrödinger-Wellengleichung im Limes h → 0 die Gleichung der geometrischen Optik für die Flugbahn eines Lichtstrahls (und einer beliebigen Strahlung) ohne Berücksichtigung seiner Welleneigenschaften. Stellt man die Lösung ψ (x) der Schrödinger-Gleichung in der Form ψ (x) = exp (iS / ħ) dar, wobei S = ∫ p (x) dx ein Analogon des klassischen Wirkungsintegrals ist, kann man nachweisen, dass im limit ħ → 0 erfüllt die Funktion S die klassische Hamilton-Jacobi-Gleichung. Außerdem kommutieren im Limes h → 0 die Operatoren x̂ und p̂ und die entsprechenden Werte von Koordinate und Impuls können gleichzeitig bestimmt werden, wie es in der klassischen Mechanik angenommen wird.

Die bedeutendsten Analogien zwischen den Beziehungen der klassischen und der Quantenmechanik für periodische Bewegungen lassen sich auf der Phasenebene von kanonisch konjugierten Variablen verfolgen, beispielsweise den Koordinaten x und dem Impuls p des Systems. Integrale vom Typ ∮p (x) dx entlang einer geschlossenen Trajektorie (Poincaré-Integralinvarianten) sind in der Vorgeschichte der Quantenmechanik als adiabatische Ehrenfest-Invarianten bekannt. A. Sommerfeld benutzte sie, um Quantengesetze in der Sprache der klassischen Mechanik zu beschreiben, insbesondere für die räumliche Quantisierung eines Atoms und die Einführung der Quantenzahlen l und m (er hat diesen Begriff 1915 eingeführt).

Die Dimension des Phasenintegrals ∮pdx stimmt mit der Dimension der Planck-Konstanten h überein, und 1911 schlugen A. Poincaré und M. Planck vor, das Wirkungsquantum h als minimales Volumen des Phasenraums, die Anzahl n der Zellen davon ist ein Vielfaches von h: n = ∮pdx / h. Insbesondere wenn sich ein Elektron mit konstantem Impuls p auf einer Kreisbahn bewegt, folgt die Bohrsche Quantisierungsbedingung unmittelbar aus der Beziehung n = ∮p (x) dx / h = p ∙ 2πr / h: mυr = nħ (P. Debye , 1913).

Im Fall einer eindimensionalen Bewegung im Potential V (x) = mω 2 0 x 2/2 (harmonischer Oszillator mit Eigenfrequenz ω 0) folgt aus der Quantisierungsbedingung ∮р (х) dx = nh jedoch eine Reihe von Energiewerten Е n = ħω 0 n, während die exakte Lösung der Quantengleichungen für den Oszillator zur Folge Е n = ħω 0 (n + 1/2) führt. Dieses Ergebnis der Quantenmechanik, das zuerst von W. Heisenberg gewonnen wurde, unterscheidet sich grundlegend von dem angenäherten durch das Vorhandensein der Null-Schwingungsenergie E 0 = ħω 0/2, die rein Quantennatur hat: der Ruhezustand (x = 0 , p = 0) ist in der Quantenmechanik verboten, da es der Unschärferelation Δх ∙ Δр ≥ ħ / 2 widerspricht.

Das Prinzip der Überlagerung von Zuständen und der probabilistischen Interpretation. Der wesentliche und visuelle Widerspruch zwischen Korpuskular- und Wellenbild von Quantenphänomenen wurde 1926 beseitigt, nachdem M. Born vorgeschlagen hatte, die komplexe Wellenfunktion ψ n (x) = | ψ n (x) | exp (iφ n) als die Amplitude die Wahrscheinlichkeit des Zustands n und das Quadrat seines Moduls | ψ n (x) | 2 - als Wahrscheinlichkeitsdichte der Erkennung des Zustands n am Punkt x. Ein Quantensystem kann sich in verschiedenen, auch alternativen Zuständen befinden, und seine Wahrscheinlichkeitsamplitude ist gleich einer Linearkombination der Wahrscheinlichkeitsamplituden dieser Zustände: ψ = ψ 1 + ψ 2 + ...

Die Wahrscheinlichkeitsdichte des resultierenden Zustands ist gleich dem Quadrat der Summe der Wahrscheinlichkeitsamplituden und nicht der Summe der Quadrate der Amplituden, wie es in der statistischen Physik der Fall ist:

Dieses Postulat - das Prinzip der Superposition von Zuständen - ist eines der wichtigsten im Begriffssystem der Quantenmechanik; es hat viele beobachtbare Konsequenzen. Eine davon, nämlich der Durchgang eines Elektrons durch zwei eng beieinander liegende Spalte, wird häufiger diskutiert als andere (Abb. 2). Der Elektronenstrahl fällt links ein, passiert die Schlitze in der Trennwand und wird dann auf dem Bildschirm (oder der Fotoplatte) rechts aufgezeichnet. Wenn wir abwechselnd jeden der Schlitze schließen, sehen wir auf dem Bildschirm rechts ein Bild eines offenen Schlitzes. Wenn Sie jedoch beide Schlitze gleichzeitig öffnen, sehen wir anstelle von zwei Schlitzen ein System von Interferenzstreifen, deren Intensität durch den Ausdruck beschrieben wird:

Der letzte Term in dieser Summe stellt die Interferenz zweier Wahrscheinlichkeitswellen dar, die aus verschiedenen Schlitzen in der Partition an einem bestimmten Punkt des Bildschirms eintreffen, und hängt von der Phasendifferenz der Wellenfunktionen Δφ = φ 1 - φ 2 ab. Bei gleichen Amplituden |ψ 1 | = | ψ 2 |:

d.h. die Intensität des Bildes der Schlitze in verschiedene Punkte Bildschirm wechselt von 0 auf 4 | ψ 1 | 2 - entsprechend der Änderung der Phasendifferenz Δφ von 0 auf π / 2. Insbesondere kann sich herausstellen, dass wir mit zwei offenen Spalten anstelle des Bildes eines einzelnen Spaltes kein Signal erkennen, was aus korpuskularer Sicht absurd ist.

Wesentlich ist, dass dieses Bild des Phänomens nicht von der Intensität des Elektronenstrahls abhängt, also nicht das Ergebnis ihrer Wechselwirkung miteinander ist. Ein Interferenzmuster entsteht sogar im Grenzbereich, wenn Elektronen einzeln durch die Schlitze in der Trennwand hindurchtreten, d. h. jedes Elektron interferiert mit sich selbst. Dies ist für ein Teilchen unmöglich, aber für eine Welle ganz natürlich, wenn sie beispielsweise von einem Hindernis reflektiert oder gebeugt wird, dessen Abmessungen mit seiner Länge vergleichbar sind. In diesem Experiment manifestiert sich der Welle-Teilchen-Dualismus darin, dass das gleiche Elektron als Teilchen registriert wird, sich aber als Welle besonderer Art ausbreitet: Dies ist eine Welle der Wahrscheinlichkeit, an einem beliebigen Punkt im Raum ein Elektron zu finden. In einem solchen Bild des Streuprozesses stellt sich die Frage: "Durch welchen Spalt ging das Elektron-Teilchen?" verliert an Bedeutung, da die entsprechende Wahrscheinlichkeitswelle beide Slots gleichzeitig durchläuft.

Ein weiteres Beispiel, das die wahrscheinlichkeitstheoretische Natur der Phänomene der Quantenmechanik veranschaulicht, ist die Übertragung von Licht durch eine halbtransparente Platte. Definitionsgemäß ist die Lichtreflexion gleich dem Verhältnis der Zahl der von der Platte reflektierten Photonen zur Zahl der einfallenden Photonen. Dies ist jedoch nicht das Ergebnis einer Mittelung einer großen Anzahl von Ereignissen, sondern eine Eigenschaft, die jedem Photon innewohnt.

Das Superpositionsprinzip und der Wahrscheinlichkeitsbegriff ermöglichten eine konsequente Synthese der Begriffe "Welle" und "Teilchen": Jedes der Quantenereignisse und seine Registrierung sind diskret, ihre Verteilung wird jedoch durch das Gesetz von . diktiert Ausbreitung kontinuierlicher Wahrscheinlichkeitswellen.

Tunneleffekt und resonante Streuung. Der Tunneleffekt ist vielleicht das bekannteste Phänomen der Quantenphysik. Sie liegt an den Welleneigenschaften von Quantenobjekten und hat erst im Rahmen der Quantenmechanik eine adäquate Erklärung erhalten. Ein Beispiel für den Tunneleffekt ist der Zerfall eines Radiumkerns in einen Radonkern und ein α-Teilchen: Ra → Rn + α.

Abbildung 3 zeigt ein Diagramm des α-Zerfallspotentials V (r): Das α-Teilchen schwingt mit der Frequenz v im „Potentialtopf“ des Kerns mit einer Ladung Z 0 und bewegt sich nach dem Verlassen im abstoßenden Coulomb-Potential 2Ze 2 / r, wobei Z = Z 0 -2. In der klassischen Mechanik kann ein Teilchen einen Potentialtopf nicht verlassen, wenn seine Energie E kleiner als die Höhe der Potentialbarriere V max ist. In der Quantenmechanik dringt aufgrund der Unschärferelation ein Teilchen mit endlicher Wahrscheinlichkeit W in den Subbarrierenbereich r 0 . ein< r < r 1 и может «просочиться» из области r < r 0 в область r >r 1 ist ähnlich wie Licht in den Bereich des geometrischen Schattens in Entfernungen eindringt, die mit der Länge der Lichtwelle vergleichbar sind. Mit der Schrödinger-Gleichung können wir den Koeffizienten D des Durchgangs eines α-Teilchens durch die Barriere berechnen, der in semiklassischer Näherung gleich ist:

Mit der Zeit nimmt die Anzahl der Radiumkerne N (t) nach dem Gesetz ab: N (t) = N 0 exp (-t / τ), wobei τ die durchschnittliche Lebensdauer eines Kerns ist, N 0 die Anfangszahl von Kerne bei t = 0. Wahrscheinlichkeit α- Zerfall W = vD hängt mit der Lebensdauer durch die Beziehung W = l / τ zusammen, woraus das Geiger-Nettol-Gesetz folgt:

wobei υ die Geschwindigkeit des α-Teilchens ist, Z die Ladung des gebildeten Kerns. Experimentell wurde diese Abhängigkeit bereits 1909 entdeckt, aber erst 1928 erklärte G. Gamow (und unabhängig davon der englische Physiker R. Gurney und der amerikanische Physiker E. Condon) sie erstmals in der Sprache der Quantenmechanik. Damit konnte gezeigt werden, dass die Quantenmechanik nicht nur Strahlungsprozesse und andere Phänomene der Atomphysik beschreibt, sondern auch die Phänomene der Kernphysik.

In der Atomphysik erklärt der Tunneleffekt das Phänomen der Feldemission. In einem gleichförmigen elektrischen Feld der Stärke E wird das Coulomb-Potential V (r) = -e 2 / r der Anziehung zwischen Kern und Elektron verzerrt: V (r) = - e 2 / r - eEr, die Energieniveaus des Atoms E nl m verschoben, was zu einer Änderung der Frequenzen ν nk der Übergänge zwischen ihnen führt (Stark-Effekt). Außerdem wird dieses Potential qualitativ dem α-Zerfallspotential ähnlich, wodurch eine endliche Wahrscheinlichkeit des Elektronentunnelns durch die Potentialbarriere entsteht (R. Oppenheimer, 1928). Beim Erreichen kritischer Werte von E sinkt die Barriere so stark, dass das Elektron das Atom verlässt (sog. Lawinenionisation).

Alpha-Zerfall ist ein Sonderfall des Zerfalls eines quasistationären Zustands, der eng mit dem Konzept der quantenmechanischen Resonanz verwandt ist und uns erlaubt, zusätzliche Aspekte nichtstationärer Prozesse in der Quantenmechanik zu verstehen. Die Zeitabhängigkeit seiner Lösungen folgt aus der Schrödinger-Gleichung:

wobei E der Eigenwert des Hamiltonoperators Ĥ ist, der für die hermiteschen Operatoren der Quantenmechanik gilt, und die entsprechende Observable (Gesamtenergie E) nicht von der Zeit abhängt. Die Energie instationärer Systeme ist jedoch zeitabhängig, und dieser Tatsache kann formal Rechnung getragen werden, wenn die Energie eines solchen Systems in komplexer Form dargestellt wird: E = E 0 - iΓ / 2. In diesem Fall hat die Zeitabhängigkeit der Wellenfunktion die Form

und die Wahrscheinlichkeit, den entsprechenden Zustand zu erkennen, nimmt exponentiell ab:

welches formal mit dem α-Zerfallsgesetz mit der Zerfallskonstante τ = ħ / Г übereinstimmt.

Im umgekehrten Prozess, zum Beispiel beim Zusammenstoß von Deuterium- und Tritiumkernen, bei dem Helium und ein Neutron gebildet werden (Reaktion thermonukleare Fusion) wird das Konzept des Reaktionsquerschnitts σ verwendet, der als Maß für die Reaktionswahrscheinlichkeit für einen einzelnen Fluss kollidierender Partikel definiert ist.

Bei klassischen Teilchen fällt der Streuquerschnitt an einer Kugel mit dem Radius r 0 mit seinem geometrischen Querschnitt zusammen und ist gleich σ = πr 0 2. In der Quantenmechanik lässt es sich durch die Streuphasen δl (k) darstellen:

wobei k = p / ħ = √2mE / ħ die Wellenzahl ist, l der Bahnimpuls des Systems. Im Grenzfall sehr kleiner Stoßenergien ist der Quantenstreuquerschnitt σ = 4πr 0 2 4 mal größer als der geometrische Querschnitt der Kugel. (Dieser Effekt ist eine der Folgen der Wellennatur von Quantenphänomenen.) In der Nähe der Resonanz bei Е ≈ Е 0 verhält sich die Streuphase wie

und der Streuquerschnitt ist

wobei λ = 1 / k, W (E) die Breit-Wigner-Funktion ist:

Bei niedrigen Streuenergien l 0 ≈ 0 und der de Broglie-Wellenlänge λ ist viel größer als die Dimensionen der Kerne, daher können bei E = E 0 die Resonanzquerschnitte der Kerne σres ≈ 4πλ 0 2 ihr geometrisches Kreuz überschreiten Abschnitte πr 0 2 um den Faktor Tausend und Millionen. In der Kernphysik hängt der Betrieb von Kern- und thermonuklearen Reaktoren von diesen Wirkungsquerschnitten ab. In der Atomphysik wurde dieses Phänomen erstmals von J. Frank und G. Hertz (1913) bei Experimenten zur resonanten Absorption von Elektronen durch Quecksilberatome beobachtet. Im umgekehrten Fall (δ 0 = 0) ist der Streuquerschnitt anomal klein (Ramsauer-Effekt, 1921).

Die Funktion W (E) ist in der Optik als Lorentz-Profil der Emissionslinie bekannt und hat die Form einer typischen Resonanzkurve mit einem Maximum bei E = E 0 und der Resonanzbreite G = 2∆E = 2 (E - E 0) ergibt sich aus der Beziehung W (E 0 ± ΔΕ) = W (E 0) / 2. Die Funktion W (E) ist universeller Natur und beschreibt sowohl den Zerfall eines quasistationären Zustands als auch die Resonanzabhängigkeit des Streuquerschnitts von der Stoßenergie E und bestimmt bei Strahlungsphänomenen die natürliche Breite Г der Spektrallinie, die mit der Lebensdauer τ des Emitters durch die Beziehung τ = ħ / Г ... Dieses Verhältnis bestimmt auch die Lebensdauer von Elementarteilchen.

Aus der Definition von τ = ħ / Г folgt unter Berücksichtigung der Gleichheit Г = 2∆Е die Unschärferelation für Energie und Zeit: ∆Е ∙ ∆t ≥ ħ / 2, wobei ∆t ≥ τ. Formal ähnelt sie dem Verhältnis ∆х ∙ ∆р ≥ ħ / 2, jedoch ist der ontologische Status dieser Ungleichung ein anderer, da die Zeit t in der Quantenmechanik keine dynamische Variable ist. Daher folgt die Beziehung ∆Е ∙ ∆t ≥ ħ / 2 nicht direkt aus den Grundpostulaten der stationären Quantenmechanik und ist streng genommen nur für Systeme sinnvoll, deren Energie sich mit der Zeit ändert. Seine physikalische Bedeutung ist, dass während der Zeit ∆t die Energie des Systems nicht genauer gemessen werden kann als der Wert ∆E, bestimmt durch das Verhältnis ∆E ∙ ∆t ≥ ħ / 2. Ein stationärer Zustand (ΔЕ → 0) existiert für unendlich lange Zeit (Δt → ∞).

Spin, Teilchenidentität und Austauschwechselwirkung. Der Begriff "Spin" wurde in der Physik durch die Arbeiten von W. Pauli, den niederländischen Physikern R. Kronig, S. Goudsmit und J. Uhlenbeck (1924-27) etabliert, obwohl experimentelle Beweise für seine Existenz lange vor seiner Entstehung erbracht wurden der Quantenmechanik in den Experimenten von A. Einstein und W. J. de Haaz (1915) sowie von O. Stern und dem deutschen Physiker W. Gerlach (1922). Der Spin (eigenes mechanisches Moment eines Teilchens) für ein Elektron ist S = ħ / 2. Es ist das gleiche wichtige Eigenschaft Quantenteilchen sowie Ladung und Masse, die jedoch keine klassischen Gegenstücke hat.

Der Spinoperator Ŝ = ħσИ / 2, wobei σИ = (σИ х, σИ у, σИ z) zweidimensionale Pauli-Matrizen sind, ist im Raum der zweikomponentigen Eigenfunktionen u = (u +, u -) der Operator Ŝ z der Spinprojektion auf die z-Achse: σИ zu = σu, σ = ± 1/2. Das intrinsische magnetische Moment μ eines Teilchens mit der Masse m und dem Spin S ist gleich μ = 2μ 0 S, wobei μ 0 = еħ / 2mс das Bohrsche Magneton ist. Die Operatoren Ŝ 2 und Ŝ z kommutieren mit der Menge Ĥ 0 L 2 und L z der Operatoren des Wasserstoffatoms und bilden zusammen den Hamiltonoperator der Pauli-Gleichung (1927), deren Lösungen mit der Menge i = ( nlmσ) von Quantenzahlen der Eigenwerte der Menge und kommutierenden Operatoren Ĥ 0, L 2, L z, Ŝ 2, Ŝ z. Diese Lösungen beschreiben die subtilsten Merkmale der beobachteten Spektren von Atomen, insbesondere die Aufspaltung von Spektrallinien in einem Magnetfeld (normaler und anomaler Zeeman-Effekt) sowie deren Multiplettstruktur als Ergebnis der Wechselwirkung des Elektronenspins mit dem Bahnmoment des Atoms (Feinstruktur) und dem Spin des Kerns (Hyperfeinstruktur).

1924, noch vor der Entstehung der Quantenmechanik, formulierte W. Pauli das Ausschlussprinzip: Ein Atom kann nicht zwei Elektronen mit der gleichen Menge von Quantenzahlen i = (nlmσ) haben. Dieses Prinzip machte es möglich, die Struktur zu verstehen Periodensystem chemische Elemente und erklären die Periodizität von Änderungen ihrer chemischen Eigenschaften mit einer monotonen Zunahme der Ladung ihrer Kerne.

Das Ausschlussprinzip ist ein Spezialfall eines allgemeineren Prinzips, das eine Beziehung zwischen dem Spin eines Teilchens und der Symmetrie seiner Wellenfunktion herstellt. Je nach Spinwert werden alle Elementarteilchen in zwei Klassen eingeteilt: Fermionen - Teilchen mit halbzahligem Spin (Elektron, Proton, μ-Meson usw.) und Bosonen - Teilchen mit null oder ganzzahligem Spin (Photon, π-Meson , K-Meson usw.). 1940 bewies Pauli einen allgemeinen Satz über den Zusammenhang zwischen Spin und Statistik, woraus folgt, dass die Wellenfunktionen jedes Fermionensystems negative Parität haben (Vorzeichen ändern, wenn sie paarweise permutiert werden) und die Parität der Wellenfunktion von ein System von Bosonen ist immer positiv. Dementsprechend gibt es zwei Arten von Teilchenenergieverteilungen: die Fermi-Dirac-Verteilung und die Bose-Einstein-Verteilung, von denen ein Sonderfall die Planck-Verteilung für ein Photonensystem ist.

Eine der Folgen des Pauli-Prinzips ist die Existenz der sogenannten Austauschwechselwirkung, die sich bereits in einem System aus zwei Elektronen manifestiert. Insbesondere ist es diese Wechselwirkung, die die kovalente chemische Bindung von Atomen in den Molekülen von H2, N2, O2 usw. klassische Physik Nein. Seine Spezifität erklärt sich daraus, dass die Wahrscheinlichkeitsdichte der Wellenfunktion eines Systems aus zwei Elektronen |ψ (r 1, r 2) | 2 enthält nicht nur die Terme |ψ n (r 1) | 2 |ψm (r2) | 2, wobei n und m die Quantenzustände der Elektronen beider Atome sind, aber auch die "Austauschterme" ψ n * (r 1) ψ m * (r 1) ψ n (r 2) ψ m (r 2) , die sich aus der prinzipiellen Superposition ergibt, die es jedem Elektron ermöglicht, sich gleichzeitig in verschiedenen Quantenzuständen n und m beider Atome zu befinden. Außerdem soll nach dem Pauli-Prinzip der Spinanteil der Wellenfunktion eines Moleküls antisymmetrisch zur Elektronenpermutation sein, dh die chemische Bindung von Atomen in einem Molekül erfolgt durch ein Elektronenpaar mit entgegengesetzt gerichtete Spins. Die Wellenfunktion komplexer Moleküle kann als Überlagerung von Wellenfunktionen dargestellt werden, die verschiedenen möglichen Konfigurationen des Moleküls entsprechen (Resonanztheorie, L. Pauling, 1928).

Die in der Quantenmechanik entwickelten Berechnungsmethoden (die Hartree-Fock-Methode, die Molekülorbitalmethode usw.) ermöglichen es, auf modernen Computern alle Eigenschaften stabiler Konfigurationen komplexer Moleküle zu berechnen: die Reihenfolge der Füllung von Elektronenschalen in einem Atom , die Gleichgewichtsabstände zwischen Atomen in Molekülen, die Energie und Richtung chemischer Bindungen , die Anordnung der Atome im Raum und bauen potentielle Oberflächen auf, die die Richtung chemischer Reaktionen bestimmen. Dieser Ansatz ermöglicht auch die Berechnung der Potentiale interatomarer und intermolekularer Wechselwirkungen, insbesondere der Van-der-Waals-Kräfte, zur Abschätzung der Stärke von Wasserstoffbrücken usw. Damit reduziert sich das Problem der chemischen Bindung auf das Problem der Berechnung der Quanten- Eigenschaften eines Teilchensystems mit Coulomb-Wechselwirkung, und unter diesem Gesichtspunkt kann die Strukturchemie als einer der Zweige der Quantenmechanik angesehen werden.

Die Austauschwechselwirkung hängt im Wesentlichen von der Art der potentiellen Wechselwirkung zwischen den Teilchen ab. Insbesondere bei einigen Metallen ist der Zustand von Elektronenpaaren mit parallelen Spins stabiler, was das Phänomen des Ferromagnetismus erklärt.

Anwendungen der Quantenmechanik. Die Quantenmechanik ist die theoretische Grundlage der Quantenphysik. Sie ermöglichte es, die Struktur der Elektronenhüllen von Atomen und die Muster in ihren Strahlungsspektren, die Struktur der Kerne und die Gesetze ihres radioaktiven Zerfalls, die Entstehung chemischer Elemente und die Entwicklung von Sternen, einschließlich Explosionen neuer und Supernova-Sterne sowie die Quelle der Sonnenenergie. Die Quantenmechanik erklärte die Bedeutung des Periodensystems der Elemente, die Natur chemischer Bindungen und die Struktur von Kristallen, Wärmekapazität und magnetische Eigenschaften Substanzen, das Phänomen der Supraleitung und Suprafluidität usw. Quantenmechanik - physikalische Basis zahlreiche technische Anwendungen: Spektralanalyse, Laser, Transistor und Computer, Kernreaktor und Atombombe usw.

Auch die Eigenschaften von Metallen, Dielektrika, Halbleitern und anderen Stoffen im Rahmen der Quantenmechanik erhalten eine natürliche Erklärung. In Kristallen führen Atome kleine Schwingungen in der Nähe von Gleichgewichtspositionen mit der Frequenz ω aus, die mit den Schwingungsquanten des Kristallgitters und den entsprechenden Quasiteilchen - Phononen mit der Energie E = ħω - verbunden sind. Die Wärmekapazität eines Kristalls wird weitgehend durch die Wärmekapazität des Gases seiner Phononen bestimmt, und seine Wärmeleitfähigkeit kann als Wärmeleitfähigkeit eines Phononengases interpretiert werden. In Metallen sind Leitungselektronen ein Gas von Fermionen, und ihre Streuung an Phononen ist der Hauptgrund für den elektrischen Widerstand von Leitern und erklärt auch die Ähnlichkeit der thermischen und elektrischen Eigenschaften von Metallen (siehe Wiedemann-Franz-Gesetz). In magnetisch geordneten Strukturen treten Quasiteilchen auf - Magnonen, die Spinwellen entsprechen, Quanten der Rotationsanregung - Rotonen erscheinen in Quantenflüssigkeiten, und die magnetischen Eigenschaften von Substanzen werden durch die Spins von Elektronen und Kernen bestimmt (siehe Magnetismus). Wechselwirkung der Spins von Elektronen und Kernen mit Magnetfeld- die Grundlage für die praktische Anwendung der Phänomene der elektronenparamagnetischen und kernmagnetischen Resonanz, insbesondere in medizinischen Tomographen.

Die geordnete Struktur von Kristallen führt zu einer zusätzlichen Symmetrie des Hamilton-Operators bezüglich der Verschiebung x → x + a, wobei a die Periode des Kristallgitters ist. Die Berücksichtigung der periodischen Struktur eines Quantensystems führt zur Aufspaltung seines Energiespektrums in erlaubte und verbotene Bänder. Diese Struktur von Energieniveaus liegt dem Betrieb von Transistoren und der gesamten darauf basierenden Elektronik (TV, Computer, Handy usw.). Zu Beginn des 21. Jahrhunderts wurden bedeutende Fortschritte bei der Herstellung von Kristallen mit bestimmten Eigenschaften und Struktur von Energiebändern gemacht (Übergitter, photonische Kristalle und Heterostrukturen: Quantenpunkte, Quantendrähte, Nanoröhren usw.).

Mit abnehmender Temperatur gehen einige Stoffe in den Zustand einer Quantenflüssigkeit über, deren Energie bei einer Temperatur T → 0 sich der Energie von Nullpunktsschwingungen des Systems annähert. In einigen Metallen werden bei niedrigen Temperaturen Cooper-Paare gebildet - Systeme aus zwei Elektronen mit entgegengesetzten Spins und Impulsen. In diesem Fall wird das Elektronengas von Fermionen in ein Gas von Bosonen umgewandelt, was eine Bose-Kondensation zur Folge hat, was das Phänomen der Supraleitung erklärt.

Bei tiefen Temperaturen wird die de Broglie-Wellenlänge der thermischen Bewegung von Atomen vergleichbar mit den interatomaren Abständen und es entsteht eine Korrelation der Phasen der Wellenfunktionen vieler Teilchen, was zu makroskopischen Quanteneffekten führt (Josephson-Effekt, Quantisierung des magnetischen Flusses, fraktionierter Quanten-Hall-Effekt, Andreev-Reflexion).

Basierend auf Quantenphänomenen wurden die genauesten Quantennormale verschiedener physikalischer Größen geschaffen: Frequenzen (Helium-Neon-Laser), elektrische Spannung(Josephson-Effekt), Widerstand (Quanten-Hall-Effekt) usw., sowie Geräte für verschiedene Präzisionsmessungen: Tintenfische, Quantenuhren, Quantengyroskop usw.

Die Quantenmechanik entstand als Theorie zur Erklärung der spezifischen Phänomene der Atomphysik (ursprünglich hieß sie so: Atomdynamik), aber nach und nach wurde klar, dass die Quantenmechanik auch die Grundlage aller subatomaren Physik bildet und alle ihre Grundkonzepte anwendbar sind auf beschreiben die Phänomene der Kernphysik und der Elementarteilchen. Die ursprüngliche Quantenmechanik war nicht-relativistisch, das heißt, sie beschrieb die Bewegung von Systemen mit Geschwindigkeiten, die weit unter der Lichtgeschwindigkeit liegen. Die Wechselwirkung von Teilchen wurde in dieser Theorie noch klassisch beschrieben. 1928 fand P. Dirac die relativistische Gleichung der Quantenmechanik (Dirac-Gleichung), die unter Beibehaltung aller ihrer Konzepte die Anforderungen der Relativitätstheorie berücksichtigt. Darüber hinaus wurde der Formalismus der sekundären Quantisierung entwickelt, der die Erzeugung und Vernichtung von Teilchen beschreibt, insbesondere die Erzeugung und Absorption von Photonen bei Strahlungsprozessen. Auf dieser Grundlage entstand die Quantenelektrodynamik, die es ermöglichte, alle Eigenschaften von Systemen mit elektromagnetischer Wechselwirkung mit großer Genauigkeit zu berechnen. Später entwickelte sie sich zu einer Quantenfeldtheorie, die Teilchen und Felder, durch die sie wechselwirken, in einem einzigen Formalismus vereint.

Um Elementarteilchen und ihre Wechselwirkungen zu beschreiben, werden alle Grundkonzepte der Quantenmechanik verwendet: der Welle-Teilchen-Dualismus bleibt gültig, die Sprache der Operatoren und Quantenzahlen bleibt erhalten, die probabilistische Interpretation der beobachteten Phänomene usw. Um insbesondere die Umwandlung von drei Neutrinotypen ineinander zu erklären: v e, ν μ und ν τ (Neutrino-Oszillationen) sowie neutralen K-Mesonen, wird das Prinzip der Zustandsüberlagerung verwendet.

Interpretation der Quantenmechanik... Die Gültigkeit der Gleichungen und Schlussfolgerungen der Quantenmechanik wurde durch zahlreiche Experimente immer wieder bestätigt. Das System seiner Konzepte, das von den Arbeiten von N. Bohr, seinen Schülern und Anhängern geschaffen wurde und als "Kopenhagener Interpretation" bekannt ist, wird heute allgemein akzeptiert, obwohl eine Reihe von Schöpfern der Quantenmechanik (M. Planck, A. Einstein und E. Schrödinger etc.) blieben bis an ihr Lebensende davon überzeugt, dass die Quantenmechanik eine unvollendete Theorie sei. Die besondere Schwierigkeit der Wahrnehmung der Quantenmechanik liegt insbesondere darin begründet, dass die meisten ihrer Grundkonzepte (Welle, Teilchen, Beobachtung etc.) der klassischen Physik entnommen sind. In der Quantenmechanik sind ihre Bedeutung und ihr Anwendungsbereich aufgrund der Endlichkeit des Wirkungsquantums h begrenzt, was wiederum eine Überarbeitung der etablierten erkenntnisphilosophischen Bestimmungen erforderte.

Zunächst einmal hat sich die Bedeutung des Begriffs „Beobachtung“ in der Quantenmechanik geändert. In der klassischen Physik ging man davon aus, dass die durch den Messvorgang verursachten Störungen des untersuchten Systems richtig berücksichtigt werden können, wonach es möglich ist, den Ausgangszustand des Systems unabhängig vom Beobachtungsmittel wiederherzustellen. In der Quantenmechanik setzt die Unschärferelation diesem Weg eine fundamentale Grenze, die nichts mit der Geschicklichkeit des Experimentators und der Feinheit der verwendeten Beobachtungsmethoden zu tun hat. Das Wirkungsquantum h definiert die Grenzen der Quantenmechanik, wie die Lichtgeschwindigkeit in der Theorie elektromagnetischer Phänomene oder Absoluter Nullpunkt Temperaturen in der Thermodynamik.

Der Grund für die Ablehnung der Unschärferelation und die Überwindung der Schwierigkeiten bei der Wahrnehmung ihrer logischen Konsequenzen wurde von N. Bohr im Konzept der Komplementarität (siehe Komplementaritätsprinzip) vorgeschlagen. Laut Bohr erfordert eine vollständige und adäquate Beschreibung von Quantenphänomenen ein Paar zusätzlicher Konzepte und ein entsprechendes Paar von Observablen. Um diese Observablen zu messen, zwei verschiedene Typen Geräte mit inkompatiblen Eigenschaften. Um beispielsweise eine Koordinate genau zu messen, wird ein stabiles, massives Gerät benötigt, und um einen Impuls zu messen, dagegen ein leichtes und empfindliches. Beide Geräte sind inkompatibel, aber sie ergänzen sich in dem Sinne, dass beide Größen, die sie messen, für die vollständige Charakterisierung eines Quantenobjekts oder Phänomens gleichermaßen notwendig sind. Bohr erklärte, dass "Phänomen" und "Beobachtung" zusätzliche Konzepte sind und nicht getrennt definiert werden können: Der Beobachtungsprozess ist bereits ein bestimmtes Phänomen, und ohne Beobachtung ist ein Phänomen ein "Ding an sich". In Wirklichkeit haben wir es immer nicht mit dem Phänomen selbst zu tun, sondern mit dem Ergebnis der Beobachtung des Phänomens, und dieses Ergebnis hängt unter anderem von der Wahl des Gerätetyps ab, mit dem die Eigenschaften eines Quantenobjekts gemessen werden. Die Quantenmechanik erklärt und sagt die Ergebnisse solcher Beobachtungen ohne jede Willkür voraus.

Ein wichtiger Unterschied zwischen Quantengleichungen und klassischen Gleichungen besteht darin, dass die Wellenfunktion eines Quantensystems selbst nicht beobachtbar ist und alle mit ihrer Hilfe berechneten Größen eine probabilistische Bedeutung haben. Darüber hinaus unterscheidet sich der Wahrscheinlichkeitsbegriff in der Quantenmechanik grundlegend vom üblichen Verständnis von Wahrscheinlichkeit als Maß für unsere Unkenntnis der Details von Prozessen. Die Wahrscheinlichkeit in der Quantenmechanik ist eine intrinsische Eigenschaft eines einzelnen Quantenphänomens, die ihm anfänglich und unabhängig von Messungen innewohnt, und keine Möglichkeit, die Ergebnisse von Messungen darzustellen. Dementsprechend bezieht sich das Superpositionsprinzip in der Quantenmechanik nicht auf Wahrscheinlichkeiten, sondern auf die Amplituden der Wahrscheinlichkeit. Darüber hinaus kann die Überlagerung von Quantenzuständen aufgrund der Wahrscheinlichkeitsnatur von Ereignissen Zustände umfassen, die aus klassischer Sicht inkompatibel sind, z ein Elektron, das durch einen der Schlitze im berühmten Interferenzexperiment geht.

Die Ablehnung der probabilistischen Interpretation der Quantenmechanik führte zu vielen Versuchen, die grundlegenden Bestimmungen der Quantenmechanik zu modifizieren. Einer dieser Versuche besteht darin, versteckte Parameter in die Quantenmechanik einzuführen, die sich nach strengen Kausalitätsgesetzen ändern, und der probabilistische Charakter der Beschreibung in der Quantenmechanik entsteht durch die Mittelung über diese Parameter. Der Beweis für die Unmöglichkeit, versteckte Parameter in die Quantenmechanik einzuführen, ohne das System ihrer Postulate zu verletzen, wurde bereits 1929 von J. von Neumann gegeben. Eine detailliertere Analyse des Postulatsystems der Quantenmechanik wurde 1965 von J. Bell vorgenommen. Die experimentelle Überprüfung der sogenannten Bellschen Ungleichungen (1972) bestätigte einmal mehr das allgemein anerkannte Schema der Quantenmechanik.

Die Quantenmechanik ist heute eine vollständige Theorie, die im Rahmen ihrer Anwendbarkeit immer korrekte Vorhersagen liefert. Alle bekannten Versuche, es zu modifizieren (etwa zehn davon sind bekannt) haben seine Struktur nicht verändert, aber den Grundstein für neue Wissenschaftszweige über Quantenphänomene gelegt: Quantenelektrodynamik, Quantenfeldtheorie, Theorie der elektroschwachen Wechselwirkung, Quantenchromodynamik, Quantentheorie der Gravitation, Theorie der Strings und Superstrings usw. ...

Die Quantenmechanik gehört zu wissenschaftlichen Errungenschaften wie der klassischen Mechanik, der Elektrizitätstheorie, der Relativitätstheorie und der kinetischen Theorie. Keine physikalische Theorie hat ein so breites Spektrum physikalischer Phänomene in der Natur erklärt: Von den 94 im 20. Jahrhundert verliehenen Physik-Nobelpreisen haben nur 12 keinen direkten Bezug zur Quantenphysik. Die Bedeutung der Quantenmechanik im Gesamtsystem des Wissens über die umgebende Natur geht weit über die Theorie der Quantenphänomene hinaus: Sie schuf eine Kommunikationssprache in moderne Physik, Chemie und sogar Biologie führten zu einer Revision der Wissenschaftsphilosophie und der Erkenntnistheorie, deren technologische Konsequenzen noch heute die Entwicklungsrichtung der modernen Zivilisation bestimmen.

Lit.: Neiman I. Mathematische Grundlagen der Quantenmechanik. M., 1964; Davydov A.S. Quantenmechanik. 2. Aufl. M., 1973; Dirac P. Prinzipien der Quantenmechanik. 2. Aufl. M., 1979; Blokhintsev D.I., Grundlagen der Quantenmechanik. 7. Aufl. SPb., 2004; Landau L.D., Lifshitz E.M., Quantenmechanik. Nichtrelativistische Theorie. 5. Aufl. M., 2004; Feynman R., Leighton R., Sands M. Quantenmechanik. 3. Aufl. M., 2004; Ponomarev L.I. Im Zeichen der Quanten. 2. Aufl. M., 2007; Fock VA Anfänge der Quantenmechanik. 5. Aufl. M., 2008.

Die Bildung der Quantenmechanik als konsistente Theorie mit spezifischen physikalischen Grundlagen ist weitgehend mit der Arbeit von W. Heisenberg verbunden, in der sie formuliert wurde Verhältnis (Prinzip) der Unsicherheiten... Diese grundlegende Position der Quantenmechanik offenbart die physikalische Bedeutung ihrer Gleichungen und bestimmt auch ihre Beziehung zur klassischen Mechanik.

Das Unsicherheitsprinzip postuliert: ein Objekt der Mikrowelt kann sich nicht in Zuständen befinden, in denen die Koordinaten seines Trägheitszentrums und seines Impulses gleichzeitig ganz bestimmte, exakte Werte annehmen.

Quantitativ ist dieses Prinzip wie folgt formuliert. Wenn x - die Unsicherheit des Koordinatenwertes x , ein p - Impulsunsicherheit, dann kann das Produkt dieser Unsicherheiten in der Größenordnung nicht kleiner sein als die Plancksche Konstante:

x P h.

Aus dem Unsicherheitsprinzip folgt, dass der Wert der anderen umso ungenauer bestimmt wird, je genauer eine der in der Ungleichung enthaltenen Größen bestimmt wird. Kein Experiment kann diese dynamischen Größen gleichzeitig genau messen, und dies ist nicht auf den Einfluss von Messgeräten oder deren Unvollkommenheiten zurückzuführen. Die Unschärferelation spiegelt die objektiven Eigenschaften der Mikrowelt wider, die sich aus ihrem Korpuskularwellen-Dualismus ergeben.

Die Tatsache, dass sich ein und dasselbe Objekt sowohl als Partikel als auch als Welle manifestiert, zerstört traditionelle Vorstellungen, entzieht der Beschreibung der Prozesse die gewohnte Klarheit. Der Begriff eines Teilchens bedeutet ein Objekt, das in einem kleinen Raumbereich eingeschlossen ist, während sich eine Welle in seinen ausgedehnten Bereichen ausbreitet. Es ist unmöglich, sich ein Objekt vorzustellen, das diese Eigenschaften gleichzeitig besitzt, und Sie sollten es nicht versuchen. Es ist unmöglich, ein visuelles Modell für das menschliche Denken zu konstruieren, das der Mikrowelt angemessen wäre. Die Gleichungen der Quantenmechanik setzen ein solches Ziel jedoch nicht. Ihre Bedeutung besteht in einer mathematisch adäquaten Beschreibung der Eigenschaften von Objekten der Mikrowelt und der mit ihnen ablaufenden Prozesse.

Wenn wir über den Zusammenhang zwischen Quantenmechanik und klassischer Mechanik sprechen, dann die Unschärferelation ist eine Quantenbeschränkung der Anwendbarkeit der klassischen Mechanik auf die Objekte der Mikrowelt... Streng genommen gilt die Unschärferelation für jedes physikalische System, da sich jedoch die Wellennatur von Makroobjekten praktisch nicht manifestiert, können die Koordinaten und der Impuls solcher Objekte gleichzeitig mit ausreichend hoher Genauigkeit gemessen werden. Dies bedeutet, dass es ausreichend ist, die Gesetze der klassischen Mechanik zu verwenden, um ihre Bewegung zu beschreiben. Erinnern wir uns, dass die Situation in der relativistischen Mechanik (spezielle Relativitätstheorie) ähnlich ist: Bei Bewegungsgeschwindigkeiten viel niedriger als Lichtgeschwindigkeit werden die relativistischen Korrekturen bedeutungslos und die Lorentz-Transformationen gehen in Galileis Transformationen über.

Die Unschärferelation für Koordinaten und Impuls spiegelt also den Welle-Teilchen-Dualismus der Mikrowelt wider und nicht auf den Einfluss von Messgeräten bezogen... Eine ähnliche Unsicherheitsbeziehung für EnergieE und ZeitT :

E T h.

Daraus folgt, dass die Energie des Systems nur mit einer Genauigkeit von nicht mehr als gemessen werden kann h /∆ T, wo T - die Dauer der Messung. Der Grund für diese Unsicherheit liegt im eigentlichen Interaktionsprozess des Systems (Mikroobjekt) mitMessinstrument... Für eine stationäre Situation bedeutet die obige Ungleichung, dass die Wechselwirkungsenergie zwischen Messgerät und System nur mit einer Genauigkeit von . berücksichtigt werden kann h / t... Im Grenzfall der Momentanmessung erweist sich der laufende Energieaustausch als völlig unbestimmt.

Wenn unter E die Unsicherheit des Wertes der Energie eines instationären Zustands verstanden wird, dann T es gibt eine charakteristische Zeit, während der sich die Werte physikalischer Größen im System erheblich ändern. Daraus ergibt sich insbesondere für die angeregten Zustände von Atomen und anderen Mikrosystemen eine wichtige Schlussfolgerung: Die Energie des angeregten Niveaus lässt sich nicht genau bestimmen, was auf die Anwesenheit hinweist natürliche Breite dieses Niveau.

Die objektiven Eigenschaften von Quantensystemen spiegeln eine weitere grundlegende Position der Quantenmechanik wider - Bohrs Komplementaritätsprinzip, Wobei Die Gewinnung von Informationen über einige physikalische Größen, die ein Mikroobjekt beschreiben, auf experimentellem Wege ist unweigerlich mit dem Verlust von Informationen über einige andere Größen verbunden, zusätzlich zu den ersten.

Gegenseitig komplementär sind insbesondere die Koordinate des Teilchens und sein Impuls (siehe oben - das Unschärfenprinzip), kinetische und potentielle Energie, elektrische Feldstärke und die Anzahl der Photonen.

Die betrachteten Grundprinzipien der Quantenmechanik weisen darauf hin, dass ihr aufgrund der Welle-Teilchen-Dualität der untersuchten Mikrowelt der Determinismus der klassischen Physik fremd ist. Eine vollständige Abkehr von der visuellen Prozessmodellierung ergibt besonderes Interesse die frage was ist physische Natur de Broglie-Wellen. Bei der Beantwortung dieser Frage ist es üblich, vom Verhalten von Photonen aus "auszugehen". Es ist bekannt, dass beim Durchgang eines Lichtstrahls durch eine halbtransparente Platte S ein Teil des Lichts geht durch ihn hindurch und ein Teil wird reflektiert (Abb. 4).

Reis. 4

Was passiert in diesem Fall mit den einzelnen Photonen? Experimente mit Lichtstrahlen sehr geringer Intensität mit moderner Technik ( EIN- Photonendetektor), mit dem Sie das Verhalten jedes Photons überwachen können (der sogenannte Photonenzählmodus), zeigen, dass die Aufspaltung eines einzelnen Photons nicht in Frage kommt (sonst würde das Licht seine Frequenz ändern). Es wurde zuverlässig festgestellt, dass einige Photonen die Platte passieren und einige von ihr reflektiert werden. Es bedeutet, dass identische Partikel indie gleichen Bedingungen können sich anders verhalten,d.h. das Verhalten eines einzelnen Photons beim Auftreffen auf die Plattenoberfläche kann nicht eindeutig vorhergesagt werden.

Die Reflexion eines Photons von einer Platte oder das Durchdringen dieser sind zufällige Ereignisse. Und die quantitativen Muster solcher Ereignisse werden mit der Wahrscheinlichkeitstheorie beschrieben. Photon kann mit Wahrscheinlichkeit w 1 durch die Platte gehen und mit Wahrscheinlichkeit w 2 davon abprallen. Die Wahrscheinlichkeit, dass eines dieser beiden alternativen Ereignisse bei einem Photon eintritt, ist gleich der Summe der Wahrscheinlichkeiten: w 1 + w 2 = 1.

Ähnliche Experimente mit einem Elektronenstrahl oder anderen Mikropartikeln zeigen auch die Wahrscheinlichkeit des Verhaltens einzelner Partikel. Auf diese Weise, das Problem der Quantenmechanik lässt sich als Vorhersage formulierenWahrscheinlichkeiten von Prozessen in der Mikrowelt, im Gegensatz zum Problem der klassischen Mechanik - Vorhersage der Zuverlässigkeit von Ereignissen im Makrokosmos.

Es ist jedoch bekannt, dass die probabilistische Beschreibung auch in der klassischen statistischen Physik verwendet wird. Was ist also der grundlegende Unterschied? Um diese Frage zu beantworten, komplizieren wir das Experiment zur Lichtreflexion. Einen Spiegel benutzen S 2 drehen Sie den reflektierten Strahl, indem Sie den Detektor platzieren EIN Photonen im Schnittbereich mit dem Sendestrahl registrieren, dh die Bedingungen für ein Interferenzexperiment schaffen (Abb. 5).

Reis. 5

Durch Interferenz wird sich die Lichtintensität je nach Lage des Spiegels und des Detektors über den Querschnitt des Überlappungsbereichs der Strahlen in einem weiten Bereich (auch verschwindend) periodisch ändern. Wie verhalten sich einzelne Photonen in diesem Experiment? Es stellt sich heraus, dass in diesem Fall die beiden optischen Wege zum Detektor nicht mehr alternativ sind (sich gegenseitig ausschließen) und es daher unmöglich ist, zu sagen, welchen Weg das Photon von der Quelle zum Detektor durchlaufen hat. Wir müssen zugeben, dass er auf zwei Arten gleichzeitig in den Detektor gelangen konnte und schließlich ein Interferenzmuster bildete. Ein Experiment mit anderen Mikropartikeln liefert ein ähnliches Ergebnis: Nacheinander passierende Partikel erzeugen das gleiche Bild wie der Photonenfluss.

Dies ist bereits ein kardinaler Unterschied zu klassischen Konzepten: Schließlich ist es unmöglich, sich die Bewegung eines Teilchens gleichzeitig auf zwei verschiedenen Bahnen vorzustellen. Die Quantenmechanik stellt jedoch kein solches Problem. Es sagt das Ergebnis voraus, dass die hellen Streifen mit hoher Wahrscheinlichkeit ein Photon erscheinen.

Die Wellenoptik erklärt das Ergebnis eines Interferenzexperiments leicht mit dem Prinzip der Überlagerung, nach dem Lichtwellen unter Berücksichtigung des Verhältnisses ihrer Phasen addiert werden. Mit anderen Worten, die Wellen werden zunächst in ihrer Amplitude unter Berücksichtigung der Phasendifferenz addiert, eine periodische Verteilung der Amplitude gebildet und dann registriert der Detektor die entsprechende Intensität (was der mathematischen Operation der Quadrierung im Modul entspricht, d. Informationsverlust über die Phasenverteilung). In diesem Fall ist die Intensitätsverteilung periodisch:

ich = ich 1 + ich 2 + 2 EIN 1 EIN 2 cos (φ 1 – φ 2 ),

wo EIN , φ , ich = | EIN | 2 Amplitude,Phase und Intensität Wellen, und die Indizes 1, 2 zeigen ihre Zugehörigkeit zur ersten oder zweiten dieser Wellen an. Es ist klar, dass für EIN 1 = EIN 2 und weil (φ 1 φ 2 ) = – 1 Intensitätswert ich = 0 , was einer gegenseitigen Dämpfung von Lichtwellen (mit ihrer Überlagerung und Wechselwirkung in der Amplitude) entspricht.

Um Wellenphänomene aus korpuskularer Sicht zu interpretieren, wird das Superpositionsprinzip auf die Quantenmechanik übertragen, d. h. der Begriff eingeführt Wahrscheinlichkeitsamplituden - analog zu optischen Wellen: Ψ = EIN exp (ich ). Dies bedeutet, dass die Wahrscheinlichkeit das Quadrat dieses Wertes (modulo) ist, d.h. W = |Ψ| 2 Die Wahrscheinlichkeitsamplitude heißt in der Quantenmechanik Wellenfunktion ... Dieses Konzept wurde 1926 von dem deutschen Physiker M. Born eingeführt und gab damit Wahrscheinlichkeitsinterpretation de Broglie-Wellen. Die Erfüllung des Superpositionsprinzips bedeutet, dass wenn Ψ 1 und Ψ 2 - die Amplitude der Wahrscheinlichkeit des Durchgangs des Teilchens durch den ersten und zweiten Weg, dann sollte die Amplitude der Wahrscheinlichkeit beim Durchgang durch beide Wege betragen: Ψ = Ψ 1 + Ψ 2 . Dann erhält formal die Behauptung, dass „das Teilchen zwei Pfade passiert hat“ eine Wellenbedeutung, und die Wahrscheinlichkeit W = |Ψ 1 + Ψ 2 | 2 zeigt Eigentum Störverteilung.

Auf diese Weise, die den Zustand eines physikalischen Systems beschreibende Größe in der Quantenmechanik ist die Wellenfunktion des Systems unter der Annahme der Gültigkeit des Superpositionsprinzips... Die Grundgleichung der Wellenmechanik, die Schrödinger-Gleichung, wird in Bezug auf die Wellenfunktion geschrieben. Daher besteht eine der Hauptaufgaben der Quantenmechanik darin, die Wellenfunktion zu finden, die einem bestimmten Zustand des untersuchten Systems entspricht.

Wesentlich ist, dass die Beschreibung des Teilchenzustands durch die Wellenfunktion probabilistischer Natur ist, da das Quadrat des Moduls der Wellenfunktion bestimmt die Wahrscheinlichkeit, ein Teilchen zu einem bestimmten Zeitpunkt in einem bestimmten begrenzten Volumen zu finden... Darin unterscheidet sich die Quantentheorie grundlegend von der klassischen Physik mit ihrem Determinismus.

Einst verdankte die klassische Mechanik gerade der hohen Genauigkeit der Vorhersage des Verhaltens von Makroobjekten ihren Siegeszug. Natürlich war unter Wissenschaftlern lange Zeit die Meinung, dass der Fortschritt der Physik und der Wissenschaft im Allgemeinen mit einer Erhöhung der Genauigkeit und Zuverlässigkeit solcher Vorhersagen verbunden sein wird. Das Unschärfeprinzip und die Wahrscheinlichkeit der Beschreibung von Mikrosystemen in der Quantenmechanik haben diese Sichtweise radikal verändert.

Dann traten andere Extreme auf. Da das Unschärfeprinzip impliziert Unmöglichkeit der gleichzeitigenBestimmung von Position und Impuls, können wir den Schluss ziehen, dass der Zustand des Systems zum Anfangszeitpunkt nicht genau bestimmt ist und daher nachfolgende Zustände nicht vorhergesagt werden können, d.h. Kausalitätsprinzip.

Eine solche Aussage ist jedoch nur mit einem klassischen Blick auf die nichtklassische Realität möglich. In der Quantenmechanik wird der Zustand eines Teilchens vollständig durch die Wellenfunktion bestimmt. Sein für einen bestimmten Zeitpunkt gegebener Wert bestimmt seine nachfolgenden Werte. Da Kausalität als eine der Erscheinungsformen des Determinismus fungiert, empfiehlt es sich im Fall der Quantenmechanik, von einem probabilistischen Determinismus zu sprechen, der auf statistischen Gesetzen beruht, d. h. je höher die Genauigkeit ist, desto mehr Ereignisse des gleichen Typs werden aufgezeichnet. Daher setzt das moderne Konzept des Determinismus eine organische Kombination, eine dialektische Einheit voraus die Notwendigkeit und Unfälle.

Die Entwicklung der Quantenmechanik hat somit einen spürbaren Einfluss auf den Fortschritt des philosophischen Denkens. Aus erkenntnistheoretischer Sicht von besonderem Interesse ist die bereits erwähnte Konformitätsprinzip, 1923 von N. Bohr formuliert, wonach jede neue, allgemeinere Theorie, die eine Weiterentwicklung der klassischen ist, verwirft sie nicht vollständig, sondern schließt die klassische Theorie ein, zeigt die Grenzen ihrer Anwendbarkeit auf und geht in bestimmten Grenzfällen auf sie über.

Es ist leicht zu erkennen, dass das Korrespondenzprinzip die Beziehung der klassischen Mechanik und Elektrodynamik mit der Relativitätstheorie und Quantenmechanik perfekt veranschaulicht.

Die Quantenmechanik ist eine grundlegende physikalische Theorie, die bei der Beschreibung mikroskopischer Objekte die Ergebnisse der klassischen Mechanik und der klassischen Elektrodynamik erweitert, verfeinert und kombiniert. Diese Theorie ist die Grundlage für viele Bereiche der Physik und Chemie, einschließlich der Festkörperphysik, der Quantenchemie und der Teilchenphysik. Der Begriff „Quantum“ (von lat. Quantum – „wie viel“) ist mit diskreten Anteilen verbunden, die die Theorie bestimmten physikalischen Größen zuordnet, zum Beispiel der Energie eines Atoms.

Mechanik ist eine Wissenschaft, die die Bewegung von Körpern beschreibt und mit ihr physikalische Größen wie Energie oder Impuls verglichen werden. Es liefert genaue und zuverlässige Ergebnisse für viele Phänomene. Dies gilt sowohl für mikroskopische Phänomene (hier kann die klassische Mechanik nicht einmal die Existenz eines stabilen Atoms erklären) als auch für einige makroskopische Phänomene wie Supraleitung, Suprafluidität oder Schwarzkörperstrahlung. Seit über einem Jahrhundert der Existenz der Quantenmechanik wurden ihre Vorhersagen nie durch Experimente in Frage gestellt. Die Quantenmechanik erklärt mindestens drei Arten von Phänomenen, die die klassische Mechanik und die klassische Elektrodynamik nicht beschreiben können:

1) Quantisierung einiger physikalischer Größen;

2) Teilchen-Wellen-Dualismus;

3) die Existenz gemischter Quantenzustände.

Die Quantenmechanik kann als relativistische oder nicht-relativistische Theorie formuliert werden. Obwohl die relativistische Quantenmechanik eine der grundlegendsten Theorien ist, wird der Einfachheit halber oft auch nicht-relativistische Quantenmechanik verwendet.

Theoretische Grundlagen der Quantenmechanik

Verschiedene Formulierungen der Quantenmechanik

Eine der frühesten Formulierungen der Quantenmechanik ist die von Erwin Schrödinger vorgeschlagene "Wellenmechanik". Bei diesem Konzept wird der Zustand des untersuchten Systems durch die "Wellenfunktion" bestimmt, die die Wahrscheinlichkeitsverteilung aller gemessenen physikalischen Größen des Systems widerspiegelt. B. Energie, Koordinaten, Impuls oder Drehimpuls. Die Wellenfunktion (aus mathematischer Sicht) ist eine komplexe quadratisch integrierbare Funktion der Koordinaten und der Zeit des Systems.

In der Quantenmechanik sind physikalischen Größen keine bestimmten Zahlenwerte zugeordnet. Andererseits werden Annahmen über die Wahrscheinlichkeitsverteilung der Werte des gemessenen Parameters getroffen. Diese Wahrscheinlichkeiten hängen in der Regel von der Art des Zustandsvektors zum Zeitpunkt der Messung ab. Genauer gesagt entspricht jedoch jeder bestimmte Wert der Messgröße einem bestimmten Zustandsvektor, dem sogenannten "Eigenzustand" der Messgröße.

Nehmen wir ein konkretes Beispiel. Stellen wir uns ein freies Teilchen vor. Sein Zustandsvektor ist beliebig. Unsere Aufgabe ist es, die Koordinate des Teilchens zu bestimmen. Der Eigenzustand der Koordinate eines Teilchens im Raum ist ein Zustandsvektor, die Norm von Yakgo an einem bestimmten Punkt x ist groß genug, gleichzeitig ist sie an jedem anderen Ort im Raum Null. Wenn wir jetzt Messungen vornehmen, erhalten wir mit hundertprozentiger Wahrscheinlichkeit genau den Wert von x.

Manchmal befindet sich das System, an dem wir interessiert sind, nicht in seinem eigenen Zustand oder in der physikalischen Größe, die wir messen. Wenn wir jedoch versuchen, Messungen durchzuführen, wird die Wellenfunktion sofort zum Eigenzustand der Messgröße. Dieser Vorgang wird als Wellenfunktionskollaps bezeichnet. Wenn wir die Wellenfunktion im Moment vor der Messung kennen, können wir die Wahrscheinlichkeit des Zusammenbruchs in jeden der möglichen Eigenzustände berechnen. Zum Beispiel hat ein freies Teilchen in unserem vorherigen Beispiel eine Wellenfunktion zur Messung, ist ein Wellenpaket, das an einem Punkt x0 zentriert ist, und ist kein Eigenzustand der Koordinate. Wenn wir beginnen, die Koordinaten eines Teilchens zu messen, ist es unmöglich, das Ergebnis vorherzusagen, das wir erhalten werden. Es ist wahrscheinlich, aber nicht sicher, dass er nahe bei x0 liegt, wo die Amplitude der Wellenfunktion groß ist. Wenn wir nach der Messung ein Ergebnis x erhalten, kollabiert die Wellenfunktion in eine Position mit ihrem eigenen Zustand, der genau bei x konzentriert ist.

Zustandsvektoren sind Funktionen der Zeit. ψ = ψ (t) Die Schrödinger-Gleichung bestimmt die zeitliche Änderung des Zustandsvektors.

Bestimmte Zustandsvektoren führen zu zeitlich konstanten Wahrscheinlichkeitsverteilungen. Viele Systeme, die in der klassischen Mechanik als dynamisch gelten, werden tatsächlich durch solche "statischen" Funktionen beschrieben. Beispielsweise wird ein Elektron in einem nicht angeregten Atom in der klassischen Physik als Teilchen dargestellt, das sich auf einer kreisförmigen Bahn um den Kern eines Atoms bewegt, während es in der Quantenmechanik statisch ist, eine kugelsymmetrische Wahrscheinlichkeitswolke um den Kern.

Die zeitliche Entwicklung des Zustandsvektors ist in dem Sinne deterministisch, dass man mit einem bestimmten Zustandsvektor zum Anfangszeitpunkt eine genaue Vorhersage dessen machen kann, was er zu jedem anderen Zeitpunkt sein wird. Bei der Messung ist die Änderung der Konfiguration des Zustandsvektors probabilistisch und nicht deterministisch. Der probabilistische Charakter der Quantenmechanik manifestiert sich also gerade im Messvorgang.

Es gibt mehrere Interpretationen der Quantenmechanik, die dem Messvorgang in der Quantenmechanik ein neues Konzept verleihen. Die heute allgemein akzeptierte Hauptinterpretation der Quantenmechanik ist die probabilistische Interpretation.

Physikalische Grundlagen der Quantenmechanik

Das Unsicherheitsprinzip, das besagt, dass es grundlegende Hindernisse für die genaue gleichzeitige Messung von zwei oder mehr Parametern eines Systems mit willkürlichen Fehlern gibt. Im Beispiel mit einem freien Teilchen bedeutet dies, dass es grundsätzlich unmöglich ist, eine Wellenfunktion zu finden, die ein Eigenzustand von Impuls und Koordinate wäre. Daraus folgt, dass Koordinate und Impuls nicht gleichzeitig mit einem beliebigen Fehler bestimmt werden können. Mit steigender Koordinatenmessgenauigkeit nimmt die maximale Pulsmessgenauigkeit ab und umgekehrt. Die Parameter, für die diese Aussage gilt, werden in der klassischen Physik kanonisch konjugiert genannt.

Experimentelle Grundlagen der Quantenmechanik

Es gibt solche Experimente, die ohne die Beteiligung der Quantenmechanik nicht erklärt werden können. Die erste Art von Quanteneffekten ist die Quantisierung bestimmter physikalischer Größen. Lokalisieren wir ein freies Teilchen aus obigem Beispiel in einem rechteckigen Potentialtopf - einem Bereich eines Protors der Größe L, der auf beiden Seiten durch eine unendlich hohe Potentialbarriere begrenzt ist, so stellt sich heraus, dass der Impuls eines Teilchens nur bestimmte diskrete Werte, wobei h die Plancksche Konstante ist und n eine beliebige natürliche Zahl ist. Parameter, die nur diskrete Werte erfassen können, werden als quantisiert bezeichnet. Beispiele für quantisierte Parameter sind auch der Drehimpuls, die Gesamtenergie eines im Raum begrenzten Systems und die Energie elektromagnetische Strahlung eine bestimmte Frequenz.

Ein weiterer Quanteneffekt ist der Welle-Teilchen-Dualismus. Es kann gezeigt werden, dass mikroskopische Objekte, wie Atome oder Elektronen, unter bestimmten Bedingungen des Experiments die Eigenschaften von Teilchen annehmen (dh sie können in einem bestimmten Raumbereich lokalisiert werden). Unter anderen Bedingungen erhalten dieselben Objekte die Eigenschaften von Wellen und zeigen Effekte wie Interferenz.

Der nächste Quanteneffekt ist der Effekt verschränkter Quantenzustände. In manchen Fällen kann der Zustandsvektor eines Systems aus vielen Teilchen nicht als Summe einzelner Wellenfunktionen dargestellt werden, die jedem der Teilchen entsprechen. In diesem Fall spricht man von verschränkten Zuständen der Teilchen. Und dann führt eine Messung, die nur für ein Teilchen durchgeführt wurde, zum Kollaps der gesamten Wellenfunktion des Systems, d.h. Eine solche Messung hat einen sofortigen Einfluss auf die Wellenfunktionen anderer Teilchen im System, selbst wenn einige von ihnen in beträchtlicher Entfernung sind. (Dies widerspricht nicht der speziellen Relativitätstheorie, da die Übertragung von Informationen über eine Entfernung auf diese Weise unmöglich ist.)

Der mathematische Apparat der Quantenmechanik

Im rigorosen mathematischen Apparat der Quantenmechanik, der von Paul Dirac und John von Neumann entwickelt wurde, werden die möglichen Zustände eines quantenmechanischen Systems durch Zustandsvektoren in einem komplex trennbaren Hilbertraum dargestellt. Die Entwicklung eines Quantenzustands wird durch die Schrödinger-Gleichung beschrieben, in der der Hamilton-Operator oder der Hamilton-Operator, der der Gesamtenergie des Systems entspricht, seine zeitliche Entwicklung bestimmt.

Jeder vimiruvannaya-Parameter des Systems wird durch hermitesche Operatoren im Zustandsraum repräsentiert. Jeder Eigenzustand des gemessenen Parameters entspricht dem eigenen Vektor des Operators, und der entsprechende Eigenwert ist gleich dem Wert des gemessenen Parameters in diesem Eigenzustand. Bei der Messung wird die Wahrscheinlichkeit des Übergangs des Systems in einen der Eigenzustände als Quadrat des Skalarprodukts aus Eigenzustandsvektor und Zustandsvektor vor der Messung bestimmt. Die möglichen Messergebnisse sind die Eigenwerte des Operators, erklärt die Wahl der hermiteschen Operatoren, bei denen alle Eigenwerte reelle Zahlen sind. Die Wahrscheinlichkeitsverteilung des gemessenen Parameters kann durch Berechnung der spektralen Zerlegung des entsprechenden Operators erhalten werden (hier ist das Spektrum eines Operators die Anzahl aller möglichen Werte der entsprechenden physikalischen Größe). Die Heisenbergsche Unschärferelation entspricht der Tatsache, dass die Operatoren der entsprechenden physikalischen Größen nicht miteinander kommutieren. Die Einzelheiten des mathematischen Apparats werden in einem speziellen Artikel Mathematischer Apparat der Quantenmechanik vorgestellt.

Eine analytische Lösung der Schrödinger-Gleichung existiert für eine kleine Zahl von Hamiltonoperatoren, zum Beispiel für einen harmonischen Oszillator, das Modell des Wasserstoffatoms. Auch das Heliumatom, das sich um ein Elektron vom Wasserstoffatom unterscheidet, ist keine vollständig analytische Lösung der Schrödinger-Gleichung. Es gibt jedoch bestimmte Methoden für die näherungsweise Lösung dieser Gleichungen. Zum Beispiel die Methoden der Störungstheorie, wo Analyseergebnis Lösungen eines einfachen quantenmechanischen Modells werden verwendet, um Lösungen für komplexere Systeme zu erhalten, indem eine bestimmte "Störung" in Form von beispielsweise potentieller Energie hinzugefügt wird. Eine andere Methode, "Semiclassical Equations of Motion", wird auf Systeme angewendet, bei denen die Quantenmechanik nur geringe Abweichungen vom klassischen Verhalten erzeugt. Solche Abweichungen können mit Methoden der klassischen Physik berechnet werden. Dieser Ansatz ist wichtig für die Theorie des Quantenchaos, die sich in den letzten Jahren rasant entwickelt hat.

Interaktion mit anderen Theorien

Die Grundprinzipien der Quantenmechanik sind ziemlich abstrakt. Sie argumentieren, dass der Zustandsraum des Systems der Hilbert-Raum ist und physikalische Größen den in diesem Raum wirkenden hermiteschen Operatoren entsprechen, aber sie geben nicht speziell an, um welche Art von Hilbert-Raum es sich handelt und welche Art von Operatoren sie sind. Sie müssen geeignet gewählt werden, um eine quantitative Beschreibung eines Quantensystems zu erhalten. Eine wichtige Orientierungshilfe ist hierbei das Korrespondenzprinzip, das besagt, dass quantenmechanische Effekte keine Bedeutung mehr haben und das System mit zunehmender Größe die Eigenschaften eines klassischen annimmt. Dieses "große System"-Limit wird auch als klassisches oder Match-Limit bezeichnet. Darüber hinaus kann man sich zunächst das klassische Modell des Systems ansehen und dann versuchen zu verstehen, welches Quantenmodell dem klassischen entspricht, das außerhalb der Korrespondenzgrenze liegt.

Als die Quantenmechanik erstmals formuliert wurde, wurde sie auf Modelle angewendet, die den klassischen Modellen der nichtrelativistischen Mechanik entsprachen. Zum Beispiel verwendet das bekannte harmonische Oszillatormodell eine offen gesagt nicht-relativistische Beschreibung der kinetischen Energie des Oszillators, wie das entsprechende Quantenmodell.

Die ersten Versuche, die Quantenmechanik mit der speziellen Relativitätstheorie zu verbinden, führten dazu, dass die Schrödinger-Gleichung durch die Dirac-Gleichung ersetzt wurde. Diese Theorien waren erfolgreich bei der Erklärung vieler experimenteller Ergebnisse, ignorierten jedoch Fakten wie die relativistische Entstehung und die Vernichtung von Elementarteilchen. Die vollständig relativistische Quantentheorie erfordert die Entwicklung einer Quantenfeldtheorie, die den Begriff der Quantisierung in einem Feld statt auf eine feste Liste von Teilchen anwendet. Die erste abgeschlossene Quantenfeldtheorie, die Quantenelektrodynamik, liefert eine vollständige Quantenbeschreibung der Prozesse der elektromagnetischen Wechselwirkung.

Der gesamte Apparat der Quantenfeldtheorie ist oft übertrieben, um elektromagnetische Systeme zu beschreiben. Ein einfacher Ansatz aus der Quantenmechanik schlägt vor, geladene Teilchen als quantenmechanische Objekte in einem klassischen elektromagnetischen Feld zu betrachten. Das elementare Quantenmodell des Wasserstoffatoms beschreibt beispielsweise das elektromagnetische Feld des Atoms mit dem klassischen Coulomb-Potential (also umgekehrt proportional zum Abstand). Dieser "pseudoklassische" Ansatz funktioniert nicht, wenn Quantenfluktuationen des elektromagnetischen Feldes, wie die Emission von Photonen durch geladene Teilchen, eine signifikante Rolle spielen.

Quantenfeldtheorien für starke und schwache Kernwechselwirkungen wurden ebenfalls entwickelt. Die Quantenfeldtheorie für starke Wechselwirkungen wird als Quantenchromodynamik bezeichnet und beschreibt die Wechselwirkung von subnuklearen Teilchen - Quarks und Gluonen. Schwache nukleare und elektromagnetische Wechselwirkungen wurden in ihrer Quantenform zu einer Quantenfeldtheorie kombiniert, die als Theorie der elektroschwachen Wechselwirkungen bezeichnet wird.

Es ist noch nicht gelungen, ein Quantenmodell der Gravitation, der letzten der fundamentalen Kräfte, zu konstruieren. Pseudoklassische Näherungen funktionieren und haben sogar für einige Effekte gesorgt, wie zum Beispiel Hawkings Strahlung. Die Formulierung einer vollständigen Theorie der Quantengravitation wird jedoch durch die bestehenden Widersprüche zwischen der allgemeinen Relativitätstheorie, der genauesten heute bekannten Gravitationstheorie, und einigen der Grundlagen der Quantentheorie erschwert. Die Schnittmenge dieser Widersprüche ist ein Bereich aktiver wissenschaftlicher Forschung, und Theorien wie die Stringtheorie sind mögliche Kandidaten für den Titel der zukünftigen Theorie der Quantengravitation.

Anwendungen der Quantenmechanik

Die Quantenmechanik hat großen Erfolg bei der Erklärung vieler Phänomene aus der Umwelt. Das Verhalten mikroskopischer Teilchen, die alle Formen von Materie bilden - Elektronen, Protonen, Neutronen usw. - lassen sich oft nur mit den Methoden der Quantenmechanik befriedigend erklären.

Die Quantenmechanik ist wichtig, um zu verstehen, wie sich einzelne Atome zu chemischen Elementen und Verbindungen verbinden. Die Anwendung der Quantenmechanik auf chemische Prozesse wird als Quantenchemie bezeichnet. Die Quantenmechanik kann zu einem qualitativ neuen Verständnis der Prozesse der Bildung chemischer Verbindungen beitragen, indem sie zeigt, welche Moleküle energetisch günstiger sind als andere und um wie viel. Die meisten der durchgeführten Berechnungen werden in der Computerchemie basierend auf quantenmechanischen Prinzipien durchgeführt.

Moderne Technologien haben bereits das Ausmaß erreicht, in dem Quanteneffekte wichtig werden. Beispiele sind Laser, Transistoren, Elektronenmikroskope, Magnetresonanztomographie. Die Entwicklung der Halbleiter führte zur Erfindung der Diode und des Transistors, die aus der modernen Elektronik nicht mehr wegzudenken sind.

Forscher suchen heute nach zuverlässigen Methoden, um Quantenzustände direkt zu manipulieren. Es gab erfolgreiche Versuche, die Grundlagen der Quantenkryptographie zu schaffen, die eine garantierte geheime Übertragung von Informationen ermöglichen wird. Ein weiter entferntes Ziel ist die Entwicklung von Quantencomputern, die bestimmte Algorithmen wesentlich effizienter implementieren sollen als klassische Computer. Ein weiteres Thema aktiver Forschung ist die Quantenteleportation, die sich mit Technologien zur Übertragung von Quantenzuständen über große Distanzen beschäftigt.

Philosophischer Aspekt der Quantenmechanik

Vom Moment der Entstehung der Quantenmechanik an widersprachen ihre Schlussfolgerungen der traditionellen Sichtweise der Weltordnung und führten zu einer aktiven philosophischen Diskussion und der Entstehung vieler Interpretationen. Selbst so grundlegende Bestimmungen wie die von Max Born formulierten Regeln der Wahrscheinlichkeitsamplituden und Wahrscheinlichkeitsverteilungen warten seit Jahrzehnten auf die Wahrnehmung der wissenschaftlichen Gemeinschaft.

Ein weiteres Problem der Quantenmechanik besteht darin, dass die Natur des untersuchten Objekts unbekannt ist. In dem Sinne, dass die Koordinaten eines Objekts oder die räumliche Verteilung der Wahrscheinlichkeit seines Vorhandenseins nur dann bestimmt werden können, wenn es bestimmte Eigenschaften (z. B. Ladung) und Umgebungsbedingungen (das Vorhandensein eines elektrischen Potenzials) aufweist.

Die Kopenhagener Interpretation, vor allem dank Niels Bohr, ist die grundlegende Interpretation der Quantenmechanik vom Moment ihrer Formulierung bis heute. Sie argumentierte, dass die probabilistische Natur quantenmechanischer Vorhersagen nicht mit anderen deterministischen Theorien erklärt werden könne und unser Wissen über Umgebung... Die Quantenmechanik liefert daher nur probabilistische Ergebnisse; die Natur des Universums ist probabilistisch, wenn auch in einem neuen Quantensinn deterministisch.

Albert Einstein, selbst einer der Begründer der Quantentheorie, war mit der Tatsache unwohl, dass in dieser Theorie bei der Bestimmung der Werte physikalischer Größen von Objekten vom klassischen Determinismus abgewichen wird. Er glaubte, dass die bestehende Theorie unvollständig sei und es eine zusätzliche Theorie hätte geben sollen. Daher legte er eine Reihe von Kommentaren zur Quantentheorie vor, von denen der berühmteste das sogenannte EPR-Paradox war. John Bell zeigte, dass dieses Paradox zu messbaren Diskrepanzen in der Quantentheorie führen könnte. Aber Experimente haben gezeigt, dass die Quantenmechanik richtig ist. Einige der „Inkonsistenzen“ dieser Experimente lassen jedoch Fragen offen, die noch nicht beantwortet wurden.

Everetts 1956 formulierte Interpretation der multiplen Welten schlägt ein Weltmodell vor, in dem alle Möglichkeiten für physikalische Größen, bestimmte Werte in der Quantentheorie anzunehmen, tatsächlich gleichzeitig auftreten, in einem aus überwiegend unabhängigen Paralleluniversen zusammengesetzten "Multi-Weight". . Der Multivsewit ist deterministisch, aber wir erhalten das probabilistische Verhalten des Universums, nur weil wir nicht alle Universen gleichzeitig beobachten können.

Geschichte

Die Grundlagen der Quantenmechanik wurden in der ersten Hälfte des 20. Jahrhunderts von Max Planck, Albert Einstein, Werner Heisenberg, Erwin Schrödinger, Max Born, Paul Dirac, Richard Feynman und anderen gelegt. Einige grundlegende Aspekte der Theorie müssen noch untersucht werden. 1900 schlug Max Planck das Konzept der Quantisierung von Energie vor, um die richtige Formel für die Strahlungsenergie eines schwarzen Körpers zu erhalten. 1905 erklärte Einstein die Natur des photoelektrischen Effekts und postulierte, dass die Energie des Lichts nicht kontinuierlich absorbiert wird, sondern in Portionen, die er Quanten nannte. 1913 erklärte Bohr die Konfiguration der Spektrallinien des Wasserstoffatoms, wiederum mit Hilfe der Quantisierung. 1924 stellte Louis de Broglie die Hypothese des Korpuskularwellen-Dualismus auf.

Diese Theorien waren zwar erfolgreich, aber zu fragmentiert und bilden zusammen die sogenannte alte Quantentheorie.

Die moderne Quantenmechanik wurde 1925 geboren, als Heisenberg die Matrixmechanik entwickelte und Schrödinger die Wellenmechanik und seine eigene Gleichung vorschlug. Anschließend bewies Janos von Neumann, dass beide Ansätze gleichwertig sind.

Der nächste Schritt kam, als Heisenberg 1927 die Unschärferelation formulierte, und um diese Zeit begann eine probabilistische Deutung Gestalt anzunehmen. 1927 kombinierte Paul Dirac die Quantenmechanik mit der speziellen Relativitätstheorie. Er war auch der erste, der die Operatortheorie anwendete, einschließlich der beliebten Braket-Notation. 1932 formulierte John von Neumann die mathematische Grundlage der Quantenmechanik basierend auf der Operatortheorie.

Die Ära der Quantenchemie wurde von Walter Heitler und Fritz London eingeleitet, die 1927 die Theorie der Bildung kovalenter Bindungen in einem Wasserstoffmolekül veröffentlichten. Die Quantenchemie wurde von einer großen Gemeinschaft von Wissenschaftlern auf der ganzen Welt weiterentwickelt.

Ab 1927 begannen als Folge des Aufkommens der Quantenfeldtheorie Versuche, die Quantenmechanik auf große Stromsysteme anzuwenden. Arbeiten in dieser Richtung wurden von Dirac, Pauli, Weisskopf, Jordan durchgeführt. Der Höhepunkt dieser Forschungsrichtung war die Quantenelektrodynamik, die in den 1940er Jahren von Feynman, Dyson, Schwinger und Tomonago formuliert wurde. Quantenelektrodynamik ist die Quantentheorie der Elektronen, Positronen und des elektromagnetischen Feldes.

Die Theorie der Quantenchromodynamik wurde in den frühen 1960er Jahren formuliert. Diese Theorie, wie wir sie heute kennen, wurde 1975 von Politzer, Gross und Wilcheck vorgeschlagen. Aufbauend auf der Forschung von Schwinger, Higgs, Goldston und anderen zeigten Glashow, Weinberg und Salam unabhängig voneinander, dass schwache Kernwechselwirkungen und Quantenelektrodynamik kombiniert und als einzelne elektrische schwache Kraft betrachtet werden.

Quantisierung

In der Quantenmechanik wird der Begriff Quantisierung in mehreren nahen, aber unterschiedlichen Bedeutungen verwendet.

Als Quantisierung bezeichnet man die Diskretisierung der Werte einer physikalischen Größe, die in der klassischen Physik kontinuierlich ist. Zum Beispiel können sich Elektronen in Atomen nur in bestimmten Orbitalen mit bestimmten Energiewerten befinden. Ein anderes Beispiel ist, dass der Bahndrehimpuls eines quantenmechanischen Teilchens nur ganz bestimmte Werte annehmen kann. Die Diskretisierung der Energieniveaus eines physikalischen Systems mit abnehmender Größe wird als dimensionale Quantisierung bezeichnet.
Quantisierung wird auch als Übergang von der klassischen Beschreibung eines physikalischen Systems zu einem Quantensystem bezeichnet. Als sekundäre Quantisierung wird insbesondere das Verfahren bezeichnet, klassische Felder (zB ein elektromagnetisches Feld) in Normalmoden zu zerlegen und in Form von Feldquanten (bei einem elektromagnetischen Feld sind dies Photonen) darzustellen.

Die Grundprinzipien der Quantenmechanik sind das Unschärferelationsprinzip von W. Heisenberg und das Komplementaritätsprinzip von N. Bohr.

Nach dem Unbestimmtheitsprinzip ist es unmöglich, den Ort eines Teilchens und seinen Impuls gleichzeitig genau zu bestimmen. Je genauer der Ort oder die Koordinate eines Teilchens bestimmt wird, desto unsicherer wird sein Impuls. Umgekehrt gilt: Je genauer der Impuls bestimmt wird, desto unsicherer bleibt seine Lage.

Dieses Prinzip lässt sich mit Hilfe des Interferenzexperiments von T. Jung veranschaulichen. Dieses Experiment zeigt, dass Licht, wenn es durch ein System von zwei eng beieinander liegenden kleinen Löchern in einem lichtundurchlässigen Schirm hindurchtritt, sich nicht wie geradlinig ausbreitende Teilchen verhält, sondern wie wechselwirkende Wellen, wodurch ein Interferenzmuster auf der dahinter liegenden Oberfläche erscheint Bildschirm in Form von abwechselnd hellen und dunklen Streifen. Bleibt wiederum nur ein Loch offen, dann verschwindet das Interferenzmuster der Photonenverteilung.

Sie können die Ergebnisse dieser Erfahrung mit dem folgenden Gedankenexperiment analysieren. Um den Ort eines Elektrons zu bestimmen, muss es beleuchtet, also ein Photon darauf gerichtet werden. Im Falle einer Kollision zweier Elementarteilchen können wir die Koordinaten des Elektrons genau berechnen (der Ort, an dem es sich zum Zeitpunkt der Kollision befand, wird bestimmt). Durch die Kollision ändert das Elektron jedoch unweigerlich seine Flugbahn, da durch die Kollision Impuls vom Photon auf es übertragen wird. Wenn wir also die Koordinate des Elektrons genau bestimmen, verlieren wir gleichzeitig das Wissen über die Flugbahn seiner nachfolgenden Bewegung. Ein Gedankenexperiment zum Zusammenstoß eines Elektrons und eines Photons ist analog zum Schließen eines der Löcher in Youngs Experiment: Ein Zusammenstoß mit einem Photon ähnelt dem Schließen eines der Löcher in einem Bildschirm: in diesem Fall Schließung wird das Interferenzmuster zerstört oder (was dasselbe ist) die Flugbahn des Elektrons wird undefiniert.

Die Bedeutung des Unsicherheitsprinzips. Die Unschärferelation bedeutet, dass die Prinzipien und Gesetze der klassischen Newtonschen Dynamik nicht verwendet werden können, um Prozesse mit Mikroobjekten zu beschreiben.

Im Wesentlichen bedeutet dieses Prinzip die Ablehnung des Determinismus und die Anerkennung der grundlegenden Rolle des Zufalls in Prozessen mit Mikroobjekten. In der klassischen Beschreibung wird der Begriff der Zufälligkeit verwendet, um das Verhalten von Elementen statistischer Ensembles zu beschreiben und ist nur ein bewusstes Opfer der Vollständigkeit der Beschreibung im Namen der Vereinfachung der Lösung des Problems. In der Mikrowelt ist eine genaue Vorhersage des Verhaltens von Objekten unter Angabe der Werte ihrer traditionellen Parameter für die klassische Beschreibung im Allgemeinen unmöglich. Bei dieser Gelegenheit werden noch lebhafte Diskussionen geführt: Anhänger des klassischen Determinismus, ohne die Möglichkeit zu leugnen, die Gleichungen der Quantenmechanik für praktische Berechnungen zu verwenden, sehen in der Zufälligkeit das Ergebnis unseres unvollständigen Verständnisses der Verhaltensgesetze von Mikroobjekten, was für uns noch unberechenbar ist. A. Einstein war ein Anhänger dieses Ansatzes. Als Begründer der modernen Naturwissenschaft, der es wagte, die scheinbar unerschütterlichen Positionen des klassischen Ansatzes zu revidieren, hielt er es nicht für möglich, das Prinzip des Determinismus in der Naturwissenschaft aufzugeben. Die Position von A. Einstein und seinen Unterstützern zu diesem Thema lässt sich in einer bekannten und sehr bildlichen Aussage formulieren, dass es sehr schwer ist, an die Existenz Gottes zu glauben, der jedes Mal die Würfel würfelt, um über das Verhalten von Mikro zu entscheiden -Objekte. Bis heute wurden jedoch keine experimentellen Fakten gefunden, die auf die Existenz interner Mechanismen hinweisen, die das "zufällige" Verhalten von Mikroobjekten steuern.

Hervorzuheben ist, dass das Messunsicherheitsprinzip keine Mängel bei der Auslegung von Messgeräten mit sich bringt. Es ist grundsätzlich unmöglich, ein Gerät zu entwickeln, das die Koordinate und den Impuls eines Mikropartikels gleichermaßen genau misst. Das Prinzip der Unsicherheit manifestiert sich im Welle-Teilchen-Dualismus der Natur.

Aus der Unschärferelation folgt auch, dass die Quantenmechanik die in der klassischen Naturwissenschaft postulierte grundsätzliche Möglichkeit der Messung und Beobachtung von Objekten und der mit ihnen ablaufenden Prozesse, die die Evolution des untersuchten Systems nicht beeinflussen, ablehnt.

Das Unsicherheitsprinzip ist ein Spezialfall des Komplementaritätsprinzips, das in Bezug darauf allgemeiner ist. Aus dem Komplementaritätsprinzip folgt, dass wir in jedem Experiment eine Seite beobachten können physikalisches Phänomen, dann wird uns gleichzeitig die Möglichkeit genommen, neben der ersten Seite des Phänomens noch eine weitere Seite zu beobachten. Weitere Eigenschaften, die sich nur in unterschiedlichen Experimenten unter sich gegenseitig ausschließenden Bedingungen manifestieren, können Position und Impuls eines Teilchens, die Wellen- und Korpuskularnatur von Materie oder Strahlung sein.

Das Superpositionsprinzip ist in der Quantenmechanik von großer Bedeutung. Das Superpositionsprinzip (Superpositionsprinzip) ist die Annahme, dass der resultierende Effekt die Summe der Effekte ist, die von jedem beeinflussenden Phänomen separat verursacht werden. Eines der einfachsten Beispiele ist die Parallelogrammregel, nach der sich zwei auf einen Körper einwirkende Kräfte addieren. Im Mikrokosmos ist das Superpositionsprinzip ein Grundprinzip, das zusammen mit dem Unsicherheitsprinzip die Grundlage des mathematischen Apparats der Quantenmechanik bildet. In der relativistischen Quantenmechanik, die die gegenseitige Transformation von Elementarteilchen voraussetzt, muss das Superpositionsprinzip durch das Superselektionsprinzip ergänzt werden. Bei der Vernichtung eines Elektrons und eines Positrons wird beispielsweise das Superpositionsprinzip durch das Prinzip der Erhaltung der elektrischen Ladung ergänzt – vor und nach der Umwandlung muss die Summe der Teilchenladungen konstant sein. Da die Ladungen des Elektrons und des Positrons gleich und einander entgegengesetzt sind, sollte ein ungeladenes Teilchen erscheinen, das bei diesem Annihilationsprozess das Photon ist.

GRUNDPRINZIPIEN DER QUANTENMECHANIK.

Parametername Bedeutung
Thema des Artikels: GRUNDPRINZIPIEN DER QUANTENMECHANIK.
Rubrik (thematische Kategorie) Mechanik

1900 . Der deutsche Physiker Max Planck schlug vor, dass die Emission und Absorption von Licht durch Materie in endlichen Teilen - Quanten - erfolgt und die Energie jedes Quants proportional zur Frequenz der emittierten Strahlung ist:

wobei die Frequenz der emittierten (oder absorbierten) Strahlung ist und h eine universelle Konstante ist, die als Plancksche Konstante bezeichnet wird. Nach modernen Daten

h = (6,62618 0,00004) 10 –34 J s.

Plancks Hypothese war der Ausgangspunkt für die Entstehung von Quantenkonzepten, die einer grundlegend neuen Physik zugrunde liegen – der Physik der Mikrowelt, genannt Quantenphysik. Eine große Rolle bei seiner Entstehung spielten die tiefen Ideen des dänischen Physikers Niels Bohr und seiner Schule. Der Quantenmechanik liegt eine konsequente Synthese von Korpuskular- und Welleneigenschaften der Materie zugrunde. Eine Welle ist ein sehr ausgedehnter Prozess im Raum (erinnern Sie sich an Wellen auf Wasser), und ein Teilchen ist ein viel lokaleres Objekt als eine Welle. Licht verhält sich unter bestimmten Bedingungen nicht wie eine Welle, sondern wie ein Teilchenstrom. Gleichzeitig weisen Elementarteilchen manchmal Welleneigenschaften auf. Im Rahmen der klassischen Theorie ist es unmöglich, Wellen- und Korpuskulareigenschaften zu kombinieren. Aus diesem Grund führte die Schaffung einer neuen Theorie, die die Gesetze der Mikrowelt beschreibt, zur Ablehnung der üblichen Konzepte, die für makroskopische Objekte gelten.

Aus Quantensicht sind sowohl Licht als auch Teilchen komplexe Objekte, die sowohl Wellen- als auch Korpuskulareigenschaften aufweisen (der sogenannte Welle-Teilchen-Dualismus). Die Entstehung der Quantenphysik wurde durch Versuche angeregt, die Struktur des Atoms und die Gesetzmäßigkeiten der Emissionsspektren von Atomen zu verstehen.

Ende des 19. Jahrhunderts wurde entdeckt, dass beim Auftreffen von Licht auf die Oberfläche eines Metalls Elektronen von diesem emittiert werden. Dieses Phänomen wurde benannt photoelektrischer Effekt.

1905 . Einstein erklärte den photoelektrischen Effekt auf der Grundlage der Quantentheorie. Er führte die Annahme ein, dass die Energie in einem monochromatischen Lichtstrahl aus Anteilen besteht, deren Größe gleich h ist. Die physikalische Dimension der Größe h ist Zeit ∙ Energie = Länge ∙ Impuls = Drehimpuls. Diese Dimension besitzt eine Wirkungsgröße, und in diesem Zusammenhang heißt h elementares Wirkungsquantum. Nach Einstein verrichtet ein Elektron in einem Metall, das einen solchen Energieanteil absorbiert hat, die Austrittsarbeit aus dem Metall und erhält kinetische Energie

E k = h - A aus.

Dies ist Einsteins Gleichung für den photoelektrischen Effekt.

Diskrete Lichtanteile später (1927 ᴦ.) Wurden genannt Photonen.

In der Wissenschaft sollte man bei der Definition des mathematischen Apparats immer von der Natur der beobachteten experimentellen Phänomene ausgehen. Der deutsche Physiker Schrödinger hat enorme Erfolge erzielt, indem er eine andere Strategie der wissenschaftlichen Forschung ausprobierte: zuerst die Mathematik, dann ihre physikalische Bedeutung zu verstehen und infolgedessen die Natur von Quantenphänomenen zu interpretieren.

Es war klar, dass die Gleichungen der Quantenmechanik wellenartig sein müssen (schließlich haben Quantenobjekte Welleneigenschaften). Diese Gleichungen müssen diskrete Lösungen haben (diskrete Elemente sind inhärent in Quantenphänomenen). Gleichungen dieser Art waren in der Mathematik bekannt. Darauf aufbauend schlug Schrödinger vor, das Konzept der Wellenfunktion ʼʼψʼʼ zu verwenden. Für ein Teilchen, das sich frei entlang der X-Achse bewegt, gilt die Wellenfunktion ψ = e - i | h (Et-px), wobei p der Impuls, x die Koordinate E-Energie, h die Plancksche Konstante ist. Die Funktion ʼʼψʼʼ wird normalerweise als Wellenfunktion bezeichnet, weil eine Exponentialfunktion verwendet wird, um sie zu beschreiben.

Der Zustand eines Teilchens wird in der Quantenmechanik durch eine Wellenfunktion beschrieben, die es ermöglicht, nur die Wahrscheinlichkeit zu bestimmen, ein Teilchen an einem bestimmten Punkt im Raum zu finden. Die Wellenfunktion beschreibt weder das Objekt selbst noch seine potentiellen Fähigkeiten. Operationen mit der Wellenfunktion ermöglichen es uns, die Wahrscheinlichkeiten quantenmechanischer Ereignisse zu berechnen.

Fundamentale Prinzipien Quantenphysik ist Prinzipien der Superposition, Unsicherheit, Komplementarität und Identität.

Prinzip Überlagerung in der klassischen Physik ermöglicht es, den resultierenden Effekt aus der Überlagerung (Überlagerung) mehrerer unabhängiger Einflüsse als Summe der von jedem Einfluss verursachten Effekte separat zu erhalten. Sie gilt für Systeme oder Felder, die durch lineare Gleichungen beschrieben werden. Dieses Prinzip ist sehr wichtig in der Mechanik, Schwingungstheorie und Wellentheorie physikalischer Felder. In der Quantenmechanik bezieht sich das Superpositionsprinzip auf Wellenfunktionen: Wenn ein physikalisches System in Zuständen sein kann, die durch zwei oder mehr Wellenfunktionen beschrieben werden ψ 1, ψ 2, ... ψ ń, dann kann es in einem Zustand sein, der durch eine beliebige lineare . beschrieben wird Kombination dieser Funktionen:

Ψ = c 1 ψ 1 + c 2 ψ 2 +… + Mit n ψ n,

wobei с 1, с 2,… с n beliebige komplexe Zahlen sind.

Das Superpositionsprinzip ist eine Verfeinerung der entsprechenden Konzepte der klassischen Physik. Demnach breiten sich Wellen in einem Medium, das seine Eigenschaften unter dem Einfluss von Störungen nicht ändert, unabhängig voneinander aus. Folglich ist die resultierende Störung an jedem Punkt des Mediums, wenn sich mehrere Wellen darin ausbreiten, gleich der Summe der Störungen, die jeder dieser Wellen entsprechen:

S = S 1 + S 2 + .... + S n,

wobei S 1, S 2,… .. S n - Störungen durch die Welle. Im Fall einer nichtharmonischen Welle kann sie als Summe der harmonischen Wellen dargestellt werden.

Prinzip Unsicherheiten liegt darin, dass es unmöglich ist, gleichzeitig zwei Eigenschaften eines Mikropartikels zu bestimmen, zum Beispiel Geschwindigkeit und Koordinaten. Es spiegelt die duale Welle-Teilchen-Natur von Elementarteilchen wider. Fehler, Ungenauigkeiten, Fehler bei der gleichzeitigen Bestimmung zusätzlicher Größen im Experiment hängen mit der 1925 aufgestellten Unsicherheitsbeziehung zusammen. Werner Heisenberg. Die Unschärferelation besteht darin, dass das Produkt von Ungenauigkeiten beliebiger Paare zusätzlicher Größen (zB Koordinaten und Impulsprojektionen darauf, Energie und Zeit) durch die Plancksche Konstante h bestimmt wird. Unsicherheitsverhältnisse zeigen, dass der Wert des anderen Parameters umso unsicherer ist, je genauer der Wert eines der in den Verhältnissen enthaltenen Parameter ist und umgekehrt. Dies bedeutet, dass die Parameter gleichzeitig gemessen werden.

Die klassische Physik lehrte, dass alle Parameter von Objekten und mit ihnen ablaufenden Prozessen gleichzeitig mit beliebiger Genauigkeit gemessen werden. Diese Position wird von der Quantenmechanik widerlegt.

Der dänische Physiker Niels Bohr kam zu dem Schluss, dass Quantenobjekte relativ zu Beobachtungsmitteln sind. Die Parameter von Quantenphänomenen können erst nach ihrer Wechselwirkung mit den Beobachtungsmitteln beurteilt werden, ᴛ.ᴇ. mit Geräten. Das Verhalten atomarer Objekte ist nicht scharf von der Wechselwirkung mit Messgeräten zu unterscheiden, die die Bedingungen erfassen, unter denen diese Phänomene auftreten. Es ist zu beachten, dass die zur Messung von Parametern verwendeten Instrumente unterschiedlicher Art sind. Die unter verschiedenen experimentellen Bedingungen gewonnenen Daten sollten in dem Sinne als zusätzlich betrachtet werden, dass nur eine Reihe verschiedener Messungen ein vollständiges Bild der Eigenschaften des Objekts ergeben können. Dies ist der Inhalt des Komplementaritätsprinzips.

In der klassischen Physik galt die Messung als nicht störend für das Untersuchungsobjekt. Die Messung lässt das Objekt unverändert. Laut Quantenmechanik zerstört jede einzeln durchgeführte Messung ein Mikroobjekt. Um eine neue Messung durchzuführen, ist es notwendig, das Mikroobjekt neu vorzubereiten. Dies verkompliziert den Vorgang der Synthese von Messungen. In dieser Hinsicht behauptet Bohr die Komplementarität von Quantenmessungen. Die Daten klassischer Messungen sind nicht komplementär, sie haben unabhängig voneinander eine eigenständige Bedeutung. Komplementarität findet dort statt, wo die untersuchten Objekte nicht voneinander zu unterscheiden sind und miteinander verbunden sind.

Bohr korrelierte das Prinzip der Komplementarität nicht nur mit den Naturwissenschaften: „Die Integrität lebender Organismen und die Eigenschaften von Menschen mit Bewusstsein sowie menschlicher Kulturen stellen die Merkmale der Integrität dar, deren Darstellung eine typischerweise zusätzliche Beschreibungsform erfordert“. .“ Die Möglichkeiten der Lebewesen sind nach Bohr so ​​vielfältig und so eng miteinander verknüpft, dass man sich bei ihrer Untersuchung wieder auf das Verfahren zur Ergänzung der Beobachtungsdaten stützen muss. Gleichzeitig wurde diese Idee von Bohr nicht richtig entwickelt.

Merkmale und Besonderheiten der Wechselwirkungen zwischen den Komponenten komplexer Mikro- und Makrosysteme. sowie externe Interaktionen zwischen ihnen führen zu ihrer enormen Vielfalt. Mikro- und Makrosysteme zeichnen sich durch Individualität aus, jedes System wird durch eine Menge aller nur ihm innewohnenden Eigenschaften beschrieben. Zwischen dem Kern von Wasserstoff und Uran lassen sich Unterschiede benennen, obwohl sich beide auf Mikrosysteme beziehen. Es gibt nicht weniger Unterschiede zwischen Erde und Mars, obwohl diese Planeten zum selben Sonnensystem gehören.

In diesem Fall können wir über die Identität von Elementarteilchen sprechen. Identische Teilchen haben das gleiche physikalische Eigenschaften: Masse, elektrische Ladung und andere interne Eigenschaften. Zum Beispiel werden alle Elektronen des Universums als identisch betrachtet. Identische Teilchen gehorchen dem Identitätsprinzip - dem Grundprinzip der Quantenmechanik, nach dem: Die Zustände eines Teilchensystems, die durch ortsweisen Umlagerung identischer Teilchen voneinander erhalten werden, in keinem Experiment unterschieden werden können.

Dieses Prinzip ist der Hauptunterschied zwischen klassischer und Quantenmechanik. In der Quantenmechanik haben identische Teilchen keine Individualität.

Struktur des Atoms und des Atomkerns. ELEMENTARTEILCHEN.

Die ersten Ideen über die Struktur der Materie erschienen in Antikes Griechenland im 6.-4. Jahrhundert BC. Aristoteles betrachtete die Materie als stetig, ᴛ.ᴇ. es kann in beliebig kleine Teile zerlegt werden, aber man kommt nie zum kleinsten Teilchen, das nicht weiter zerteilt werden würde. Demokrit glaubte, dass alles in der Welt aus Atomen und Leere besteht. Atome sind die kleinsten Teilchen der Materie, was "unteilbar" bedeutet, und nach Demokrit sind Atome Kugeln mit einer gezackten Oberfläche.

Dieses Weltbild existierte bis zum Ende des 19. Jahrhunderts. Im Jahr 1897ᴦ. Joseph John Thomson (1856-1940ᴦ.ᴦ.), eigener Sohn W. Thomson, zweifacher Nobelpreisträger, entdeckte ein Elementarteilchen, das Elektron genannt wurde. Es wurde festgestellt, dass ein Elektron aus Atomen entweicht und eine negative elektrische Ladung hat. Die Größe der Elektronenladung e= 1.6.10 -19 C (Coulomb), Elektronenmasse m= 9,11.10 -31 kᴦ.

Nach der Entdeckung des Elektrons stellte Thomson 1903 die Hypothese auf, dass das Atom eine Kugel ist, über die eine positive Ladung geschmiert ist und Elektronen mit negativer Ladung in Form von Rosinen eingestreut sind. Eine positive Ladung ist gleich einer negativen; im Allgemeinen ist das Atom elektrisch neutral (die Gesamtladung ist 0).

1911 stellte Ernst Rutherford in einem Experiment fest, dass die positive Ladung nicht über das Atomvolumen verschmiert ist, sondern nur einen kleinen Teil davon einnimmt. Danach stellte er ein Atommodell vor, das später als planetarisch bekannt wurde. Nach diesem Modell ist das Atom wirklich eine Kugel, in deren Zentrum sich eine positive Ladung befindet, die einen kleinen Teil dieser Kugel einnimmt - etwa 10 -13 cm Die negative Ladung befindet sich auf dem äußeren, sogenannten Elektron Hülse.

Ein perfekteres Quantenmodell des Atoms wurde 1913 von dem dänischen Physiker N. Bohr vorgeschlagen, der in Rutherfords Labor arbeitete. Er legte Rutherfords Atommodell zugrunde und ergänzte es durch neue Hypothesen, die klassischen Konzepten widersprechen. Diese Hypothesen sind als Bohrs Postulate bekannt. Οʜᴎ werden wie folgt reduziert.

1. Jedes Elektron in einem Atom kann in einer bestimmten Umlaufbahn mit einem bestimmten Energiewert eine stabile Umlaufbewegung ausführen, ohne elektromagnetische Strahlung zu emittieren oder zu absorbieren. In diesen Zuständen haben Atomsysteme Energien, die eine diskrete Reihe bilden: E 1, E 2, ... E n. Jede Energieänderung durch Emission oder Absorption elektromagnetischer Strahlung kann in einem Sprung von einem Zustand in einen anderen erfolgen.

2. Wenn ein Elektron von einer stationären Bahn in eine andere übergeht, wird Energie emittiert oder absorbiert. Ändert sich beim Übergang eines Elektrons von einer Bahn in eine andere die Energie des Atoms von E m auf E n, so ist h v= m - Е n, wobei v- Strahlungsfrequenz.

Bohr benutzte diese Postulate, um das einfachste Wasserstoffatom zu berechnen,

Der Bereich, in dem sich die positive Ladung konzentriert, wird normalerweise als Kern bezeichnet. Es wurde angenommen, dass der Kern aus positiven Elementarteilchen besteht. Diese Teilchen, Protonen genannt (übersetzt aus dem Griechischen bedeutet Proton das erste), wurden 1919 von Rutherford entdeckt. Ihre Modulladung entspricht der Ladung eines Elektrons (aber positiv), die Masse eines Protons beträgt 1,6724,10 -27 kᴦ. Die Existenz eines Protons wurde durch eine künstliche Kernreaktion bestätigt, die Stickstoff in Sauerstoff umwandelt. Stickstoffatome wurden mit Heliumkernen bestrahlt. Das Ergebnis war Sauerstoff und ein Proton. Das Proton ist ein stabiles Teilchen.

1932 entdeckte James Chadwick ein Teilchen, das keine elektrische Ladung hatte und eine Masse von fast hatte gleiche Masse Proton. Dieses Teilchen wurde Neutron genannt. Die Masse des Neutrons beträgt 1,675,10 -27 kᴦ. Das Neutron wurde durch die Bestrahlung einer Berylliumplatte mit Alphateilchen entdeckt. Das Neutron ist ein instabiles Teilchen. Der Mangel an Ladung erklärt seine leichte Fähigkeit, in die Kerne von Atomen einzudringen.

Die Entdeckung des Protons und Neutrons führte zur Schaffung des Proton-Neutron-Modells des Atoms. Es wurde 1932 von den sowjetischen Physikern Ivanenko, Gapon und dem deutschen Physiker Heisenberg vorgeschlagen. Nach diesem Modell besteht der Atomkern aus Protonen und Neutronen, mit Ausnahme des Wasserstoffkerns besteht ĸᴏᴛᴏᴩᴏᴇ aus einem Proton.

Die Ladung eines Kerns wird durch die Anzahl der darin enthaltenen Protonen bestimmt und mit dem Symbol . bezeichnet Z . Die gesamte Masse eines Atoms ist in der Masse seines Kerns enthalten und wird durch die Masse der in ihn eintretenden Protonen und Neutronen bestimmt, da die Masse eines Elektrons im Vergleich zu den Massen eines Protons und eines Neutrons vernachlässigbar ist. Die Seriennummer im Periodensystem von Mendelejew entspricht der Ladung des Kerns eines bestimmten chemischen Elements. Massenzahl eines Atoms EIN gleich der Masse von Neutronen und Protonen: A = Z + N, wo Z - die Anzahl der Protonen, n - die Anzahl der Neutronen. Konventionell wird jedes Element durch das Symbol gekennzeichnet: A X z.

Es gibt Kerne, die gleich viele Protonen, aber unterschiedliche Neutronenzahlen enthalten, ᴛ.ᴇ. sich in der Massenzahl unterscheiden. Solche Kerne werden Isotope genannt. Z.B, 1 H 1 - gewöhnlicher Wasserstoff, 2 H 1 - Deuterium, 3 H 1 - Tritium. Am stabilsten sind Kerne, bei denen die Anzahl der Protonen gleich der Anzahl der Neutronen ist oder beides gleichzeitig = 2, 8, 20, 28, 50, 82, 126 - magische Zahlen.

Die Abmessungen des Atoms betragen ungefähr 10 -8 cm Das Atom besteht aus einem Kern von 10-13 cm Größe Zwischen dem Atomkern und der Grenze des Atoms befindet sich in der Mikrowelt ein riesiger Maßstab. Die Dichte im Atomkern ist enorm, etwa 1,5 · 108 t/cm3. Chemische Elemente mit Masse A<50 называются легкими, а с А>50 - schwer. Die Kerne schwerer Elemente sind beengt, ᴛ.ᴇ. eine energetische Voraussetzung für ihren radioaktiven Zerfall geschaffen wird.

Die Energie, die benötigt wird, um einen Kern in seine Nukleonen zu zerlegen, nennt man Bindungsenergie. (Nukleonen sind die verallgemeinerte Bezeichnung für Protonen und Neutronen und ins Russische übersetzt bedeutet „Kernteilchen“):

E sv = Δm ∙ s 2,

wo ich bin - Defekt in der Kernmasse (Differenz zwischen den Massen der den Kern bildenden Nukleonen und der Masse des Kerns).

1928ᴦ. Der theoretische Physiker Dirac schlug die Theorie des Elektrons vor. Elementarteilchen können sich wie eine Welle verhalten - sie haben einen Welle-Teilchen-Dualität. Diracs Theorie ermöglichte es zu bestimmen, wann sich ein Elektron wie eine Welle verhält und wann - wie ein Teilchen. Er schloss daraus, dass es ein Elementarteilchen mit den gleichen Eigenschaften wie ein Elektron geben muss, aber mit einer positiven Ladung. Ein solches Teilchen wurde später 1932 entdeckt und Positron genannt. Der amerikanische Physiker Andersen entdeckte in einem Foto von kosmischer Strahlung eine Teilchenspur, ähnlich einem Elektron, aber mit positiver Ladung.

Es folgte aus der Theorie, dass ein Elektron und ein Positron, die miteinander wechselwirken (Annihilationsreaktion), ein Photonenpaar bilden, ᴛ.ᴇ. Quanten elektromagnetischer Strahlung. Der umgekehrte Vorgang ist auch möglich, wenn ein Photon, das mit einem Kern wechselwirkt, zu einem Elektron-Positron-Paar wird. Jedem Teilchen ist eine Wellenfunktion zugeordnet, deren Amplitudenquadrat gleich der Wahrscheinlichkeit ist, ein Teilchen in einem bestimmten Volumen zu finden.

In den 50er Jahren des 20. Jahrhunderts wurde die Existenz eines Antiprotons und eines Antineutrons nachgewiesen.

Noch vor 30 Jahren glaubte man, Neutronen und Protonen seien Elementarteilchen, aber Experimente zur Wechselwirkung von Protonen und Elektronen, die sich mit hoher Geschwindigkeit bewegen, zeigten, dass Protonen aus noch kleineren Teilchen bestehen. Diese Teilchen wurden zuerst von Gell Mann untersucht und nannte sie Quarks. Es gibt mehrere Arten von Quarks. Es wird angenommen, dass es 6 Geschmacksrichtungen gibt: U-Quark (up), d-Quark (down), Strange Quark (strange), Charmed Quark (charm), b-quark (beauty), t-quark (truth) ..

Das Quark jedes Duftes hat eine von drei Farben: Rot, Grün, Blau. Dies ist nur eine Notation, denn Quarks sind viel kleiner als die Wellenlänge des sichtbaren Lichts und haben daher keine Farbe.

Betrachten wir einige Eigenschaften von Elementarteilchen. In der Quantenmechanik wird jedem Teilchen ein eigenes besonderes mechanisches Moment zugeordnet, das weder mit seiner Bewegung im Raum noch mit seiner Rotation zusammenhängt. Dieses eigene mechanische Moment wird genannt. drehen... Wenn Sie also das Elektron um 360 drehen, würde man erwarten, dass es in seinen ursprünglichen Zustand zurückkehrt. In diesem Fall wird der Ausgangszustand erst mit einer weiteren Drehung um 360° erreicht. Das heißt, um ein Elektron in seinen ursprünglichen Zustand zurückzubringen, muss es um 720 o gedreht werden, im Vergleich zum Spin nehmen wir die Welt nur um die Hälfte wahr. Bei einer Doppeldrahtschlaufe kehrt die Perle beispielsweise bei einer Drehung um 720° in ihre ursprüngliche Position zurück. Solche Teilchen haben einen halbzahligen Spin ½. Spin gibt uns Informationen darüber, wie ein Teilchen aus verschiedenen Blickwinkeln aussieht. Ein Teilchen mit Spin 0ʼʼ ist beispielsweise wie ein Punkt: Es sieht von allen Seiten gleich aus. Ein Teilchen mit Spin ʼʼ1ʼʼ kann mit einem Pfeil verglichen werden: Von verschiedenen Seiten sieht es anders aus und nimmt bei einer Drehung um 360 ° die gleiche Form an. Ein Teilchen mit Spin 2ʼʼ kann mit einem beidseitig geschärften Pfeil verglichen werden: Jede seiner Positionen wird ab einer halben Umdrehung (180 °) wiederholt. Teilchen mit einem höheren Spin kehren bei einer Drehung um einen noch kleineren Teil einer vollständigen Umdrehung in ihren ursprünglichen Zustand zurück.

Teilchen mit halbzahligem Spin werden als Fermionen bezeichnet, Teilchen mit ganzzahligem Spin als Bosonen. Bis vor kurzem glaubte man, Bosonen und Fermionen seien die einzig möglichen Arten von nicht unterscheidbaren Teilchen. Tatsächlich gibt es eine Reihe von Zwischenmöglichkeiten, und Fermionen und Bosonen sind nur zwei Grenzfälle. Diese Teilchenklasse wird Anyon genannt.

Materieteilchen gehorchen dem Pauli-Ausschlussprinzip, das 1923 vom österreichischen Physiker Wolfgang Pauli entdeckt wurde. Paulis Prinzip besagt: In einem System aus zwei identischen Teilchen mit halbzahligen Spins kann es nicht mehr als ein Teilchen im gleichen Quantenzustand geben. Für Teilchen mit ganzzahligem Spin gibt es keine Einschränkungen. Dies bedeutet, dass zwei identische Teilchen keine Koordinaten und Geschwindigkeiten haben können, die mit der durch das Unsicherheitsprinzip angegebenen Genauigkeit gleich sind. Wenn die Partikel einer Substanz sehr ähnliche Koordinatenwerte haben, müssen ihre Geschwindigkeiten unterschiedlich sein und können daher nicht lange an Punkten mit diesen Koordinaten bleiben.

In der Quantenmechanik wird angenommen, dass alle Kräfte und Wechselwirkungen zwischen Teilchen von Teilchen mit einem ganzzahligen Spin von 0,1,2 getragen werden. Dies geschieht folgendermaßen: Zum Beispiel sendet ein Materieteilchen ein Teilchen aus, das ein Wechselwirkungsträger ist (zum Beispiel ein Photon). Durch den Rückstoß ändert sich die Geschwindigkeit der Partikel. Außerdem „trifft“ das Trägerteilchen ein anderes Materieteilchen und wird von diesem absorbiert. Diese Kollision verändert die Geschwindigkeit des zweiten Teilchens, als ob eine Kraft zwischen diesen beiden Materieteilchen wirken würde. Teilchenträger, die zwischen Materieteilchen ausgetauscht werden, werden virtuell genannt, weil sie im Gegensatz zu realen nicht mit einem Teilchendetektor erfasst werden können. Und doch existieren sie, weil sie eine messbare Wirkung haben.

Trägerpartikel können in 4 Typen eingeteilt werden, basierend auf der Größe der Wechselwirkung, die sie tragen und mit welchen Partikeln sie interagieren und mit welchen Partikeln sie interagieren:

1) Erdanziehungskraft. Jedes Teilchen steht unter dem Einfluss einer Gravitationskraft, deren Größe von der Masse und Energie des Teilchens abhängt. Dies ist eine schwache Macht. Gravitationskräfte wirken auf große Entfernungen und sind immer Gravitationskräfte. So hält zum Beispiel die Gravitationswechselwirkung die Planeten auf ihren Bahnen und uns auf der Erde.

Bei der quantenmechanischen Betrachtung des Gravitationsfeldes wird angenommen, dass die zwischen den Materieteilchen wirkende Kraft von einem Teilchen mit Spin ʼʼ2ʼʼ übertragen wird, das allgemein als Graviton bezeichnet wird. Graviton hat keine eigene Masse und daher ist die von ihm übertragene Kraft weitreichend. Die gravitative Wechselwirkung zwischen Sonne und Erde wird durch die Tatsache erklärt, dass die Teilchen, aus denen die Sonne und die Erde bestehen, Gravitonen austauschen. Der Effekt des Austauschs dieser virtuellen Teilchen ist messbar, denn dieser Effekt ist die Rotation der Erde um die Sonne.

2) Die nächste Art der Interaktion entsteht elektromagnetische Kräfte die zwischen elektrisch geladenen Teilchen wirken. Die elektromagnetische Wechselwirkung ist viel stärker als die Gravitationskraft: Die elektromagnetische Kraft, die zwischen zwei Elektronen wirkt, ist etwa 10-40 Mal größer als die Gravitationskraft. Elektromagnetische Wechselwirkung bestimmt die Existenz stabiler Atome und Moleküle (Wechselwirkung zwischen Elektronen und Protonen). Der Träger der elektromagnetischen Wechselwirkung ist das Photon.

3) Schwache Interaktion... Es ist für die Radioaktivität verantwortlich und existiert zwischen allen Materieteilchen mit Spin ½. Eine schwache Wechselwirkung sorgt für ein langes und gleichmäßiges Brennen unserer Sonne, die Energie für alle biologischen Prozesse auf der Erde liefert. Die Träger der schwachen Wechselwirkung sind drei Teilchen - W ± und Z 0 -Bosonen. Οʜᴎ wurden erst 1983 eröffnetᴦ. Der Radius der schwachen Wechselwirkung ist extrem klein, daher müssen ihre Träger große Massen haben. Nach dem Unsicherheitsprinzip sollte die Lebensdauer von Teilchen mit einer so großen Masse extrem kurz sein - 10 -26 s.

4) Starke Interaktion eine Wechselwirkung darstellt, hält Quarks in Protonen und Neutronen und Protonen und Neutronen in einem Atomkern. Als Träger der starken Wechselwirkung wird ein Teilchen mit Spin ʼʼ1ʼʼ angesehen, das üblicherweise als Gluon bezeichnet wird. Gluonen interagieren nur mit Quarks und mit anderen Gluonen. Quarks sind dank Gluonen paarweise oder dreifach verbunden. Die starke Wechselwirkung bei hohen Energien schwächt sich ab und Quarks und Gluonen verhalten sich wie freie Teilchen. Diese Eigenschaft wird als asymptotische Freiheit bezeichnet. Als Ergebnis von Experimenten an leistungsstarken Beschleunigern wurden Fotografien von Spuren (Spuren) freier Quarks, die durch Kollisionen von hochenergetischen Protonen und Antiprotonen entstanden sind, erhalten. Die starke Wechselwirkung gewährleistet die relative Stabilität und Existenz von Atomkernen. Charakteristisch für die Prozesse der Mikrowelt sind starke und schwache Wechselwirkungen, die zur gegenseitigen Umwandlung von Teilchen führen.

Starke und schwache Wechselwirkungen wurden dem Menschen erst im ersten Drittel des 20. Jahrhunderts im Zusammenhang mit dem Studium der Radioaktivität und dem Verständnis der Ergebnisse des Beschusses von Atomen verschiedener Elemente mit α-Teilchen bekannt. Die Alphateilchen schlagen sowohl Protonen als auch Neutronen heraus. Der Zweck der Argumentation führte Physiker zu der Überzeugung, dass Protonen und Neutronen in den Kernen von Atomen sitzen und eng aneinander gebunden sind. Es gibt starke Wechselwirkungen. Andererseits emittieren radioaktive Stoffe α-, β- und -Strahlen. Als Fermi 1934 die erste Theorie aufstellte, die den experimentellen Daten ausreichend entsprach, musste er das Vorhandensein von Atomen in den Kernen von in ihrer Intensität unbedeutenden Wechselwirkungen annehmen, die sie als schwach bezeichneten.

Es wird nun versucht, die elektromagnetischen, schwachen und starken Wechselwirkungen zu kombinieren, so dass das Ergebnis die sog. THEORIE DER GROßEN KOMBINATION... Diese Theorie beleuchtet unsere Existenz. Es ist möglich, dass unsere Existenz eine Folge der Bildung von Protonen ist. Dieses Bild vom Beginn des Universums scheint das natürlichste zu sein. Terrestrische Materie besteht hauptsächlich aus Protonen, aber es gibt keine Antiprotonen oder Antineutronen. Experimente mit kosmischer Strahlung haben gezeigt, dass das gleiche für alle Materie in unserer Galaxie gilt.

Die Eigenschaften starker, schwacher, elektromagnetischer und gravitativer Wechselwirkungen sind in der Tabelle angegeben.

Die Reihenfolge der Intensität jeder Wechselwirkung, die in der Tabelle gezeigt wird, wird in Bezug auf die Intensität der starken Wechselwirkung bestimmt, die als 1 angenommen wird.

Hier eine Einteilung der derzeit bekanntesten Elementarteilchen.

PHOTON. Die Ruhemasse und ihre elektrische Ladung sind gleich 0. Das Photon hat einen ganzzahligen Spin und ist ein Boson.

LEPTONE. Diese Teilchenklasse nimmt nicht an starken Wechselwirkungen teil, sondern weist elektromagnetische, schwache und gravitative Wechselwirkungen auf. Leptonen haben einen halbzahligen Spin und sind Fermionen. Den zu dieser Gruppe gehörenden Elementarteilchen wird eine bestimmte Eigenschaft zugeordnet, die Leptonenladung genannt wird. Die Ladung des Leptons ist im Gegensatz zur elektrischen Ladung keine Quelle einer Wechselwirkung, ihre Rolle ist noch nicht vollständig geklärt. Der Wert der Leptonenladung ist für Leptonen L = 1, für Antileptonen L = -1, alle anderen Elementarteilchen L = 0.

MESONEN. Dies sind instabile Partikel, die inhärent sind in starke Interaktion... Der Name "Mesonen" bedeutet "Zwischenprodukt" und ist darauf zurückzuführen, dass die ursprünglich entdeckten Mesonen eine Masse hatten, die größer als die eines Elektrons, aber kleiner als die eines Protons war. Heute sind Mesonen bekannt, deren Massen größer sind als die der Protonen. Alle Mesonen haben einen ganzzahligen Spin und sind daher Bosonen.

Baryonen. Diese Klasse umfasst eine Gruppe schwerer Elementarteilchen mit halbzahligem Spin (Fermionen) und einer Masse von nicht weniger als der Masse eines Protons. Das einzige stabile Baryon ist das Proton, das Neutron ist nur im Kern stabil. Baryonen zeichnen sich durch 4 Arten von Interaktionen aus. Bei allen Kernreaktionen und Wechselwirkungen bleibt ihre Gesamtzahl unverändert.

GRUNDPRINZIPIEN DER QUANTENMECHANIK. - Konzept und Typen. Einteilung und Merkmale der Kategorie "GRUNDPRINZIPIEN DER QUANTUMMECHANIK". 2017, 2018.