Dualität der Welle-Partikel

Dualität der Welle-Partikel verlangt, dass alle Partikeln sowohl Welle als auch Partikel-Eigenschaften ausstellen. Ein Hauptkonzept der Quant-Mechanik, diese Dualität richtet die Unfähigkeit von klassischen Konzepten wie "Partikel" und "Welle", um das Verhalten von Gegenständen der Quant-Skala völlig zu beschreiben. Standardinterpretationen der Quant-Mechanik erklären dieses Paradox als ein grundsätzliches Eigentum des Weltalls, während alternative Interpretationen die Dualität als eine auftauchende, Folge der zweiten Ordnung von verschiedenen Beschränkungen des Beobachters erklären. Diese Behandlung konzentriert sich darauf, das Verhalten von der Perspektive der weit verwendeten Kopenhagener Interpretation zu erklären, in der Dualität der Welle-Partikel ein Aspekt des Konzepts von complementarity ist, dass ein Phänomen auf eine Weise oder auf einen anderen, aber nicht beide gleichzeitig angesehen werden kann.

Ursprung der Theorie

Die Idee von der Dualität ist in einer Debatte über die Natur des Lichtes und der Sache entstanden, die auf das 17. Jahrhundert zurückgeht, wenn sie sich bewirbt, wurden Theorien des Lichtes von Christiaan Huygens und Isaac Newton vorgeschlagen: Wie man dachte, hat Licht entweder aus Wellen (Huygens) oder aus Partikeln (Newton) bestanden. Durch die Arbeit von Max Planck, Albert Einstein, Louis de Broglie, Arthur Compton, Niels Bohr und vielen anderen, meint aktuelle wissenschaftliche Theorie, dass alle Partikeln auch eine Welle-Natur (und umgekehrt) haben. Dieses Phänomen ist nicht nur für elementare Partikeln, sondern auch für zusammengesetzte Partikeln wie Atome und sogar Moleküle nachgeprüft worden. Für makroskopische Partikeln, wegen ihrer äußerst kleinen Wellenlängen, können Welle-Eigenschaften nicht gewöhnlich entdeckt werden.

Kurze Geschichte der Welle und Partikel-Gesichtspunkte

Aristoteles war einer der ersten, um über die Natur des Lichtes öffentlich Hypothese aufzustellen, vorschlagend, dass Licht eine Störung in der Element-Luft ist (d. h. es ist ein Welle ähnliches Phänomen). Andererseits, Democritus - der ursprüngliche atomist - hat behauptet, dass alle Dinge im Weltall, einschließlich des Lichtes, aus unteilbaren Teilelementen (Licht zusammengesetzt werden, das eine Form des Sonnenatoms ist). Am Anfang des 11. Jahrhunderts hat der arabische Wissenschaftler Alhazen die erste umfassende Abhandlung über die Optik geschrieben; Brechung, Nachdenken und die Operation einer Nadelloch-Linse über Strahlen des Lichtes beschreibend, das vom Punkt der Emission zum Auge reist. Er hat behauptet, dass diese Strahlen aus Partikeln des Lichtes zusammengesetzt wurden. 1630 hat René Descartes verbreitet und hat im Westen die gegenüberliegende Welle-Beschreibung in seiner Abhandlung auf dem Licht akkreditiert, zeigend, dass das Verhalten des Lichtes durch das Modellieren Welle ähnlicher Störungen in einem universalen Medium ("Plenum") erfrischt werden konnte. 1670 und das Fortschreiten von mehr als drei Jahrzehnten beginnend, hat Isaac Newton entwickelt und hat seine Korpuskularhypothese verfochten, behauptend, dass die vollkommen geraden Linien des Nachdenkens die Partikel-Natur des Lichtes demonstriert haben; nur Partikeln konnten in solchen Geraden reisen. Er hat Brechung erklärt, indem er das Partikeln des Lichtes beschleunigt seitlich nach dem Eingehen in ein dichteres Medium postuliert hat. Um dieselbe Zeit, die Zeitgenossen von Newton Robert Hooke und Christian Huygens - und später hat Augustin-Jean Fresnel - mathematisch den Welle-Gesichtspunkt raffiniert, zeigend, dass, wenn Licht mit verschiedenen Geschwindigkeiten bei verschiedenen Medien (wie Wasser und Luft) gereist ist, Brechung als die mittler-abhängige Fortpflanzung von leichten Wellen leicht erklärt werden konnte. Der resultierende Grundsatz von Huygens-Fresnel war beim Reproduzieren des Verhaltens des Lichtes und, nachher unterstützt durch die Entdeckung von Thomas Young der Einmischung des doppelten Schlitzes äußerst erfolgreich, war der Anfang des Endes für das Partikel-Licht-Lager.

Der Endschlag gegen die Korpuskulartheorie ist gekommen, als James Clerk Maxwell entdeckt hat, dass er vier einfache Gleichungen verbinden konnte, die vorher zusammen mit einer geringen Modifizierung entdeckt worden waren, um selbst sich fortpflanzende Wellen zu beschreiben, elektrische und magnetische Felder in Schwingungen zu versetzen. Als die Fortpflanzungsgeschwindigkeit dieser elektromagnetischen Wellen berechnet wurde, ist die Geschwindigkeit des Lichtes ausgefallen. Es ist schnell offenbar geworden, dass sichtbares leichtes, ultraviolettes Licht und Infrarotlicht (haben Phänomene vorher gedacht, um ohne Beziehung zu sein), alle elektromagnetischen Wellen der sich unterscheidenden Frequenz waren. Die Wellentheorie hatte vorgeherrscht - oder mindestens ist es dem geschienen.

Während das 19. Jahrhundert den Erfolg der Wellentheorie beim Beschreiben des Lichtes gesehen hatte, hatte es auch den Anstieg der Atomtheorie beim Beschreiben der Sache bezeugt. 1789 hat Antoine Lavoisier sicher Chemie von der Alchimie unterschieden, indem er Strenge und Präzision in seine Labortechniken eingeführt hat; das Erlauben von ihn, die Bewahrung der Masse abzuleiten und viele neue chemische Elemente und Zusammensetzungen zu kategorisieren. Jedoch ist die Natur dieser wesentlichen chemischen Elemente unbekannt geblieben. 1799 hat Joseph Louis Proust Chemie zum Atom vorgebracht, indem er gezeigt hat, dass sich Elemente in bestimmten Verhältnissen verbunden haben. Das hat John Dalton dazu gebracht, das Atom von Democritus 1803 wieder zu beleben, als er vorgeschlagen hat, dass Elemente unsichtbare U-Boot-Bestandteile waren; der erklärt hat, warum die unterschiedlichen Oxyde von Metallen (z.B stannous Oxyd und cassiterite, SnO und SnO beziehungsweise) 1:2 Verhältnis von Sauerstoff zu einander besitzen. Aber Dalton und andere Chemiker der Zeit hatten nicht gedacht, dass einige Elemente in der Monatomic-Form (wie Helium) und andere in der Diatomic-Form (wie Wasserstoff) vorkommen, oder dass Wasser HO, nicht der einfachere und intuitivere HO - so war, wurden die Atomgewichte präsentiert zurzeit geändert und häufig falsch. Zusätzlich würde die Bildung von HO durch zwei Teile von Wasserstoffbenzin und einen Teil von Sauerstoff-Benzin verlangen, dass sich ein Atom von Sauerstoff entzwei (oder zwei Halbatome von Wasserstoff aufspaltet, um zusammen zu kommen). Dieses Problem wurde von Amedeo Avogadro behoben, der die reagierenden Volumina von Benzin studiert hat, als sie Flüssigkeiten und Festkörper gebildet haben. Indem er verlangt hat, dass gleiche Volumina von elementarem Benzin eine gleiche Anzahl von Atomen enthalten, ist er im Stande gewesen zu zeigen, dass HO von zwei Teilen H und einem Teil O gebildet wurde. Indem er diatomic Benzin entdeckt hat, hat Avogadro die grundlegende Atomtheorie vollendet, den richtigen molekularen Formeln von bekanntesten Zusammensetzungen - sowie die richtigen Gewichte von Atomen erlaubend - abgeleitet und auf eine konsequente Weise kategorisiert zu werden. Die Beendigung in der klassischen Atomtheorie ist gekommen, als Dimitri Mendeleev eine Ordnung in wiederkehrenden chemischen Eigenschaften gesehen hat, und einen Tisch geschaffen hat, der die Elemente in der beispiellosen Ordnung und Symmetrie präsentiert. Aber es gab Löcher im Tisch von Mendeleev ohne Element, um sie auszufüllen. Seine Kritiker haben am Anfang das als ein tödlicher Fehler zitiert, aber wurden zum Schweigen gebracht, als neue Elemente entdeckt wurden, die vollkommen diese Löcher einbauen. Der Erfolg des Periodensystems hat effektiv jede restliche Opposition gegen die Atomtheorie umgewandelt; wenn auch kein einzelnes Atom jemals im Laboratorium beobachtet worden war, war Chemie jetzt eine Atomwissenschaft.

Umdrehung des 20. Jahrhunderts und der Paradigma-Verschiebung

Partikeln der Elektrizität?

Am Ende des 19. Jahrhunderts hat der Reduktionismus der Atomtheorie begonnen, ins Atom selbst vorwärts zu gehen; Bestimmung, durch die Physik, die Natur des Atoms und die Operation von chemischen Reaktionen. Wie man jetzt verstand, hat Elektrizität, zuerst vorgehabt, eine Flüssigkeit zu sein, aus Partikeln genannt Elektronen bestanden. Das wurde zuerst von J. J. Thomson 1897 demonstriert, als, mit einer Kathode-Strahl-Tube, er gefunden hat, dass eine elektrische Anklage über ein Vakuum reisen würde (der unendlichen Widerstand in der klassischen Theorie besitzen würde). Seitdem das Vakuum kein Medium für eine elektrische Flüssigkeit angeboten hat, um zu reisen, konnte diese Entdeckung nur über eine Partikel erklärt werden, die eine negative Anklage trägt und sich durch das Vakuum bewegt. Dieses Elektron ist angesichts der klassischen Elektrodynamik geflogen, die Elektrizität als eine Flüssigkeit viele Jahre lang erfolgreich behandelt hatte (zur Erfindung von Batterien, elektrischen Motoren, Dynamos und Bogenlampen führend). Noch wichtiger die vertraute Beziehung zwischen elektrischer Anklage und Elektromagnetismus war im Anschluss an die Entdeckungen von Michael Faraday und Büroangestelltem Maxwell gut dokumentiert worden. Seitdem, wie man bekannt, Elektromagnetismus eine durch ein sich änderndes elektrisches oder magnetisches Feld erzeugte Welle war (eine dauernde, Welle ähnliche Entität selbst), waren eine atomare Beschreibung / Partikel-Beschreibung der Elektrizität und Anklage eine unlogische Folgerung. Und klassische Elektrodynamik war nicht die einzige klassische Theorie hat unvollständig gemacht.

Radiation quantization

Radiation des schwarzen Körpers, die Emission der elektromagnetischen Energie wegen einer Hitze eines Gegenstands, konnte von klassischen Argumenten allein nicht erklärt werden. Der equipartition Lehrsatz der klassischen Mechanik, die Basis aller klassischen thermodynamischen Theorien, hat festgestellt, dass eine Energie eines Gegenstands ebenso unter den Schwingweisen des Gegenstands verteilt wird. Das hat gut gearbeitet, als es Thermalgegenstände beschrieben hat, deren Schwingweisen als die Geschwindigkeiten ihrer konstituierenden Atome definiert wurden, und der Geschwindigkeitsvertrieb auf das egalitäre Verteilen dieser Schwingweisen zurückzuführen gewesen ist, nah hat experimentelle Ergebnisse verglichen. Geschwindigkeiten viel höher als die durchschnittliche Geschwindigkeit wurden durch die Tatsache unterdrückt, dass kinetische Energie quadratisch ist - verlangt Verdoppelung der Geschwindigkeit viermal die Energie - so die Zahl von Atomen, die hohe Energieweisen (hohe Geschwindigkeiten) schnell besetzen, fällt ab, weil die unveränderliche, gleiche Teilung nacheinander weniger Atome erregen kann. Weisen der niedrigen Geschwindigkeit würden den Vertrieb scheinbar beherrschen, da Weisen der niedrigen Geschwindigkeit jemals weniger Energie verlangen würden, und Anschein nach eine Nullgangweise Nullenergie verlangen würde und seine Energieteilung eine unendliche Zahl von Atomen enthalten würde. Aber das würde nur ohne Atomwechselwirkung vorkommen; wenn Kollisionen erlaubt wird, werden die Weisen der niedrigen Geschwindigkeit durch das Drängeln von den höheren Energieatomen, Aufregen sie zu höheren Energieweisen sofort unterdrückt. Ein Gleichgewicht wird schnell erreicht, wo die meisten Atome eine Geschwindigkeit besetzen, die zur Temperatur des Gegenstands proportional ist (so Temperatur als die durchschnittliche kinetische Energie des Gegenstands definierend).

Aber die Verwendung desselben Denkens zur elektromagnetischen Emission solch eines Thermalgegenstands war nicht so erfolgreich. Es war lange bekannt gewesen, dass Thermalgegenstände Licht ausstrahlen. Heißes Metall glüht rot, und nach der weiteren Heizung, weiß (das ist der zu Grunde liegende Grundsatz der Glühzwiebel). Seitdem, wie man bekannt, Licht Wellen des Elektromagnetismus war, haben Physiker gehofft, diese Emission über klassische Gesetze zu beschreiben. Das ist bekannt als das schwarze Körperproblem geworden. Seitdem der equipartition Lehrsatz so gut im Beschreiben der Schwingweisen des Thermalgegenstands selbst gearbeitet hat, war es trivial, um anzunehmen, dass es ebenso gut im Beschreiben der Strahlungsemission solcher Gegenstände leisten würde. Aber ein Problem ist schnell entstanden, als es die Schwingweisen des Lichtes bestimmt hat. Um das Problem (durch das Begrenzen der Schwingweisen) zu vereinfachen, wurde eine niedrigste zulässige Wellenlänge durch das Stellen des Thermalgegenstands in einer Höhle definiert. Jede elektromagnetische Weise am Gleichgewicht (d. h. jede stehende Welle) konnte nur bestehen, wenn sie die Wände der Höhlen als Knoten verwendet hat. So gab es keine Wellen/Weisen mit einer Wellenlänge, die größer ist als zweimal die Länge (L) der Höhle.

Die ersten paar zulässigen Weisen würden deshalb Wellenlängen haben: 2L, L, 2L/3, L/2, usw. (jede aufeinander folgende Wellenlänge, die einen Knoten zur Welle hinzufügt). Jedoch, während die Wellenlänge 2L nie zu weit gehen konnte, gab es keine solche Grenze beim Verringern der Wellenlänge und Hinzufügen, dass Knoten, um die Wellenlänge zu reduzieren, ad infinitum weitergehen konnten. Plötzlich ist es offenbar geworden, dass die kurzen Wellenlänge-Weisen völlig den Vertrieb beherrscht haben, seitdem jemals kürzere Wellenlänge-Weisen in die Höhle überfüllt werden konnten. Wenn jede Weise eine gleiche Teilung der Energie erhielte, würden die kurzen Wellenlänge-Weisen die ganze Energie verbrauchen. Das ist klar geworden, als es das Rayleigh-Jeans-Gesetz geplant hat, das, während es die Intensität von langen Wellenlänge-Emissionen richtig vorausgesagt hat, unendliche Gesamtenergie vorausgesagt hat, weil die Intensität zur Unendlichkeit für kurze Wellenlängen abweicht. Das ist bekannt als die ultraviolette Katastrophe geworden.

Die Lösung ist 1900 angekommen, als Max Planck Hypothese aufgestellt hat, dass die Frequenz des durch den schwarzen Körper ausgestrahlten Lichtes von der Frequenz des Oszillators abgehangen hat, der es, und die Energie dieser Oszillatoren vergrößert geradlinig mit der Frequenz (gemäß seinem unveränderlichen h, wo E = hν) ausgestrahlt hat. Das war nicht ein ungesunder Vorschlag denkend, dass makroskopische Oszillatoren ähnlich funktionieren: Wenn er fünf einfache harmonische Oszillatoren des gleichen Umfangs, aber der verschiedenen Frequenz studiert, besitzt der Oszillator mit der höchsten Frequenz die höchste Energie (obwohl diese Beziehung wie Planck nicht geradlinig ist). Indem er gefordert hat, dass Hochfrequenzlicht durch einen Oszillator der gleichen Frequenz und das weitere Verlangen ausgestrahlt werden muss, dass dieser Oszillator höhere Energie besetzt als eine einer kleineren Frequenz, hat Planck jede Katastrophe vermieden; das Geben einer gleichen Teilung zu Hochfrequenzoszillatoren hat nacheinander weniger Oszillatoren und weniger ausgestrahltes Licht erzeugt. Und als im Vertrieb von Maxwell-Boltzmann wurden die niederfrequenten, Oszillatoren der niedrigen Energie durch den Angriff von thermischem jiggling von höheren Energieoszillatoren unterdrückt, die notwendigerweise ihre Energie und Frequenz vergrößert haben.

Der revolutionärste Aspekt der Behandlung von Planck des schwarzen Körpers ist, dass es sich von Natur aus auf eine Zahl der ganzen Zahl von Oszillatoren im Thermalgleichgewicht mit dem elektromagnetischen Feld verlässt. Diese Oszillatoren geben ihre komplette Energie dem elektromagnetischen Feld, ein Quant des Lichtes so häufig schaffend, wie sie durch das elektromagnetische Feld aufgeregt sind, ein Quant des Lichtes absorbierend und beginnend, an der entsprechenden Frequenz zu schwingen. Planck hatte eine Atomtheorie des schwarzen Körpers absichtlich geschaffen, aber hatte eine Atomtheorie des Lichtes unabsichtlich erzeugt, wo der schwarze Körper nie Quanten des Lichtes an einer gegebenen Frequenz mit einer Energie weniger erzeugt als . Jedoch einmal Verständnis, dass er das elektromagnetische Feld gequantelt hatte, hat er Partikeln des Lichtes als eine Beschränkung seiner Annäherung, nicht ein Eigentum der Wirklichkeit verurteilt.

Fotoelektrische Wirkung hat sich erhellt

Und doch, während Planck die ultraviolette Katastrophe gelöst hatte, indem er Atome und ein gequanteltes elektromagnetisches Feld verwendet hat, haben die meisten Physiker sofort zugegeben, dass die "leichten Quanten von Planck" unvermeidliche Fehler in seinem Modell waren. Eine mehr ganze Abstammung der schwarzen Körperradiation würde ein völlig dauerndes, völlig Welle ähnliches elektromagnetisches Feld ohne quantization erzeugen. Jedoch 1905 hat Albert Einstein das schwarze Körpermodell von Planck an sich genommen und hat eine wunderbare Lösung eines anderen hervorragenden Problems des Tages gesehen: die fotoelektrische Wirkung. Seit der Entdeckung von Elektronen acht Jahre vorher waren Elektronen das Ding gewesen, in Physik-Laboratorien weltweit zu studieren. Nikola Tesla hat 1901 entdeckt, dass, als ein Metall durch das Hochfrequenzlicht (z.B ultraviolettes Licht) illuminiert wurde, Elektronen aus dem Metall an der hohen Energie vertrieben wurden. Diese Arbeit hat auf den vorherigen Kenntnissen basiert, dass das leichte Ereignis auf Metalle einen Strom erzeugt, aber Tesla war erst, um es als ein Partikel-Phänomen zu beschreiben.

Im nächsten Jahr hat Philipp Lenard entdeckt, dass (innerhalb der Reihe der experimentellen Rahmen er verwendete), hat die Energie dieser vertriebenen Elektronen von der Intensität des eingehenden Lichtes, aber auf seiner Frequenz nicht abgehangen. So, wenn man ein kleines niederfrequentes Licht auf ein Metall poliert, werden einige niedrige Energieelektronen vertrieben. Wenn man jetzt einen sehr intensiven Balken des niederfrequenten Lichtes auf dasselbe Metall poliert, hat ein Ganzer Elektronen gemordet werden vertrieben; jedoch besitzen sie dieselbe niedrige Energie, es gibt bloß mehr von ihnen. Um hohe Energieelektronen zu bekommen, muss man das Metall mit dem Hochfrequenzlicht illuminieren. Je leichter es gibt, desto mehr Elektronen vertrieben werden. Wie blackbody Radiation war das uneins mit einer Theorie, die dauernde Übertragung der Energie zwischen Radiation und Sache anruft. Jedoch kann es noch mit einer völlig klassischen Beschreibung des Lichtes erklärt werden, so lange Sache in der Natur mechanisches Quant ist.

Wenn die Energiequanten des eines verwendeten Plancks, und gefordert haben, dass die elektromagnetische Radiation an einer gegebenen Frequenz nur Energie übertragen konnte, in Vielfachen der ganzen Zahl eines Energiequants von Bedeutung zu sein, dann konnte die fotoelektrische Wirkung sehr einfach erklärt werden. Niederfrequentes Licht vertreibt nur Elektronen der niedrigen Energie, weil jedes Elektron durch die Absorption eines einzelnen Fotons aufgeregt ist. Die Erhöhung der Intensität des niederfrequenten Lichtes (das Steigern der Zahl von Fotonen) steigert nur die Zahl von aufgeregten Elektronen, nicht ihre Energie, weil die Energie jedes Fotons niedrig bleibt. Nur durch die Erhöhung der Frequenz des Lichtes, und so die Erhöhung der Energie der Fotonen, kann man, Elektronen mit der höheren Energie vertreiben. So, mit dem unveränderlichen h von Planck, um die Energie der auf ihrer Frequenz gestützten Fotonen zu bestimmen, sollte die Energie von vertriebenen Elektronen auch geradlinig mit der Frequenz zunehmen; der Anstieg der Linie, die die Konstante von Planck ist. Diese Ergebnisse wurden bis 1915 nicht bestätigt, als Robert Andrews Millikan, der vorher die Anklage des Elektrons bestimmt hatte, experimentelle Ergebnisse in der vollkommenen Übereinstimmung mit den Vorhersagen von Einstein erzeugt hat. Während die Energie von vertriebenen Elektronen die Konstante von Planck widerspiegelt hat, wurde die Existenz von Fotonen bis zur Entdeckung der Foton-Antibündeln-Wirkung nicht ausführlich bewiesen, deren ein modernes Experiment in Studentenniveau-Laboratorien durchgeführt werden kann. Dieses Phänomen konnte nur über Fotonen, und nicht durch jede halbklassische Theorie erklärt werden (der die fotoelektrische Wirkung wechselweise erklären konnte). Als Einstein seinen Nobelpreis 1921 erhalten hat, war es nicht für seine schwierigere und mathematisch mühsame spezielle und allgemeine Relativität, aber für das einfache, noch völlig revolutionär, Vorschlag des gequantelten Lichtes. Die "leichten Quanten von Einstein" würden Fotonen bis 1925 nicht genannt, aber sogar 1905 haben sie das wesentliche Beispiel der Dualität der Welle-Partikel vertreten. Elektromagnetische Radiation pflanzt sich im Anschluss an geradlinige Wellengleichungen fort, aber kann nur ausgestrahlt oder als getrennte Elemente absorbiert werden, so als eine Welle und eine Partikel gleichzeitig handelnd.

Entwicklungsmeilensteine

Huygens und Newton

Die frühste umfassende Theorie des Lichtes wurde von Christiaan Huygens vorgebracht, der eine Wellentheorie des Lichtes vorgeschlagen hat, und insbesondere demonstriert hat, wie sich Wellen einmischen könnten, um einen wavefront zu bilden, sich in einer Gerade fortpflanzend. Jedoch hatte die Theorie Schwierigkeiten in anderen Sachen, und wurde bald durch die Korpuskulartheorie von Isaac Newton des Lichtes überschattet. D. h. Newton hat vorgeschlagen, dass Licht aus kleinen Partikeln bestanden hat, mit denen er das Phänomen des Nachdenkens leicht erklären konnte. Mit beträchtlich mehr Schwierigkeit konnte er auch Brechung durch eine Linse und das Aufspalten des Sonnenlichtes in einen Regenbogen durch ein Prisma erklären. Der Partikel-Gesichtspunkt von Newton ist im Wesentlichen unbestritten seit mehr als einem Jahrhundert gegangen.

Jung, Fresnel und Maxwell

Am Anfang des 19. Jahrhunderts haben die Experimente des doppelten Schlitzes durch Young und Fresnel Beweise für die Wellentheorien von Huygens zur Verfügung gestellt. Die Experimente des doppelten Schlitzes haben gezeigt, dass, wenn Licht durch einen Bratrost gesandt wird, ein charakteristisches Einmischungsmuster beobachtet, zum Muster sehr ähnlich wird, das sich aus der Einmischung von Wasserwellen ergibt; die Wellenlänge des Lichtes kann von solchen Mustern geschätzt werden. Die Welle-Ansicht hat den Strahl und die Partikel-Ansicht nicht sofort versetzt, aber hat begonnen, das wissenschaftliche Denken an Licht Mitte des 19. Jahrhunderts zu beherrschen, seitdem es Polarisationsphänomene erklären konnte, dass die Alternativen nicht gekonnt haben.

Gegen Ende des 19. Jahrhunderts hat James Clerk Maxwell Licht als die Fortpflanzung von elektromagnetischen Wellen gemäß den Gleichungen von Maxwell erklärt. Diese Gleichungen wurden durch das Experiment von Heinrich Hertz 1887 nachgeprüft, und die Wellentheorie ist weit akzeptiert geworden.

Die Formel von Planck für die Radiation des schwarzen Körpers

1901 hat Max Planck eine Analyse veröffentlicht, die geschafft hat, das beobachtete Spektrum des durch einen glühenden Gegenstand ausgestrahlten Lichtes wieder hervorzubringen. Um das zu vollbringen, musste Planck eine mathematische Ad-Hoc-Annahme der gequantelten Energie der Oszillatoren machen (Atome des schwarzen Körpers), die Radiation ausstrahlen. Es war Einstein, der später vorgeschlagen hat, dass es die elektromagnetische Radiation selbst ist, die, und nicht die Energie von ausstrahlenden Atomen gequantelt wird.

Die Erklärung von Einstein der fotoelektrischen Wirkung

1905 hat Albert Einstein eine Erklärung der fotoelektrischen Wirkung, ein sich bisher beunruhigendes Experiment zur Verfügung gestellt, dass die Wellentheorie des Lichtes unfähig des Erklärens geschienen ist. Er hat so getan, indem er die Existenz von Fotonen, Quanten der leichten Energie mit particulate Qualitäten verlangt hat.

In der fotoelektrischen Wirkung wurde es bemerkt, dass das Polieren eines Lichtes auf bestimmte Metalle zu einem elektrischen Strom in einem Stromkreis führen würde. Vermutlich schlug das Licht Elektronen aus dem Metall, Strom veranlassend, zu fließen. Jedoch, mit dem Fall des Kaliums als ein Beispiel, wurde es auch bemerkt, dass, während ein dunkelblaues Licht genug war, um einen Strom sogar zu verursachen, der stärkste, hellste mit der Technologie der Zeit verfügbare rote Licht keinen Strom überhaupt verursacht hat. Gemäß der klassischen Theorie des Lichtes und der Sache, der Kraft oder des Umfangs einer leichten Welle war im Verhältnis zu seiner Helligkeit: Ein helles Licht sollte leicht stark genug gewesen sein, um einen großen Strom zu schaffen. Und doch, sonderbar, war das nicht so.

Einstein hat dieses Rätsel erklärt, indem er verlangt hat, dass die Elektronen Energie vom elektromagnetischen Feld nur in getrennten Teilen erhalten können (Quanten, die Fotonen genannt wurden): Ein Betrag der Energie E, der mit der Frequenz f des Lichtes durch verbunden gewesen

ist:

wo h die Konstante von Planck (6.626 × 10 J Sekunden) ist. Nur Fotonen einer genug hohen Frequenz (über einem bestimmten Schwellenwert) konnten ein freies Elektron schlagen. Zum Beispiel hatten Fotonen des blauen Lichtes genügend Energie, ein Elektron vom Metall zu befreien, aber Fotonen des roten Lichtes haben nicht getan. Das intensivere Licht über der Schwellenfrequenz konnte mehr Elektronen veröffentlichen, aber kein Betrag des Lichtes (das Verwenden der Technologie verfügbar zurzeit) unter der Schwellenfrequenz konnte ein Elektron veröffentlichen. Dieses Gesetz "zu verletzen", würde äußerst hohe Intensitätslaser verlangen, die noch nicht erfunden worden waren. Von der Intensität abhängige Phänomene sind jetzt im Detail mit solchen Lasern studiert worden.

Einstein wurde dem Nobelpreis in der Physik 1921 für seine Entdeckung des Gesetzes der fotoelektrischen Wirkung zuerkannt.

Die Wellenlänge von De Broglie

1924 hat Louis-Victor de Broglie die Hypothese von de Broglie formuliert, behauptend, dass die ganze Sache, nicht nur Licht, eine Welle ähnliche Natur hat; er hat Wellenlänge (angezeigt als λ), und Schwung (angezeigt als p) verbunden:

:

Das ist eine Generalisation der Gleichung von Einstein oben, da der Schwung eines Fotons durch p = und die Wellenlänge (in einem Vakuum) durch λ = gegeben wird, wo c die Geschwindigkeit des Lichtes im Vakuum ist.

Die Formel von De Broglie wurde drei Jahre später für Elektronen bestätigt (die sich von Fotonen in der sich erholenden Masse unterscheiden) mit der Beobachtung der Elektronbeugung in zwei unabhängigen Experimenten. An der Universität von Aberdeen hat George Paget Thomson einen Balken von Elektronen durch einen dünnen Metallfilm passiert und hat die vorausgesagten Einmischungsmuster beobachtet. An Glockenlaboratorien haben Clinton Joseph Davisson und Lester Halbert Germer ihren Balken durch einen kristallenen Bratrost geführt.

De Broglie wurde dem Nobelpreis für die Physik 1929 für seine Hypothese zuerkannt. Thomson und Davisson haben den Nobelpreis für die Physik 1937 für ihre experimentelle Arbeit geteilt.

Der Unklarheitsgrundsatz von Heisenberg

In seiner Arbeit an der Formulierung der Quant-Mechanik hat Werner Heisenberg seinen Unklarheitsgrundsatz verlangt, der festsetzt:

:wo

: hier zeigt Standardabweichung, ein Maß der Ausbreitung oder Unklarheit an;

:x und p sind eine Position einer Partikel und geradliniger Schwung beziehungsweise.

: ist die Konstante von reduziertem Planck (die Konstante von Planck, die durch 2 geteilt ist).

Heisenberg hat ursprünglich das demzufolge des Prozesses des Messens erklärt: Das Messen der Position würde genau Schwung und umgekehrt stören, ein Beispiel anbietend (das "Gammastrahl-Mikroskop"), der entscheidend von der Hypothese von de Broglie abgehangen hat. Es wird jetzt jedoch gedacht, dass das nur teilweise das Phänomen erklärt, aber dass die Unklarheit auch in der Partikel selbst sogar besteht, bevor das Maß gemacht wird.

Tatsächlich hängt die moderne Erklärung des Unklarheitsgrundsatzes, die Kopenhagener Interpretation erweiternd, die zuerst von Bohr und Heisenberg vorgebracht ist, noch zentraler von der Welle-Natur einer Partikel ab: Da es sinnlos ist, um die genaue Position einer Welle auf einer Schnur zu besprechen, haben Partikeln vollkommen genaue Positionen nicht; ebenfalls, da es sinnlos ist, um die Wellenlänge einer "Puls"-Welle zu besprechen, die unten eine Schnur reist, haben Partikeln vollkommen genaue Schwünge nicht (der dem Gegenteil der Wellenlänge entspricht). Außerdem, wenn Position relativ gut definiert wird, ist die Welle pulsähnlich und hat eine sehr schlecht-definierte Wellenlänge (und so Schwung). Und umgekehrt, wenn Schwung (und so Wellenlänge) relativ, die Welle-Blicke lang und sinusförmig, und deshalb gut definiert wird, hat es eine sehr schlecht-definierte Position.

De Broglie selbst hatte eine Versuchswelle-Konstruktion vorgeschlagen, um die beobachtete Dualität der Welle-Partikel zu erklären. In dieser Ansicht hat jede Partikel eine bestimmte Position und Schwung, aber wird durch eine Welle-Funktion geführt ist auf die Gleichung von Schrödinger zurückzuführen gewesen. Die Versuchswellentheorie wurde am Anfang zurückgewiesen, weil sie nichtlokale Effekten, wenn angewandt, auf Systeme erzeugt hat, die mehr als eine Partikel einschließen. Nichtgegend ist jedoch bald feststehend als eine integrierte Eigenschaft der Quant-Theorie geworden (sieh EPR Paradox), und David Bohm hat das Modell von de Broglie erweitert, um es ausführlich einzuschließen. In der resultierenden Darstellung, auch genannt die Theorie von de Broglie-Bohm oder Mechanik von Bohmian, ist die Dualität der Welle-Partikel nicht ein Eigentum der Sache selbst, aber ein Äußeres, das durch das Bewegungsthema der Partikel einer führenden Gleichung oder Quant-Potenzial erzeugt ist.

Welle-Verhalten von großen Gegenständen

Seit den Demonstrationen von Welle ähnlichen Eigenschaften in Fotonen und Elektronen sind ähnliche Experimente mit Neutronen und Protonen durchgeführt worden. Unter den berühmtesten Experimenten sind diejenigen von Estermann und Otto Stern 1929.

Autoren von ähnlichen neuen Experimenten mit Atomen und Molekülen, die unten beschrieben sind, behaupten, dass diese größeren Partikeln auch wie Wellen handeln.

Eine dramatische Reihe von Experimenten, die Handlung des Ernstes in Bezug auf die Dualität der Welle-Partikel betonend, wurde in den 1970er Jahren mit dem Neutron interferometer geführt. Neutronen, einer der Bestandteile des Atomkerns, stellen viel von der Masse eines Kerns und so der gewöhnlichen Sache zur Verfügung. Im Neutron interferometer handeln sie als mit dem Quant mechanische der Kraft des Ernstes direkt unterworfene Wellen. Während die Ergebnisse nicht überraschend waren, seitdem, wie man bekannt, Ernst allem einschließlich des Lichtes gefolgt hat (sieh Tests der allgemeinen Relativität und des Pfundes-Rebka, das Foton-Experiment fällt), die Selbsteinmischung des Quants mechanische Welle eines massiven fermion in einem Schwerefeld war vorher nie experimentell bestätigt worden.

1999 wurde die Beugung von C fullerenes durch Forscher von der Universität Wiens berichtet. Fullerenes sind verhältnismäßig große und massive Gegenstände, eine Atommasse von ungefähr 720 u habend. Die Wellenlänge von de Broglie ist 2.5 Premierminister, wohingegen das Diameter des Moleküls ungefähr 1 nm, ungefähr 400mal größer ist. 2012 konnten diese Fernbereich-Beugungsexperimente zu phthalocyanine Molekülen und ihren schwereren Ableitungen erweitert werden, die aus 58 und 114 Atomen beziehungsweise zusammengesetzt werden. In diesen Experimenten konnte die Zunahme solcher Einmischungsmuster in Realtime und mit der einzelnen Molekül-Empfindlichkeit registriert werden.

2003 hat die Wiener Gruppe auch die Welle-Natur von tetraphenylporphyrin — eine Wohnung biodye mit einer Erweiterung von demonstriert

ungefähr 2 nm und eine Masse von 614 u. Für diese Demonstration haben sie nahes Feld Talbot Lau interferometer verwendet. In demselben interferometer haben sie auch Einmischungsfransen für VGL, ein fluorinated buckyball mit einer Masse von ungefähr 1600 u gefunden, die aus 108 Atomen zusammengesetzt sind. Große Moleküle sind bereits so kompliziert, dass sie experimentellen Zugang zu einigen Aspekten der mit dem Quant klassischen Schnittstelle, d. h. zu bestimmten decoherence Mechanismen geben.. Kürzlich konnte die Einmischung von Molekülen so schwer wie 6910 u in einem Kapitza Dirac Talbot Lau interferometer demonstriert werden. Das sind die größten Gegenstände, die bis jetzt deBroglie Einmischung der Sache-Welle gezeigt haben.

Ob Gegenstände, die schwerer sind als die Masse von Planck (über das Gewicht einer großen Bakterie), eine Wellenlänge von de Broglie haben, ist theoretisch unklar und experimentell unerreichbar; über der Masse von Planck würde eine Wellenlänge von Compton einer Partikel kleiner sein als die Länge von Planck und sein eigener Radius von Schwarzschild, eine Skala, an der aktuelle Theorien der Physik zusammenbrechen können oder durch allgemeinere ersetzt werden müssen.

Kürzlich Couder, Fort u. a. hat gezeigt, dass wir makroskopische Öltröpfchen auf der vibrierenden Oberfläche als ein Modell der Dualität der Welle-Partikel verwenden können - schafft lokalisiertes Tröpfchen periodische Wellen ringsherum, und die Wechselwirkung mit ihnen führt zu einem Quant ähnlichen Phänomenen: Die Einmischung ins Experiment des doppelten Schlitzes, unvorhersehbarer tunneling (auf die komplizierte Weise vom praktisch verborgenen Staat des Feldes abhängend), und Bahn quantization (dass Partikel eine Klangfülle' mit Feldunruhen 'finden muss, die es - nach einer Bahn schafft, muss seine innere Phase zum anfänglichen Staat zurückkehren).

Behandlung in der modernen Quant-Mechanik

Dualität der Welle-Partikel wird in die Fundamente der Quant-Mechanik so gut tief eingebettet, dass moderne Praktiker es selten als solcher besprechen. Im Formalismus der Theorie wird die ganze Information über eine Partikel in seiner Welle-Funktion, eine Komplex-geschätzte Funktion verschlüsselt, die grob dem Umfang einer Welle an jedem Punkt im Raum analog ist. Diese Funktion entwickelt sich gemäß einer Differenzialgleichung (allgemein hat die Gleichung von Schrödinger genannt), und diese Gleichung hat Lösungen, die der Form der Wellengleichung folgen. Die Fortpflanzung solcher Wellen führt zu Welle ähnlichen Phänomenen wie Einmischung und Beugung.

Das einer Partikel ähnliche Verhalten ist wegen Phänomene am offensichtlichsten, die mit dem Maß in der Quant-Mechanik vereinigt sind. Nach dem Messen der Position der Partikel wird die Partikel in einen mehr lokalisierten Staat, wie gegeben, durch den Unklarheitsgrundsatz gezwungen. Wenn angesehen, durch diesen Formalismus wird das Maß der Welle-Funktion, oder eher "decohere" zufällig "zusammenbrechen", dazu hat scharf Funktion an einer Position kulminiert. Die Wahrscheinlichkeit, die Partikel an jeder besonderen Position zu entdecken, ist dem karierten Umfang der Welle-Funktion dort gleich. Das Maß wird eine bestimmte Position, (Thema der Unklarheit), ein mit Partikeln traditionell vereinigtes Eigentum zurückgeben. Es ist wichtig zu bemerken, dass ein Maß nur ein besondere Typ der Wechselwirkung ist, wo einige Daten registriert werden und die gemessene Menge in einen besonderen eigenstate gezwungen wird. Die Tat des Maßes ist deshalb nicht im Wesentlichen verschieden als jede andere Wechselwirkung.

Obwohl dieses Bild etwas vereinfacht wird (zum nichtrelativistischen Fall), ist es entsprechend, die Essenz des aktuellen Denkens auf den Phänomenen historisch genannt "Dualität der Welle-Partikel" zu gewinnen. (Siehe auch: Partikel in einem Kasten, Mathematischer Formulierung der Quant-Mechanik.)

Im Anschluss an die Entwicklung der Quant-Feldtheorie ist die Zweideutigkeit verschwunden. Obwohl es noch Debatte betreffs gibt, ob man das Feld als "echt" akzeptieren sollte, wird die Debatte über das Verwenden des Begriffes Welle oder Partikel sinnlos gemacht. Das Feld erlaubt Lösungen, die der Wellengleichung folgen, die die Welle-Funktionen genannt werden. Der Begriff Partikel wird gebraucht, um die nicht zu vereinfachenden Darstellungen der Gruppe von Lorentz zu etikettieren, die durch das Feld erlaubt werden. Eine Wechselwirkung als in einem Diagramm von Feynmann wird als eine calculationally günstige Annäherung akzeptiert, wo, wie man bekannt, die aus dem Amt scheiden Beine Vereinfachungen der Fortpflanzung sind und die inneren Linien für eine Ordnung in einer Vergrößerung der Feldwechselwirkung sind. Da das Feld nichtlokal und, die Phänomene gequantelt ist, von denen vorher gedacht wurde, weil Paradoxe erklärt werden.

Vergegenwärtigung

Unten ist eine Illustration dessen, wie Dualität der Welle-Partikel mit der Hypothese von De Broglie und dem Unklarheitsgrundsatz von Heisenberg (oben) im Einklang stehend ist. In einer Dimension für eine Partikel wird die Wahrscheinlichkeit, eine Partikel im Raum in einer Zeit t (nicht gezeigt) zu finden, als eine (Komplex-geschätzte) Wellenform durch den Raum verteilt, der mathematisch durch die Welle-Funktion der Partikel ψ beschrieben ist. Je größer der Umfang, desto wahrscheinlicher die Partikel gefunden werden soll.

Für die (verlassene) Flugzeug-Welle wird der Welle ähnliche Wahrscheinlichkeitsvertrieb ψ die Partikel wahrscheinlich überall wegen der Periodizität der Welle gefunden.

Für den wavepacket (Recht) wird ψ lokalisiert, und die Partikel kann innerhalb von einem beschränkten Gebiet des Raums gefunden werden.

Alternative Ansichten

Dualität der Welle-Partikel ist ein andauerndes Rätsel in der modernen Physik. Die meisten Physiker akzeptieren Dualität der Welle-Partikel als die beste Erklärung für eine breite Reihe von beobachteten Phänomenen; jedoch ist es nicht ohne Meinungsverschiedenheit. Alternative Ansichten werden auch hier präsentiert. Diese Ansichten werden durch die Hauptströmungsphysik, aber den Aufschlag als eine Basis für die wertvolle Diskussion innerhalb der Gemeinschaft nicht allgemein akzeptiert.

Sowohl Partikel als auch Welle-Ansicht

Das Versuchswelle-Modell, das ursprünglich von Louis de Broglie entwickelt ist und weiter von David Bohm in die verborgene variable Theorie entwickelt ist, schlägt vor, dass es keine Dualität gibt, aber eher stellt ein System sowohl Partikel-Eigenschaften als auch Welle-Eigenschaften gleichzeitig aus, und Partikeln auf eine deterministische Mode durch die Versuchswelle geführt werden (oder sein "Quant-Potenzial"), der sie zu Gebieten der konstruktiven Einmischung in der Bevorzugung vor Gebieten der zerstörenden Einmischung leiten wird. Diese Idee wird von einer bedeutenden Minderheit innerhalb der Physik-Gemeinschaft gehalten.

Mindestens ein Physiker betrachtet die "Welle-Dualität" als eine falsche Bezeichnung, als L. Ballentine, Quant-Mechanik, Eine Moderne Entwicklung, p. 4, erklärt:

Das Experiment von Afshar (2007) hat demonstriert, dass es möglich ist, gleichzeitig sowohl Welle als auch Partikel-Eigenschaften von Fotonen zu beobachten. Biddulph (2010) hat das erklärt, indem er Techniken von der deterministischen Verwirrung bis nichtchaotische Systeme, insbesondere eine berechenbare Version des Universalen Invariant-Satz-Vorschlags von Palmer (2009) anwendet, der der offenbaren Unheimlichheit von Quant-Phänomenen erlaubt, als Artefakte des Quant-Apparats nicht ein grundsätzliches Eigentum der Natur erklärt zu werden. Wie man zeigt, sind Wellen die einzigen Mittel, Bewegung zu beschreiben, da die glatte Bewegung auf einem Kontinuum unmöglich ist. Wenn eine Partikel jeden Punkt auf seiner Schussbahn dann besucht, ist die Bewegung ein Algorithmus für jeden Punkt. Turing hat gezeigt, dass fast alle Zahlen nichtberechenbar sind, was bedeutet, dass es keinen möglichen Algorithmus gibt, so ist der Satz von Punkten auf einer Schussbahn spärlich. Das deutet an, dass Bewegung entweder ruckartig oder Welle ähnlich ist. Durch das Entfernen des Bedürfnisses, die Partikel mit den Eigenschaften der Zeit und Raums zu laden, ist eine völlig deterministische, lokale und kausale Beschreibung von Quant-Phänomenen durch den Gebrauch eines einfachen dynamischen Maschinenbedieners auf einem Universalen Invariant-Satz möglich.

Welle-Only-Ansicht

Mindestens ein Wissenschaftler schlägt vor, dass die Dualität durch eine "Welle-Only-" Ansicht ersetzt werden kann. Die gesammelte Elektrodynamik der Weide des Bildhauers: Quant-Fundamente des Elektromagnetismus (2000) analysieren das Verhalten von Elektronen und Fotonen rein in Bezug auf Elektronwelle-Funktionen, und schreiben das offenbare einer Partikel ähnliche Verhalten zu quantization Effekten und eigenstates zu. Gemäß dem Rezensenten David Haddon:

Albert Einstein, der, in seiner Suche nach einer Vereinigten Feldtheorie, Dualität der Welle-Partikel nicht akzeptiert hat, hat geschrieben:

Und theoretischer Physiker Mendel Sachs, der versucht hat, die vereinigte Feldtheorie von Einstein zu vollenden, schreibt:

Die Vielweltinterpretation (MWI) wird manchmal als eine Wellen-Only-Theorie, einschließlich von seinem Schöpfer, Hugh Everett präsentiert, der MWI als "die Welle-Interpretation" gekennzeichnet hat.

R. Horodeckis verbindet die Partikel, um zu winken. Die Hypothese deutet an, dass eine massive Partikel wirklich räumlich sowie zeitlich erweitertes Welle-Phänomen nach einem nichtlinearen Gesetz ist. Gemäß M. I. Sanduk ist diese Hypothese mit einem hypothetischen Schrägfläche-Zahnrad-Modell verbunden. Dann können beide Konzepte der Partikel und Welle einem Beobachtungsproblem des Zahnrades zugeschrieben werden.

Weder Welle noch Partikel-Ansicht

Es ist behauptet worden, dass es nie genaue Partikeln oder Wellen, aber nur etwas Kompromiss oder Zwischenglied zwischen ihnen gibt. Eine Rücksicht

ist diese Null dimensionale mathematische Punkte können nicht beobachtet werden. Ein anderer ist das die formelle Darstellung solcher Punkte, die Delta-Funktion von Kronecker ist unphysisch, weil es nicht normalisiert werden kann. Parallele Argumente gelten für reine Welle-Staaten.

"Solche Positionsstaaten werden wavefunctions idealisiert [..] wohingegen der Schwung festsetzt

werden ungeheuer ausgedehnt, die Positionsstaaten werden ungeheuer konzentriert. Keiner ist normaliseable [..]"

Verwandtschaftsannäherung an die Dualität der Welle-Partikel

Verwandtschaftsquant-Mechanik wird entwickelt, der das Entdeckungsereignis als das Herstellen einer Beziehung zwischen dem gequantelten Feld und dem Entdecker betrachtet. Die innewohnende Zweideutigkeit, die mit der Verwendung des Unklarheitsgrundsatzes von Heisenberg und so Dualität der Welle-Partikel vereinigt ist, wird nachher vermieden.

Anwendungen

Obwohl es schwierig ist, eine Linie zu ziehen, die Dualität der Welle-Partikel vom Rest der Quant-Mechanik trennt, ist es dennoch möglich, einige Anwendungen dieser Grundidee zu verzeichnen.

  • Dualität der Welle-Partikel wird in der Elektronmikroskopie ausgenutzt, wo die kleinen mit dem Elektron vereinigten Wellenlängen verwendet werden können, um Gegenstände anzusehen, die viel kleiner sind als, was sichtbares verwendendes sichtbares Licht ist.
  • Ähnlich verwendet Neutronbeugung Neutronen mit einer Wellenlänge von ungefähr 0.1 nm, dem typischen Abstand von Atomen in einem Festkörper, um die Struktur von Festkörpern zu bestimmen.

Siehe auch

  • Arago entdecken
  • Afshar experimentieren
  • Grundlegende Konzepte der Quant-Mechanik
  • Complementarity (Physik)
  • Elektroneinmischung des Welle-Pakets
  • Hanbury Brown und Wirkung von Twiss
  • Foton-Polarisation
  • Das Zerstreuen der Theorie
  • Elementarwelle
  • Die verzögerte Wahl von Wheeler experimentiert

Zeichen und Verweisungen

Links


Textverarbeitung / 3D Wolfenstein
Impressum & Datenschutz