Wiedernormalisierung

In der Quant-Feldtheorie, der statistischen Mechanik von Feldern und der Theorie von selbstähnlichen geometrischen Strukturen, ist Wiedernormalisierung einige einer Sammlung von Techniken, die verwendet sind, um Unendlichkeit zu behandeln, die in berechneten Mengen entsteht.

Wenn

man Zeit und Raum als ein Kontinuum, sicher statistisch und Quant beschreibt, werden mechanische Aufbauten schlecht definiert. Um sie zu definieren, muss die Kontinuum-Grenze sorgfältig genommen werden.

Wiedernormalisierung stellt eine Beziehung zwischen Rahmen in der Theorie her, wenn sich die Rahmen, die große Entfernungsskalen beschreiben, von den Rahmen unterscheiden, die kleine Entfernungen beschreiben. Wiedernormalisierung wurde zuerst in der Quant-Elektrodynamik (QED) entwickelt, um unendliche Integrale in der Unruhe-Theorie zu verstehen. Am Anfang angesehen als ein misstrauisches provisorisches Verfahren von einigen seiner Schöpfer wurde Wiedernormalisierung schließlich als ein wichtiges und konsequentes Werkzeug in mehreren Feldern der Physik und Mathematik umarmt.

Selbstwechselwirkungen in der klassischen Physik

Das Problem der Unendlichkeit ist zuerst in der klassischen Elektrodynamik von Punkt-Partikeln im 19. und Anfang des 20. Jahrhunderts entstanden.

Die Masse einer beladenen Partikel sollte die Massenenergie in sein elektrostatisches Feld (Elektromagnetische Masse) einschließen. Nehmen Sie an, dass die Partikel eine beladene kugelförmige Schale des Radius ist. Die Massenenergie im Feld ist

:

m_\mathrm {em} = \int \operatorname {d} V {1\over 2} E^2 = \int_ {r_e} ^\\infty Dr 4\pi r^2\frac {1} {2} \left ({q\over 4\pi r^2} \right) ^2 = {Q^2 \over 8\pi r_e }\

</Mathematik>

und es ist in der Grenze als Annäherungsnull unendlich, die andeutet, dass die Punkt-Partikel unendliche Trägheit haben würde, es unfähig machend, beschleunigt zu werden. Beiläufig macht der Wert davon gleich der Elektronmasse wird den klassischen Elektronradius genannt, der sich (Wiederherstellung von Faktoren von c und) erweist, Zeiten zu sein, die kleiner sind als die Wellenlänge von Compton des Elektrons:

:

r_e = {Q^2 \over 4\pi\epsilon_0 m_e c^2} \approx {1\over 137} {\\hbar\over m_e c\\approx 2.8 \times 10^ {-15} \, \mathrm {M}.

</Mathematik>

Die wirksame Gesamtmasse einer kugelförmigen beladenen Partikel schließt die wirkliche bloße Masse der kugelförmigen Schale (zusätzlich zur oben erwähnten Masse ein, die mit seinem elektrischen Feld vereinigt ist). Wenn der bloßen Masse der Schale erlaubt wird, negativ zu sein, könnte es möglich sein, eine konsequente Punkt-Grenze zu nehmen. Das wurde Wiedernormalisierung genannt, und Lorentz und Abraham haben versucht, eine klassische Theorie des Elektrons dieser Weg zu entwickeln. Diese frühe Arbeit war die Inspiration für spätere Versuche von regularization und Wiedernormalisierung in der Quant-Feldtheorie.

Wenn

man die elektromagnetischen Wechselwirkungen von beladenen Partikeln berechnet, ist es verführerisch, die Zurückreaktion eines eigenen Feldes einer Partikel auf sich zu ignorieren. Aber diese Zurückreaktion ist notwendig, um die Reibung auf beladenen Partikeln zu erklären, wenn sie Radiation ausstrahlen. Wenn, wie man annimmt, das Elektron ein Punkt ist, weicht der Wert der Zurückreaktion aus demselben Grund ab, dass die Masse abweicht, weil das Feld umgekehrt-quadratisch ist.

Die Theorie von Abraham-Lorentz hatte eine nichtkausale "Vorbeschleunigung". Manchmal würde ein Elektron anfangen sich zu bewegen, bevor die Kraft angewandt wird. Das ist ein Zeichen, dass die Punkt-Grenze inkonsequent ist. Ein verlängerter Körper wird anfangen sich zu bewegen, wenn eine Kraft innerhalb eines Radius des Zentrums der Masse angewandt wird.

Die Schwierigkeiten waren in der klassischen Feldtheorie schlechter als in der Quant-Feldtheorie, weil in der Quant-Feldtheorie eine beladene Partikel Zitterbewegung wegen der Einmischung mit virtuellen Paaren des Partikel-Antiteilchens erfährt, so effektiv die Anklage über ein mit der Wellenlänge von Compton vergleichbares Gebiet schmierend. In der Quant-Elektrodynamik an der kleinen Kopplung weicht die elektromagnetische Masse nur als der Klotz des Radius der Partikel ab.

Abschweifungen in der Quant-Elektrodynamik

Als

sie Quant-Elektrodynamik in den 1930er Jahren entwickelt haben, haben Max Born, Werner Heisenberg, Pascual Jordan und Paul Dirac entdeckt, dass in perturbative Berechnungen viele Integrale auseinander gehend waren.

Eine Weise, die Abschweifungen zu beschreiben, wurde in den 1930er Jahren von Ernst Stueckelberg, in den 1940er Jahren von Julian Schwinger, Richard Feynman und Shin'ichiro Tomonaga entdeckt, und von Freeman Dyson systematisiert. Die Abschweifungen erscheinen in Berechnungen, die mit Diagrammen von Feynman mit geschlossenen Regelkreisen von virtuellen Partikeln in ihnen verbunden sind.

Während virtuelle Partikeln Bewahrung der Energie und Schwung folgen, können sie jede Energie und Schwung, sogar derjenige haben, dem durch die relativistische Energieschwung-Beziehung für die beobachtete Masse dieser Partikel nicht erlaubt wird. (D. h. ist nicht notwendigerweise die Masse der Partikel in diesem Prozess (z.B für ein Foton es konnte Nichtnull sein).) Solch eine Partikel wird außer Schale genannt. Wenn es eine Schleife gibt, wird der Schwung der an der Schleife beteiligten Partikeln durch die Energien und Schwünge von eingehenden und ausgehenden Partikeln nicht einzigartig bestimmt. Eine Schwankung in der Energie einer Partikel in der Schleife muss durch eine gleiche und entgegengesetzte Schwankung in der Energie einer anderen Partikel in der Schleife erwogen werden. So, um den Umfang für die Schleife zu finden, gehen in einer Prozession man muss über alle möglichen Kombinationen der Energie und des Schwungs integrieren, der um die Schleife reisen konnte.

Diese Integrale sind häufig auseinander gehend, d. h. sie geben unendliche Antworten. Die Abschweifungen, die bedeutend sind, sind die "ultravioletten" (UV). Eine ultraviolette Abschweifung kann als diejenige beschrieben werden, die aus kommt

  • das Gebiet im Integral, wo alle Partikeln in der Schleife große Energien und Schwünge haben.
  • sehr kurze Wellenlängen und hohe Frequenzschwankungen der Felder, im für das Feld integrierten Pfad.
  • Sehr kurz richtig-malig zwischen Partikel-Emission und Absorption, wenn von der Schleife als eine Summe über Partikel-Pfade gedacht wird.

So sind diese Abschweifungen kurze Entfernung, Kurzarbeit-Phänomene.

Es gibt genau drei auseinander gehende Ein-Schleife-Schleife-Diagramme in der Quant-Elektrodynamik.

  1. ein Foton schafft ein virtuelles Elektronpositron-Paar, die dann vernichten, ist das ein Vakuumpolarisationsdiagramm.
  2. ein Elektron, das schnell ausstrahlt und ein virtuelles Foton, genannt eine Selbstenergie wiederabsorbiert.
  3. Ein Elektron strahlt ein Foton aus, strahlt ein zweites Foton aus, und absorbiert das erste wieder. Dieser Prozess wird in der Abbildung 2 gezeigt, und es wird eine Scheitelpunkt-Wiedernormalisierung genannt. Das Feynman Diagramm dafür wird auch ein Pinguin-Diagramm wegen seiner Gestalt genannt, die entfernt einem Pinguin (mit den anfänglichen und endgültigen Zustandelektronen als die Arme und Beine, das zweite Foton als der Körper und das erste sich schlingende Foton als der Kopf) ähnelt.

Die drei Abschweifungen entsprechen den drei Rahmen in der Theorie:

  1. die Feldnormalisierung Z.
  2. die Masse des Elektrons.
  3. die Anklage des Elektrons.

Eine zweite Klasse der Abschweifung, genannt eine Infrarotabschweifung, ist wegen massless Partikeln wie das Foton. Jeder Prozess, der mit beladenen Partikeln verbunden ist, strahlt ungeheuer viele zusammenhängende Fotonen der unendlichen Wellenlänge aus, und der Umfang, um jede begrenzte Zahl von Fotonen auszustrahlen, ist Null. Für Fotonen werden diese Abschweifungen gut verstanden. Zum Beispiel, an der 1-Schleife-Ordnung, hat die Scheitelpunkt-Funktion sowohl ultraviolette als auch infrarote Abschweifungen. Im Gegensatz zur ultravioletten Abschweifung verlangt die Infrarotabschweifung die Wiedernormalisierung eines Parameters in der Theorie nicht. Die Infrarotabschweifung des Scheitelpunkt-Diagramms wird durch das Umfassen eines Diagramms entfernt, das dem Scheitelpunkt-Diagramm mit dem folgenden wichtigen Unterschied ähnlich ist: Das Foton, das die zwei Beine des Elektrons verbindet, wird geschnitten und durch zwei auf der Schale (d. h. echt) Fotonen ersetzt, deren Wellenlängen zur Unendlichkeit neigen; dieses Diagramm ist zum Bremsstrahlung-Prozess gleichwertig. Dieses zusätzliche Diagramm muss eingeschlossen werden, weil es keine physische Weise gibt, ein Nullenergie-Foton zu unterscheiden, das durch eine Schleife als im Scheitelpunkt-Diagramm und den durch bremsstrahlung ausgestrahlten Nullenergie-Fotonen fließt. Aus einem mathematischen Gesichtspunkt können die IR Abschweifungen durch das Annehmen der Bruchunterscheidung in Bezug auf einen Parameter normalisiert werden, werden zum Beispiel an p = a gut definiert, aber sind auseinander gehend UV, wenn wir die 3/2-th unbedeutende Ableitung in Bezug darauf nehmen, erhalten uns die IR Abschweifung, so können wir IR Abschweifungen dadurch heilen, sie in UV Abweichungen zu verwandeln

Eine Schleife-Abschweifung

Das Diagramm in der Abbildung 2 zeigt einen der mehreren Ein-Schleife-Beiträge zum Elektronelektron, das sich in QED zerstreut. Das Elektron auf der linken Seite des Diagramms, das durch die durchgezogene Linie vertreten ist, bricht mit dem vier-Schwünge-auf und endet mit dem vier-Schwünge-. Es strahlt ein virtuelles Foton aus, das zur Übertragungsenergie und Schwung zum anderen Elektron trägt. Aber in diesem Diagramm bevor geschieht das, es strahlt ein anderes virtuelles Foton aus, das vier-Schwünge-trägt, und es absorbiert diesen nach dem Ausstrahlen des anderen virtuellen Fotons wieder. Energie und Schwung-Bewahrung bestimmen den vier-Schwünge-einzigartig nicht, so tragen alle Möglichkeiten ebenso bei und wir integrieren müssen.

Der Umfang dieses Diagramms endet mit, unter anderem, ein Faktor von der Schleife von

:

- Ie^3 \int {d^4 q \over (2\pi) ^4} \gamma^\\mu {ich (\gamma^\\Alpha (r-q) _ \alpha + m) \over (r-q) ^2 - m^2 + ich \epsilon} \gamma^\\rho {ich (\gamma^\\Beta (p-q) _ \beta + m) \over (p-q) ^2 - m^2 + ich \epsilon} \gamma^\\nu {-i g_ {\\mu\nu} \over q^2 + i\epsilon }\

</Mathematik>

Die verschiedenen Faktoren in diesem Ausdruck sind Gamma matrices als in der kovarianten Formulierung der Gleichung von Dirac; sie sind mit der Drehung des Elektrons verbunden. Die Faktoren dessen sind die elektrische Kopplungskonstante, während das Versorgen einer heuristischen Definition der Kontur der Integration um die Pole im Raum von Schwüngen. Der wichtige Teil zu unseren Zwecken ist die Abhängigkeit von der drei großen Faktoren in den integrand, die von den Verbreitern der zwei Elektronlinien und der Foton-Linie in der Schleife sind.

Das hat ein Stück mit zwei Mächten auf der Spitze, die an großen Werten dessen vorherrscht (Pokorski 1987, p. 122):

:

e^3 \gamma^\\mu \gamma^\\Alpha \gamma^\\rho \gamma^\\Beta \gamma_\mu \int {d^4 q \over (2\pi) ^4} {q_\alpha q_\beta \over (r-q) ^2 (p-q) ^2 q^2 }\

</Mathematik>

Dieses Integral ist auseinander gehend, und unendlich, wenn wir es an der begrenzten Energie und dem Schwung irgendwie nicht abschneiden.

Ähnliche Schleife-Abschweifungen kommen in anderen Quant-Feldtheorien vor.

Wiedernormalisierte und bloße Mengen

Die Lösung war zu begreifen, dass die Mengen, die am Anfang in den Formeln der Theorie (wie die Formel für Lagrangian) erscheinen, solche Dinge wie die elektrische Anklage und Masse des Elektrons, sowie die Normalisierungen der Quant-Felder selbst vertretend, den physischen im Laboratorium gemessenen Konstanten nicht wirklich entsprochen haben. Wie geschrieben, waren sie bloße Mengen, die den Beitrag von Schleife-Effekten der virtuellen Partikel zu den physischen Konstanten selbst nicht in Betracht gezogen haben. Unter anderem würden diese Effekten die Quant-Kopie der elektromagnetischen Zurückreaktion einschließen, die so klassische Theoretiker des Elektromagnetismus geärgert hat. Im Allgemeinen würden diese Effekten genauso auseinander gehend sein wie die Umfänge unter der Studie an erster Stelle; so würden begrenzte gemessene Mengen im Allgemeinen auseinander gehende bloße Mengen einbeziehen.

Um mit der Wirklichkeit dann Kontakt herzustellen, würden die Formeln in Bezug auf messbare, wiedernormalisierte Mengen umgeschrieben werden müssen. Die Anklage des Elektrons würde, sagen wir, in Bezug auf eine Menge definiert, die an einem spezifischen kinematischen Wiedernormalisierungspunkt oder Subtraktionspunkt gemessen ist (der allgemein eine charakteristische Energie, genannt die Wiedernormalisierungsskala oder einfach die Energieskala haben wird). Die Teile von Lagrangian verlassen, die restlichen Teile der bloßen Mengen einschließend, konnten dann als Gegenbegriffe wiederinterpretiert werden, die an auseinander gehenden Diagrammen beteiligt sind, die genau die lästigen Abschweifungen für andere Diagramme annullieren.

Wiedernormalisierung in QED

Zum Beispiel, in Lagrangian QED

:

die Felder und Kopplungskonstante sind wirklich bloße Mengen, folglich die Subschrift oben. Herkömmlich werden die bloßen Mengen geschrieben, so dass die entsprechenden Begriffe von Lagrangian Vielfachen der wiedernormalisierten sind:

:::

(Messen Sie invariance über eine Identität des Bezirks-Takahashi, erweist sich anzudeuten, dass wir die zwei Begriffe des kovarianten abgeleiteten Stückes zusammen wiedernormalisieren können (Pokorski 1987, p. 115), der ist, was damit geschehen ist; es ist dasselbe als.)

Ein Begriff in diesem Lagrangian, zum Beispiel, die in der Abbildung 1 geschilderte Elektronfoton-Wechselwirkung, kann dann geschrieben werden

:

Die physische Konstante, die Anklage des Elektrons, kann dann in Bezug auf etwas spezifisches Experiment definiert werden; wir setzen die Wiedernormalisierungsskala, die der Energieeigenschaft dieses Experimentes gleich ist, und der erste Begriff gibt die Wechselwirkung, die wir im Laboratorium (bis zu kleinen, begrenzten Korrekturen aus Schleife-Diagrammen sehen, solche Exotika wie die Korrekturen der hohen Ordnung zum magnetischen Moment zur Verfügung stellend). Der Rest ist der Gegenbegriff. Wenn wir Glück haben, können die auseinander gehenden Teile von Schleife-Diagrammen alle in Stücke mit drei oder weniger Beinen mit einer algebraischen Form zersetzt werden, die durch den zweiten Begriff annulliert werden kann (oder durch die ähnlichen Gegenbegriffe, die herkommen und). In QED haben wir Glück: Die Theorie ist renormalizable (sieh unten für mehr darauf).

Das Diagramm mit dem Wechselwirkungsscheitelpunkt des Gegenbegriffes gelegt als in der Abbildung 3 annulliert die Abschweifung von der Schleife in der Abbildung 2.

Das Aufspalten der "bloßen Begriffe" in die ursprünglichen Begriffe und Gegenbegriffe ist vor den Wiedernormalisierungsgruppeneinblicken wegen Kenneth Wilsons gekommen. Gemäß den Wiedernormalisierungsgruppeneinblicken ist dieses Aufspalten unnatürlich und unphysisch.

Das Laufen von Konstanten

Um den Beitrag von Schleife-Diagrammen zu einer gegebenen Berechnung zu minimieren (und deshalb es leichter zu machen, Ergebnisse herauszuziehen), wählt man einen Wiedernormalisierungspunkt in der Nähe von den Energien und in der Wechselwirkung wirklich ausgetauschten Schwüngen. Jedoch ist der Wiedernormalisierungspunkt nicht selbst eine physische Menge: Die physischen Vorhersagen der Theorie, die zu allen Ordnungen berechnet ist, sollten im Prinzip der Wahl des Wiedernormalisierungspunkts unabhängig sein, so lange es innerhalb des Gebiets der Anwendung der Theorie ist. Änderungen in der Wiedernormalisierungsskala werden einfach betreffen, wie viel eines Ergebnisses aus Diagrammen von Feynman ohne Schleifen kommt, und wie viel aus den übrigen begrenzten Teilen von Schleife-Diagrammen kommt. Man kann diese Tatsache ausnutzen, um die wirksame Schwankung von physischen Konstanten mit Änderungen in der Skala zu berechnen. Diese Schwankung wird durch Beta-Funktionen verschlüsselt, und die allgemeine Theorie dieser Art der Skala-Abhängigkeit ist als die Wiedernormalisierungsgruppe bekannt.

Umgangssprachlich sprechen Partikel-Physiker häufig von bestimmten physischen Konstanten als ändernd mit der Energie einer Wechselwirkung, obwohl tatsächlich es die Wiedernormalisierungsskala ist, die die unabhängige Menge ist. Dieses Laufen stellt wirklich jedoch ein günstiges Mittel zur Verfügung, Änderungen im Verhalten einer Feldtheorie unter Änderungen in den an einer Wechselwirkung beteiligten Energien zu beschreiben. Zum Beispiel seit der Kopplungskonstante im Quant wird chromodynamics klein an großen Energieskalen, die Theorie benimmt sich mehr wie eine freie Theorie, weil die in einer Wechselwirkung ausgetauschte Energie groß, ein als asymptotische Freiheit bekanntes Phänomen wird. Die Auswahl einer zunehmenden Energieskala und das Verwenden der Wiedernormalisierungsgruppe machen das aus einfachen Diagrammen von Feynman verständlich; waren das nicht getan, die Vorhersage würde dasselbe sein, aber würde aus komplizierten Annullierungen der hohen Ordnung entstehen.

Nehmen Sie ein Beispiel: Wird schlecht definiert.

Um Abschweifung zu beseitigen, ändern Sie einfach niedrigere Grenze des Integrals in und:

Überzeugen Sie sich dann.

Regularization

Da die Menge schlecht-definiert wird, um diesen Begriff zu machen, genaue Abschweifungen zu annullieren, müssen die Abschweifungen zuerst mathematisch mit der Theorie von Grenzen, in einem Prozess bekannt als regularization gezähmt werden.

Eine im Wesentlichen willkürliche Modifizierung zur Schleife integrands oder Gangregler, kann sie schneller an hohen Energien und Schwüngen auf solcher Art und Weise abfallen lassen, dass die Integrale zusammenlaufen. Ein Gangregler hat eine charakteristische als die Abkürzung bekannte Energieskala; das Bringen dieser Abkürzung zur Unendlichkeit (oder, gleichwertig, die entsprechende Länge/zeitliche Rahmen zur Null) erlangt die ursprünglichen Integrale wieder.

Mit dem Gangregler im Platz und einem begrenzten Wert für die Abkürzung verwandeln sich auseinander gehende Begriffe in den Integralen dann in begrenzte, aber von der Abkürzung abhängige Begriffe. Nach dem Annullieren dieser Begriffe mit den Beiträgen von von der Abkürzung abhängigen Gegenbegriffen wird die Abkürzung in die Unendlichkeit und begrenzten physischen wieder erlangten Ergebnisse gebracht. Wenn die Physik auf Skalen, die wir messen können, dessen unabhängig ist, was in der sehr kürzesten Entfernung und den zeitlichen Rahmen geschieht, dann sollte es möglich sein, mit der Abkürzung unabhängige Ergebnisse für Berechnungen zu bekommen.

Viele verschiedene Typen des Gangreglers werden in Quant-Feldtheorie-Berechnungen, jedem mit seinen Vorteilen und Nachteilen verwendet. Einer der populärsten im modernen Gebrauch ist dimensionaler regularization, der von Gerardus 't Hooft und Martinus J. G. Veltman erfunden ist, der die Integrale durch das Tragen von ihnen in einen Raum mit einer Romanbruchzahl von Dimensionen zähmt. Ein anderer ist Pauli-Villars regularization, der Romanpartikeln zur Theorie mit sehr großen Massen, solch hinzufügt, dass Schleife integrands das Beteiligen der massiven Partikeln die vorhandenen Schleifen bei großen Schwüngen annulliert.

Und doch ist ein anderes regularization Schema das Gitter regularization, eingeführt von Kenneth Wilson, der vorgibt, dass unsere Raum-Zeit durch das hyperkubische Gitter mit der festen Bratrost-Größe gebaut wird. Diese Größe ist eine natürliche Abkürzung für den maximalen Schwung, den eine Partikel besitzen konnte, als sie sich auf dem Gitter fortgepflanzt hat. Und nach dem Tun der Berechnung auf mehreren Gittern mit der verschiedenen Bratrost-Größe wird das physische Ergebnis zur Bratrost-Größe 0 oder unserem natürlichen Weltall extrapoliert. Das setzt die Existenz einer kletternden Grenze voraus.

Eine strenge mathematische Annäherung an die Wiedernormalisierungstheorie ist die so genannte kausale Unruhe-Theorie, wo ultraviolette Abschweifungen vom Anfang in Berechnungen durch das Durchführen bestimmter mathematischer Operationen nur innerhalb des Fachwerks der Vertriebstheorie vermieden werden. Der Nachteil der Methode ist die Tatsache, dass die Annäherung ziemlich technisch ist und ein hohes Niveau von mathematischen Kenntnissen verlangt.

Zeta fungieren regularization

Julian Schwinger hat eine Beziehung zwischen Zeta-Funktion regularization und Wiedernormalisierung mit der asymptotischen Beziehung entdeckt:

:

als der Gangregler. Gestützt darauf hat er gedacht, die Werte zu verwenden, begrenzte Ergebnisse zu bekommen. Obwohl er inkonsequente Ergebnisse, eine verbesserte Formel erreicht hat, die von Hartle, J. Garcia studiert ist, und E. Elizalde die Technik des zeta regularization Algorithmus einschließt

:

wo der B die Zahlen von Bernoulli und der ist

:

So jeder kann als eine geradlinige Kombination von geschrieben werden

Oder einfach mit der Formel von Abel-Plana haben wir für jedes auseinander gehende Integral:

gültig, wenn m> 0 Hier die Zeta-Funktion Funktion von Hurwitz zeta und Beta ist, ist eine positive reelle Zahl.

Durch die "geometrische" Analogie wird, gegeben (wenn wir Rechteck-Methode verwenden), das Integral so zu bewerten:

Das Verwenden von Hurwitz zeta regularization plus die Rechteck-Methode mit dem Schritt h (um mit der Konstante von Planck nicht verwirrt zu sein)

,

Für Mehrschleife-Integrale, die von mehreren Variablen abhängen werden, können wir eine Änderung von Variablen zu Polarkoordinaten vornehmen und dann das Integral über die Winkel durch eine Summe ersetzen, so haben wir nur ein auseinander gehende Integral, das vom Modul und dann abhängen wird, können wir den zeta regularization Algorithmus anwenden, die Hauptidee für Mehrschleife-Integrale ist, den Faktor nach einer Änderung zu hyperkugelförmigen Koordinaten so der UV zu ersetzen, überlappende Abschweifungen werden in der Variable r verschlüsselt. Um diese Integrale zu normalisieren, braucht man einen Gangregler, für den Fall von Mehrschleife-Integralen, diese Gangregler kann als genommen werden, so wird die integrierte Mehrschleife für großen genug 's' das Verwenden von Zeta regularization zusammenlaufen, können wir analytisch, die Variable 's' zur physischen Grenze wo s=0 fortsetzen und dann jedes UV Integral normalisieren.

Einstellungen und Interpretation

Die frühen formulators QED und andere Quant-Feldtheorien waren in der Regel mit dieser Lage der Dinge, unzufrieden. Es ist rechtswidrig geschienen, um etwas Gleichbedeutendes mit der Abstriche machenden Unendlichkeit von der Unendlichkeit zu tun, um begrenzte Antworten zu bekommen.

Die Kritik von Dirac war am meisten beharrlich. Erst 1975, er sagte:

:Most-Physiker sind mit der Situation sehr zufrieden. Sie sagen: 'Quant-Elektrodynamik ist eine gute Theorie, und wir müssen uns darüber nicht mehr sorgen.' Ich muss sagen, dass ich mit der Situation sehr unzufrieden bin, weil diese so genannte 'gute Theorie' wirklich Vernachlässigen-Unendlichkeit einschließt, die in seinen Gleichungen erscheint, sie auf eine willkürliche Weise vernachlässigend. Das ist gerade nicht vernünftige Mathematik. Vernünftige Mathematik ist mit dem Vernachlässigen einer Menge verbunden, wenn es - das nicht Vernachlässigen davon gerade klein ist, weil es ungeheuer groß ist und Sie es nicht wollen!

Ein anderer wichtiger Kritiker war Feynman. Trotz seiner entscheidenden Rolle in der Entwicklung der Quant-Elektrodynamik hat er das folgende 1985 geschrieben:

:The schälen Spiel, das wir spielen... wird 'Wiedernormalisierung' technisch genannt. Aber egal wie klug das Wort, es noch ist, was ich einen verdrehten Prozess nennen würde! Die Notwendigkeit, solches Zauberwort aufzusuchen, hat uns davon abgehalten zu beweisen, dass die Theorie der Quant-Elektrodynamik mathematisch konsequent ist. Es ist überraschend, dass die Theorie noch konsequent so oder so inzwischen nicht bewiesen worden ist; ich vermute, dass Wiedernormalisierung nicht mathematisch legitim ist.

Während die Kritik von Dirac auf dem Verfahren der Wiedernormalisierung selbst basiert hat, war die Kritik von Feynman sehr verschieden. Feynman wurde besorgt, dass alle Feldtheorien bekannt in den 1960er Jahren das Eigentum hatten, dass die Wechselwirkungen ungeheuer stark an kurzen genug Entfernungsskalen werden. Dieses Eigentum, genannt einen Pol von Landau, hat es plausibel gemacht, dass Quant-Feldtheorien alle inkonsequent waren. 1974 haben Gros, Politzer und Wilczek gezeigt, dass eine andere Quant-Feldtheorie, Quant chromodynamics, keinen Pol von Landau hat. Feynman, zusammen mit die meisten andere, hat akzeptiert, dass QCD eine völlig konsequente Theorie war.

Die allgemeine Unbequemlichkeit war fast in Texten bis zu den 1970er Jahren und den 1980er Jahren universal. Als sie in den 1970er Jahren, jedoch, begeistert durch die Arbeit an der Wiedernormalisierungsgruppe und wirksamen Feldtheorie begonnen haben, und ungeachtet der Tatsache dass Dirac und verschieden andere — von denen alle der älteren Generation gehört haben — nie ihre Kritiken zurückgezogen haben, haben Einstellungen begonnen, sich besonders unter jüngeren Theoretikern zu ändern. Kenneth G. Wilson und andere haben demonstriert, dass die Wiedernormalisierungsgruppe in der statistischen auf die kondensierte Sache-Physik angewandten Feldtheorie nützlich ist, wo es wichtige Einblicke ins Verhalten von Phase-Übergängen gewährt. In der kondensierten Sache-Physik besteht ein echter Gangregler der kurzen Entfernung: Sache hört auf, auf der Skala von Atomen dauernd zu sein. Abschweifungen der kurzen Entfernung in der kondensierten Sache-Physik werfen kein philosophisches Problem auf, da die Feldtheorie nur eine wirksame, geglättete Darstellung des Verhaltens der Sache irgendwie ist; es gibt keine Unendlichkeit, da die Abkürzung wirklich immer begrenzt ist, und sie vollkommenen Sinn hat, dass die bloßen Mengen von der Abkürzung abhängig sind.

Wenn QFT den ganzen Weg unten vorbei an der Länge von Planck hält (wo es tragen könnte, um Theorie, kausale Mengenlehre oder etwas anderes zu spannen), dann kann es kein echtes Problem mit Abschweifungen der kurzen Entfernung in der Partikel-Physik auch geben; alle Feldtheorien konnten einfach wirksame Feldtheorien sein. Gewissermaßen wirft diese Annäherung die ältere Einstellung zurück, dass die Abschweifungen in QFT von der menschlichen Unerfahrenheit über die Tätigkeit der Natur sprechen, sondern auch gibt zu, dass diese Unerfahrenheit gemessen werden kann, und dass die resultierenden wirksamen Theorien nützlich bleiben.

In QFT hängt der Wert einer physischen Konstante im Allgemeinen von der Skala ab, die man als der Wiedernormalisierungspunkt wählt, und es sehr interessant wird, das Wiedernormalisierungsgruppenlaufen von physischen Konstanten unter Änderungen in der Energieskala zu untersuchen. Die Kopplungskonstanten im Standardmodell der Partikel-Physik ändern sich unterschiedlich mit der zunehmenden Energieskala: Die Kopplung des Quants chromodynamics und die schwache isospin Kopplung der Electroweak-Kraft neigen dazu abzunehmen, und die schwache Hyperanklage-Kopplung der Electroweak-Kraft neigt dazu zuzunehmen. An der riesigen Energieskala von 10 GeV (weit außer der Reichweite unserer aktuellen Partikel-Gaspedale) werden sie alle ungefähr dieselbe Größe (Grotz und Klapdor 1990, p. 254), eine Hauptmotivation für Spekulationen über die großartige vereinigte Theorie. Anstatt nur ein quälende Problem zu sein, ist Wiedernormalisierung ein wichtiges theoretisches Werkzeug geworden, für das Verhalten von Feldtheorien in verschiedenen Regimen zu studieren.

Wenn eine Theorie, die Wiedernormalisierung (z.B zeigt. QED) kann nur als eine wirksame Feldtheorie, d. h. als eine Annäherung vernünftig interpretiert werden, die menschliche Unerfahrenheit über die Tätigkeit der Natur widerspiegelt, dann bleibt das Problem vom Entdecken einer genaueren Theorie übrig, die diese Wiedernormalisierungsprobleme nicht hat. Wie Lewis Ryder gesagt hat, "In der Quant-Theorie verschwinden diese [klassischen] Abschweifungen nicht; im Gegenteil scheinen sie, schlechter zu werden. Und trotz des vergleichenden Erfolgs der Wiedernormalisierungstheorie bleibt das Gefühl darin, dass es eine befriedigendere Weise geben sollte, Sachen zu machen."

Renormalizability

Von dieser philosophischen Umwertung folgt ein neues Konzept natürlich: der Begriff von renormalizability. Nicht alle Theorien leihen sich zur Wiedernormalisierung in der näher beschriebenen Art und Weise oben, mit einer begrenzten Versorgung von Gegenbegriffen und allen Mengen, die mit der Abkürzung unabhängig am Ende der Berechnung werden. Wenn Lagrangian Kombinationen von Feldmaschinenbedienern hoch genug Dimension in Energieeinheiten enthält, wuchern die Gegenbegriffe, die erforderlich sind, alle Abschweifungen zu annullieren, zur unendlichen Zahl, und auf den ersten Blick, die Theorie würde scheinen, eine unendliche Zahl von freien Rahmen zu gewinnen und deshalb die ganze prophetische Macht zu verlieren, wissenschaftlich wertlos werdend. Solche Theorien werden nonrenormalizable genannt.

Das Standardmodell der Partikel-Physik enthält nur renormalizable Maschinenbediener, aber die Wechselwirkungen der allgemeinen Relativität werden nonrenormalizable Maschinenbediener, wenn man versucht, eine Feldtheorie des Quant-Ernstes auf die aufrichtigste Weise zu bauen, vorschlagend, dass Unruhe-Theorie in der Anwendung auf den Quant-Ernst nutzlos ist.

Jedoch, in einer wirksamen Feldtheorie, ist "renormalizability", genau genommen, eine falsche Bezeichnung. In einer nonrenormalizable wirksamen Feldtheorie multiplizieren Begriffe in Lagrangian wirklich zur Unendlichkeit, aber ließen Koeffizienten durch jemals mehr äußerste umgekehrte Mächte der Energieabkürzung unterdrücken. Wenn die Abkürzung eine echte, physische Menge ist - wenn, d. h. die Theorie nur eine wirksame Beschreibung der Physik ist, klettern bis zu eine maximale Energie oder minimale Entfernung dann diese Extrabegriffe konnten echte physische Wechselwirkungen vertreten. Annehmend, dass die ohne Dimension Konstanten in der Theorie zu groß nicht werden, kann man Berechnungen durch umgekehrte Mächte der Abkürzung und Extrakt ungefähre Vorhersagen zur begrenzten Ordnung in der Abkürzung gruppieren, die noch eine begrenzte Zahl von freien Rahmen haben. Es kann sogar nützlich sein, diese "nonrenormalizable" Wechselwirkungen wiederzunormalisieren.

Wechselwirkungen von Nonrenormalizable in wirksamen Feldtheorien werden schnell schwächer, wie die Energieskala viel kleiner wird als die Abkürzung. Das klassische Beispiel ist die Theorie von Fermi der schwachen Kernkraft, eine nonrenormalizable wirksame Theorie, deren Abkürzung mit der Masse der W Partikel vergleichbar ist. Diese Tatsache kann auch eine mögliche Erklärung dafür zur Verfügung stellen, warum fast alle Partikel-Wechselwirkungen, die wir sehen, durch renormalizable Theorien beschreibbar sind. Es kann sein, dass irgendwelcher, den andere, die an den EINGEWEIDEN oder der Skala von Planck einfach bestehen können, zu schwach werden, um im Bereich zu entdecken, den wir mit einer Ausnahme beobachten können: Ernst, dessen außerordentlich schwache Wechselwirkung durch die Anwesenheit der enormen Massen von Sternen und Planeten vergrößert wird.

Wiedernormalisierungsschemas

In wirklichen Berechnungen müssen die Gegenbegriffe, die eingeführt sind, um die Abschweifungen in Diagramm-Berechnungen von Feynman außer dem Baumniveau zu annullieren, mit einer Reihe von Wiedernormalisierungsbedingungen befestigt werden. Die allgemeinen Wiedernormalisierungsschemas im Gebrauch schließen ein:

  • Schema der minimalen Subtraktion (MS) und die zusammenhängende modifizierte minimale Subtraktion (FRAU-BAR) Schema
  • Schema auf der Schale

Anwendung in der statistischen Physik

Wie erwähnt, in der Einführung sind die Methoden der Wiedernormalisierung auf die Statistische Physik, nämlich auf die Probleme des kritischen Verhaltens in der Nähe von Phase-Übergängen der zweiten Ordnung, insbesondere an Romanraumdimensionen gerade unter der Zahl 4 angewandt worden, wo die oben erwähnten Methoden sogar geschärft werden konnten (d. h. statt "renormalizability" bekommt man "super-renormalizability"), der Extrapolation dem echten räumlichen dimensionality für Phase-Übergänge, 3 erlaubt hat. Details können im Buch von Zinn-Justin gefunden werden, hat unten erwähnt.

Für die Entdeckung dieser unerwarteten Anwendungen, und die Details 1982 ausarbeitend, wurde der Physik-Nobelpreis Kenneth G. Wilson zuerkannt.

Siehe auch

  • Wirksame Feldtheorie
  • Landauer-Pol
  • Quant-Feldtheorie
  • Quant-Bedeutungslosigkeit
  • Regularization
  • Wiedernormalisierungsgruppe
  • Identität des Bezirks-Takahashi
  • Zeta fungieren regularization
  • Die Paradoxe von Zeno

Weiterführende Literatur

Allgemeine Einführung

  • Delamotte, Bertrand; amerikanische Zeitschrift der Physik 72 (2004) Seiten 170-184. Schöne elementare Einführung in die Ideen, keine vorherigen Kenntnisse der Feldtheorie, die notwendig ist. Voller Text, der verfügbar ist an: hep-th/0212049
  • Baez, John; Wiedernormalisierung Gemacht Leicht, (2005). Eine qualitative Einführung ins Thema.
  • Blechman, Andrew E.; Wiedernormalisierung: Unser Sehr Missverstandener Freund, (2002). Zusammenfassung eines Vortrags; hat mehr Information über spezifischen regularization und Abschweifungssubtraktionsschemas.
  • Cao, Tian Yu & Schweber, Silvian S.; Synthese, 97 (1) (1993), 33-108.
  • Shirkov, Dmitry; fünfzig Jahre von Renormalization Group, C.E.R.N. Courrier 41 (7) (2001). Voller Text, der verfügbar ist an: I.O.P Zeitschriften.
  • E. Elizalde; Techniken von Zeta regularization mit Anwendungen.

Hauptsächlich: Quant-Feldtheorie

  • N. N. Bogoliubov, D. V. Shirkov (1959): Die Theorie von Gequantelten Feldern. New York, Zwischenwissenschaft. Das erste Lehrbuch auf der Wiedernormalisierungsgruppentheorie.
  • Ryder, Lewis H.; Quant-Feldtheorie (Universität von Cambridge Presse, 1985), internationale Standardbuchnummer 0 521 33859 X Hoch lesbares Lehrbuch, sicher die beste Einführung in relativistischen Q.F.T. für die Partikel-Physik.
  • Zee, Anthony; Quant-Feldtheorie in einer Nussschale, Universität von Princeton Presse (2003) internationale Standardbuchnummer 0-691-01019-6. Ein anderes ausgezeichnetes Lehrbuch auf Q.F.T.
  • Weinberg, Steven; die Quant-Theorie von Feldern (3 Volumina) Universität von Cambridge Presse (1995). Eine kolossale Abhandlung auf Q.F.T., der von einem Hauptexperten, Hofdichter von Nobel 1979 geschrieben ist.
  • Pokorski, Stefan; Maß-Feldtheorien, Universität von Cambridge Presse (1987) internationale Standardbuchnummer 0-521-47816-2.
  • 't Hooft, Gerard; die Ruhmvollen Tage der Physik - Wiedernormalisierung von Maß-Theorien, Vortrag, der an Erice (August/September 1998) durch den Hofdichter von Nobel 1999 gegeben ist. Voller Text, der verfügbar ist an: hep-th/9812203.
  • Rivasseau, Vincent; eine Einführung in die Wiedernormalisierung, Poincaré Seminar (Paris, am 12. Okt 2002), veröffentlicht in: Duplantier, Bertrand; Rivasseau, Vincent (Hrsg.).; Poincaré Seminar 2002, Fortschritt in der Mathematischen Physik 30, Birkhäuser (2003) internationale Standardbuchnummer 3-7643-0579-7. Voller in PostScript verfügbarer Text.
  • Rivasseau, Vincent; von perturbative bis konstruktive Wiedernormalisierung, Universität von Princeton Presse (1991) internationale Standardbuchnummer 0-691-08530-7. Voller in PostScript verfügbarer Text.
  • Iagolnitzer, Daniel & Magnen, J.; Wiedernormalisierungsgruppenanalyse, Enzyklopädie der Mathematik, Kluwer Akademischer Herausgeber (1996). Voller Text, der in PostScript und pdf hier verfügbar ist.
  • Scharf, Günter; begrenzte Quant-Elektrodynamik: Die kausale Annäherung, Springer Verlag Berlin Heidelberg New York (1995) internationale Standardbuchnummer 3-540-60142-2.
  • A. S. Švarc (Albert Schwarz), Математические основы квантовой теории поля, (Mathematische Aspekte der Quant-Feldtheorie), Atomizdat, Moskau, 1975. 368 Seiten.

Hauptsächlich: statistische Physik

  • A. N. Vasil'ev Field Theoretic Renormalization Group in der Kritischen Verhaltenstheorie und Stochastischen Dynamik (Routledge Chapman & Hall 2004); internationale Standardbuchnummer 978-0-415-31002-4
  • Nigel Goldenfeld; Vorträge auf Phase-Übergängen und Renormalization Group, Grenzen in der Physik 85, Westview Presse (Juni 1992) internationale Standardbuchnummer 0-201-55409-7. Die elementaren Aspekte der Physik von Phase-Übergängen und der Wiedernormalisierungsgruppe bedeckend, betont dieses populäre Buch das Verstehen und die Klarheit aber nicht die technischen Manipulationen.
  • Zinn-Justin, Jean; Quant-Feldtheorie und Kritische Phänomene, Presse der Universität Oxford (4. Ausgabe - 2002) internationale Standardbuchnummer 0-19-850923-5. Ein Meisterwerk auf Anwendungen von Wiedernormalisierungsmethoden zur Berechnung von kritischen Hochzahlen in der statistischen Mechanik, im Anschluss an die Ideen von Wilson (war Kenneth Wilson Hofdichter von Nobel 1982).
  • Zinn-Justin, Jean; Phase Transitions & Renormalization Group: von der Theorie bis Zahlen, Poincaré Seminar (Paris, am 12. Okt 2002), veröffentlicht in: Duplantier, Bertrand; Rivasseau, Vincent (Hrsg.).; Poincaré Seminar 2002, Fortschritt in der Mathematischen Physik 30, Birkhäuser (2003) internationale Standardbuchnummer 3-7643-0579-7. Voller in PostScript verfügbarer Text.
  • Domb, Cyril; der Kritische Punkt: Eine Historische Einführung in die Moderne Theorie von Kritischen Phänomenen, CRC Presse (März 1996) internationale Standardbuchnummer 0 7484 0435 X.
  • Braun, Laurie M. (Hrsg.).; Wiedernormalisierung: Von Lorentz bis Landauer (und Darüber hinaus), Springer-Verlag (New York 1993) internationale Standardbuchnummer 0-387-97933-6.
  • Cardy, John; kletternd und Wiedernormalisierung in der Statistischen Physik, Universität von Cambridge Presse (1996) internationale Standardbuchnummer 0-521-49959-3.

Verschieden

  • Shirkov, Dmitry; Bogoliubov Renormalization Group, JINR Kommunikation E2-96-15 (1996). Voller Text, der verfügbar ist an: hep-th/9602024
  • Zinn Justin, Jean; Wiedernormalisierung und Wiedernormalisierungsgruppe: Von der Entdeckung von UV Abschweifungen zum Konzept wirksamer Feldtheorien, in: de Witt-Morette C., Zuber J.-B. (Hrsg.), Verhandlungen des NATO-ASI auf der Quant-Feldtheorie: Perspektive und Zukünftig, am 15-26 Juni 1998, Les Houches, Frankreich, Kluwer Akademische Herausgeber, ASI NATO-Reihe C 530, 375-388 (1999). Voller in PostScript verfügbarer Text.
  • Connes, Alain; Symétries Galoisiennes & Renormalisation, Poincaré Seminar (Paris, am 12. Okt 2002), veröffentlicht in: Duplantier, Bertrand; Rivasseau, Vincent (Hrsg.).; Poincaré Seminar 2002, Fortschritt in der Mathematischen Physik 30, Birkhäuser (2003) internationale Standardbuchnummer 3-7643-0579-7. Französischer Mathematiker Alain Connes (Feldmedaillengewinner 1982) beschreibt die mathematische zu Grunde liegende Struktur (die Algebra von Hopf) der Wiedernormalisierung und seiner Verbindung zum Problem von Riemann-Hilbert. Voller Text (in Französisch) verfügbar an math/0211199v1.

Robert Carr (Begriffserklärung) / Wiedernormalisierungsgruppe
Impressum & Datenschutz