Regularisering (fysikk) - Regularization (physics)

I fysikk , spesielt kvantefeltteori , er regulering en metode for å modifisere observerbare som har singulariteter for å gjøre dem endelige ved innføring av en passende parameter kalt regulator . Regulatoren, også kjent som en "cutoff", modellerer vår mangel på kunnskap om fysikk på uobserverte skalaer (f.eks. Skalaer av liten størrelse eller store energinivåer). Det kompenserer for (og krever) muligheten for at "ny fysikk" kan oppdages i de skalaene som den nåværende teorien ikke klarer å modellere, samtidig som den gjør det mulig for den nåværende teorien å gi nøyaktige spådommer som en "effektiv teori" innenfor den tiltenkte bruksskalaen. .

Det skiller seg fra renormalisering , en annen teknikk for å kontrollere uendeligheter uten å anta ny fysikk, ved å justere for tilbakemelding om selvinteraksjon.

Regularisering var i mange tiår kontroversiell selv blant oppfinnerne, da den kombinerer fysiske og epistemologiske påstander i de samme ligningene. Imidlertid er det nå godt forstått og har vist seg å gi nyttige, nøyaktige spådommer.

Oversikt

Regulariseringsprosedyrer håndterer uendelige, divergerende og meningsløse uttrykk ved å innføre et hjelpekonsept av en regulator (for eksempel den minimale avstanden i rommet som er nyttig, i tilfelle avvikene oppstår fra fysiske effekter på kort avstand). Det riktige fysiske resultatet oppnås i grensen regulatoren går bort (i vårt eksempel, ), men dyden til regulatoren er at for sin endelige verdi er resultatet endelig.

Imidlertid inkluderer resultatet vanligvis vilkår som er proporsjonale med uttrykk som ikke er godt definert i grensen . Regularisering er det første skrittet mot å oppnå et helt endelig og meningsfullt resultat; i kvantefeltteori må det vanligvis følges av en beslektet, men uavhengig teknikk som kalles renormalisering . Renormalisering er basert på kravet om at noen fysiske størrelser - uttrykt av tilsynelatende divergerende uttrykk som - er lik de observerte verdiene. En slik begrensning gjør at man kan beregne en endelig verdi for mange andre mengder som så divergerende ut.

Eksistensen av en grense når ε går til null og uavhengigheten av det endelige resultatet fra regulatoren er ikke-kjente fakta. Den underliggende årsaken til dem ligger i universalitet som vist av Kenneth Wilson og Leo Kadanoff og eksistensen av en andre ordens faseovergang . Noen ganger er det ikke mulig å ta grensen når ε går til null. Dette er tilfelle når vi har en Landau-pol og for ikke-normaliserbare koblinger som Fermi-interaksjonen . Imidlertid, selv for disse to eksemplene, hvis regulatoren bare gir rimelige resultater for og vi jobber med skalaer i størrelsesorden , gir regulatorer fortsatt ganske nøyaktige tilnærminger. Den fysiske grunnen til at vi ikke kan ta grensen for at ε går til null, er eksistensen av ny fysikk under Λ.

Det er ikke alltid mulig å definere en regulering slik at grensen for ε som går til null er uavhengig av reguleringen. I dette tilfellet sier man at teorien inneholder en anomali . Avviksteorier har blitt studert i detalj og bygger ofte på den berømte Atiyah – Singer-indekssetningen eller variasjoner derav (se for eksempel den chirale anomali ).

Eksempel på klassisk fysikk

Problemet med uendelighet oppstod først i den klassiske elektrodynamikken til punktpartikler på 1800-tallet og tidlig på 1900-tallet.

Massen til en ladet partikkel skal inkludere masse – energi i det elektrostatiske feltet ( elektromagnetisk masse ). Anta at partikkelen er et ladet sfærisk skall med radius r e . Massen – energien i feltet er

som blir uendelig som r e → 0 . Dette innebærer at punktpartikkelen vil ha uendelig treghet , noe som gjør at den ikke kan akselereres. For øvrig kalles verdien av r e som tilsvarer elektronmassen den klassiske elektronradiusen , som (innstilling og gjenoppretting av faktorer på c og ) viser seg å være

hvor er den fine strukturen konstant , og er Comptons bølgelengde til elektronet.

Regularisering: Denne prosessen viser at den fysiske teorien som opprinnelig ble brukt, brytes ned i små skalaer. Det viser at elektronet faktisk ikke kan være en punktpartikkel, og at det trengs en slags tilleggsfysikk (i dette tilfellet en endelig radius) for å forklare systemer under en viss skala. Det samme argumentet vil dukke opp i andre renormaliseringsproblemer: en teori holder på noe domene, men kan sees å bryte ned og kreve ny fysikk på andre skalaer for å unngå uendeligheter. (En annen måte å unngå uendelig, men mens man beholder partikkelens punktlige natur, ville være å postulere en liten tilleggsdimensjon som partikkelen kunne "spre seg ut" i stedet for over 3D-rom, dette er en motivasjon for strengteori .)

(Se også renormalisering for en alternativ måte å fjerne uendeligheter fra dette klassiske problemet, forutsatt selvinteraksjoner i stedet for eksistensen av ukjent ny fysikk.)

Spesifikke typer

Spesifikke typer reguleringsprosedyrer inkluderer

Realistisk regulering

Konseptuelt problem

Perturbative forutsigelser av kvantefeltteori om quantum spredning av elementærpartikler , som følger av en tilsvarende Lagrangesk tetthet, blir beregnet ved hjelp av Feynman reglene , en regularisering metode for å omgå ultrafiolette avvik for derved å oppnå begrensede resultater for Feynman-diagrammer inneholdende sløyfer, og en renormalisering ordning . Regulariseringsmetoden resulterer i normaliserte n-punkts Green-funksjoner ( propagatorer ), og en passende begrensningsprosedyre (et renormaliseringsskjema) fører deretter til forstyrrende S-matriseelementer . Disse er uavhengige av den spesifikke reguleringsmetoden som brukes, og gjør det mulig å modellere målbare fysiske prosesser (tverrsnitt, sannsynlighetsamplituder, forfallbredder og levetid for eksiterte tilstander). Imidlertid kan ingen kjente regulerte n-punkts Green-funksjoner så langt betraktes som basert på en fysisk realistisk teori om kvantespredning, siden avledningen av hver ser bort fra noen av de grunnleggende prinsippene for konvensjonell fysikk (f.eks. Ved ikke å være Lorentz-invariant. , ved å introdusere enten ikke-fysiske partikler med en negativ metrisk eller feil statistikk, eller diskret romtid, eller senke dimensjonaliteten til romtid, eller en kombinasjon derav). Så de tilgjengelige reguleringsmetodene forstås som formalistiske tekniske innretninger, uten direkte fysisk betydning. I tillegg er det betenkeligheter med renormalisering. For en historie og kommentarer til dette mer enn et halvt århundre gamle åpne konseptuelle problemet, se f.eks

Paulis antagelse

Ettersom det ser ut til at hjørnene i ikke-regulerte Feynman-serier tilstrekkelig beskriver interaksjoner i kvantespredning, er det antatt at deres ultrafiolette avvik skyldes den asymptotiske højenergi-oppførselen til Feynman-propagatorene. Så det er en forsiktig, konservativ tilnærming å beholde toppunktene i Feynman-serien, og bare endre Feynman-propagatorene for å lage en regulert Feynman-serie. Dette er begrunnelsen bak den formelle Pauli – Villars kovariante reguleringen ved modifisering av Feynman-propagatorer gjennom hjelpefysiske partikler, jfr. og representasjon av fysisk virkelighet ved Feynman-diagrammer.

I 1949 antok Pauli at det er en realistisk regulering, som er underforstått av en teori som respekterer alle de etablerte prinsippene for moderne fysikk. Så dens propagatorer (i) trenger ikke å bli regulert, og (ii) kan betraktes som en slik regulering av propagatorene som brukes i kvantefeltteorier som kan gjenspeile den underliggende fysikken. De tilleggsparametrene til en slik teori trenger ikke å fjernes (dvs. teorien trenger ingen renormalisering) og kan gi litt ny informasjon om fysikken til kvantespredning, selv om de eksperimentelt kan vise seg å være ubetydelige. Derimot introduserer enhver nåværende reguleringsmetode formelle koeffisienter som til slutt må avhendes ved renormalisering.

Meninger

Paul Dirac var vedvarende, ekstremt kritisk til prosedyrer for renormalisering. I 1963 skrev han: "... i renormaliseringsteorien har vi en teori som har trosset alle matematikernes forsøk på å få det til å høres ut. Jeg er tilbøyelig til å mistenke at renormaliseringsteorien er noe som ikke vil overleve i fremtiden, ... "Han observerte videre at" Man kan skille mellom to hovedprosedyrer for en teoretisk fysiker. En av dem er å jobbe ut fra eksperimentell basis ... Den andre prosedyren er å arbeide ut fra det matematiske grunnlaget. Man undersøker og kritiserer den eksisterende teorien. Man prøver å peke på feilene i den, og prøver deretter å fjerne dem. Vanskeligheten her er å fjerne feilene uten å ødelegge de meget store suksessene med den eksisterende teorien. "

Abdus Salam bemerket i 1972: "Feltteoretiske uendeligheter som først ble påtruffet i Lorentzs beregning av elektron, har vedvaret i klassisk elektrodynamikk i sytti og i kvanteelektrodynamikk i rundt tretti-fem år. Disse lange årene med frustrasjon har gitt motivet en nysgjerrig hengivenhet for uendelighetene og en lidenskapelig tro på at de er en uunngåelig del av naturen, så mye at selv forslaget om et håp om at de tross alt kan bli omgått - og endelige verdier for beregnet renormaliseringskonstanter - blir ansett som irrasjonelle. "

Men etter Gerard 't Hoofts mening, "forteller historien oss at hvis vi treffer et eller annet hinder, selv om det ser ut som en ren formalitet eller bare en teknisk komplikasjon, bør det undersøkes nøye. Naturen kan fortelle oss noe, og vi burde finne ut hva det er. "

Vanskeligheten med en realistisk regulering er at det foreløpig ikke er noen, selv om ingenting kunne bli ødelagt av dens ned-opp-tilnærming; og det er ikke noe eksperimentelt grunnlag for det.

Minimal realistisk regulering

Med tanke på distinkte teoretiske problemer foreslo Dirac i 1963: "Jeg tror det vil være behov for separate ideer for å løse disse distinkte problemene, og at de vil bli løst en og en gjennom suksessive stadier i den fremtidige utviklingen av fysikk. På dette punktet befinner jeg meg i uenighet med de fleste fysikere. De er tilbøyelige til å tro at en mesteride vil bli oppdaget som vil løse alle disse problemene sammen. Jeg tror det er for mye å be om å håpe at noen vil være i stand til å løse alle disse problemene sammen. Man bør skille dem en så mye som mulig fra en annen, og prøv å takle dem hver for seg. Og jeg tror den fremtidige utviklingen av fysikk vil bestå i å løse dem en om gangen, og at etter at en av dem er løst, vil det fremdeles være et stort mysterium om hvordan å angripe flere. "

Ifølge Dirac er " Quantum electrodynamics det fysikkdomenet vi vet mest om, og antagelig må det ordnes før vi kan håpe å gjøre noen grunnleggende fremgang med andre feltteorier, selv om disse vil fortsette å utvikle seg på eksperimentelt grunnlag. "

Diracs to foregående bemerkninger antyder at vi bør begynne å lete etter en realistisk regulering når det gjelder kvanteelektrodynamikk (QED) i den firedimensjonale Minkowski-romtiden , med utgangspunkt i den opprinnelige QED Lagrangian- tettheten.

Den stiintegrale formuleringen gir den mest direkte veien fra Lagrangian-tettheten til den tilsvarende Feynman-serien i sin Lorentz-invariante form. Den frie feltdelen av den lagrangiske tettheten bestemmer Feynman-propagatorene, mens resten bestemmer toppunktene. Ettersom QED-toppunktene anses å beskrive interaksjoner i QED-spredning tilstrekkelig, er det fornuftig å bare modifisere den frie feltdelen av den lagrangiske tettheten for å oppnå en så normalisert Feynman-serie at reduksjonsformelen Lehmann – Symanzik – Zimmermann gir en forstyrrende S -matrise som: (i) er Lorentz-invariant og enhetlig; (ii) bare involverer QED-partiklene; (iii) avhenger utelukkende av QED-parametere og de som er introdusert ved modifisering av Feynman-propagatorene - for spesielle verdier av disse parametrene er det lik den QED-forstyrrende S-matrisen; og (iv) viser de samme symmetriene som QED-forstyrrende S-matrise. La oss referere til en slik regulering som den minimalistiske realistiske reguleringen , og begynne å søke etter de tilsvarende, modifiserte frie feltdelene av QED Lagrangian-tettheten.

Transportteoretisk tilnærming

I følge Bjorken og Drell ville det være fysisk fornuftig å gå bort fra ultrafiolette avvik ved å bruke mer detaljert beskrivelse enn det som kan gis med differensielle feltligninger. Og Feynman bemerket om bruken av differensiallikninger: "... for nøytrondiffusjon er det bare en tilnærming som er god når avstanden vi ser over er stor sammenlignet med den gjennomsnittlige frie banen. Hvis vi så nærmere på, ville vi se individuelle nøytroner som løper rundt. " Og så lurte han på: "Kan det være at den virkelige verden består av små X-ons som bare kan sees på veldig små avstander? Og at vi i våre målinger alltid observerer i så stor skala at vi ikke kan se disse små X-ons, og det er derfor vi får differensiallikningene? ... Er de [derfor] også korrekte bare som en utjevnet etterligning av en virkelig mye mer komplisert mikroskopisk verden? "

Allerede i 1938 foreslo Heisenberg at en kvantefeltteori bare kan gi en idealisert, storskala beskrivelse av kvantedynamikken, gyldig for avstander større enn noen grunnleggende lengde , også forventet av Bjorken og Drell i 1965 . Feynmans forrige bemerkning gir en mulig fysisk årsak til at den eksisterte; enten det eller det er bare en annen måte å si det samme (det er en grunnleggende avstandsenhet), men uten å ha ny informasjon.

Tips om ny fysikk

Behovet for reguleringsbetingelser i enhver kvantefeltsteori om kvantegravitasjon er en viktig motivasjon for fysikk utover standardmodellen . Uendeligheter av ikke-gravitasjonskreftene i QFT kan bare kontrolleres via renormalisering, men ytterligere regulering - og dermed ny fysikk - kreves unikt for tyngdekraften. Regularisatorene modellerer, og jobber rundt, nedbrytingen av QFT i små skalaer og viser dermed klart behovet for at noen annen teori kommer til spill utover QFT i disse skalaene. A. Zee (Quantum Field Theory in a Nutshell, 2003) anser dette for å være en fordel med rammeverket for regulering - teorier kan fungere godt i sine tiltenkte domener, men inneholder også informasjon om sine egne begrensninger og peker tydelig på hvor ny fysikk er nødvendig.

Referanser