Kvantefeltteorien kan sies å ha begynt med Einsteins anmerkning i hans artikkel om emisjon og absorpsjon av stråling fra 1917: `De elementære prosessers egenskaper får oppgaven å formulere en virkelig kvantisert strålingsteori til å virke uunngåelig.'6 I denne artikkelen hadde han, ut fra Plancks strålingslov, Bohrs kvantepostulater og termodynamiske betraktninger beregnet koeffisienter for emisjon og absorpsjon av stråling i materie -- de såkalte Einsteins A- og B-koeffisienter. Den teorien som han hadde i tankene, som kunne begrunne disse koeffisientene ut fra grunnleggende kvantemekaniske prinsipper (om enn ikke slik Einstein hadde tenkt seg det), skulle bli formulert av Dirac i 1927: Kvanteelektrodynamikken.
Men nå har jeg hoppet inn midt i en historie, som begynte med Plancks artikkel om varmestråling fra 1900.7 Planck forsto ikke hva han gjorde med sitt kvantepostulat -- opprinnelig var hans strålingslov en ren interpolasjon uten teoretisk grunnlag, og kvantepostulatet ble innført kun for å begrunne denne loven. Det hadde altså til å begynne med kun anvendelse på ett enkelt forholdsvis perifert problem i fysikken (svart stråling eller varmestråling fra et hulrom)8 -- og han forsøkte lenge, uten hell, å innbake det i den klassiske fysikk. Max Planck, som regnes som kvantefysikkens grunnlegger, og har fått dens fundamentale konstant oppkalt etter seg, anerkjente aldri kvantemekanikken.
Det var Einstein som først forsto at Plancks arbeide innebar en
revolusjon i fysikken. Han oppfattet straks at Plancks ad hoc-antakelse om at atomene i hulromsveggene kun emitterte og
absorberte stråling i kvanta betød at strålingen (eller lyset) måtte
betraktes som sammensatt av partikler (fotoner, symbolisert ved
Alt dette skjedde i løpet av få år, og i et intellektuelt klima med få sidestykker i fysikkens historie. En stor del av arbeidet ble gjort av en gruppe svært unge fysikere (Pauli, Jordan, Heisenberg, Dirac, Wigner, Fermi o.a. var alle født mellom 1900 og 1902), under veiledning og innflytelse av spesielt Niels Bohr og Max Born. I dette miljøet, med Bohr som den mest sentrale skikkelsen, ble også den fortolkningen av kvantemekanikken utformet som er den rådende fremdeles -- den såkalte københavnerfortolkningen. Denne fortolkningen innebar et brudd med den klassiske fysikks realisme: At ting er som de er, uansett om og hvordan vi observerer dem -- og også med den tilhørende determinisme, som hadde vært så utbredt på 1800-tallet. Dette falt svært tungt for mange fysikere, spesielt av den eldre generasjonen -- også blant de som hadde vært sentrale i utformingen av kvantefysikken: Planck, Einstein, Schrödinger, deBroglie. Einsteins ord: `Gud spiller ikke terninger', er blitt berømte. Diskusjonen mellom de to `leire' toppet seg på Solvay-konferansen i 1927, med Einstein og Bohr i hovedrollene. Dette kan også regnes som utgangspunktet for all senere filosofisk diskusjon av kvantefysikken, slik det er skildret f.eks. i [16].
Nå som en hadde et skikkelig teoretisk grunnlag for kvantemekanikken, kunne en igjen vende tilbake til det spørsmålet som Planck hadde tatt utgangspunkt i: Vekselvirkningen mellom stråling og materie. Det var nå mulig å foreta en analyse av strålingsfenomener som tok i betraktning kvantenaturen til både stråling og materie. En måtte da forsøke å benytte den teorien som en hadde kommet frem til i studiet av materien til også å kvantisere strålingsfeltet og dermed forklare Plancks kvantepostulat.
Idéen om feltkvantisering (ofte kalt 2.kvantisering) kan sies å stamme fra Jordan, og kom første gang til uttrykk i en artikkel av Born, Heisenberg og Jordan allerede i 1925. En konkret utforming av idéen kom i 1927, med Diracs første artikkel om kvanteelektrodynamikk.15 Ved å behandle feltet analogt med et system av harmoniske oscillatorer, kunne en få diskrete (kvantiserte) energitilstander av feltet -- og disse tilstandene (feltkvantene oppførte seg akkurat som fotoner (masseløse partikler med Bose-Einstein-statistikk). I denne artikkelen viste han også hvordan fotonene ble skapt og ødelagt. Han gjennomførte der en konsistent (men fremdeles ikke-relativistisk) kvantisering av strålingsfeltet og fikk de riktige verdiene for emisjons- og absorpsjonskoeffisientene. Denne teorien var essensielt en perturbasjonsteori , dvs. at man først regnet ut effektene av prosesser hvor ett foton inngår, deretter la man til bidrag fra prosesser med to fotoner (som skulle være mindre sannsynlige og dermed gi mindre bidrag) osv.
Diracs arbeid ble fulgt opp av arbeider med en relativistisk formulering av teorien. Det dukket opp visse problemer med å få en konsistent kvantisering av alle feltkomponentene -- Dirac kunne overse dette problemet fordi man i ikke-relativistisk teori ikke behøver å behandle alle komponentene på like fot. Heisenberg og Pauli16 løste problemet ved å utnytte en frihet i valg av feltene -- gauge-invarians -- som følger av Maxwells ligninger. Dette kunne en bruke til å eliminere de `ufysiske' feltkomponentene og ende opp med en teori som ikke så relativistisk invariant ut, men som var det. Andre løsninger (som naturligvis var ekvivalente) ble foreslått, men disse var begrepsmessig vanskeligere, og ble ikke benyttet på 30-tallet. Derimot dannet de utgangspunktet for den senere, eksplisitt relativistiske teorien.
Det ble vist at en feltkvantisering som den Dirac gjennomførte, kunne benyttes til å beskrive boson-systemer generelt. Dermed reiste spørsmålet seg om ikke også fermioner kunne betraktes på tilsvarende måte. Dette ble vist av Jordan og Wigner i 1928.17 Også her kunne en ta i betraktning variable partikkeltall, altså at ikke bare fotoner, men også elektroner, var feltkvanter som kunne skapes og ødelegges.
I samme år utviklet Dirac sin relativistiske
elektronligning,18 som ga de rette verdiene for hydrogenatomets
struktur og forklarte elektronets spinn og magnetiske egenskaper, som
tidligere hadde måttet føres inn i teorien som ad hoc-antakelser. Ved å kombinere Dirac-ligningen og
kvanteelektrodynamikken kunne man også beregne spredningsprosesser
til laveste orden med resultater som stemte meget godt overens med de
observerte verdiene. Den første suksessen var
Klein-Nishina-formelen19 for Compton-spredning (
). Senere ble Jordan-Wigner-kvantisering tatt i bruk for
Dirac-ligningen, og flere prosesser ble beregnet på grunnlag av
dette: Pardannelse (
), parannihilasjon
(
), bremsestråling (
i
elektrostatisk felt), Bhabha-spredning (
) osv.
Et teoretisk meget viktig resultat fra denne perioden er det arbeidet
Pauli gjorde i 1940,20 der han viste at alle partikler med spinn 1/2 (som
elektronet) må tilfredsstille Fermi-Dirac-statistikk, mens
alle partikler med heltallig spinn (som fotonet) må
tilfredsstille Bose-Einstein-statistikk. Denne konklusjonen hviler
helt essensielt på prinsipielt relativistiske betraktninger
(relativitetsteoriens sterke krav til kausalitet) og forutsetter at
alt er formulert relativistisk invariant.
Dermed skulle en tro at alt var i orden. Men den nye, relativistiske kvanteteorien viste seg -- tross sine suksesser -- å være en katastrofe. Det var særlig 3-4 ting som skapte fortvilelse:
Denne teorien var fullstendig katastrofal. Oppenheimer viste at det førte til spontan desintegrasjon av hydrogenatomet, som ga en levetid på 10-10 sekunder for vanlig materie. Det fantes heller ingen måte å gjøre rede for masseforskjellen på. Dirac måtte postulere eksistensen av en ny, til da uoppdaget partikkel -- en uhyrlig ting på den tida. Med det nylig oppdagde nøytronet, kjente man da kun 4 partikler -- og ville helst ikke ha flere. Heldigvis oppdaget Anderson positronet ved en tilfeldighet i 1932,21 og katastrofen ble snudd til triumf.
Men dette var før positronteorien og før Dirac-feltet ble kvantisert. Da dette ble inkludert, og man fikk en konsistent prosedyre for å trekke fra størrelser som blir forskjellig fra 0 i vakuum, viste det seg at man riktignok fortsatt hadde uendeligheter (divergente integraler), men de var `snillere' (divergensen var svakere) enn både i klassisk teori og i den første beregningen av selvenergien. Til gjengjeld hadde man mistet all korrespondanse med klassisk teori og tilsynelatende alle muligheter til å få meningsfulle resultater ved å separere ut uendelighetene -- som dukket opp i alle forsøk på beregninger til høyere ordener.
Weisskopf viste25 at alle selvenergier har høyst en logaritmisk divergens (dvs. at de divergerer bare såvidt) -- et resultat som skulle bli viktig når det ble utviklet en teori for renormaliseringen. Men dette var fortsatt en stund frem til. Og i en del tilfelle (bremsestråling spesielt) dukket det opp divergenser også for veldig lave (foton-)energier -- selvenergien og vakuumpolarisasjonen divergerer ved ekstremt høye energier. På grunn av disse problemene konkluderte en med at en ennå ikke hadde en konsistent teori, og det teoretiske arbeidet ble liggende nokså dødt. Dirac tok fra 1936 av avstand fra kvanteelektrodynamikken -- den teorien han selv hadde skapt -- og viet resten av sitt liv (han døde i 1984) med å forsøke å utarbeide en alternativ elektrodynamikk. Dette var et ekstremt, men ikke helt utypisk uttrykk for den rådende stemningen. I tillegg kom krigen. Mye av de underliggende problemene ble løst av japanske fysikere under krigen, men disse resultatene ble ikke kjent i vesten før på slutten av 40-tallet, da (spesielt) amerikanske fysikere også hadde gjort store fremskritt på det samme området. Mye av den fornyete innsatsen skyldtes nye eksperimentelle resultater: I 1947 hadde Lamb og Retherford26 ved hjelp av mikrobølgeteknikk oppdaget en liten forkyvning av linjer i hydrogenspektret -- den såkalte Lamb-forskyvningen. Dette ble lagt frem på den store Shelter Island-konferansen samme år, og i løpet av kort tid kunne Bethe27 forklare resultatene som en følge av strålingskorreksjoner.
Bethes beregning ga riktig resultat, men var ikke relativistisk invariant og kunne ikke brukes som en mer generell prosedyre. Generelt så renormaliseringen, hvor man trakk uendelighetene inn i et masse- eller ladningsledd, ut til å være vilkårlig, men det viste seg at det hele ble helt entydig om en sørget for å beholde eksplisitt Lorentz- og gauge-invarians gjennom alle stadier av beregningen. Utviklingen av teorier som oppviste denne invariansen ble altså essensielt.
Slike teorier ble utviklet først og fremst langs to linjer: Den ene (Tomonaga, Schwinger)28 tok utgangspunkt i en feltteori, og innførte en ny formulering av kvantemekanikken, hvor en separerte den delen av systemet som skyldtes vekselvirkningen fra resten. Den andre metoden, utviklet av Feynman,29 var mindre generell, men mer anvendelig og anskuelig. Den tok utgangspunkt i spredningsproblemet, og så på vekselvirkningen som avstandskrefter med en endelig utbredelseshastighet. En fikk dermed en beskrivelse av kvanteelektrodynamikken hvor elektronets bevegelse i rom og tid er det mest grunnleggende. Et spesielt trekk ved denne formuleringen var at positronet kunne tolkes som et elektron som beveger seg bakover i tida! Dyson30 viste at de to formuleringene var ekvivalente -- at Feynmans `regler' fremkommer ved integrasjon av Tomonagas og Schwingers teori.
Som en følge av dette gjennombruddet ble det også interesse for å formulere kvantefeltteorien på en slik måte at den kunne `stå på egne bein' -- bl.a. med streng relativistisk invarians og gauge-invarians innebygd i grunnlaget for teorien. Inntil da hadde kvantemekanikken nesten utelukkende vært bygd på den ikke-relativistiske Hamilton-formuleringen av klassisk mekanikk; nå søkte mange, fra kvantemekaniske prinsipper, å utvikle en teori i tråd med den klassiske Lagrange-teorien, som er mer invariant formulert. Slike teorier burde helt klart kunne anvendes også på andre problemer enn elektrodynamikk. Dette ble nå forsøkt.
Marie Curie bemerket på den første Solvay-konferansen i 1911 at
`de radioaktive fenomenene danner en verden for seg selv', uten
sammenheng med andre fysiske fenomener. `Det ser ut som om [de] har
sitt opphav i et dypere område av atomet'.31 Dette var før hun ble kjent med
Rutherfords oppdagelse av atomkjernen tidligere samme år. I løpet av
årene som fulgte, ble riktigheten i hennes bemerkning bekreftet: Både
Riktignok fikk man ut kvanter med samme ladning som
-mesonene, som man regnet med formidlet de sterke
vekselvirkningene. Man fikk også ikke-lineære ledd, dvs. at feltet
skulle vekselvirke med seg selv, og feltkvanter kunne skapes og
ødelegges uten at det var noe materie i nærheten. Dette var et helt
nytt fenomen, men ikke så fryktelig overraskende. Imidlertid ble
kvantene masseløse, og en kunne ikke gi dem masse uten å bryte
gauge-symmetrien som teorien var basert på. Dermed fikk en ikke til
å konstruere en teori for mesonene, som definitivt var massive
partikler -- teorien ble altså uten kontakt med (det en trodde var)
virkeligheten, og den ble dermed forlatt.
Dette mislykte forsøket skulle imidlertid danne grunnlaget
for de teoriene som kom, både for sterke og svake
vekselvirkninger. For de svake vekselvirkningenes del var
utviklingen av en ny teori begrunnet i to formål: Det første var
å få en renormaliserbar teori -- Fermi-teorien var åpenbart
ubrukbar ved høye energier, og Heisenberg hadde vist at en
perturbasjon innenfor teorien var umulig. Dette problemet kunne
man kanskje løse ved å innføre nye bosoner
W med høy masse,
som kunne formidle de svake kreftene på samme måte som fotonet
formidler de elektromagnetiske. Det andre formålet var å få en
teori som kunne forene svak og elektromagnetisk vekselvirkning.
Man forsøkte da å plassere W-bosonene, fotonet og muligens et
`nytt', massivt, nøytralt boson, kalt Z0, sammen i en eller annen
symmetrigruppe (og siden undre seg over opphavet til
masseforskjellene).
Problemet med partikkelmassene ble (delvis) løst på begynnelsen
av 60-tallet, ved at man innførte begrepet spontant
symmetribrudd. Kjernepunktet her er at systemet som helhet har en
symmetri som systemets grunntilstand ikke har. Et eksempel på dette
er at energien (energitettheten) E avhenger av feltverdiene på en måte som angitt av figuren nedenfor.
Viss man nå følger i Yang og Mills' fotspor, og lar
gauge-symmetrien være lokal, dvs. at en kan velge å `rotere' feltene
forskjellig for hvert punkt i rom og tid, må en introdusere noen
gauge-felt (vekselvirkninger) for å kompensere. Disse er opprinnelig
masseløse, som hos Yang og Mills. Men når symmetrien brytes, skjer
to ting: Noe av koblingen til -feltene, nærmere bestemt
koblingen til feltets verdi i vakuum, tar form av et masseledd hos
gauge-feltene. Og en lokal gauge-transformasjon kan brukes til å
sørge for at Goldstone-bosonet forsvinner! Ved å `blande' felt, og
ved også å `blande sammen' `ekstrinsikke' egenskaper
(vekselvirkninger) og `intrinsikke' egenskaper (masse), oppnådde en
altså det ønskede resultatet -- massive vekselvirkningskvanter
(gauge-bosoner). Dette kalles Higgs-mekanismen, etter
P.W.Higgs,33 og den gjenværende komponenten av
-feltet
kalles Higgs-bosonet.
Så fikk Weinberg og Salam (uavhengig av hverandre) idéen å
forsøke å forene de svake og elektromagnetiske vekselvirkningene vha
en symmetrigruppe (
SU(2) x U(1)) foreslått av Glashow, i en
Yang-Mills type teori med bruk av
Higgs-mekanismen.34 Dette gikk bra.
Man startet med masseløse leptoner og 4 masseløse gauge-felt, og
endte opp med de tre massive bosonene
W og Z0 samt
fotonet -- i tillegg til at elektronet hadde fått masse gjennom
koblingen til Higgs-feltet. Z0 og fotonet er begge
`blandinger' (lineærkombinasjoner) av to av de opprinnelige feltene.
Bruddet på speilsymmetrien er innkorporert i teorien. Fermi-teorien
var grensetilfelle for lave energier.
Spørsmålet om renormaliserbarhet gjensto fremdeles. Men i
1971 viste 't Hooft at alle Yang-Mills type teorier, med eller
uten spontant symmetribrudd, er renormaliserbare.35 Dermed var plutselig kvantefeltteori på
moten igjen. Og i 1973 ble Weinberg-Salam-teoriens første
forutsigelse bekreftet: Nøytrale strømmer (prosesser hvor Z0inngår) ble observert i -e--spredning ved CERN.
Weinberg-Salam-teorien var et godt grunnlag å arbeide
videre med; det neste spørsmålet var å få med også kvarkene
(hadronene) i teorien. For å få med alle de mulige overgangene,
måtte de `fundamentale' feltene fra den svake vekselvirkningens
synspunkt være blandinger av felt som tilsvarer de `fysiske'
kvarkene d og s. I tillegg måtte en postulere eksistensen av en
ny kvark, kalt sjarm (c), som skulle tjene to formål: Det
første, og viktigste, var å sørge for at nøytrale strømmer hvor
s
d ikke kunne forekomme
(GIM-mekanismen).36 Slike prosesser hadde
aldri vært observert, men burde være forholdsvis vanlige dersom
man ikke hadde sjarm. Det andre formålet var renormaliserbarhet.
Det ble vist at teorien bare er renormaliserbar dersom summen av
ladningene til alle fermionene er 0. Dette kan man få til dersom
en antar at alle kvarkene forekommer i tre `farger' (rød, grønn,
blå), og at det fins en fjerde kvark.
Begrepet om farge danner inngangsporten til den nye teorien for de sterke vekselvirkningene: kvantekromodynamikk (QCD). Opphavet til begrepet var en bekymring over at baryontilstandene som kom ut av kvarkmodellen (med SU(3) og spinn) ikke lot seg forene med antakelsen om at kvarker er fermioner og dermed adlyder Pauli-prinsippet. Dette problemet kunne løses ved å gi kvarkene et ekstra kvantetall -- farge -- og si at alle hadroner er fargeløse, slik at de tre kvarkene i et baryon har forskjellig farge. Videre ble farge-kvantetallet knyttet til en ny symmetrigruppe SU(3)c.37 Når en så konstruerer en Yang-Mills teori (uten symmetribrudd) ut fra denne gruppen, får en QCD.
Vekselvirkningene i QCD blir formidlet av 8 masseløse, elektrisk nøytrale gluoner. Fordi teorien er ikke-abelsk, har gluonfeltene selv-vekselvirkning; de er altså selv fargede. Dette får flere konsekvenser. Den første, som ble oppdaget i 1973, kalles asymptotisk frihet: Dersom kvarkene er veldig nær hverandre, eller har veldig høy energi (noe som er ekvivalent), vil de ikke merke hverandre -- de beveger seg tilnærmet fritt. Denne effekten kan bare opptre i en ikke-abelsk teori, hvor gluonene kan være `dissosiert' i gluoner såvel som i fermioner (kvark-antikvark-par). I kvanteelektrodynamikken er effekten den stikk motsatte. Den asymptotiske friheten kan forklare eksperimentelle resultater som tydet på at høy-energi leptoner spres mot frie punktpartikler inne i hadronene. Det gjør det dessuten mulig med perturbativ QCD -- når man går til veldig høye energier, har man en teori for sterke vekselvirkninger som det går an å regne med ved å bruke konvensjonelle metoder.
Den andre konsekvensen av selvvekselvirkningen finner man i den andre enden av energiskalaen: infrarød-slaveri (confinement). Ved store avstander eller små energier vil gluonene multiplisere seg så voldsomt i gluoner av alle mulige farger at det beløper seg til en meget stor kraft som vil holde enhver kvark som forsøker å `stikke av' fanget -- vi får en `antiskjerming'-effekt. Bare fargeløse tilstander kan ha noe håp om å unnlippe. En fri kvark kan altså aldri eksistere!
Dette gir en forklaring både på hvorfor kvarkene alltid klumper seg i fargeløse tilstander, og på de store problemene man hadde hatt (og fremdeles har) med sterke vekselvirkninger: Alle eksperimenter hadde inntil begynnelsen av 70-tallet foregått ved forholdsvis lave energier, hvor infrarød-slaveriet trer i funksjon, og perturbasjonsteknikker er ubrukelige. Meson-feltene regnes nå som en `residualvekselvirkning' som kan foregå over lengre avstander enn dit de `frie' gluonene kan gå. Den riktige teorien for alle disse fenomenene tror man nå er ikke-perturbativ QCD.
Det store gjennombruddet for de nye teoriene kom høsten 1974, da
sjarm ble oppdaget. Foranledningen var målinger av reaksjonsraten
for prosesser
hadroner, hvor man plutselig oppdaget en
voldsomt høy og smal topp ved 3,1 GeV. Denne `resonansen' fikk navnet
J/
, og ble etterhvert identifisert med
c
.
Dette bekreftet ikke bare bildet med fire kvarker og tre farger; det
viste seg også at en kunne bruke QCD til å beregne
c
-tilstander! Sjarm-kvarken er nemlig så tung at den blir bundet
ved svært små avstander, slik at man kan bruke perturbativ QCD, og
den store massen gjør også at en kan bruke ikke-relativistisk teori.
Ved hjelp av kvalifiserte gjetninger fikk en dermed problemet til å
ligne på hydrogenatomet. Etter dette ble kombinasjonen av
Weinberg-Salam-teorien og QCD kalt for standardmodellen.
Partikkelspektret fikk et nytt og uventet tilskudd i 1975, da et
tungt lepton, kalt , ble oppdaget. Dette forstyrret balansen
mellom leptoner og kvarker som standardteorien bygger på, en balanse
som ble gjenopprettet i 1977 da det ble funnet evidens for en femte
kvark (b -- bunn eller skjønnhet). Den sjette kvarken -- t for
topp eller sannhet -- er ennå ikke oppdaget, men det er ingen som
tør å tvile på dens eksistens. Dette nye tilskuddet bar også noe
godt med seg: Man kunne innføre CP-bruddet på en naturlig måte ved
hjelp av blandinger mellom tre kvark-`familier' (u,d), (c,s) og (t,b)
-- en mekanisme som var foreslått av Kobayashi og Maskawa allerede i
1972.38 De nyeste dataene fra CERN (1990) tyder på
at dette er hele sannheten i så måte -- det finnes tre, men ikke
flere familier.
Kvantekromodynamikken fikk ytterligere eksperimentell evidens da en utover slutten av 70- og begynnelsen av 80-tallet kunne se `jets': konsentrerte skurer av hadroner som kunne tilbakeføres til en enkelt utgående kvark (eller ett gluon), i reaksjoner ved veldig høye energier. Vinkelfordelingen av disse skurene stemte godt med forutsigelsene fra QCD.
Den `endelige' bekreftelsen på Weinberg-Salam-teorien kom i 1983, da først W-bosonene og siden Z-bosonet ble oppdaget ved CERN, med masser akkurat som forutsagt. Den eneste manglende brikken (i tillegg til topp-kvarken) er nå Higgs-bosonet. Her har en imidlertid ingen anelse om hva massen skal være (noen grenser finnes); heller ikke om det fins én, flere eller kanskje ingen Higgs. (Det finnes andre, mer kompliserte måter å innføre spontant symmetribrudd på.) Den som finner Higgs, får Nobelprisen (om vedkommende ikke har den fra før).
Den vellykte foreningen av de svake og de elektromagnetiske kreftene fikk mange til å prøve også å forene de elektrosvake og de sterke kreftene i én teori. De første forsøkene på en slik `stor enhetsteori' (Grand Unified Theory GUT) kom allerede i 1974. Felles for alle disse teoriene er at protonet skal være ustabilt -- men noen slik ustabilitet er aldri observert. Til dags dato har man få eller ingen brukbare resultater fra slike teorier (annet enn mye interessant spekulasjon). Det samme gjelder forsøk på også å integrere gravitasjon i det hele -- men det er en helt annen historie.