next up previous contents
Next: Kvantefeltteoriens fysiske grunnbegreper Up: Hva er kvantefeltteorien? Previous: Innledning

Subsections

Historisk oversikt

Den kvantemekaniske revolusjonen (1900-27)

Kvantefeltteorien kan sies å ha begynt med Einsteins anmerkning i hans artikkel om emisjon og absorpsjon av stråling fra 1917: `De elementære prosessers egenskaper får oppgaven å formulere en virkelig kvantisert strålingsteori til å virke uunngåelig.'6 I denne artikkelen hadde han, ut fra Plancks strålingslov, Bohrs kvantepostulater og termodynamiske betraktninger beregnet koeffisienter for emisjon og absorpsjon av stråling i materie -- de såkalte Einsteins A- og B-koeffisienter. Den teorien som han hadde i tankene, som kunne begrunne disse koeffisientene ut fra grunnleggende kvantemekaniske prinsipper (om enn ikke slik Einstein hadde tenkt seg det), skulle bli formulert av Dirac i 1927: Kvanteelektrodynamikken.

Men nå har jeg hoppet inn midt i en historie, som begynte med Plancks artikkel om varmestråling fra 1900.7 Planck forsto ikke hva han gjorde med sitt kvantepostulat -- opprinnelig var hans strålingslov en ren interpolasjon uten teoretisk grunnlag, og kvantepostulatet ble innført kun for å begrunne denne loven. Det hadde altså til å begynne med kun anvendelse på ett enkelt forholdsvis perifert problem i fysikken (svart stråling eller varmestråling fra et hulrom)8 -- og han forsøkte lenge, uten hell, å innbake det i den klassiske fysikk. Max Planck, som regnes som kvantefysikkens grunnlegger, og har fått dens fundamentale konstant oppkalt etter seg, anerkjente aldri kvantemekanikken.

Det var Einstein som først forsto at Plancks arbeide innebar en revolusjon i fysikken. Han oppfattet straks at Plancks ad hoc-antakelse om at atomene i hulromsveggene kun emitterte og absorberte stråling i kvanta betød at strålingen (eller lyset) måtte betraktes som sammensatt av partikler (fotoner, symbolisert ved $ \gamma$

1. Kvantestatistikk.

Kvantestatistikken ble utviklet like før det store gjennombruddet i kvantemekanikken, og ble ikke fullstendig integrert med resten av teorien før gjennom kvantefeltteorien. Den er imidlertid uunnværlig for beregning av prosesser og kvantemekaniske systemer med flere partikler, den er nært knyttet til symmetrier i systemene og sier mye om det kvantemekaniske tilstandsbegrepet. To forskjellige statistikker ble utviklet -- felles for dem er at de baserer seg på at partiklene er absolutt identiske (i motsetning til klassisk statistisk mekanikk, hvor man kan tenke seg at en `merker' hver partikkel). De skiller seg når det gjelder hvor mange partikler som kan være i samme tilstand samtidig. I Bose-Einstein-statistikken9 (som gjelder for fotoner og andre bosoner) er det ingen begrensninger på dette. Fermi-Dirac-statistikken,10 som gjelder for elektroner og andre fermioner, forutsetter at det ikke kan være mer enn én partikkel i hver tilstand. Dette er kjent som Paulis utelukkelsesprinsipp -- formulert første gang av Pauli i 1925.11 En forbindelse mellom statistikkene ble etablert med Wigners summasjonsregel, som sier at der et system av partikler kan betraktes som en udelelig enhet, oppfører det seg som et boson dersom det består av et like antall fermioner og som et fermion dersom det består av et odde antall.  

   
2. Den statistiske tolkningen.

Med fremveksten av den nye kvantemekanikken ble det helt klart at man ikke kunne forutsi det nøyaktige utkommet av en atomær prosess -- i matrisemekanikken hadde f.eks. spørsmål om det nøyaktige tidspunktet for en overgang mellom to energitilstander blitt meningsløst. Man kunne heller ikke si nøyaktig vilken stasjonære tilstand et elektron vil gå til etter en eksitasjon -- selv om man kunne beregne intensiteten på spektrallinjene. Heller ikke kunne man forutsi resultatet av individuelle spredningsprosesser. Max Born foreslo derfor12 at matriseelementene og bølgefunksjonene refererte til fordelingen av resultatene av en rekke identisk preparerte forsøk. Denne tolkningen ble raskt godtatt av de fleste, og oppfattes i dag som et av grunnprinsippene i kvantemekanikken.

3. Uskarphetsrelasjonen.

I mars 1927 kunngjorde Heisenberg sine uskarphetsrelasjoner,13 som viser at det i kvantemekanikken er en prinsipiell grense for hvor nøyaktig en rekke fysiske størrelser kan måles samtidig. F.eks. er det prinsipielt umulig samtidig å nøyaktig angi verdien til en partikkels posisjon og impuls. Dette fremgår både av kvantemekanikkens matematiske formalisme, og av betraktninger omkring måleinstrumentenes innvirkning på det som skal måles -- en innvirkning som ikke kan gjøres vilkårlig liten. Denne innebygde uskarpheten er en av de tingene som skiller kvantemekanikken klarest fra klassisk fysikk, og regnes ofte som kvantemekanikkens første prinsipp. Den ledet også Bohr til å formulere sitt komplementaritetsprinsipp.14

Alt dette skjedde i løpet av få år, og i et intellektuelt klima med få sidestykker i fysikkens historie. En stor del av arbeidet ble gjort av en gruppe svært unge fysikere (Pauli, Jordan, Heisenberg, Dirac, Wigner, Fermi o.a. var alle født mellom 1900 og 1902), under veiledning og innflytelse av spesielt Niels Bohr og Max Born. I dette miljøet, med Bohr som den mest sentrale skikkelsen, ble også den fortolkningen av kvantemekanikken utformet som er den rådende fremdeles -- den såkalte københavnerfortolkningen. Denne fortolkningen innebar et brudd med den klassiske fysikks realisme: At ting er som de er, uansett om og hvordan vi observerer dem -- og også med den tilhørende determinisme, som hadde vært så utbredt på 1800-tallet. Dette falt svært tungt for mange fysikere, spesielt av den eldre generasjonen -- også blant de som hadde vært sentrale i utformingen av kvantefysikken: Planck, Einstein, Schrödinger, deBroglie. Einsteins ord: `Gud spiller ikke terninger', er blitt berømte. Diskusjonen mellom de to `leire' toppet seg på Solvay-konferansen i 1927, med Einstein og Bohr i hovedrollene. Dette kan også regnes som utgangspunktet for all senere filosofisk diskusjon av kvantefysikken, slik det er skildret f.eks. i [16].

Kvanteelektrodynamikk

Nå som en hadde et skikkelig teoretisk grunnlag for kvantemekanikken, kunne en igjen vende tilbake til det spørsmålet som Planck hadde tatt utgangspunkt i: Vekselvirkningen mellom stråling og materie. Det var nå mulig å foreta en analyse av strålingsfenomener som tok i betraktning kvantenaturen til både stråling og materie. En måtte da forsøke å benytte den teorien som en hadde kommet frem til i studiet av materien til også å kvantisere strålingsfeltet og dermed forklare Plancks kvantepostulat.

Idéen om feltkvantisering (ofte kalt 2.kvantisering) kan sies å stamme fra Jordan, og kom første gang til uttrykk i en artikkel av Born, Heisenberg og Jordan allerede i 1925. En konkret utforming av idéen kom i 1927, med Diracs første artikkel om kvanteelektrodynamikk.15 Ved å behandle feltet analogt med et system av harmoniske oscillatorer, kunne en få diskrete (kvantiserte) energitilstander av feltet -- og disse tilstandene (feltkvantene oppførte seg akkurat som fotoner (masseløse partikler med Bose-Einstein-statistikk). I denne artikkelen viste han også hvordan fotonene ble skapt og ødelagt. Han gjennomførte der en konsistent (men fremdeles ikke-relativistisk) kvantisering av strålingsfeltet og fikk de riktige verdiene for emisjons- og absorpsjonskoeffisientene. Denne teorien var essensielt en perturbasjonsteori , dvs. at man først regnet ut effektene av prosesser hvor ett foton inngår, deretter la man til bidrag fra prosesser med to fotoner (som skulle være mindre sannsynlige og dermed gi mindre bidrag) osv.

Diracs arbeid ble fulgt opp av arbeider med en relativistisk formulering av teorien. Det dukket opp visse problemer med å få en konsistent kvantisering av alle feltkomponentene -- Dirac kunne overse dette problemet fordi man i ikke-relativistisk teori ikke behøver å behandle alle komponentene på like fot. Heisenberg og Pauli16 løste problemet ved å utnytte en frihet i valg av feltene -- gauge-invarians -- som følger av Maxwells ligninger. Dette kunne en bruke til å eliminere de `ufysiske' feltkomponentene og ende opp med en teori som ikke så relativistisk invariant ut, men som var det. Andre løsninger (som naturligvis var ekvivalente) ble foreslått, men disse var begrepsmessig vanskeligere, og ble ikke benyttet på 30-tallet. Derimot dannet de utgangspunktet for den senere, eksplisitt relativistiske teorien.

Det ble vist at en feltkvantisering som den Dirac gjennomførte, kunne benyttes til å beskrive boson-systemer generelt. Dermed reiste spørsmålet seg om ikke også fermioner kunne betraktes på tilsvarende måte. Dette ble vist av Jordan og Wigner i 1928.17 Også her kunne en ta i betraktning variable partikkeltall, altså at ikke bare fotoner, men også elektroner, var feltkvanter som kunne skapes og ødelegges.

I samme år utviklet Dirac sin relativistiske elektronligning,18 som ga de rette verdiene for hydrogenatomets struktur og forklarte elektronets spinn og magnetiske egenskaper, som tidligere hadde måttet føres inn i teorien som ad hoc-antakelser. Ved å kombinere Dirac-ligningen og kvanteelektrodynamikken kunne man også beregne spredningsprosesser til laveste orden med resultater som stemte meget godt overens med de observerte verdiene. Den første suksessen var Klein-Nishina-formelen19 for Compton-spredning ( $ \mbox{$e^-$}$$ \gamma$ $ \rightarrow$ $ \mbox{$e^-$}$$ \gamma$). Senere ble Jordan-Wigner-kvantisering tatt i bruk for Dirac-ligningen, og flere prosesser ble beregnet på grunnlag av dette: Pardannelse ( $ \gamma$$ \gamma$ $ \rightarrow$ $ \mbox{$e^-$}$$ \mbox{$e^+$}$), parannihilasjon ( $ \mbox{$e^-$}$$ \mbox{$e^+$}$ $ \rightarrow$ $ \gamma$$ \gamma$), bremsestråling ( $ \mbox{$e^-$}$ $ \rightarrow$ $ \mbox{$e^-$}$$ \gamma$ i elektrostatisk felt), Bhabha-spredning ( $ \mbox{$e^-$}$$ \mbox{$e^+$}$ $ \rightarrow$ $ \mbox{$e^-$}$$ \mbox{$e^+$}$) osv. Et teoretisk meget viktig resultat fra denne perioden er det arbeidet Pauli gjorde i 1940,20 der han viste at alle partikler med spinn 1/2 (som elektronet) tilfredsstille Fermi-Dirac-statistikk, mens alle partikler med heltallig spinn (som fotonet) tilfredsstille Bose-Einstein-statistikk. Denne konklusjonen hviler helt essensielt på prinsipielt relativistiske betraktninger (relativitetsteoriens sterke krav til kausalitet) og forutsetter at alt er formulert relativistisk invariant.

Dermed skulle en tro at alt var i orden. Men den nye, relativistiske kvanteteorien viste seg -- tross sine suksesser -- å være en katastrofe. Det var særlig 3-4 ting som skapte fortvilelse:

1. Positronet.

Diracs relativistiske elektronligning var, som sagt, en fantastisk suksess, i og med at man fra den kunne utlede alle de viktige egenskapene for elektronet, uten tilleggsantakelser. Men den inneholdt også et paradoks: Man kom ut med dobbelt så mange kvantetilstander som man skulle ha. De `overflødige' tilstandene svarte til løsningene av E2 = p2c2 + m2c4 med negativ energi. En kunne ikke bare forkaste disse løsningene som ufysiske -- det var ingen mekanisme som kunne forhindre overgangen mellom positive og negative energier. I stedet foreslo Dirac at de negative energiene kunne svare til partikler med positiv energi og positiv ladning -- ved at alle tilstandene opprinnelig var fylt opp, og et elektron etterlot seg et positivt ladet `hull' når det hoppet opp i en høyere tilstand. Dermed identifiserte en hullene med protoner, som var de positivt ladete partiklene man kjente da.

Denne teorien var fullstendig katastrofal. Oppenheimer viste at det førte til spontan desintegrasjon av hydrogenatomet, som ga en levetid på 10-10 sekunder for vanlig materie. Det fantes heller ingen måte å gjøre rede for masseforskjellen på. Dirac måtte postulere eksistensen av en ny, til da uoppdaget partikkel -- en uhyrlig ting på den tida. Med det nylig oppdagde nøytronet, kjente man da kun 4 partikler -- og ville helst ikke ha flere. Heldigvis oppdaget Anderson positronet ved en tilfeldighet i 1932,21 og katastrofen ble snudd til triumf.

2. Elektronets selvenergi.

I klassisk elektrodynamikk har elektronet en indre, elektrostatisk energi, som er uendelig når det behandles som en punktpartikkel, og lik massen når det regnes som en hard kule med radius a = e2/4$ \pi$$ \epsilon_{0}^{}$mc2 (klassisk elektronradius). I kvantemekanikk og relativitetsteori behandles partiklene som punkter, og den uendelige selvenergien dukker opp. Men i tillegg kommer en elektromagnetisk effekt, som er rent kvantemekanisk -- og denne viste seg først å opptre enda verre enn den klassiske selvenergien, og gi ikke bare en uendelig forskyvning av energinivåene, men også en uendelig relativ forskyvning, noe som skulle gi en uendelig forskyvning av de observerte spektrallinjene.22

Men dette var før positronteorien og før Dirac-feltet ble kvantisert. Da dette ble inkludert, og man fikk en konsistent prosedyre for å trekke fra størrelser som blir forskjellig fra 0 i vakuum, viste det seg at man riktignok fortsatt hadde uendeligheter (divergente integraler), men de var `snillere' (divergensen var svakere) enn både i klassisk teori og i den første beregningen av selvenergien. Til gjengjeld hadde man mistet all korrespondanse med klassisk teori og tilsynelatende alle muligheter til å få meningsfulle resultater ved å separere ut uendelighetene -- som dukket opp i alle forsøk på beregninger til høyere ordener.

3. Vakuumpolarisasjon.

Prosessen $ \gamma$ $ \rightarrow$ $ \mbox{$e^-$}$$ \mbox{$e^+$}$ $ \rightarrow$ $ \gamma$, eller at et elektromagnetisk felt induserer dannelsen av elektron-positron-par, med en tilhørende ladningsfordeling, må regnes med i Dirac-teorien. Beregner en den induserte ladningen og strømmen, viser det seg at den blir uendelig. Disse ladningene setter igjen opp et elektromagnetisk felt, og vi får en ny kvanteeffekt: en (uendelig) polarisasjon av vakuum. Med dette fikk både vakuum og fotonet en selvenergi, som naturligvis ikke kunne tenkes å ha noe med massen å gjøre, som tilfellet var for elektronet. Det dukket opp en idé om å renormalisere denne polarisasjonen,23 f.eks. ved å absorbere uendelighetene i elektronladningen -- og Weisskopf observerte at `en konstant polariserbarhet er på ingen måte observerbar.'24 Men hvordan prosessen med å eliminere uendelighetene skulle foregå, kunne man ikke si.

Weisskopf viste25 at alle selvenergier har høyst en logaritmisk divergens (dvs. at de divergerer bare såvidt) -- et resultat som skulle bli viktig når det ble utviklet en teori for renormaliseringen. Men dette var fortsatt en stund frem til. Og i en del tilfelle (bremsestråling spesielt) dukket det opp divergenser også for veldig lave (foton-)energier -- selvenergien og vakuumpolarisasjonen divergerer ved ekstremt høye energier. På grunn av disse problemene konkluderte en med at en ennå ikke hadde en konsistent teori, og det teoretiske arbeidet ble liggende nokså dødt. Dirac tok fra 1936 av avstand fra kvanteelektrodynamikken -- den teorien han selv hadde skapt -- og viet resten av sitt liv (han døde i 1984) med å forsøke å utarbeide en alternativ elektrodynamikk. Dette var et ekstremt, men ikke helt utypisk uttrykk for den rådende stemningen. I tillegg kom krigen. Mye av de underliggende problemene ble løst av japanske fysikere under krigen, men disse resultatene ble ikke kjent i vesten før på slutten av 40-tallet, da (spesielt) amerikanske fysikere også hadde gjort store fremskritt på det samme området. Mye av den fornyete innsatsen skyldtes nye eksperimentelle resultater: I 1947 hadde Lamb og Retherford26 ved hjelp av mikrobølgeteknikk oppdaget en liten forkyvning av linjer i hydrogenspektret -- den såkalte Lamb-forskyvningen. Dette ble lagt frem på den store Shelter Island-konferansen samme år, og i løpet av kort tid kunne Bethe27 forklare resultatene som en følge av strålingskorreksjoner.

Bethes beregning ga riktig resultat, men var ikke relativistisk invariant og kunne ikke brukes som en mer generell prosedyre. Generelt så renormaliseringen, hvor man trakk uendelighetene inn i et masse- eller ladningsledd, ut til å være vilkårlig, men det viste seg at det hele ble helt entydig om en sørget for å beholde eksplisitt Lorentz- og gauge-invarians gjennom alle stadier av beregningen. Utviklingen av teorier som oppviste denne invariansen ble altså essensielt.

Slike teorier ble utviklet først og fremst langs to linjer: Den ene (Tomonaga, Schwinger)28 tok utgangspunkt i en feltteori, og innførte en ny formulering av kvantemekanikken, hvor en separerte den delen av systemet som skyldtes vekselvirkningen fra resten. Den andre metoden, utviklet av Feynman,29 var mindre generell, men mer anvendelig og anskuelig. Den tok utgangspunkt i spredningsproblemet, og så på vekselvirkningen som avstandskrefter med en endelig utbredelseshastighet. En fikk dermed en beskrivelse av kvanteelektrodynamikken hvor elektronets bevegelse i rom og tid er det mest grunnleggende. Et spesielt trekk ved denne formuleringen var at positronet kunne tolkes som et elektron som beveger seg bakover i tida! Dyson30 viste at de to formuleringene var ekvivalente -- at Feynmans `regler' fremkommer ved integrasjon av Tomonagas og Schwingers teori.

Som en følge av dette gjennombruddet ble det også interesse for å formulere kvantefeltteorien på en slik måte at den kunne `stå på egne bein' -- bl.a. med streng relativistisk invarians og gauge-invarians innebygd i grunnlaget for teorien. Inntil da hadde kvantemekanikken nesten utelukkende vært bygd på den ikke-relativistiske Hamilton-formuleringen av klassisk mekanikk; nå søkte mange, fra kvantemekaniske prinsipper, å utvikle en teori i tråd med den klassiske Lagrange-teorien, som er mer invariant formulert. Slike teorier burde helt klart kunne anvendes også på andre problemer enn elektrodynamikk. Dette ble nå forsøkt.

Sterke og svake vekselvirkninger

Marie Curie bemerket på den første Solvay-konferansen i 1911 at `de radioaktive fenomenene danner en verden for seg selv', uten sammenheng med andre fysiske fenomener. `Det ser ut som om [de] har sitt opphav i et dypere område av atomet'.31 Dette var før hun ble kjent med Rutherfords oppdagelse av atomkjernen tidligere samme år. I løpet av årene som fulgte, ble riktigheten i hennes bemerkning bekreftet: Både $ \alpha$

   
Kvantefeltteorien får ny tillit

Et av de mange mislykte forsøkene på å få til en skikkelig teori for sterke vekselvirkninger ble gjort av Yang og Mills i 1954.32 De tok utgangspunkt i en sammenheng som Weyl hadde lagt merke til mellom den elektromagnetiske vekselvirkningen og frihet i valg av fase for de kvantemekaniske bølgefunksjonene (gauge-symmetri). Ved å utvide dette begrepet om gauge-symmetri til også å omfatte symmetri mellom ulike partikler (isospinnsymmetri) håpet de å kunne generere en brukbar meson-feltteori for sterke vekselvirkninger. Denne første ikke-abelske gauge-teorien, som den ble kalt, ga ikke så veldig oppløftende resultater.

Riktignok fikk man ut kvanter med samme ladning som $ \pi$-mesonene, som man regnet med formidlet de sterke vekselvirkningene. Man fikk også ikke-lineære ledd, dvs. at feltet skulle vekselvirke med seg selv, og feltkvanter kunne skapes og ødelegges uten at det var noe materie i nærheten. Dette var et helt nytt fenomen, men ikke så fryktelig overraskende. Imidlertid ble kvantene masseløse, og en kunne ikke gi dem masse uten å bryte gauge-symmetrien som teorien var basert på. Dermed fikk en ikke til å konstruere en teori for mesonene, som definitivt var massive partikler -- teorien ble altså uten kontakt med (det en trodde var) virkeligheten, og den ble dermed forlatt.

Dette mislykte forsøket skulle imidlertid danne grunnlaget for de teoriene som kom, både for sterke og svake vekselvirkninger. For de svake vekselvirkningenes del var utviklingen av en ny teori begrunnet i to formål: Det første var å få en renormaliserbar teori -- Fermi-teorien var åpenbart ubrukbar ved høye energier, og Heisenberg hadde vist at en perturbasjon innenfor teorien var umulig. Dette problemet kunne man kanskje løse ved å innføre nye bosoner W$\scriptstyle \pm$ med høy masse, som kunne formidle de svake kreftene på samme måte som fotonet formidler de elektromagnetiske. Det andre formålet var å få en teori som kunne forene svak og elektromagnetisk vekselvirkning. Man forsøkte da å plassere W-bosonene, fotonet og muligens et `nytt', massivt, nøytralt boson, kalt Z0, sammen i en eller annen symmetrigruppe (og siden undre seg over opphavet til masseforskjellene).

Problemet med partikkelmassene ble (delvis) løst på begynnelsen av 60-tallet, ved at man innførte begrepet spontant symmetribrudd. Kjernepunktet her er at systemet som helhet har en symmetri som systemets grunntilstand ikke har. Et eksempel på dette er at energien (energitettheten) E avhenger av feltverdiene $ \Phi$på en måte som angitt av figuren nedenfor.

 
Figure 2: Et typisk Higgs-potensial

Systemet er fullstendig symmetrisk med hensyn på `rotasjon' av feltkomponentene $ \Phi_{1}^{}$ og $ \Phi_{2}^{}$ (dette er en type gauge-transformasjon), og grunntilstanden er dermed degenerert: Alle tilstander på den merkede `ringen' har samme energi, som er den laveste oppnåelige. En vilken som helst av disse kan altså tjene som vakuum. Men når vi definerer vakuum som én av disse tilstandene, er symmetrien brutt. Når vi så uttrykker feltene som avvik fra verdiene i vakuum, får vi ett massivt felt og ett masseløst. Det massive feltet kan være kjekt å ha; det masseløse (Goldstone-bosonet) liker vi ikke -- slike dyr har vi aldri sett.

Viss man nå følger i Yang og Mills' fotspor, og lar gauge-symmetrien være lokal, dvs. at en kan velge å `rotere' feltene forskjellig for hvert punkt i rom og tid, må en introdusere noen gauge-felt (vekselvirkninger) for å kompensere. Disse er opprinnelig masseløse, som hos Yang og Mills. Men når symmetrien brytes, skjer to ting: Noe av koblingen til $ \Phi$-feltene, nærmere bestemt koblingen til feltets verdi i vakuum, tar form av et masseledd hos gauge-feltene. Og en lokal gauge-transformasjon kan brukes til å sørge for at Goldstone-bosonet forsvinner! Ved å `blande' felt, og ved også å `blande sammen' `ekstrinsikke' egenskaper (vekselvirkninger) og `intrinsikke' egenskaper (masse), oppnådde en altså det ønskede resultatet -- massive vekselvirkningskvanter (gauge-bosoner). Dette kalles Higgs-mekanismen, etter P.W.Higgs,33 og den gjenværende komponenten av $ \Phi$-feltet kalles Higgs-bosonet.

Så fikk Weinberg og Salam (uavhengig av hverandre) idéen å forsøke å forene de svake og elektromagnetiske vekselvirkningene vha en symmetrigruppe ( SU(2) x U(1)) foreslått av Glashow, i en Yang-Mills type teori med bruk av Higgs-mekanismen.34 Dette gikk bra. Man startet med masseløse leptoner og 4 masseløse gauge-felt, og endte opp med de tre massive bosonene W$\scriptstyle \pm$ og Z0 samt fotonet -- i tillegg til at elektronet hadde fått masse gjennom koblingen til Higgs-feltet. Z0 og fotonet er begge `blandinger' (lineærkombinasjoner) av to av de opprinnelige feltene. Bruddet på speilsymmetrien er innkorporert i teorien. Fermi-teorien var grensetilfelle for lave energier.

Spørsmålet om renormaliserbarhet gjensto fremdeles. Men i 1971 viste 't Hooft at alle Yang-Mills type teorier, med eller uten spontant symmetribrudd, er renormaliserbare.35 Dermed var plutselig kvantefeltteori på moten igjen. Og i 1973 ble Weinberg-Salam-teoriens første forutsigelse bekreftet: Nøytrale strømmer (prosesser hvor Z0inngår) ble observert i $ \nu_{\mu}^{}$-e--spredning ved CERN.

Weinberg-Salam-teorien var et godt grunnlag å arbeide videre med; det neste spørsmålet var å få med også kvarkene (hadronene) i teorien. For å få med alle de mulige overgangene, måtte de `fundamentale' feltene fra den svake vekselvirkningens synspunkt være blandinger av felt som tilsvarer de `fysiske' kvarkene d og s. I tillegg måtte en postulere eksistensen av en ny kvark, kalt sjarm (c), som skulle tjene to formål: Det første, og viktigste, var å sørge for at nøytrale strømmer hvor s $ \leftrightarrow$ d ikke kunne forekomme (GIM-mekanismen).36 Slike prosesser hadde aldri vært observert, men burde være forholdsvis vanlige dersom man ikke hadde sjarm. Det andre formålet var renormaliserbarhet. Det ble vist at teorien bare er renormaliserbar dersom summen av ladningene til alle fermionene er 0. Dette kan man få til dersom en antar at alle kvarkene forekommer i tre `farger' (rød, grønn, blå), og at det fins en fjerde kvark.

Begrepet om farge danner inngangsporten til den nye teorien for de sterke vekselvirkningene: kvantekromodynamikk (QCD). Opphavet til begrepet var en bekymring over at baryontilstandene som kom ut av kvarkmodellen (med SU(3) og spinn) ikke lot seg forene med antakelsen om at kvarker er fermioner og dermed adlyder Pauli-prinsippet. Dette problemet kunne løses ved å gi kvarkene et ekstra kvantetall -- farge -- og si at alle hadroner er fargeløse, slik at de tre kvarkene i et baryon har forskjellig farge. Videre ble farge-kvantetallet knyttet til en ny symmetrigruppe SU(3)c.37 Når en så konstruerer en Yang-Mills teori (uten symmetribrudd) ut fra denne gruppen, får en QCD.

Vekselvirkningene i QCD blir formidlet av 8 masseløse, elektrisk nøytrale gluoner. Fordi teorien er ikke-abelsk, har gluonfeltene selv-vekselvirkning; de er altså selv fargede. Dette får flere konsekvenser. Den første, som ble oppdaget i 1973, kalles asymptotisk frihet: Dersom kvarkene er veldig nær hverandre, eller har veldig høy energi (noe som er ekvivalent), vil de ikke merke hverandre -- de beveger seg tilnærmet fritt. Denne effekten kan bare opptre i en ikke-abelsk teori, hvor gluonene kan være `dissosiert' i gluoner såvel som i fermioner (kvark-antikvark-par). I kvanteelektrodynamikken er effekten den stikk motsatte. Den asymptotiske friheten kan forklare eksperimentelle resultater som tydet på at høy-energi leptoner spres mot frie punktpartikler inne i hadronene. Det gjør det dessuten mulig med perturbativ QCD -- når man går til veldig høye energier, har man en teori for sterke vekselvirkninger som det går an å regne med ved å bruke konvensjonelle metoder.

Den andre konsekvensen av selvvekselvirkningen finner man i den andre enden av energiskalaen: infrarød-slaveri (confinement). Ved store avstander eller små energier vil gluonene multiplisere seg så voldsomt i gluoner av alle mulige farger at det beløper seg til en meget stor kraft som vil holde enhver kvark som forsøker å `stikke av' fanget -- vi får en `antiskjerming'-effekt. Bare fargeløse tilstander kan ha noe håp om å unnlippe. En fri kvark kan altså aldri eksistere!

Dette gir en forklaring både på hvorfor kvarkene alltid klumper seg i fargeløse tilstander, og på de store problemene man hadde hatt (og fremdeles har) med sterke vekselvirkninger: Alle eksperimenter hadde inntil begynnelsen av 70-tallet foregått ved forholdsvis lave energier, hvor infrarød-slaveriet trer i funksjon, og perturbasjonsteknikker er ubrukelige. Meson-feltene regnes nå som en `residualvekselvirkning' som kan foregå over lengre avstander enn dit de `frie' gluonene kan gå. Den riktige teorien for alle disse fenomenene tror man nå er ikke-perturbativ QCD.

Det store gjennombruddet for de nye teoriene kom høsten 1974, da sjarm ble oppdaget. Foranledningen var målinger av reaksjonsraten for prosesser $ \mbox{$e^+$}$$ \mbox{$e^-$}$ $ \rightarrow$ hadroner, hvor man plutselig oppdaget en voldsomt høy og smal topp ved 3,1 GeV. Denne `resonansen' fikk navnet J/$ \psi$, og ble etterhvert identifisert med c$ \bar{c}$. Dette bekreftet ikke bare bildet med fire kvarker og tre farger; det viste seg også at en kunne bruke QCD til å beregne c$ \bar{c}$-tilstander! Sjarm-kvarken er nemlig så tung at den blir bundet ved svært små avstander, slik at man kan bruke perturbativ QCD, og den store massen gjør også at en kan bruke ikke-relativistisk teori. Ved hjelp av kvalifiserte gjetninger fikk en dermed problemet til å ligne på hydrogenatomet. Etter dette ble kombinasjonen av Weinberg-Salam-teorien og QCD kalt for standardmodellen.

Partikkelspektret fikk et nytt og uventet tilskudd i 1975, da et tungt lepton, kalt $ \tau$, ble oppdaget. Dette forstyrret balansen mellom leptoner og kvarker som standardteorien bygger på, en balanse som ble gjenopprettet i 1977 da det ble funnet evidens for en femte kvark (b -- bunn eller skjønnhet). Den sjette kvarken -- t for topp eller sannhet -- er ennå ikke oppdaget, men det er ingen som tør å tvile på dens eksistens. Dette nye tilskuddet bar også noe godt med seg: Man kunne innføre CP-bruddet på en naturlig måte ved hjelp av blandinger mellom tre kvark-`familier' (u,d), (c,s) og (t,b) -- en mekanisme som var foreslått av Kobayashi og Maskawa allerede i 1972.38 De nyeste dataene fra CERN (1990) tyder på at dette er hele sannheten i så måte -- det finnes tre, men ikke flere familier.

Kvantekromodynamikken fikk ytterligere eksperimentell evidens da en utover slutten av 70- og begynnelsen av 80-tallet kunne se `jets': konsentrerte skurer av hadroner som kunne tilbakeføres til en enkelt utgående kvark (eller ett gluon), i reaksjoner ved veldig høye energier. Vinkelfordelingen av disse skurene stemte godt med forutsigelsene fra QCD.

Den `endelige' bekreftelsen på Weinberg-Salam-teorien kom i 1983, da først W-bosonene og siden Z-bosonet ble oppdaget ved CERN, med masser akkurat som forutsagt. Den eneste manglende brikken (i tillegg til topp-kvarken) er nå Higgs-bosonet. Her har en imidlertid ingen anelse om hva massen skal være (noen grenser finnes); heller ikke om det fins én, flere eller kanskje ingen Higgs. (Det finnes andre, mer kompliserte måter å innføre spontant symmetribrudd på.) Den som finner Higgs, får Nobelprisen (om vedkommende ikke har den fra før).

Den vellykte foreningen av de svake og de elektromagnetiske kreftene fikk mange til å prøve også å forene de elektrosvake og de sterke kreftene i én teori. De første forsøkene på en slik `stor enhetsteori' (Grand Unified Theory GUT) kom allerede i 1974. Felles for alle disse teoriene er at protonet skal være ustabilt -- men noen slik ustabilitet er aldri observert. Til dags dato har man få eller ingen brukbare resultater fra slike teorier (annet enn mye interessant spekulasjon). Det samme gjelder forsøk på også å integrere gravitasjon i det hele -- men det er en helt annen historie.


next up previous contents
Next: Kvantefeltteoriens fysiske grunnbegreper Up: Hva er kvantefeltteorien? Previous: Innledning
Jon Ivar Skullerud
1999-02-12