Twoja wyszukiwarka

JERZY KOWALSKI-GLIKMAN
UJARZMIANIE NIESKOŃCZONOŚCI
Wiedza i Życie nr 2/2000
Artykuł pochodzi z "Wiedzy i Życia" nr 2/2000

Czy nieskończoność ma sens? Okazuje się, że tak. To właśnie Gerardus 't Hooft i Martinus J.G. Veltman nauczyli fizyków, jak wyekstrahować z niej przewidywania dotyczące procesów rządzących światem cząstek elementarnych.

Pamiętam, że kilka lat temu, kiedy wygłaszałem seminarium w Amsterdamie, z jednego z tylnych rzędów audytorium dobiegło mnie zadane cichym głosem pytanie: a jak to jest z renormalizowalnością prezentowanej przez Pana teorii? No tak pomyślałem Gerard bezbłędnie znalazł słaby punkt w moim referacie. Historia ta przypomniała mi się, kiedy z wielką radością dowiedziałem się, że Gerardus 't Hooft wspólnie ze swoim nauczycielem Martinusem Veltmanem został laureatem Nagrody Nobla. Przytaczam ją tutaj nie bez powodu. Bowiem właśnie owo tajemnicze słowo "renormalizacja" jest kluczem do zrozumienia osiągnięcia, za które tych dwóch holenderskich fizyków uhonorowanych została najwyższym wyróżnieniem, jakie otrzymać może uczony.

Aby wytłumaczyć znaczenie tego terminu, muszę się cofnąć do sytuacji panującej w fizyce na przełomie lat sześćdziesiątych i siedemdziesiątych. W owym czasie fizyka cząstek elementarnych znajdowała się w głębokim kryzysie. Dzięki wytężonej pracy eksperymentatorów stało się jasne, że w świecie cząstek elementarnych działają trzy siły: oddziaływania silne (odpowiedzialne za stabilność jąder atomowych), elektromagnetyczne (działające na przykład między jądrami atomowymi a elektronami w atomie) i słabe (powodujące pewne reakcje jądrowe, takie jak rozpad swobodnych neutronów). Nieprzerwanie odkrywano nowe cząstki subatomowe, których liczba zaczęła sięgać setki, i które trudno już było nazywać "elementarnymi". Problem polegał na tym, że nie istniały żadne ramy teoretyczne, w które ująć można by było nagromadzony materiał obserwacyjny.

Pojawiały się jednocześnie coraz liczniejsze przesłanki świadczące o tym, że pozornie bardzo różne od siebie oddziaływania elektromagnetyczne i słabe są w istocie przejawami jednej, bardziej skomplikowanej siły działającej w mikroświecie. W 1967 roku amerykański fizyk Steven Weinberg zaproponował model teoretyczny unifikujące te dwa oddziaływania, a rok później uczynił to również pochodzący z Pakistanu Abdus Salam. Ich model, nazwany modelem Weinberga-Salama, okazał się poprawny, za co obaj (wraz z Sheldonem Glashowem, który swoimi badaniami z początku lat sześćdziesiątych utorował drogę do konstrukcji tego modelu) uhonorowani zostali Nagrodą Nobla w 1979 roku, ale pod koniec lat sześćdziesiątych był on bardziej zagadką niż wyjaśnieniem czegokolwiek. Problem polegał na tym, że nikt nie potrafił wykonać z jego pomocą jakichkolwiek obliczeń, co więcej, duża część fizyków wyrażała obawy, czy jest on w ogóle wewnętrznie spójny.

Podstawowa trudność związana była właśnie z renormalizacją. Modele fizyki teoretycznej opisujące mikroświat prowadzą bardzo często do pojawienia się nieskończoności. Na przykład, gdyby we Wszechświecie istniał tylko jeden elektron, to jego ładunek byłby nieskończony. Ale elektrony nigdy nie występują samodzielnie. Zgodnie z regułami fizyki kwantowej, w ich najbliższym otoczeniu znajduje się zawsze olbrzymia (w istocie nieskończona) liczba tzw. cząstek wirtualnych: pojawiających się i niemal natychmiast znikających. Cząstek wirtualnych nie można obserwować, ale tworzą one coś na kształt "pancerza" otaczającego obserwowane przez nas cząstki rzeczywiste. Efekt jest taki, że nie widzimy nigdy "gołych" cząstek, a jedynie "ubrane" w swoje pancerze, tak, że na przykład dla elektronu sumaryczny ładunek ubranej cząstki jest skończony.

Renormalizacja jest precyzyjną procedurą matematyczną pozwalającą na odjęcie od nieskończonego ładunku gołego elektronu nieskończonego ładunku otaczającego go pancerza, tak aby w wyniku otrzymać obserwowaną w doświadczeniach wartość skończoną.

Nieskończoność gołego ładunku nie jest jedyną nieskończonością nękającą modele teoretyczne współczesnej fizyki. Renormalizacja jest konieczna w celu wyliczenia z modeli teoretycznych praktycznie wszystkich przewidywań odnoszących się do świata cząstek elementarnych. Pytanie, jakie w tym kontekście stawiają sobie fizycy, to, czy z danej teorii można usunąć wszystkie nieskończoności, tak aby przewidywania modelu prowadziły do jednoznacznych, skończonych wyników, które można by porównać z danymi doświadczalnymi.

W niektórych, ściśle określonych przypadkach za pomocą renormalizacji udaje się uwolnić teorię fizyczną od nieskończoności, a więc zmusić ją niejako do tego, by prowadziła do jednoznacznych, dających się sprawdzić przewidywań. Na przełomie lat sześćdziesiątych i siedemdziesiątych było jednak zupełnie niejasne, czy procedura ta da się zastosować w przypadku modelu Weinberga-Salama. Co więcej istniał dodatkowy kłopot, związany z inną ważną własnością akceptowalnych teorii fizycznych, zwaną fachowo unitarnością. W uproszczeniu, teoria fizyczna jest unitarna, jeśli nie przewiduje powstania czegoś z niczego i dlatego przyjmuje się, że wszystkie akceptowalne teorie fizyczne muszą być unitarne, ale nie było jasne, czy model Weinberga-Salama spełnia ten warunek. To właśnie te dwa problemy spowodowały, że model ten nie wzbudził początkowo wśród fizyków zbyt wielkiego zainteresowania.

Wiosną 1969 roku miało miejsce przełomowe wydarzenie. Wtedy to nowo mianowany profesor Uniwersytetu w Utrechcie, Martinus Veltman, został opiekunem naukowym świeżo upieczonego absolwenta tego uniwersytetu 23-letniego wówczas Gerarda 't Hoofta. Ich wspólnym celem stało się sprawdzenie poprawności mode- lu Weinberga-Salama. Pomysł 't Hoofta i Veltmana był zaiste genialny. Wiadomo było, że teorię tę można sformułować na dwa sposoby: z jednej perspektywy unitarność jest oczywista, zaś renormalizowalność problematyczna, zaś z drugiej posiada dokładnie odwrotne własności. Do przeprowadzenia konkretnych wyliczeń trzeba mieć pewność, że rozważana teoria jest jednocześnie renormalizowalna i unitarna. 't Hooft i Veltman w swojej fundamentalnej pracy zatytułowanej Diagrammar pokazali, jak z trapiących teorię wyrażeń nieskończonych uzyskać skończone wyniki, stworzyli zupełnie nowy formalizm matematyczny pozwalający na rozwiązanie gnębiących teorię problemów, a następnie udowodnili, że obie perspektywy są dokładnie równoważne, a więc, że teoria posiada wszystkie wymagane własności.

Opracowana przez nich metoda pozwoliła na wyprowadzenie wielu ilościowych wyników przewidywanych przez teorię, które w ciągu następnych kilku lat potwierdzone zostały w wielkiej liczbie doświadczeń, możliwych w wielkiej mierze dlatego, że eksperymentatorom powiedziano, jakie eksperymenty prowadzić mogą do zaobserwowania interesujących zjawisk. Co więcej, metody opracowane przez 't Hoofta i Veltmana stały się jakościowym zwrotem w rozwoju współczesnej fizyki teoretycznej, zaś dzięki ich pracom fizycy uzyskali narzędzia pozwalające na budowanie i weryfikowanie nowych modeli umożliwiających coraz głębszą analizę struktury mikroświata.

Gerardus 't Hooft urodził się w 1946 roku. Doktorat uzyskał w 1972 roku na Uniwersytecie w Utrechcie, gdzie od 1977 roku jest profesorem fizyki teoretycznej. Martinus J.G. Veltman urodził się w 1931 roku. Doktorat uzyskał w 1962 roku na Uniwersytecie w Utrechcie. Był profeso-rem fizyki teoretycznej na Uniwersytecie w Utrechcie w latach 1966-1981, od roku 1981 na Uniwersytecie Stanu Michigan w Ann Arbor. Obecnie na emeryturze. Mieszka w Holandii. 't Hooft i Veltman otrzymali Nagrodę Nobla za wyjaśnienie kwantowej struktury oddziaływań elektrosłabych.