Shutterstock
Kosmos

Wieloświat: kiedyś spekulacja, dziś hipoteza oparta na podbudowie matematycznej

„Osobiście wolałbym wyprowadzić wartości stałych fizycznych w oparciu o jakąś głębszą strukturę matematyczną, ale póki jej nie znamy, warto uściślić ograniczenia nakładane przez zasadę antropiczną. Jeśli takiej struktury znaleźć się nie uda, a antropiczne ograniczenia stałych okażą się bardzo silne, będzie to powód, by poważnie potraktować koncepcję zespołu światów, nawet gdyby miało się to komuś nie spodobać” – mówił Brandon Carter w 1973 r. Czy koncepcja wieloświata wciąż jest spekulacją?

Od Wielkiego Wybuchu upłynęło 13,8 mld lat. Tak samo długo biegło do nas światło wysłane przez najdalsze obiekty, jakie możemy dziś obserwować. Ale ponieważ w tym czasie kosmiczna przestrzeń nieustannie się rozszerzała, są one teraz odległe o 46,5 mld lat świetlnych od Ziemi. Obserwowalny wszechświat, czyli kula o średnicy 93 mld lat świetlnych, w której środku znajduje się nasza planeta, zawiera setki miliardów galaktyk. Każda liczy średnio sto miliardów gwiazd, którym towarzyszy średnio po kilka planet. Gdyby każdą planetę zamienić w ziarnko piasku, ważyłyby łącznie kilkaset bilionów ton.

W porównaniu z Ziemią kosmos jest tak nieproporcjonalnie wielki, że wprost narzuca się pytanie: czy nie mógłby być mniejszy? – naiwne, ale tylko z pozoru. Owszem, wszystkie te galaktyki mogłyby znajdować się dużo bliżej nas, gdyby np. stała grawitacji miała odpowiednio większą wartość. Ale już nieznaczne jej zwiększenie spowodowałoby, że przed powstaniem Słońca i Ziemi wszechświat przestałby ekspandować i zapadłby się do stanu, z którego wychynął w Wielkim Wybuchu. Następstwa zmniejszenia stałej grawitacji byłyby równie niewesołe: nie uformowałyby się ani galaktyki, ani gwiazdy, ani planety. Wniosek: znacząco innej wartości tego parametru fizycznego nie moglibyśmy zaobserwować, ponieważ by nas nie było.

Zdumiewające dostrojenie

Mniej więcej pół wieku temu stwierdzono, że podobne rozumowania dotyczące wielu innych parametrów prowadzą do takiej samej konkluzji. Przykład: ułamek sekundy po Wielkim Wybuchu we wszechświecie nie było atomów ani nawet jąder atomowych – wypełniały go cząstki elementarne. Zachodzące między nimi reakcje powodowały cykliczną przemianę protonów w neutrony i neutronów w protony, przy czym liczba neutronów przypadających na jeden proton malała w miarę ekspansji wszechświata i obniżania się panującej w nim temperatury.

Gdy spadła ona poniżej ośmiu miliardów kelwinów, reakcje przemiany ustały całkowicie. Nastąpiło to w momencie, gdy na sześć protonów przypadał już tylko jeden neutron. Gdyby proton był lżejszy od neutronu nie o jeden, lecz o pół promila swej masy, w tym samym momencie pozostałoby prawie tyle neutronów co protonów. A to oznacza, że najbardziej rozpowszechnionym pierwiastkiem we wszechświecie byłby nie wodór, lecz hel. W miejscu podobnych do Słońca gwiazd wodorowych, które świecą długo i statecznie, stwarzając tym samym możliwość rozwoju życia na okrążających je planetach, pojawiłyby się krótko żyjące gwiazdy helowe, a niezbędna dla życia woda stałaby się kosmiczną rzadkością.

Inny przykład: Słońce nie jest pierwszą ani nawet jedną z pierwszych gwiazd powstałych we wszechświecie. Wraz z krążącymi wokół niego planetami uformowało się z materii, którą przetrawiły poprzednie pokolenia gwiazdowe, wzbogacając ją przy tym w niezbędny do rozwoju życia pierwiastek, jakim jest węgiel. Jądro atomu węgla powstaje z trzech jąder atomów helu. Ich jednoczesne zetknięcie się jest bardzo mało prawdopodobne, toteż synteza węgla odbywa się dwuetapowo. Na pierwszym etapie dwa jądra helu łączą się w jądro berylu, które na drugim etapie musi „schwytać” trzecie jądro helu. Czasu na to ma jednak niewiele, ponieważ jest nietrwałe i rozpada się w ułamku sekundy. Gdyby stałe fizyczne, które określają wielkości sił działających we wnętrzach jąder atomowych miały nieco inne wartości, przejście przez drugi etap byłoby praktycznie niemożliwe. W Układzie Słonecznym nie byłoby węgla ani tlenu i na Ziemi nie pojawiłyby się organizmy żywe.

Narastające przekonanie, że stałe fizyczne są „dostrojone” w taki sposób, by we wszechświecie mogło pojawić się życie, doprowadziło do sformułowania tzw. zasady antropicznej. Przedstawił ją w 1973 r. Brandon Carter, fizyk i kosmolog pracujący wówczas w University of Cambridge. W ciągu minionego półwiecza pojawiły się różne jej wersje (sam Carter podał „słabą” i „silną”). Sedno każdej z nich jest jednak takie samo i sprowadza się do stwierdzenia: „możemy zaobserwować tylko to, co spełnia warunki konieczne dla naszego zaistnienia jako obserwatorów”. Innymi słowy – odpowiedź na pytanie „dlaczego parametry wszechświata mają takie, a nie inne wartości?” brzmi: ponieważ fakt naszego istnienia znacząco je ogranicza (uniemożliwia dobieranie ich w sposób dowolny).

Konieczne uściślenie

Idea Cartera okazała się tak interesująca i płodna, że do dziś zajmują się nią nie tylko fizycy i kosmologowie, lecz także filozofowie, a nawet teolodzy. Niestety, z punktu widzenia nauki ma ona zasadniczą wadę: nie umożliwia wyciągania wniosków, które dałyby się w jakiś sposób zweryfikować. Pisząc „nauka”, mam na myśli te nauki przyrodnicze, które wszystkie swe sukcesy zawdzięczają stosowaniu tzw. metody naukowej.

Fundamentem wiedzy zdobytej dzięki tej metodzie są eksperymenty i obserwacje, za pomocą których staramy się wykryć prawidłowości występujące w świecie zewnętrznym. Wykrywszy je, zabieramy się do ich opisania w taki sposób, by umożliwić prognozowanie wyników kolejnych eksperymentów lub obserwacji. Jeśli prognoza jest trafna, opis uznajemy za poprawny.

Pomyślne sprawdzenie wielu niezależnych prognoz podnosi opis do rangi teorii, natomiast spostrzeżenia, które – tak jak zasada antropiczna – nie umożliwiają przewidywania, stają się z punktu widzenia nauki bezwartościowe. (Nawiasem mówiąc, wbrew potocznym konotacjom „teoria” jest w nauce produktem z najwyższej półki, na którym można polegać i z którego mniej lub bardziej świadomie korzystamy w życiu codziennym; na przykład – ogólna teoria względności to nie tylko czarne dziury, lecz także smartfony z aplikacją GPS).

Skoro zasada antropiczna jest nienaukowa, zasadne staje się pytanie o przyczyny jej nieprzemijającej popularności. Znaczącą rolę musiał tu niewątpliwie odegrać końcowy fragment referatu Cartera, w którym stwierdził: „Osobiście wolałbym wyprowadzić wartości stałych fizycznych w oparciu o jakąś głębszą strukturę matematyczną, ale póki jej nie znamy, warto uściślić ograniczenia nakładane przez zasadę antropiczną. Jeśli takiej struktury znaleźć się nie uda, a antropiczne ograniczenia stałych okażą się bardzo silne, będzie to powód, by poważnie potraktować koncepcję zespołu światów (w oryg. world ensemble), nawet gdyby miało się to komuś nie spodobać”.

Chaotyczne wrzenie

„Zespół światów”, nazywany dziś powszechnie wieloświatem (ang. multiverse), to zbiór wszechświatów, które różnią się wartościami stałych fizycznych i/lub prawami fizyki. Z założenia istnieją one poza naszym wszechświatem jak najbardziej realnie, choć jakikolwiek kontakt z nimi może być niemożliwy. W tej koncepcji dostrojenie parametrów naszego wszechświata tłumaczy się tak samo jak to, że wyewoluowaliśmy na Ziemi, a nie na żadnej z tryliardów planet, na których nie było odpowiednich ku temu warunków. Życie po prostu pojawia się w tych wszechświatach, w których jest to możliwe. Inne pozostają martwe.

Pomysłowi Cartera brakowało podbudowy teoretycznej, ale długo na nią nie czekano. W 1980 r. Alan Guth pracujący wówczas w Stanford Linear Accelerator Center przedstawił hipotezę tzw. inflacji, zgodnie z którą na bardzo wczesnym etapie ewolucji kosmos gwałtownie przyspieszył swą ekspansję i błyskawicznie „spęczniał” (rozwiązywało to problem pewnych cech naszego wszechświata, z którym nie dawała sobie rady teoria Wielkiego Wybuchu; patrz POLITYKA 34).

Bardzo uproszczoną analogią tego zjawiska jest gwałtowne wrzenie wody, przy czym bąble pary odpowiadają odrębnym wszechświatom. Podczas chaotycznej inflacji „wrze” cała czasoprzestrzeń, rozszerzając się przy tym tak gwałtownie, że „bąblujące” wszechświaty oddalają się od siebie z prędkościami nadświetlnymi.

Hipotezę inflacji przyjęto entuzjastycznie, ale po kilku latach odezwały się głosy krytyczne. Jedni wskazywali, że występują w niej arbitralne parametry, które trzeba bardzo starannie dostroić, jeśli poinflacyjny wszechświat ma wyglądać tak jak nasz, przez co problem dostrojenia nie zostaje rozwiązany, lecz tylko przeniesiony gdzie indziej. Inni – że warunki niezbędne do zainicjowania inflacji są bardzo mało prawdopodobne. Zawiedziony inflacją poczuł się nawet jeden z jej „ojców” – Paul Steinhardt. Całkowicie się od niej odwrócił i przedstawił radykalnie odmienne podejście do problemu atakowanego pierwotnie przez Gutha.

Wielowymiarowe drżenie

Mimo tej krytyki – zwolenników i propagatorów inflacji nadal nie brakuje. Zapewne po części dlatego, że od mniej więcej dwudziestu lat koncepcja chaotycznej inflacji otrzymuje silne wsparcie ze strony teorii strun. Trzeba w tym miejscu podkreślić, że teoria strun nie została przetestowana obserwacyjnie ani doświadczalnie – powinno się więc raczej określać ją jako hipotezę. Termin tak się jednak rozpowszechnił, że nie pozostaje nic innego, jak podążać za stosującymi go naukowcami i popularyzatorami.

Według teorii strun fundamentem fizycznej rzeczywistości są mikroskopijne włókienka („struny”) bytujące w przestrzeni o dziesięciu lub jedenastu wymiarach (tylu ich potrzeba, by uzyskać matematyczną spójność teorii). Dostrzegamy tylko cztery „zwykłe” (trzy przestrzenne i czasowy), bo pozostałe są „skompaktyfikowane”. Oznacza to, że do tych zwykłych mają się mniej więcej tak, jak obwód cieniutkiego światłowodu do jego długości.

Struny nieustannie drgają na różne sposoby, przy czym każdy rodzaj drgań manifestuje się jako jedna z cząstek elementarnych (np. elektron lub foton). Kompaktyfikacja zamienia bezwymiarowe punkty klasycznej czasoprzestrzeni w niezwykle skomplikowane twory o skończonych, choć bardzo małych rozmiarach, których kształty decydują o tym, jakie rodzaje drgań są dopuszczalne. Można jej dokonać na co najmniej 10500 sposobów, z których każdy generuje inny zestaw cząstek elementarnych i zachodzących między nimi oddziaływań. Inne cząstki i inne oddziaływania definiują inną rzeczywistość fizyczną, czyli inaczej urządzony wszechświat.

10500 to jedynka z pięciuset zerami – teoria strun dopuszcza zatem istnienie naprawdę olbrzymiej liczby wszechświatów. Co więcej, jest w stanie opisać, w jaki sposób ewoluują one w złożonym z nich wieloświecie. Proces ten w zasadzie nie różni się jakościowo od chaotycznej inflacji.

Zgryźliwe określenie

Mimo braku wsparcia eksperymentalnego lub obserwacyjnego teoria strun nadal znajduje uznanie wielu kosmologów i specjalistów od cząstek elementarnych, wśród których znajdują się takie sławy naukowe, jak nobliści David Gross z University of California i Gerard ’t Hooft z Universiteit Utrecht. Liczni są też jej krytycy, m.in. słynny, nieżyjący już noblista Richard Feynman.

Szczególnie ostrym atakom poddawane są głosy, które domagają się uznania, że teoria strun jest tak elegancka matematycznie i tyle wyjaśnia, iż nie wymaga weryfikacji eksperymentalnej. „Stąd już tylko krok do porzucenia metody naukowej jako narzędzia do zdobywania solidnej wiedzy i do zepchnięcia fizyki teoretycznej na ziemię niczyją między matematyką i filozofią, gdzie nie będzie spełniała wymagań stawianych przez żadną z tych dyscyplin” – ostrzegają kosmolodzy George Ellis z University of Cape Town i Joseph Silk z University of Oxford na łamach prestiżowego tygodnika naukowego „Nature”. I dodają: „Zanim przedstawisz nowy pomysł, zadaj sobie pytanie: jakie eksperymenty lub obserwacje skłoniłyby cię do jego porzucenia? Jeżeli nie umiesz odpowiedzieć, porzuć go natychmiast. Imprimatur nauki należy się tylko tym koncepcjom, które można testować”.

Pewnie nie wszyscy fizycy zgodzą się z tak ostro zarysowanym stanowiskiem, ale chcąc nie chcąc, muszą przyznać, że matematyka jest znacznie bogatsza niż fizyka. Nadmiar matematyki przy niedostatku danych zarzuca fizyce cząstek elementarnych uprawiająca tę dyscyplinę Sabine Hossenfelder z Frankfurt Institute for Advanced Studies, znana skądinąd jako władająca ciętym językiem właścicielka naukowego kanału na YouTube. „Niektórzy mylą matematykę z rzeczywistością” – mówi wprost w jednym z klipów. Zdaje się, że to od niej pochodzi zgryźliwe określenie teorii strun jako „fact-free physics” (w wolnym tłumaczeniu „fizyka bujająca w obłokach”).

Metodologiczne pomylenie

Koncepcja wieloświata narodziła się jako czysta spekulacja wywiedziona z zasady antropicznej. Dziś jest już przyzwoitą hipotezą postawioną w oparciu o chaotyczną inflację i teorię strun, dzięki którym zyskała bogatą podbudowę matematyczną. Nie wystarcza to jednak, by przyjąć, że inne wszechświaty naprawdę istnieją, ponieważ ani inflacja, ani teoria strun nie zostały pomyślnie przetestowane. Kluczowe testy teorii strun należałoby przeprowadzić przy praktycznie niemożliwych do osiągnięcia energiach cząstek elementarnych, zaś dotychczasowe próby sprawdzenia jej przy niższych energiach okazały się niekonkluzywne.

Realną szansę na przetestowanie ma natomiast inflacja, która przewiduje możliwość pośredniej detekcji fal grawitacyjnych wzbudzonych w epoce „puchnięcia” wszechświata. Detektory zdolne do ich zarejestrowania powinny pojawić się jeszcze w tym dziesięcioleciu. Samo wykrycie sygnału może jednak nie wystarczyć do ustalenia, w jaki sposób inflacja przebiegała i czy mogła generować inne wszechświaty. Najprawdopodobniej potrzebne będą dalsze, trudne technicznie badania wymagające zwiększenia czułości i rozdzielczości aparatury.

Tymczasem rozmywa się efekt dostrojenia. Fred Adams z University of Michigan napisał na ten temat obszerny artykuł, opublikowany ostatnio w światowej renomy czasopiśmie „Physics Reports”. W prawie wszystkich opisanych w nim przypadkach zasada antropiczna dopuszcza – jak pisze autor – „całkiem szeroki” zakres parametrów. Jego zdaniem częstą przyczyną przeszacowania dokładności dostrojenia są błędy metodologiczne.

Na przykład – zwykle badano następstwa zmian pojedynczego parametru, podczas gdy jednoczesne zmiany co najmniej dwóch parametrów z reguły poszerzają akceptowalny zakres każdego z nich, czyli osłabiają efekt dostrojenia. Być może ostatecznie okaże się ono tak niedokładne, że zniknie potrzeba, by je tłumaczyć. Inne wszechświaty stałyby się wtedy po prostu zbędne.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną