Niedomknięty bilans wszechświata - Tadeusz Pabjan - ebook + książka

Niedomknięty bilans wszechświata ebook

Tadeusz Pabjan

3,8

Opis

Czym jest ciemna energia?

Jakie obiekty lub cząstki tworzą ciemną materię?

Skąd wiadomo, że wszechświat składa się głównie z ciemnej materii i jest wypełniony ciemną energią?

Z czego składa się wszechświat? Jeszcze nie tak dawno fizycy sądzili, że dobrze znają odpowiedź na to pytanie, i że potrafią dokładnie zidentyfikować wszystkie obiekty, które dają swój wkład do całkowitej masy wszechświata. Problem pojawił się wtedy, gdy obserwacje astronomiczne dostarczyły dowodów na obecność znacznych ilości dodatkowej, niewidocznej materii i na przyspieszenie ekspansji wszechświata rozpychanego tajemniczą energią, która jest równoważna masie. Po przeprowadzeniu wstępnych oszacowań okazało się, że wszystkie znane do tej pory postaci materii to tylko wierzchołek gigantycznej góry lodowej. Co znajduje się pod powierzchnią wody? Odpowiedź na to pytanie zawarta jest na kartach tej książki.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 277

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS
Oceny
3,8 (4 oceny)
1
1
2
0
0
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.

Popularność




Projekt okładki: MARIUSZ BANACHOWICZ
Adiustacja i korekta: MARIA SZUMSKA
Projekt typograficzny: MIROSŁAW KRZYSZKOWSKI
Skład: MELES-DESIGN
© Tadeusz Pabjan & Copernicus Center Press, 2014
ISBN 978-83-7886-076-1
Copernicus Center Press Sp. z o.o. pl. Szczepański 8, 31-011 Kraków tel./fax (+48 12) 430 63 00 e-mail: [email protected] Księgarnia internetowa: http://en.ccpress.pl
Konwersja: eLitera s.c.

1. Wstęp

Istnieje ciekawa zbieżność pomiędzy tym, co działo się w fizyce pod koniec XIX i pod koniec XX wieku. Fizycy żyjący w ostatnich latach XIX stulecia sądzili, że uprawiana przez nich dyscyplina jest najbardziej kompletną ze wszystkich nauk ścisłych i że jedyne, co jej adeptom pozostało jeszcze do zrobienia, to zwiększanie precyzji pomiarów w celu dokładniejszego określenia wartości parametrów fizycznych na odległych miejscach po przecinku. W rzeczywistości jednak prawdziwa rewolucja naukowa miała dopiero nadejść. Pozornie nieistotne anomalie „kompletnej” fizyki końca XIX wieku doprowadziły do tego, że w pierwszych latach wieku XX na arenie nauki pojawiły się teoria względności i mechanika kwantowa, które radykalnie zmieniły naukowy obraz świata i które dowiodły, że wcześniejsze opinie dotyczące zupełności nauki były naiwne i wyjątkowo krótkowzroczne. Epizod ten stanowi dobrą ilustrację mechanizmu prowadzącego do zmiany – albo przynajmniej do zasadniczej rewizji – obowiązującego paradygmatu naukowego. Jednym z paradoksalnych elementów tego mechanizmu jest najpierw przekonanie, że dany obszar wiedzy wymaga już tylko kosmetycznych poprawek, a później zdziwienie spowodowane tym, że kosmetyczne poprawki zamieniają się w gruntową przebudowę całego systemu.

Historia lubi się powtarzać, i nic dziwnego, że koniec wieku XX przyniósł bardzo podobną sytuację. Co prawda, fizycy, nauczeni doświadczeniem przeszłości, nie podzielali optymizmu swoich kolegów sprzed stulecia, wierzących w to, że w ich dyscyplinie nie ma już nic do zrobienia – wręcz przeciwnie: zwłaszcza druga połowa XX wieku była naznaczona świadomością, że fizyka domaga się pilnego uzupełnienia o teorię kwantowej grawitacji – ale nie mieli większych wątpliwości, że przynajmniej najważniejsze aspekty naukowego obrazu świata, zbudowanego na fundamencie teorii względności i mechaniki kwantowej, są zasadniczo poprawne. Okazało się, że jest inaczej i że błąd tkwi w miejscu, które wydawało się najmniej podatne na pomyłki. Bo czy może być coś bardziej oczywistego niż to, że wszechświat zbudowany jest z materii – dobrze znanej zarówno z doświadczenia potocznego, jak i ściśle naukowego – i że ilość tej materii (jej masę) można przynajmniej z grubsza oszacować, dodając do siebie masy wszystkich wypełniających wszechświat obiektów, to znaczy gwiazd, planet, galaktyk, gazu międzygalaktycznego itp.? Założenie to wydawało się tak naturalne i oczywiste, że przez długi czas w ogóle o nim nie wspominano, nie mówiąc już o jego uzasadnianiu. W latach 70. XX wieku zaczęły się jednakże pojawiać coraz liczniejsze argumenty za tym, że materia, którą widać gołym okiem (ewentualnie okiem uzbrojonym w różnego rodzaju urządzenia pomiarowe, takie jak teleskopy i radioteleskopy), to tylko wierzchołek góry lodowej i że wszechświat zbudowany jest w większej części z czegoś, co nie jest zwykłą materią. Okazało się, że całkowita masa wszechświata wielokrotnie przewyższa tę wynikającą z prostego sumowania mas wszystkich znanych z astronomii i kosmologii obiektów; to zaś oznacza, że musi gdzieś istnieć dodatkowa, niezidentyfikowana do tej pory materia, która daje swój wkład do całkowitej masy wszechświata. Właśnie w taki sposób zrodził się problem „brakującej masy”, który na początku lat 80. ubiegłego wieku trafił na jedno z czołowych miejsc na liście zagadnień naukowych domagających się pilnego wyjaśnienia. Niestety, wyjaśnienia tego do dzisiaj nie znaleziono.

Na kartach tej książki zostaną przedstawione najważniejsze epizody składające się na historię problemu brakującej masy. Poszukiwaniem jego rozwiązania zajmują się przedstawiciele kilku odrębnych dyscyplin naukowych – między innymi astronomii, astrofizyki, kosmologii relatywistycznej i fizyki cząstek elementarnych. Będzie to zatem książka ukazująca nie tyle historię jednej wybranej dyscypliny, ile raczej historię problemu, który połączył z sobą wiele różnych – choć oczywiście spokrewnionych – dyscyplin naukowych. Zagadnienie to zostało powyżej nazwane problemem brakującej masy, ale w tym kontekście o wiele częściej pojawia się dziś określenie, które w rzeczywistości zawiera już przynajmniej częściową odpowiedź na pytanie o to, co tworzy brakującą masę: ciemna materia. Pod tym pojęciem kryje się jedna z najbardziej frapujących i zarazem tajemniczych zagadek współczesnej nauki. Jest to materia „ciemna”, dlatego że nie można jej bezpośrednio zaobserwować za pomocą standardowych metod stosowanych w astronomii, a jej „tajemniczość” bierze się w dużej mierze stąd, że nie jest ona zbudowana z cząstek znanych współczesnej fizyce. Dodatkowo jest niemal całkowicie bezkolizyjna – może bez żadnych problemów przenikać przez nawet największe skupiska zwykłej materii, a o swoim istnieniu daje znać przede wszystkim przez oddziaływanie grawitacyjne. Chociaż może być zbudowana z barionów, to jednak w większej części jest to materia egzotyczna, czyli niebarionowa – jej budulcem są bliżej nieznane, masywne cząstki, których od wielu lat bezskutecznie poszukują fizycy. Trudności z empirycznym potwierdzeniem istnienia tych cząstek z jednej strony sprawiają, że problem brakującej masy staje się jeszcze ciekawszy, z drugiej zaś – stawiają poprawność samej idei ciemnej materii pod coraz większym znakiem zapytania. Kłopot polega jednak na tym, że na horyzoncie nie widać żadnego innego sposobu rozwiązania problemu brakującej masy, jeśli nie liczyć – skądinąd kontrowersyjnego – pomysłu dotyczącego daleko posuniętych modyfikacji fizyki klasycznej albo odrzucenia założeń (np. zasady kosmologicznej) przyjmowanych do tej pory przy konstruowaniu modeli kosmologicznych.

Za obecnością ciemnej materii przemawia kilka niezależnych racji, które zostaną szczegółowo zaprezentowane w kolejnych rozdziałach książki. Pierwszy argument dotyczy zbyt dużych prędkości ruchu galaktyk w gromadach oraz zbyt dużych prędkości gwiazd i obłoków gazu w galaktykach spiralnych. W obydwu przypadkach należy uwzględnić dodatkową, niewidoczną masę, która decyduje o takich prędkościach. Kolejne argumenty wiążą się z efektem soczewkowania grawitacyjnego, a także niezwykle wysokim stosunkiem masy do światła w niektórych galaktykach – zwłaszcza w galaktykach karłowatych krążących wokół Drogi Mlecznej. Dla dyskutowanego problemu istotne znaczenie ma także parametr gęstości: wiele niezależnych racji przemawia za tym, że obecny wszechświat ma gęstość krytyczną, ale masa zwykłej materii nie wystarcza, by taką gęstość uzyskać (z najnowszych obserwacji przeprowadzonych przez satelitę Planck wynika, że wkład zwykłej materii do parametru gęstości jest na poziomie 4,9%). Prawdziwa trudność polega jednak na tym, że nie wystarcza do tego również masa ciemnej materii – zarówno barionowej, jak i niebarionowej (26,8% gęstości krytycznej). Poszukując rozwiązania problemu brakującej masy, należy zatem odwołać się do kolejnej zagadkowej koncepcji, to znaczy do ciemnej energii, która odpowiada za zaobserwowane w ostatnich latach przyspieszenie ekspansji wszechświata i która daje największy wkład (aż 68,3%) do parametru gęstości.

Analiza argumentów przemawiających za koniecznością uwzględnienia ciemnej materii i ciemnej energii w globalnym bilansie masy wszechświata w sposób naturalny prowadzi do pytania o to, czym jest ciemna materia, to znaczy jakie obiekty albo jakie cząstki wchodzą w jej skład, i jaka jest jej natura. W poszukiwanie odpowiedzi na te pytania od wielu lat zaangażowane są całe zastępy astrofizyków, kosmologów, astronomów, specjalistów od fizyki cząstek – i to zarówno teoretyków, jak i eksperymentatorów. Uczeni ci próbują ustalić listę potencjalnych kandydatów do roli barionowej i niebarionowej ciemnej materii i doświadczalnie sprawdzić, czy określone cząstki faktycznie istnieją. Nieco innych trudności przysparza ciemna energia: w tym przypadku należy ustalić, czym w rzeczywistości jest ten „składnik” wszechświata, jaką ma naturę – czy jest niezmienny w przestrzeni i czasie, czy też ulega jakimś zmianom – i w jaki sposób wpływa na ewolucję czasoprzestrzeni. W roku 1999 amerykańska Narodowa Rada Badań Naukowych uznała obydwa te zagadnienia za dwa najbardziej palące problemy współczesnej nauki, które pojawiają się „na przecięciu astronomii i fizyki”. Na pierwszym miejscu listy jedenastu najważniejszych kwestii, które nauka musi rozstrzygnąć w XXI wieku, znalazło się pytanie: „Czym jest ciemna materia?”, zaś na miejscu drugim – „Jaka jest natura ciemnej energii?”[1].

Wszystkie ważne problemy współczesnej nauki mają swoją historię, bez której nie da się w pełni zrozumieć, dlaczego akurat to, a nie inne zagadnienie stało się przedmiotem zainteresowania uczonych i w jaki sposób oraz w jakim zakresie zmieniło ono poglądy człowieka na budowę i funkcjonowanie wszechświata. Naukowe problemy żyją swoim życiem: rodzą się, dojrzewają, ewoluują, często dają początek innym problemom. Prawidłowość ta ma oczywiście zastosowanie również w wypadku problemu brakującej masy. I on jest wynikiem dostrzeżenia pewnych „anomalii” w fizyce wszechświata; przez długi czas rozwijał się na kilku niezależnych „ścieżkach ewolucyjnych”, by wreszcie zaistnieć jako osobne zagadnienie, które nie tylko zyskało nobilitujące miano ważnej kwestii naukowej, lecz także znalazło się na jednym z czołowych miejsc listy zagadnień o kluczowym znaczeniu dla fizyki XXI wieku. W poszczególnych rozdziałach książki historia tego problemu zostanie opowiedziana z zachowaniem chronologii zdarzeń, chociaż w kilku przypadkach przedstawienie osobnych wątków ją tworzących będzie wymagać pominięcia owego kryterium.

Na polskim rynku wydawniczym pojawiło się w ostatnim czasie wiele książek, które w mniejszym lub większym stopniu nawiązują do problemu ciemnej materii albo nawet wprost są mu poświęcone. W większości tych opracowań pomija się jednak chronologię zdarzeń składających się na historię owego zagadnienia, poprzestając na uproszczonym, popularnonaukowym wykładzie jego wybranych – zwykle tylko najciekawszych i wcale nie najważniejszych – aspektów. Trudno w nich również znaleźć usystematyzowane i w miarę aktualne informacje na temat obecnego stanu badań nad ciemną materią. Niniejsza książka nie rości sobie prawa do miana zaawansowanej, ściśle naukowej publikacji, która kwestię tę przedstawi w sposób wyczerpujący, ale z pewnością ukaże ją w nieco innym świetle niż inne tego typu opracowania. Niewykluczone, że lektura tej pozycji będzie wymagać od Czytelnika nieco większego wysiłku – zamiast przykuwających uwagę anegdot i barwnych ciekawostek dotyczących pracy fizyków znajdują się tutaj jedynie suche fakty, a pozbawiona obszerniejszych komentarzy narracja przypomina podręcznik do historii nauki, a nie powieść przygodową – ale czasem warto wybrać trudniejszy szlak prowadzący na szczyt, by zobaczyć to, czego nie widać z wygodnej ścieżki spacerowej wiodącej środkiem doliny. Jeśli książka ta pozwoli przynajmniej w niewielkim stopniu usystematyzować tę niezwykle bogatą i zarazem ważną dla całej współczesnej fizyki problematykę, to spełni swoje zadanie.

2. Prehistoria zagadnienia

Problem wypełniającej wszechświat ciemnej materii na dobre zadomowił się w nauce na przełomie lat 70. i 80. XX wieku, ale sama intuicja dotycząca niewidocznych obiektów, które należy uwzględnić, mówiąc o materialnej zawartości wszechświata, towarzyszyła astronomom o wiele wcześniej. Intuicja ta z czasem zaczęła się przekształcać w coraz bardziej wyraźną świadomość tego, czym w rzeczywistości jest ciemna materia, jakie ma własności i gdzie należy jej poszukiwać. Pierwsze epizody składające się na wczesną historię tej koncepcji miały miejsce już w drugiej połowie XVIII wieku.

W roku 1783 angielski astronom i geolog John Michell opublikował pracę[2] zawierającą analizy dotyczące hipotetycznej możliwości istnienia gwiazd o masach tak wielkich, że generowana przez nie grawitacja uniemożliwiałaby ich zaobserwowanie. Michell obliczył, że jeśli promień gwiazdy byłby 500 razy większy niż promień Słońca, a jej średnia gęstość taka sama, to wówczas „całe światło wysyłane przez takie ciało zostałoby zmuszone do powrotu do tego ciała przez jego własną grawitację”[3]. Zdaniem Michella, obiekt taki – gdyby faktycznie istniał – byłby dla ziemskiego obserwatora całkowicie niedostrzegalny. Spostrzeżenia te należy uznać za chronologicznie pierwsze intuicje dotyczące obiektów, które w kosmologii relatywistycznej określane są współcześnie mianem czarnych dziur. Niezwykłość tych spostrzeżeń polega na tym, że zostały one poczynione niemal półtora wieku przed powstaniem ogólnej teorii względności.

Co ciekawe, jedna z podstawowych metod wykrywania tego typu obiektów, stosowanych we współczesnej kosmologii, została zasugerowana właśnie przez Michella. Zauważył on, że chociaż analizowane przez niego obiekty zatrzymują całe emitowane przez siebie światło, to jednak istnieje pośrednia metoda ich zaobserwowania: „Gdyby inny świecący obiekt przypadkiem krążył wokół [takiego ciała], to być może z ruchu tego krążącego ciała moglibyśmy wnioskować istnienie ciała centralnego”[4]. Analizy przeprowadzone przez Michella kilka lat później powtórzył z pewnymi modyfikacjami Pierre Simon de Laplace[5]. W opublikowanej w 1796 roku książce Exposition du système du monde zauważył on, iż „przyciąganie grawitacyjne gwiazdy o średnicy równej 250 średnicom Słońca i gęstości porównywalnej do gęstości Ziemi byłoby tak wielkie, że światło nie mogłoby uciec z jej powierzchni. Z tej racji największe ciała we wszechświecie mogą być niewidoczne z powodu swojej wielkości”[6]. W roku 1799 Laplace opublikował obliczenia[7], które stanowiły uzupełnienie czysto teoretycznych analiz z roku 1796.

Metoda wykrywania niewidocznych obiektów, którą zaproponował Michell, została po raz pierwszy wykorzystana w połowie XIX wieku. Odkrytymi obiektami nie były jednak gwiazdy o własnościach dyskutowanych przez Michella i Laplace’a, ale dwa inne „ciemne” ciała niebieskie. Pierwszym z nich był Neptun – nieznana wcześniej planeta Układu Słonecznego; drugim Syriusz B – biały karzeł będący niewidocznym towarzyszem najjaśniejszej gwiazdy nocnego nieba (zwanej Syriuszem A lub po prostu Syriuszem). Historia odkrycia obydwu tych obiektów ma swój początek w latach 40. XIX wieku, kiedy to astronomowie zauważyli dwie istotne anomalie związane z zachowaniem ciał niebieskich. Pierwsza z nich dotyczyła orbity Urana, który z niewiadomych powodów zbaczał z trajektorii wynikającej z praw Keplera i mechaniki Newtona. W gronie astronomów szybko pojawiły się sugestie, że powodem tego typu anomalii może być niewidoczna planeta, która powoduje zakłócenia ruchu Urana[8]. Położenie i orbitę tajemniczej planety ustalili niezależnie od siebie dwaj uczeni: w roku 1845 angielski astronom i matematyk John Couch Adams, a rok później francuski astronom Urbain Jean Joseph Le Verrier. Ten ostatni po zakończeniu swoich obliczeń zwrócił się z prośbą o skierowanie teleskopu na oznaczone miejsce nieba do pracującego w obserwatorium berlińskim astronoma Johanna Gallego. Nowa planeta – Neptun – została odkryta 23 września 1846 roku, w odległości niemal jednego stopnia od obliczonej pozycji.

Druga ze wspomnianych anomalii dotyczyła Syriusza. W roku 1844 niemiecki astronom Friedrich Wilhelm Bessel na podstawie przeprowadzonych przez siebie obserwacji zauważył, że gwiazdy Procjon i Syriusz poruszają się w pewien charakterystyczny sposób (slalomem) na tle innych gwiazd. Bessel doszedł do wniosku, że jedynym sensownym wyjaśnieniem takiego ruchu jest to, iż każda z tych gwiazd okrąża niewidocznego z Ziemi towarzysza, a dokładniej, że każda z nich porusza się (razem z niewidocznym partnerem) wokół wspólnego środka masy[9]. W roku 1862 hipoteza Bessela została potwierdzona: astronom Alvan Clark odkrył gwiazdę będącą nieznanym wcześniej towarzyszem Syriusza[10] (nazwano ją Syriuszem B), która później okazała się białym karłem[11].

W rzeczywistości żaden z odkrytych w tym okresie obiektów nie był całkowicie „ciemny”: Neptun, jak każda inna planeta Układu Słonecznego, świeci bowiem światłem odbitym, a Syriusz B, jak każda inna gwiazda – światłem własnym; były to jedynie obiekty trudne do wykrycia ze względu na małe natężenie wypromieniowywanego lub odbijanego światła. Czy zatem przywołane epizody rzeczywiście można traktować jako początek historii ciemnej materii? Współcześnie przeważa opinia, że obiekty w samym Układzie Słonecznym i jego najbliższym sąsiedztwie (Syriusz jest jedną z gwiazd leżących najbliżej Słońca) faktycznie nie są składnikiem ciemnej materii z tego prostego powodu, że da się je zaobserwować za pomocą odpowiednio mocnych teleskopów. Sytuacja może się jednak przedstawiać inaczej w miejscach znacznie oddalonych od Ziemi, w których bezpośrednie zaobserwowanie tego typu obiektów nie jest wykonalne – na przykład w odległych zakątkach Drogi Mlecznej lub w innych galaktykach. W takich miejscach wspomniane obiekty – obecnie oprócz białych karłów i planet krążących wokół gwiazd (takich jak Neptun) do tej samej kategorii zalicza się również inne typy słabo świecących gwiazd, a także gigantyczne planety o rozmiarach Jowisza (tzw. planety jowiszowe), komety, planetoidy, planety karłowate itp. – rzeczywiście mogą stanowić ważny składnik ciemnej materii.

Należy jednak pamiętać, że wniosek ten jest oparty na współczesnej wiedzy dotyczącej wielkoskalowej budowy wszechświata. W połowie XIX wieku astronomowie nie wiedzieli jeszcze, że mgławice widoczne na nocnym niebie są odrębnymi galaktykami, podobnymi pod względem wielkości i struktury do Drogi Mlecznej i oddzielonymi od niej niewyobrażalnie wielkimi obszarami kosmicznej pustki. W okresie tym ciągle jeszcze dominowało przekonanie, że wszechświat należy utożsamiać z Drogą Mleczną, obejmującą swym zasięgiem obserwowane przez astronomów „wszechświaty wyspowe”[12]. To właśnie z tego powodu w XIX-wiecznych dyskusjach na temat możliwości istnienia ciemnej materii nie uwzględniano podziału – istotnego z punktu widzenia współczesnych analiz tego zagadnienia – na ciemną materię charakteryzującą „bliskie” i „dalekie” sąsiedztwo Układu Słonecznego. Już wtedy wiedziano jednak, że różnego rodzaju niewidoczne obiekty należy uwzględnić przy szacunkach dotyczących ilości materii obecnej we wszechświecie – niezależnie od tego, w jakiej skali dokonuje się tego typu oszacowań. Świadomość ta z czasem zaczęła coraz bardziej wpływać na naukowy obraz świata.

Na początku XX wieku idea obecnej we wszechświecie niewidocznej materii zadomowiła się w fizyce na dobre. Wymownym świadectwem tego stanu rzeczy może być wydana w 1903 roku książka do astrofizyki, w której autorka – astronomka i popularyzatorka nauki Agnes Clarke – poświęca osobny rozdział problemowi „ciemnych gwiazd”[13]. W rozdziale tym znajduje się następująca opinia, którą można potraktować jako miarodajny wskaźnik tego, jak problem ciemnej materii postrzegano w latach poprzedzających rewolucję relatywistyczną: „Masa niewidocznych ciał może (...) przewyższać masę tych, które świecą; niewykluczone, że stanowią one główną część siły napędowej wszechświata”[14]. „Niewidoczne ciała”, którym poświęca uwagę Clarke, to przede wszystkim wygasłe lub gasnące gwiazdy świecące tak słabym światłem, że mogą ich nie zauważyć astronomowie posługujący się nawet najmocniejszymi teleskopami. W roku 1922 astronom James Jeans przeprowadził obliczenia, z których wynikało, że liczba tego typu „ciemnych gwiazd” trzykrotnie przekracza liczbę gwiazd jasnych[15]. Oszacowania te nawiązywały do analiz innego astronoma, Jacobusa Kapteyna, który w jednej ze swoich prac zauważył, że „ilość ciemnej materii można byłoby określić na podstawie jej efektów grawitacyjnych”[16]. Sam Kapteyn sądził – nieco wcześniej do podobnych wniosków doszedł Ernst Öpik[17] – że ilość ciemnej materii w obrębie Drogi Mlecznej nie jest znaczna. Inni uczeni nie podzielali jednak tej opinii. Rozpoczął się trwający przez długie dziesięciolecia spór o hipotezę ciemnej materii, przy czym nowe metody badawcze – uwzględnianie efektów grawitacyjnych związanych z obecnością takiej materii oraz określanie stosunku masy do światła w odniesieniu do obiektów wielkoskalowych, takich jak galaktyki albo gromady galaktyk – przyczyniły się do zasadniczej zmiany w podejściu do tej hipotezy. Czysto teoretyczne spekulacje dotyczące obecności ciemnej materii zaczęto zastępować coraz bardziej zaawansowanymi testami empirycznymi.

Zmiana ta została spowodowana w dużej mierze tym, że w międzyczasie (w roku 1915) na arenie nauki pojawiła się ogólna teoria względności, a nieco później – zbudowana na jej podstawie kosmologia relatywistyczna[18]. Obserwacje astronomiczne przekonały uczonych, że Droga Mleczna jest tylko jedną z wielu galaktyk skupionych w gromady[19] rozsiane w ogromnym – być może nieskończonym – wszechświecie, który na dodatek podlega nieustannej ekspansji. Dyskusja dotycząca ciemnej materii nabierała w tej perspektywie zupełnie nowego wymiaru: jeśli do tej pory rozważano obecność ciemnej materii w mniej lub bardziej odległych obszarach Drogi Mlecznej, to teraz należało wziąć pod uwagę również to, że może ona występować także w galaktykach i gromadach galaktyk i wpływać na globalną ewolucję wszechświata[20].

Pierwszych mocnych argumentów za obecnością ciemnej materii w Drodze Mlecznej dostarczył holenderski astronom Jan Hendrik Oort. Na przełomie lat 20. i 30. XX wieku dokonał on kilku istotnych odkryć dotyczących struktury naszej rodzimej Galaktyki; odkrył między innymi galaktyczne halo (1924) i potwierdził wysuwaną wcześniej przez wielu autorów hipotezę rotacji galaktyki (1927). W roku 1932 Oort przeprowadził analizę rozkładu prędkości kątowych gwiazd Drogi Mlecznej (zwłaszcza niektórych gromad kulistych) i na jej podstawie doszedł do wniosku, że oprócz zwykłej, świecącej materii Droga Mleczna musi zawierać znaczne ilości ciemnej materii, zalegającej w płaszczyźnie galaktyki[21]. Z przeprowadzonych przez Oorta rachunków wynikało, że ciemnej materii powinno być co najmniej dwukrotnie więcej niż tej, którą można zauważyć dzięki obserwacjom astronomicznym; grawitacja generowana jedynie przez widoczną materię nie mogłaby bowiem związać z galaktyką wszystkich fragmentów jej struktury w taki sposób, by obserwowane prędkości kątowe zgadzały się z tymi, które wynikają z równań uwzględniających jedynie „widzialną” część materialnej zawartości Drogi Mlecznej[22].

W roku 1933 analogiczne analizy przeprowadził pracujący w Kalifornii szwajcarski astronom Fritz Zwicky, przy czym przedmiotem jego zainteresowania nie były już względne ruchy gwiazd Drogi Mlecznej, ale ruchy całych galaktyk. Zwicky zmierzył prędkości ośmiu galaktyk w gromadzie Coma (Abel 1656) w Warkoczu Bereniki i zauważył, że prędkości te znacznie przekraczają graniczną wartość prędkości ucieczki wynikającą z siły grawitacji oszacowanej na podstawie masy tej gromady galaktyk[23]. Zmierzone prędkości były na tyle duże, że galaktyki te powinny już dawno (w czasie o wiele krótszym od wieku wszechświata) uciec z gromady, a sama gromada nie powinna już istnieć. Jeśli gromada Coma nadal istnieje – rozumował Zwicky – to znaczy, że siła grawitacji, decydująca o wartości prędkości ucieczki z gromady, musi być znacznie większa niż ta, która wynika z przyjętego oszacowania. Za jedyne rozsądne wyjaśnienie tej rozbieżności Zwicky uznał to, że oprócz zwykłej, świecącej materii w gromadzie Coma muszą się również znajdować ogromne ilości materii ciemnej, które decydują o tym, iż faktyczna wartość prędkości ucieczki jest o wiele większa od wartości otrzymanej na podstawie przeprowadzonych pomiarów.

Wykonane obliczenia pozwoliły Zwicky’emu na sformułowanie następującego wniosku: „średnia gęstość systemu Coma musi być co najmniej 400 razy większa niż ta, która wynika z obserwacji materii świecącej. Jeśli się to potwierdzi, gęstość ciemnej materii – co zaskakujące – będzie [tam] nieporównywalnie większa niż materii świecącej”[24]. Współcześnie wiadomo, że obliczenia Zwicky’ego były znacznie zawyżone. Zwicky zakładał, że wartość wykorzystanej do obliczeń stałej Hubble’a wynosi 558 (km/s)/Mpc, podczas gdy w rzeczywistości wartość ta jest ośmiokrotnie niższa. Nawet jednak przy współczesnym przeskalowaniu tej wartości wynik uzyskany przez Zwicky’ego nadal jest zastanawiający: jeśli w gromadzie Coma jest 50 razy więcej materii ciemnej niż świecącej, to znaczy, że aż 95% masy tej gromady jest niedostępne dla bezpośrednich obserwacji astronomicznych[25].

Co może być aż tak masywne i zarazem niewidoczne? Zwicky nie znał odpowiedzi na to pytanie. Do grona wymienianych już wcześniej kandydatów na ciemną materię (planety olbrzymy, komety, białe karły itp.) on sam dodawał gwiazdy międzygalaktyczne i świecące słabym światłem galaktyki karłowate, mając zarazem świadomość, że tego typu obiekty – nawet jeśli są liczne – nie mogą w pełni zbilansować brakującej masy. W roku 1933 nie były jeszcze znane techniki obserwacji radioastronomicznych i dlatego wszystkie oszacowania astronomów odnosiły się jedynie do materii obserwowanej w zakresie światła dostępnego dla teleskopów optycznych. Zwicky nie miał zatem żadnych podstaw, by podejrzewać, że w bilansie brakującej materii należy uwzględnić zjonizowany gaz i różnego rodzaju masywne cząstki, o których spekulują współcześni fizycy; doszedł jednakże do wniosku, że czymkolwiek ta niewidzialna materia jest, to – ponieważ pozostaje w obrębie gromady Coma – musi się składać z obiektów, które poruszają się z prędkościami nie większymi niż prędkości samych galaktyk tej gromady. Galaktyki zaś poruszają się z prędkościami o wiele mniejszymi od prędkości światła. W żargonie astrofizyków cząstki lub obiekty, które poruszają się wolno (w stosunku do prędkości światła), określane są jako „zimne”, natomiast te, które poruszają się szybko – jako „gorące”. Zwicky odwołał się do tej konwencji, określając ciemną materię obecną w gromadzie Coma pierwszym z tych przymiotników: jest to „ciemna (zimna) materia” (dunkle (kalte) Materie)[26]. Określenie to można uznać za chronologicznie pierwsze odwołanie do zimnej ciemnej materii, która stała się przedmiotem zainteresowania fizyków w latach 80. XX wieku.

W swojej publikacji z roku 1933 Zwicky zauważył, że problem brakującej masy występuje również w przypadku „innych gromad galaktyk”[27]. Sugestia ta wynikała raczej z naukowej intuicji niż z konkretnych obserwacji i obliczeń Zwicky’ego, ale już w roku 1936 słuszność tej intuicji potwierdził astronom Sinclair Smith, który przeprowadził obserwacje innej gromady galaktyk – tym razem w konstelacji Panny (Abel 1882)[28]. Okazało się, że również w tej gromadzie występuje analogiczna trudność: z 32 jej galaktyk przebadanych przez Smitha niemal połowa poruszała się z prędkością przekraczającą 1500 km/s, będącą prędkością ucieczki z tej gromady (niektóre z galaktyk przekraczały ją niemal dwukrotnie). Jeśli na skutek tak wielkich prędkości gromada nie została jeszcze do tej pory rozerwana – rozumował Smith – to znaczy, że wewnątrz niej muszą istnieć „olbrzymie masy międzymgławicowej materii”[29]. Podobnie jak Zwicky, również Smith nie miał gotowej odpowiedzi na pytanie, czym jest niewidoczna materia; nie wykluczał, że masa samych galaktyk została przez niego poprawnie oszacowana, zaś brakującą masę tworzy bliżej nieokreślony „materiał międzymgławicowy, albo jednorodnie rozłożony, albo w postaci otaczających mgławicę dużych obłoków o małej jasności”[30].

Problem ciemnej materii dostrzegł również sam Edwin Hubble. W wydanej w 1936 roku książce The Realm of the Nebulae przedstawił wyniki badań Smitha, zaznaczając, że odkryta przez niego rozbieżność pomiędzy masą wynikającą z obserwowanej jasności i masą potrzebną do zagwarantowania grawitacyjnej stabilności gromady „wydaje się rzeczywista i istotna”[31]. Rok później na tę samą rozbieżność po raz kolejny wskazał Zwicky, który jeszcze raz przeanalizował wyniki uzyskane przez siebie i przez Smitha[32]. Zwicky zwrócił uwagę na niedokładność określania mas galaktyk i gromad galaktyk, podkreślając zarazem konieczność poszukiwania nowych metod. Spośród kilku jego własnych propozycji takich modyfikacji na szczególną uwagę zasługuje ta, która ze względu na techniczne trudności w praktyce została wykorzystana dopiero pod koniec XX wieku: Zwicky zauważył, że do określania mas galaktyk – i pośrednio również do szacowania masy ciemnej materii – może służyć metoda wykorzystująca efekt soczewkowania grawitacyjnego.

Po drugiej wojnie światowej problemem ciemnej materii stopniowo zaczęła się interesować coraz większa grupa uczonych. Wielu z nich zetknęło się z tym zagadnieniem w kontekście kosmologicznej teorii stanu stacjonarnego, postulującej kreację materii, która stale uzupełnia ubytek masy spowodowany ekspansją przestrzeni wszechświata. To spór między innymi o tę teorię spowodował, że w latach 50. i 60. XX wieku wielu fizyków odnosiło się z rezerwą do idei ciemnej materii[33]. Nie brakowało jednak również takich, którzy dostarczali kolejnych argumentów przemawiających za tym, że bez uwzględnienia właśnie tego rodzaju materii nie jest możliwe zamknięcie bilansu masy w przypadku wielkoskalowych struktur, z których zbudowany jest wszechświat. Interesujący wynik, który można potraktować w kategoriach właśnie takiego argumentu, uzyskali w roku 1959 dwaj astronomowie pracujący w Princeton, Fritz Kahn i Lodewijk Woltjer[34]. Przeprowadzili oni oszacowanie masy Grupy Lokalnej, to znaczy gromady galaktyk, w której skład wchodzi między innymi Droga Mleczna i Galaktyka Andromedy (M 31), uzyskując wynik w przybliżeniu równy 1,8 · 1012M⊙ (mas Słońca). Okazało się, że łączna suma obserwowanych mas największych galaktyk gromady jest sześciokrotnie mniejsza (0,3 · 1012M⊙ ), co jest – zdaniem Kahna i Woltjera – dowodem na to, że większą część masy Grupy Lokalnej stanowi jakiś rodzaj niewidocznej materii międzygalaktycznej: „Ten wynik wskazuje na to, że musi istnieć co najmniej 1,5 · 1012 mas słonecznych materii międzygalaktycznej rozproszonej wewnątrz Grupy Lokalnej”[35]. Kahn i Woltjer przypuszczali, że większość tej materii może mieć postać gorącego zjonizowanego gazu (głównie wodoru o temperaturze 5 · 105 K i gęstości 10–4 protonów/cm3) wypełniającego przestrzeń międzygalaktyczną.

Przewidywania Kahna i Woltjera już po kilku latach zostały potwierdzone dzięki szybkiemu rozwojowi radioastronomii[36], która począwszy od wczesnych lat 60. XX wieku, zaczęła badać wszechświat w zakresie promieniowania rentgenowskiego i promieni gamma. Ponieważ atmosfera Ziemi zatrzymuje ten rodzaj promieniowania, rozwój tej gałęzi radioastronomii[37] stał się możliwy dzięki zastosowaniu odpowiednich detektorów umieszczanych najpierw w specjalnie do tego celu projektowanych rakietach badawczych, a następnie w satelitach przeznaczonych do obserwacji źródeł promieniowania X i promieniowania gamma. Już pierwszy z tych satelitów – Explorer 42 (Uhuru), wystrzelony w roku 1970 – dostarczył dowodów na to, że źródłem promieniowania X mogą być nie tylko galaktyki i gromady galaktyk, lecz także obłoki gorącego gazu znajdujące się pomiędzy galaktykami i gromadami galaktyk. Obserwacje przeprowadzone za pomocą kolejnych satelitów – zwłaszcza HEAO-2, znanego również jako Obserwatorium Einsteina (1978), i Chandra X-ray Observatory (1999) – potwierdziły, że przestrzeń ta jest wypełniona gorącym gazem o temperaturze rzędu 106–108 K, który emituje promieniowanie X. Gaz ten porusza się z ogromną prędkością, która jednak nie jest większa od prędkości ucieczki z danej struktury (może nią być np. grupa lub gromada galaktyk) i dlatego pozostaje w statycznej równowadze z jej polem grawitacyjnym. Możliwość zarejestrowania promieniowania X sprawia, że gorący międzygalaktyczny gaz nie jest całkowicie „niewidoczny” i dlatego – w sensie ścisłym – nie jest składnikiem ciemnej materii. Masa tego gazu jest zbyt mała, by zapewnić grawitacyjną stabilność gromadom galaktyk – jako pierwsi zwrócili na to uwagę w roku 1974 Jaan Einasto, Ants Kaasik i Enn Saar[38] – ale z całą pewnością należy ją uwzględnić w globalnym bilansie masy wszechświata[39].

Zapraszamy do zakupu pełnej wersji książki

Przypisy

[1] National Research Council of the National Academies, Connecting Quarks with the Cosmos: Eleven Science Questions for the New Century, National Academic Press, Washington 2003, s. 2.

[2] J. Michell, On the Means of Discovering the Distance, Magnitude, &c. of the Fixed Stars, „Philosophical Transactions of the Royal Society of London” 1784, 74, s. 35–57.

[3]Ibidem, s. 42.

[4]Ibidem, s. 50.

[5] Zob. C. Montgomery, W. Orchiston, I. Whittingham, Michell, Laplace and the Origin of the Black Hole Concept, „Journal of Astronomical History and Heritage” 2009, 12 (2), s. 90–96.

[6] P.S. de Laplace, Exposition du système du monde, Part II, Paris 1796, s. 305.

[7] S.P. de Laplace, Beweis des Satzes, dass die anziehende Kraft bey einem Weltkörper so gross seyn könne, dass das Licht davon nicht ausströmen kann, „Allgemeine Geographische Ephemeriden” 1799, 4, s. 1–6. Angielskie tłumaczenie tego artykułu zostało włączone (Appendix A) do książki S.W. Hawkinga i G.F.R. Ellisa, The Large Scale Structure of Space-Time, Cambridge University Press, Cambridge 1973, s. 365–368.

[8] Por. J. North, Historia astronomii i kosmologii, przeł. T.T. Dworak, Książnica, Katowice 1997, s. 286–289.

[9] Podobną hipotezę sformułował wcześniej (w roku 1825 i 1833) astronom John Pond w Greenwich dla wielu innych gwiazd, jednakże zdaniem Bessela były to gwiazdy tak odległe, że wykrycie takiego efektu w ich przypadku nie było możliwe; zob. ibidem, s. 280–281.

[10] Niewidocznego partnera Procjona odkrył w 1895 roku niemiecki astronom John Martin Schaeberle.

[11] Białe karły są niewielkimi obiektami emitującymi promieniowanie elektromagnetyczne w zakresie światła widzialnego, powstałymi po ustaniu reakcji jądrowych w gwiazdach o małych i średnich masach.

[12] Termin ten wprowadził Immanuel Kant w roku 1755 w dziele Universal Natural History and the Theory of Heavens. Kant (a przed nim również Thomas Wright w dziele An Original Theory or New Hypothesis of the Universe z roku 1750) rozważał hipotezę, zgodnie z którą „wszechświaty wyspowe” są odrębnymi strukturami kosmicznymi podobnymi do Drogi Mlecznej.

[13] A. Clarke, Problems in Astrophysics, Adam & Charles Black, London 1903, rozdz. XXV, s. 399–403.

[14]Ibidem, s. 400.

[15] J.H. Jeans, The Motion of Stars in a Kapteyn Universe, „Monthly Notices of the Royal Astronomical Society” 1922, 82, s. 122–132.

[16] J.C. Kapteyn, First Attempt at a Theory of the Arrangement and Motion of the Sidereal System, „The Astrophysical Journal” 1922, 55, s. 302.

[17] E. Öpik, Selective Absorption of Light in Space, and the Dynamics of the Universe, „Bulletin de la Société astronomique de Russie” 1911, 21, s. 150–158.

[18] Umowną datą narodzin kosmologii relatywistycznej jest rok 1917, kiedy Albert Einstein opublikował pracę dotyczącą chronologicznie pierwszego modelu kosmologicznego zbudowanego na podstawie OTW.

[19] Gromady mogą zawierać nawet kilka tysięcy galaktyk i rozciągać się na miliony lat świetlnych. Współcześnie wiadomo, że istnieją struktury większe od gromad galaktyk – są to tzw. supergromady, o rozmiarach rzędu setek milionów lat świetlnych.

[20] Zob. S. van den Bergh, The Early History of Dark Matter, „Publications of the Astronomical Society of the Pacific” 1999, 111, s. 657–660.

[21] J.H. Oort, The Force Exerted by the Stellar System in the Direction Perpendicular to the Galactic Plane and Some Related Problems, „Bulletin of the Astronomical Institutes of the Netherlands” 1932, 6, s. 249–287.

[22] „There is an indication that the invisible mass is more strongly concentrated to the galactic plane than that of the visible stars”; ibidem, s. 251.

[23] F. Zwicky, Die Rotverschiebung von extragalaktischen Nebeln, „Helvetica Physica Acta” 1933, 6, s. 110–127.

[24]Ibidem, s. 125.

[25] Por. S. Tremaine, H.M. Lee, Dark Matter in Galaxies and Galaxy Systems, [w:] Dark Matter in the Universe, red. J. Bahcal, T. Piran, S. Weinberg, World Scientific Publishing, New Jersey 2004, s. 73–75.

[26] F. Zwicky, Die Rotverschiebung von extragalaktischen Nebeln, op. cit., s. 122.

[27]Ibidem, s. 126.

[28] S. Smith, The Mass of the Virgo Cluster, „The Astrophysical Journal” 1936, 83, s. 23–30.

[29]Ibidem, s. 23. Smith obliczył, że średnia masa każdej z galaktyk powinna być 200 razy większa, niż to wynika z obliczeń uwzględniających jedynie materię świecącą; po przeskalowaniu stałej Hubble’a ta krotność zmniejsza się do 30.

[30]Ibidem, s. 30.

[31] E. Hubble, The Realm of the Nebulae, Dover Publications, New York 1936, s. 180.

[32] F. Zwicky, On the Masses of Nebulae and of Clusters of Nebulae, „The Astrophysical Journal” 1937, 86, s. 217–246.

[33] Por. J. North, Historia astronomii i kosmologii, op. cit., s. 337.

[34] F.D. Kahn, L. Woltjer, Intergalactic Matter and the Galaxy, „The Astrophysical Journal” 1959, 130, s. 705–717.

[35]Ibidem, s. 607.

[36] Na temat początków radioastronomii, poszukiwania radioźródeł i odkrycia mikrofalowego promieniowania tła zob. np. M. Heller, Granice kosmosu i kosmologii, Wydawnictwo Naukowe Scholar, Warszawa 2005, s. 159–179; J. North, Historia astronomii i kosmologii, op. cit., s. 364–391.

[37] Radioastronomia rentgenowska i promieni gamma nazywana jest astrofizyką wysokich energii, ponieważ kwanty promieniowania X i gamma mają znacznie większą energię niż kwanty światła widzialnego.

[38] „The discovery of the emission of X rays from clusters of galaxies can be explained in terms of hot intracluster gas. The mass of this gas, however, is insufficient to stabilize clusters”; J. Einasto, A. Kaasik, E. Saar, Dynamic Evidence on Massive Coronas of Galaxies, „Nature” 1974, 250, s. 309.

[39] Por. C. Sarazin, X-Ray Emission from Clusters of Galaxies, Cambridge University Press, Cambridge 1988; A. Cavaliere, R. Burg, R. Gacconi, X-ray Luminosity Functions of Clusters of Galaxies, „The Astrophysical Journal” 1991, 336, s. 61–64.