Niezdrowo jest zajmować się w kółko jedną i tą samą dziedziną. Dlatego wysłużeni felietoniści pism o profilu społecznym i kulturalnym od czasu do czasu wygrzebują się spod stosów humaniorów i otwierają książkę o naukach ścisłych. Nie jest to wprawdzie „Teoria pól kwantowych Weinberga” ani nawet Feynmana „Wykłady z fizyki”, bo jednak dorośli ludzie nie powinni udawać sami przed sobą, że rozumieją coś, czego nie rozumieją (przed innymi można, ale tylko w stanie wyższej konieczności). Na szczęście istnieje wciąż na polskim rynku wydawniczym seria „Na ścieżkach nauki” zainicjowana ćwierć wieku temu przez Prószyńskiego i kontynuowana wbrew wszelkim przeciwnościom losu, a nie jest ich mało.

Seria ta istnieje między innymi po to, aby dostęp do wiedzy o współczesnych naukach ścisłych mieli nie tylko ich mistowie (nie mylić z mistrzami) wtajemniczeni w wyższą matematykę, ale również ludzie świeccy, na przykład profesorowie nauk o kulturze. W serii tej wyszło dotąd sto siedemdziesiąt pozycji. Nie wszystkie z nich mają najwyższą wartość i nie wszystkie są zadowalająco przetłumaczone na polski (znakomitą większość stanowią książki obcojęzyczne), ale i tak, jeśli rodzimi czytelnicy pragną wiedzieć, co się dzieje w światowej nauce i chcieliby uzyskać w tej mierze coś więcej niż artykuły prasowe – Prószyński jest obecnie jednym z nielicznych polskich wydawców, którzy im to umożliwiają. Większość naszych serii popularnonaukowych, w których ukazywały się rzetelnie napisane książki, już dawno upadła.

Jeśli coś można zarzucić nawet najlepszym książkom popularyzującym współczesną fizykę, to tylko to, że wszystkie zaczynają się niemal dokładnie tak samo. Tak, zgadliście – w roku 1905 nieznany szerzej urzędnik biura patentowego w szwajcarskim Bernie nazwiskiem Albert Einstein sformułował szczególną teorię względności. Inaczej być nie może, ponieważ teoria ta zapoczątkowała rewolucję w pojmowaniu przez ludzi fizycznej natury świata, w którym żyjemy. Szkoda jedynie, że w narracjach popularnych wygląda to zazwyczaj tak, jak gdyby Einstein ze swoimi pomysłami pojawił się w nauce znikąd, jak deus ex machina, podczas gdy jego idee – mimo niezwykłego nowatorstwa – miały jednak dość wyraźne związki z dorobkiem jego poprzedników. Einstein jako figura kulturowa jest pod tym względem podobny do Kartezjusza – ojciec filozofii nowożytnej w wizji podręczników do historii filozofii również jawi się często jako jurodiwy, któremu nowa filozofia weszła do głowy tak sobie, z nagła. Ale znów – inaczej być nie może, ponieważ nie da się napisać na raz o wszystkim. Więc porzućmy ten wątek.

O Einsteinie słyszało każde dziecko i każdy wie, że to ten sympatyczny wujcio-wariatuńcio z rozczochranymi włosami. Miał on przyjemność (lub nieprzyjemność) zostać pierwszym uczonym nowoczesnym, który wszedł do imaginarium kultury masowej i pozostał w niej jako twórca niezrozumiałej, ale ważnej teorii (a nawet dwóch takich teorii). Mniej ludzi wie o tym, że Einstein był też wybitnym filozofem przyrody i napisał szereg esejów dostępnych w lekturze dla ludzi niemających wykształcenia matematycznego. Jeszcze mniej ludzi natomiast wie, że – podobnie jak Newton – ostatnie trzydzieści lat życia poświęcił na badania, które nie przyniosły żadnego znaczącego rezultatu.

Kilka lat temu świat nauki święcił stulecie powstania ogólnej teorii względności (OTW), a za kilka lat będzie święcił stulecie powstania mechaniki kwantowej. Te dwie teorie stanowią dziś podstawę całego przyrodoznawstwa i nikt poważny nie kwestionuje ich poprawności, mimo że obie stanowią wyzwanie dla umysłów ludzkich, nie tylko z powodu trudności pojęciowych i technicznych, ale przede wszystkim dlatego, że wielkoskalowy i mikroskalowy obraz świata fizycznego, jaki się z nich wyłania, jest sprzeczny z tym, jaki znamy z doświadczenia zmysłowego osadzonego w świecie naszego życia. Nie to jednak jest największym zmartwieniem zawodowców (chociaż Einstein, Bohr, Heisenberg i inni twórcy obu tych teorii byli zszokowani ich konsekwencjami poznawczymi i to nie jest przesadne określenie), lecz fakt, że teorii tych nie można ze sobą uzgodnić.

Właśnie nad próbami ich uzgodnienia Einstein spędził trzy dekady, nie odnosząc sukcesów. Nie udało się to również żadnemu z jego następców aż po nasze dni. Innymi słowy – fizyka XX i XXI wieku cierpi na rodzaj rozdwojenia jaźni. Ma narzędzia, które pozwoliły jej dotrzeć do najmniejszych i największych skal fizycznej rzeczywistości, ale nie jest w stanie zastosować tych narzędzi jednocześnie, czego rezultatem jest między innymi niepewność co do tego, jaki był początek znanego nam Kosmosu. Od prawie stu lat jej adepci i mistrzowie usiłują uleczyć ją z tej przypadłości. Jak dotąd – bezskutecznie. W dodatku zaś pod koniec XX wieku z obserwacji astronomicznych oraz ich interpretacji teoretycznych wyłonił się drugi wielki problem – wyszło mianowicie na jaw, że wszystkie formy materii i energii, które są znane człowiekowi, stanowią niecałe pięć procent zawartości Kosmosu. O tym, co składa się na pozostałe dziewięćdziesiąt pięć procent, nie mamy pojęcia, pomimo czterech dekad intensywnych badań. Wiemy tylko tyle, że ciemna materia i ciemna energia (tak je prowizorycznie nazwano; ciemną materię wykryto zresztą już w 1933 roku, ale wtedy nikt nie zwrócił na to uwagi) nie wchodzą w żadne oddziaływania ze znanymi nam formami materii i energii – gdyby było inaczej, moglibyśmy je przynajmniej częściowo zarejestrować. Teoretycy zaproponowali co najmniej kilkadziesiąt koncepcji wyjaśniających naturę tych bytów, ale żadna z nich nie otrzymała jak dotąd potwierdzenia empirycznego.

Wygląda więc na to, że pomimo zapierającego dech w piersiach rozwoju dwudziestowiecznej fizyki nasza wiedza o świecie, w którym istniejemy, relatywnie nie zwiększa się, a może nawet się zmniejsza. Pod koniec XIX wieku uczeni przyrodoznawcy sądzili, że ich nauka jest prawie skompletowana. Pozostało tylko kilka drobiazgów do doprecyzowania. Z tego „prawie” wzięły się rewolucje w fizyce z lat 1905–1935 oraz ich dalsze następstwa aż po lata 70., kiedy sformułowano Model Standardowy cząstek elementarnych i chromodynamikę kwantową opisującą oddziaływania wewnątrz nukleonów. Jednak pod koniec XX i na początku XXI wieku sytuacja stała się i pozostaje jak dotąd całkowicie odmienna – w naukach fizycznych istnieje dość powszechne przeświadczenie o poważnym kryzysie poznawczym w podstawach tych nauk i nikt nie ma pojęcia, jak z niego wybrnąć, chociaż większość zainteresowanych robi dobre miny do złej gry.

Przyglądając się temu utrapieniu z pewnego dystansu, można zauważyć, że jest to problem nie tylko ściśle naukowy, ale również epistemologiczny. Są tu generalnie trzy możliwości, jedna bardziej przygnębiająca od drugiej. Pierwsza – że albo OTW, albo mechanika kwantowa, albo obie na raz są ułomne w swoich sformułowaniach i brakuje im jakiejś ważnej składowej, która pozwoliłaby je do siebie nawzajem dopasować. Druga – że nasze umysły mimo swoich naprawdę niebanalnych możliwości nie są w stanie ogarnąć wszystkiego i mają wmontowane przez ewolucję ograniczenia poznawcze (przysłowie żydowskie mówi na ten temat: „człowiek myśli, Bóg się śmieje”, a fakt, że 95 procent zawartości Kosmosu jest poza naszym zasięgiem poznawczym, mimo że wyjaśniliśmy, co się dzieje we wnętrzu protonu, sugeruje, że coś może być na rzeczy). Trzecia – że i z teoriami, i z naszymi umysłami jest OK, natomiast coś nie tak jest z Kosmosem i bydlę owo nie chce być posłuszne naszym genialnym rozpoznaniom.

Teoretycy są na ogół świadomi wszystkich tych trzech możliwości, ale to nie powstrzymuje ich przed dalszymi dociekaniami, a nawet pobudza do nich z tym większą intensywnością. Pod koniec ubiegłego wieku z plejady teorii mających połączyć OTW z mechaniką kwantową na prowadzenie wysunęły się dwie (czy raczej dwie ich grupy, bo każda ma wiele odmian): teoria strun i pętlowa grawitacja kwantowa. Nie będziemy się tu ośmieszali, próbując w dwóch akapitach wyjaśnić, co to jest i jak działa. Właśnie po to Prószyński wydaje książki w serii „Na ścieżkach nauki”, aby można było o tym poczytać. Zwłaszcza że tej właśnie tematyki dotyczy najnowszy tytuł w serii, obszerna rzecz o teorii kwantowej grawitacji pętlowej, mającej według licznych badaczy być alternatywą dla teorii strun, która podobno po 2000 roku zawędrowała na manowce.

Książkę tę napisał wybitny popularyzator w ścisłej współpracy z dwoma głównymi twórcami omawianej w niej teorii. Jej pierwsza partia, gdzie opisano rozwój fizyki od Einsteina do chromodynamiki kwantowej i kosmologii Wielkiego Wybuchu, jest znakomita i stanowi jedno z bardziej frapujących ujęć tego, jak już wspomniano, stałego wątku historii nowoczesnej fizyki. Natomiast później, kiedy przechodzi się do głównego tematu i zaczyna się relacjonować drogę do LQG (angielski akronim „pętlowej grawitacji kwantowej”), wrażenie przy lekturze jest takie, jak gdyby ktoś opowiadał nam o swoim wielkim i odważnym przedsięwzięciu, które jednak nie przyniosło spodziewanych rezultatów, ale ten ktoś nie chce się do tego przyznać, więc opowiada tak, żeby niezorientowany słuchacz dał się nabrać i uwierzył, że to był jednak sukces. Podobne wrażenie można odnieść, czytając inne książki o nowych teoriach, na przykład wydaną w tej samej serii rzecz Paula Steinhardta i Neila Turoka o stworzonej przez nich teorii wszechświata ekpyrotycznego. Nie ma w tym niczego dziwnego, ponieważ każdy jest przywiązany do własnych pomysłów, zwłaszcza takich, nad którymi spędził kilka dekad życia. Problem polega na tym, że z książek opisujących najnowsze teorie mające na celu połączenie OTW i mechaniki kwantowej wyłania się obraz dość przygnębiający – od końca XX wieku uczeni wymyślają po kilka takich teorii rocznie i żadna z nich nie jest zadowalająca jako konstrukcja matematyczna, a także żadna nie ma szans na testy empiryczne. Większość teoretyków twierdzi, że ich teorie są ładniejsze, bardziej elegancko sformułowane niż inne i to bywa, niestety, głównym argumentem w ich debatach.

Podstawowy problem z teoriami strun, superstrun, bran, pętli i pian kwantowych, wszechświatów niemowlęcych, wiecznej inflacji kosmicznej i innych bytów znanych wyłącznie z równań matematycznych polega na tym, że przy obecnym stanie techniki dostępnej naszej cywilizacji i przy perspektywach na przyszłość istnieją bardzo niewielkie szanse na to, abyśmy mogli kiedykolwiek zweryfikować lub zanegować poprawność którejkolwiek z nich na drodze doświadczalnej. Teoria, której nie da się sprawdzić, ma zaś więcej wspólnego z metafizyką niż z nauką. Co więcej – mimo że nazwy „teoria strun” czy „teoria LQG” stosuje się powszechnie, także wśród fachowców, ściśle rzecz biorąc, z punktu widzenia metodologii nauk nie są to teorie naukowe, lecz raczej zbiory hipotez matematycznych, co do których sensu fizycznego nie można (przynajmniej obecnie) formułować żadnych prawomocnych orzeczeń opartych na danych doświadczalnych. Być może za kilkadziesiąt lat niektóre spośród pojęć wyliczonych na początku tego akapitu będą wspominane tylko przez historyków nauki, jak dziś flogiston czy eter.

OTW i mechanika kwantowa mają natomiast setki potwierdzeń doświadczalnych. Teorie te pozwoliły też prawidłowo przewidzieć wiele realnych zjawisk i skonstruować wiele urządzeń technicznych, wśród nich takie, których miliardy ludzi używają na co dzień. Teorie strun, LQG oraz ich mniej popularne kontrpropozycje są natomiast, przynajmniej jak dotąd, metafizyką matematyczną. Jest to metafizyka tworzona nie w pojęciach języka naturalnego, lecz w równaniach, którymi można manewrować nie mniej kreatywnie niż słowami i równie sprawnie nimi spekulować. Tytani rewolucji kwantowej sprzed stu lat mieli pod tym względem bardziej komfortową sytuację niż dzisiejsi magowie strunowcy i pętlowcy – koledzy eksperymentatorzy mogli im dostarczać protokoły z wynikami pomiarów. Ale kto wie, co się w tej branży wydarzy przez kilka następnych dekad albo stuleci?

 

Książka:

Jim Baggott, „Przestrzeń kwantowa. Pętlowa grawitacja kwantowa i poszukiwanie struktury przestrzeni, czasu i Wszechświata”, przełożyli Bogumił Bieniok i Ewa L. Łokas, Prószyński i S-ka, Warszawa 2020.