Stąd do wieczności czyli gra w trzy liczby

Odkrycie w CERNie, w lipcu 2012 roku, bozonu Higgsa zamknęło definitywnie epokę zatwierdzania Modelu Standardowego jako kompletnej teorii mikro-świata. Paradoksalnie, było to sporym zaskoczeniem, i stąd właśnie się wzięło 49-letnie opóźnienie w przyznaniu nagrody Nobla za ten ostatni, do niedawna niepotwierdzony bezpośrednio składnik tejże teorii, tzw. mechanizm BEH (Brout-Englert-Higgs), przewidujący istnienie tegoż bozonu. (W efekcie jeden z autorów, Robert Brout, nie doczekał się tego wyróżnienia…) Zaskoczony był tym w pewnym stopniu nawet jeden z trzech twórców BEH, gdyż podobnie jak wielu fizyków spodziewał się, że być może bozon Higgsa nie jest cząstką elementarną**, a do jego pełnego zrozumienia potrzeba nowej teorii. Okazało się inaczej, i nic w tej chwili nie wskazuje na taką potrzebę, a więc odkrycie stało się niejako większym niż powszechnie oczekiwano!

W tym miejscu warto zrobić pewną dygresję historyczną. Otóż, w 1885 Johann Balmer, fizyk i nauczyciel w żeńskiej szkole w Bazylei, podał prosty wzór matematyczny wiążący długości fal dla dopiero co zmierzonych przez Ångströma pięciu linii spektralnych wodoru. Jak się później okazało, był to początek końca fizyki klasycznej, a gwóźdź do jej trumny wbił w 1900 Maks Planck postulując kwantowanie (czyli „porcjowanie”) energii, i wprowadzając nową stałą fundamentalną h. Planck doskonale zdawał sobie sprawę z wagi swojego odkrycia – zanim to ogłosił, bardzo długo męczył się próbując uratować fizykę klasyczną, ale bez powodzenia. Jak wiemy, doprowadziło to do powstania fizyki kwantowej, innymi słowy – do największej rewolucji w fizyce od czasów Newtona. Na marginesie, warto przypomnieć rolę w tejże rewolucji, być może najważniejszej w historii fizyki, pracy doktorskiej – ukończonej przez księcia Ludwika de Broglie w 1924. Nosiła ona tytuł Recherches sur la théorie des quanta („Badania nad teorią kwantów”) i przyniosła autorowi nagrodę Nobla już w 1929. Wynikało to z jej olbrzymiego znaczenia dla fizyki, a ciekawostką jest fakt, iż de Broglie doszedł do swojego fundamentalnego postulatu przypisania falowej natury wszystkim cząstkom materii, całkowicie samodzielnie. Członkowie jury jego przewodu doktorskiego (w tym wielcy francuscy fizycy, Paul Langevin i Jean Perrin) poruszeni rewolucyjnością idei, zasięgnęli w tej sprawie rady Alberta Einsteina, który natychmiast docenił bardzo głębokie znaczenie owego postulatu. Więcej o tym, m.in. jak to sam Einstein stał się tego poniekąd ofiarą TUTAJ.

Wróćmy zatem, jak mówią Francuzi, do naszych baranów. Model Standardowy jest teorią kompletną ponieważ poprawnie opisuje wszystkie znane zjawiska mikro-świata. Zawiera jednak dużo parametrów, których wartości już nie potrafimy dobrze wyjaśnić. Do tych parametrów należą w szczególności masy wszystkich cząstek elementarnych, w tym także bozonu Higgsa. I tu właśnie pojawia się wielkie wyzwanie – otóż, eksperymenty w  CERN nie tylko wykazały istnienie bozonu Higgsa, ale umożliwiły pomiar masy tegoż bozonu z dokładnością 0,2% (dwóch promili)!  A to z kolei, pozwoliło zauważyć następującą relację liczbową między trzema masami:

(Mhiggs)2 = Mtop * MZ    lub, inaczej      Mh = √ (Mt * MZ)

Innymi słowy, masa bozonu Higgsa jest równa pierwiastkowi z iloczynu mas kwarku top i bozonu Z. Równanie to jest spełnione z dokładnością lepszą niż 0,3%, zatem w znakomitej zgodzie z błędami pomiaru tych trzech mas! Fascynującą własnością tej prostej relacji jest fakt, że każda z tych trzech cząstek należy do innego rodzaju, ze względu na swój spin. Bozon Higgsa jest jedyną skalarną (tzn. bezspinową) cząstką elementarną w przyrodzie! Z kolei, kwark top jest fermionem, czyli cząstką o spinie połówkowym (= ½ ħ), tak jak wszystkie cząstki elementarne materii, na przykład elektrony. W dodatku jest najcięższym fermionem, ale właśnie jego wielka masa (równa w przybliżeniu masie atomu złota…) jest najbardziej „naturalna” wśród fermionów, wg Modelu Standardowego. No i w końcu, neutralny bozon Z, „odpowiedzialny” wraz z naładowanymi bozonami W za oddziaływania słabe,  jest bozonem wektorowym, o spinie 1, tak jak foton. Ma przy tym najlepiej znaną masę, z dokładnością do 0,002% !

Ktoś może nie bez racji powiedzieć, że jest to najprawdopodobniej zupełny przypadek – w końcu można by postulować bardzo wiele innych arbitralnych wzorów, dołączyć także masę bozonów W itd., itp. Problem jednak w tym, że od wielu już lat znamy inny zaskakujący wzór łączący tym razem masy trzech leptonów (czyli fermionów, ale nie oddziałujących silnie) naładowanych – elektronów, mionów i leptonów tau. Zaproponował go w 1981 japoński fizyk Yoshio Koide:                                                                                               en.wikipedia.org/wiki/Koide_formula.

Po 38 latach, przy ciągle rosnącej precyzji pomiaru tychże mas – równanie Koide jest nadal spełnione, w granicach (bardzo małych) błędów, ale nikt dotąd nie potrafił wyjaśnić jego ewentualnego pochodzenia.

Trudno zatem uwierzyć, aby każdy z tych związków był po prostu, jedynie liczbową koincydencją.  Ja w to nie wierzę, a jeśli ktoś z czytelników ma pomysł na głębokie uzasadnienie któregoś z nich, to radzę szybko to spisać i opublikować – jeśli dobrze trafi, to poczesne miejsce na kartach historii fizyki jest gwarantowane.

___

Z kolei, wiele wskazuje na to, że grawitacja ma (zasadniczo) inny charakter niż pozostałe trzy fundamentalne oddziaływania: elektromagnetyczne, słabe oraz silne (jądrowe), które to z olbrzymim sukcesem są opisywane przez Teorię Standardową (TS), ciągle zwaną Modelem Standardowym.

Po odkryciu bozonu Higgsa ostatni element tej teorii został potwierdzony doświadczalnie, a w dodatku zmierzona masa tegoż bozonu, około 125 GeV/c², powoduje, iż z formalnego, matematycznego punktu widzenia teoria jest „stabilna” i daje „sensowne” przewidywania, począwszy od fizyki atomowej i energii cząstek rzędu 1 eV (oraz dużo, dużo mniejszych, gdzie dobrego opisu dostarcza fizyka klasyczna), aż do gigantycznych energii, rzędu tzw. energii Plancka, czyli do około 1019 GeV, lub inaczej 1028 eV.

Innymi słowy, można uznać, że „natura mikroświata” jest w pełni opisana, czyli TS jest „kompletną” teorią cząstek elementarnych (oczywiście, zaniedbującą grawitację). Jedynym zazwyczaj podnoszonym argumentem „formalno-estetycznym” jest problem tzw. (nie)naturalności, znany też pod nazwami – problemu hierarchii, ew. jako problem fine tuning’u („precyzyjnej regulacji”).

Niedawno ukazała się publikacja pt. Naturalness, the autonomy of scales, and the 125 GeV Higgs, która świetnie to tłumaczy – polecam zainteresowanym. Jest ona wprawdzie dość szczegółowa i trudna, na (bardzo) wysokim poziomie merytorycznym, ale można tam też znaleźć świetne podsumowania, jak np. to:

Here I present a positive argument that this is indeed the appropriate way to understand the naturalness criterion: we should understand naturalness as the requirement that theories should be able to describe physics at low energies in ways that do not invoke a sensitive dependence on those theories’ descriptions of physics at much higher energies.”

W przypadku TS, która jest kwantową teorią pola, gdzie oddziaływania są „generowane” przez zasadę cechowania (gauge principle), taka naturalność jest gwarantowana, za wyjątkiem pola skalarnego bozonu Higgsa – mówi o tym ogólne twierdzenie o rozprzęganiu (Decoupling Theorem):

„Appelquist and Carazzone prove that if one starts with a perturbatively renormalizable theory – the “full theory” – containing a set of fields all of which are much heavier than the remaining fields, the correlation functions describing physics occurring at energies much lower than the mass of the heavy fields can be obtained from an effective theory which contains only the light fields. The only remnant of the heavy fields is that the couplings of the light fields in the effective theory may be different than the couplings of the light fields in the full theory. Furthermore, for quantum field theories containing only fermions or gauge bosons, no relevant operators appear and the contribution of the heavy fields to the light field couplings is merely logarithmic, a small correction to the original light field couplings. Virtually all quantum field theories employed in elementary particle physics are of this form; until the recent discovery of the Higgs particle, no elementary particle described by a scalar field had been discovered in our world. This is of central importance for naturalness since the presence of an elementary scalar field in a theory introduces a relevant operator whose coupling, representing the mass of the scalar field, receives very large corrections from high-energy physics. Setting aside for the moment the conceptual complication introduced by relevant operators, the essence of the Decoupling Theorem is that low-energy physics can be accurately described by a theory including only low-energy degrees of freedom. Past experience with physical theories leads one to expect that low-energy physics like billiard ball trajectories will not depend sensitively on the behavior of high-energy atomic physics; in QFT this observed fact that physical processes at widely separated physical scales are largely independent of one another becomes a theorem.”

__

Co robić w tej sytuacji? Jedyną znaną mi eksperymentalną podpowiedzią są te zagadkowe „koincydencje numeryczne”, czyli owe dwie gry w trzy liczby…

PS. Wszystkie parametry w TS, poza jednym, są bezwymiarowe, tzn. są to po prostu „gołe” liczby, bez jednostek. Tym wyjątkiem jest tzw. próżniowa wartość oczekiwana pola Higgsa = 246,22 GeV, nadająca skalę wszystkim masom cząstek elementarnych (dlatego kwark top o masie ponad 172 GeV/c² jest „bardzo naturalny”, a elektron zupełnie nie…).

__

**) Cząstki elementarne: http://boson.szkolanawigatorow.pl/czastki-elementarne-i-proznia

Reklamy

Skąd się bierze nasza masa czyli zagadka Słońca rozwiązana

 Zdjęcie Słońca w nocy – „światłem” neutrin.

__

Rozwiązanie solarnego paradoksu, a raczej jego dowód, jest oczywiście „zaszyfrowane” w tym niedawno zrobionym „nocnym” zdjęciu powyżej, ale pierwszy je podał francuski fizyk Jean Perrin już w 1919. Miał Perrin genialną intuicję (nie jeden raz, w 1901 zasugerował „planetarny” model atomu – dużo później zaproponowany przez Rutherforda i Bohra) – dopiero w 1939 po rozwinięciu podstaw fizyki jądrowej Hans Bethe** mógł precyzyjnie wykazać działanie, za co dostał nobla w 1967, odpowiedniego mechanizmu tzw. cyklu protonowego.

Do postawienia swojej hipotezy Perrin zestawił dwie obserwacje: I. „deficyt masy” w hipotetycznej wtedy reakcji jądrowej 4 H → He oraz II. równoważność energia-masa Einsteina z 1905; innymi słowy formułę E = mc². Zaproponował zatem, że (głównym) źródłem energii Słońca jest nowa reakcja fuzji czterech jąder wodoru (czyli 4 protonów) w jedno jądro helu (czyli cząstkę alfa): 4 H → He.

Jako że jeden mol helu waży 4,003 g, a cztery mole wodoru 4,03 g, to dostajemy z zasady zachowania energii i równania Einsteina, że na jeden mol wyprodukowanego w takiej reakcji helu otrzymamy ekstra energię = 0,027 g razy ce-kwadrat czyli okolo 2500 miliardów J! Zamiast niecałego miliona dżuli w „najlepszych” reakcjach chemicznych…

W rzeczywistości sprawa jest nieco bardziej skomplikowana, bo ta reakcja nie zachodzi w jednym kroku, ale trzech no i małą część owej energii unoszą słynne neutrina. Niektóre z nich są rejestrowane w gigantycznych laboratoriach na Ziemii produkujących w efekcie takie piękne, jak to wyżej, zdjęcia rdzenia Słońca gdzie owa fuzja zachodzi. W dodatku, owe cztery jądra H dają 4 protony, a przecież jądro He składa się z dwóch protonów i dwóch neutronów – każda taka zamiana protonu na neutron skutkuje właśnie emisją neutrina…

No, ale co to ma wspólnego z masą naszego własnego ciała? Ano to, iż w latach 70tych XX wieku okazało się, że protony i neutrony składające się na wszystkie jądra atomowe, NIE są cząstkami elementarnymi, ale są złożone z trzech kwarków. Przy czym owe kwarki są zawsze uwięzione w protonach i neutronach, zatem nie da się ich obserwować w stanie „swobodnym” i cała wiedza o nich jest dostępna pośrednio. Owo uwięzienie bierze się z nieprawdopodobnie dużej „gluonowej” siły wzajemnie je przyciągającej.

I teraz mamy kolejny paradoks – jak to jest że masa owych 3 kwarków stanowi jedynie  1% masy protonu czy neutronu?! Można powiedzieć, że tym razem jest to odwrotny paradoks do jądrowego, gdzie masa jąder jest zawsze nieco mniejsza od sumy mas ich składników…

Wedle teorii względności masa danego systemu złożonego (jak proton w spoczynku) razy c² = energii całkowitej jego elementów, czyli sumie wszystkich energii kinetycznych ORAZ energii potencjalnej owego systemu; w protonie wkład energii kinetycznej kwarków jest malutki, bo ich masy*** są małe w stosunku do masy protonu, czyli prawie cała masa protonu to (dodatnia) energia potencjalna oddziaływań gluonowych! Dokładnie przeciwnie do mas atomów, gdzie energie kinetyczne (uwaga – zawsze ze słynnym członem spoczynkowym mc!) składników dominują i wkład od energii potencjalnej oddziaływań elektromagnetycznych jest znikomy. Ale to nic dziwnego – wszak oddziaływania gluonowe nie na darmo nazywane są silnymi, a jest to bardzo oględne, bo w rzeczywistości są hiper-ultra-mocne!

Podsumowując, dochodzimy do zdumiewającej konkluzji: masa naszego ciała, i innych obiektów wokół nas, jest dana przez sumę mas olbrzymich ilości atomów i molekuł, ale ich masy są głównie dane przez masy jąder atomowych, które z kolei składają się z protonów i neutronów – tak więc w efekcie nasza masa w prawie 99% jest „wytworzona” przez energię potencjalną oddziaływań silnych, a zatem przez energię POLA gluonowego!

__

**) Prawdziwy fenomen – zmarł w wieku 99 lat, do końca prawie publikując prace naukowe.

***) Co do wartości mas kwarków, i innych cząstek elementarnych, to nie mamy jak dotąd wyjaśnienia ich „wzoru”, ale są tam bardzo zastanawiające regularności. W dodatku, wedle obowiązującej teorii, to masa bardzo egzotycznego kwarku top jest najbardziej naturalna, i trzeba niejako wytłumaczyć „małość” wszystkich pozostałych mas! Po więcej szczegółów odsyłam do mojej notki w przyszłości…

Deficyt masy czyli paradoks Słońca

 Zdjęcie Słońca w nocy – „światłem” neutrin.

__

Problem zrozumienia wieku Słońca zaprzątał największe umysły w XIX wieku. Wiadomo było już wtedy, że Ziemia jest bardzo stara (dzisiejsze szacunki dają jej 4,54 ± 0,05 miliarda lat), a tymczasem nijak nie dawało się wtedy zrozumieć jakim cudem Słońce mogło tak długo świecić!

Masę Słońca znano dobrze od dawna – pierwszy, w stosunku do masy Ziemii, oszacował ją Izaak Newton w swoich słynnych Principiach z 1687, i choć zaniżył ją dwukrotnie z powodu błedu w słonecznej paralaksie, to już kilkadziesiąt lat później błąd ów poprawiono, a pomiary Cavendisha stałej grawitacyjnej umożliwiły wyliczenie wartości bezwzględnej masy Słońca. Dzięki temu dobrze wyznaczono nie tylko ową masę ale i dystans Słońce-Ziemia – warto tu przytoczyć ich przybliżone wartości, ów dystans to około 150 milionów kilometrów, a masa = 2·10^30 kg, gdzie symbol ^ oznacza potęgowanie. Skąd łatwo policzyć średnią gęstość = 1,4 g/cm³ znając średnicę Słońca = 1,4 mln km (to odpowiada prawie 1% odległości Słońce-Ziemia, z kolei średnica Ziemii to prawie 1% średnicy Słońca!).

Aby teraz postawić problem wystarczy do tego dołączyć stałą słoneczną = 1361 W/m² (dobrze znaną użytkownikom fotowoltaiki…:) i policzyć całkowitą solarną emisję energii w jednostce czasu, czyli jasność Słońca = 3,83·10^26 W (= 4π razy stała słoneczna razy dystans Słońce-Ziemia do kwadratu). W XIX wieku chemia już rozwinęła się znakomicie, ale nie potrafiła tego wyjaśnić – optymistycznie przyjmując energię czyli ciepło spalania solarnego materiału na 100 kJ/g to „musianoby” go spalać aż 3,83·10^18 kg/s. Czyli Słońce wypaliłoby się już po około 20 tysiącach lat!

Zatem źrodło energii Słońca nie jest chemiczne i sytuację próbowali ratować lord Kelvin z Hermanem von Helmholtzem – proponując grawitacyjny mechanizm produkcji energiiSłońce powoli zapada się pod wpływem siły grawitacyjnej i z niedawno wprowadzonej zasady zachowania energii – spadek energii potencjalnej Słońca jest równoważony emisją światła. Jednak i to było za mało – energia potencjalna (jednorodnej) kuli o masie M i promieniu R to (co łatwo sprawdzić):

Capture d’écran 2018-12-02 à 13.08.48.png

W przypadku Słońca to odpowiada wprawdzie energii ponad 10^41 J, ale przy olbrzymiej jasności Słońca tej energii wystarczyłoby jedynie na 9 milionów lat! Mechanizm grawitacyjny ma zastosowanie w astrofizyce, ale i on nie dał tu właściwej odpowiedzi.

Rozwiązanie podano już na początku XX wieku, o czym niebawem…

) Paralaksa daje odległość jeśli dobrze jest znana „baza”. W przypadku Słońca ta baza czyli średnica Ziemii była dobrze znana Newtonowi ale pomiar samej paralaksy w tym przypadku jest trudny. Dopiero tzw. tranzyt Wenus umożliwił dobry pomiar.

 

Bliźniaki, stodoła i lot dookoła świata

Zgodnie z obietnicą, oto „numeryczne” wyjaśnienie „efektu bliźniąt”, a raczej jego demonstracji z 1971, kiedy to dwóch fizyków (vide zdjęcie) przeleciało się dwa razy wokół świata na pokładzie (komercyjnych!) samolotów wraz z zestawem zegarów atomowych. Porównali zmierzone czasy przelotu na zachód i na wschód z czasami zmierzonymi przez inne zegary atomowe, które zostały na ziemi. Przypominam uzyskane wyniki na różnice pomiędzy czasem T zmierzonym „w samolocie” a tym „na ziemii” t, opublikowane w Science w 1972:

różnica T-t w nanosekundach, teoria różnica T-t w nanosek.,
pomiar
różnica pomiar vs teoria
grawitacja (OTW) kinematyka (STW)   razem
na wschód +144 ±14 −184 ±18 −40 ±23 −59 ±10 0.76 σ
na zachód +179 ±18 +96 ±10 +275 ±21 +273 ±7 0.09 σ

Zgodność teoria vs eksperyment – znakomita! Wkład do tej różnicy T-t a związany z grawitacją i wyliczony przy pomocy ogólnej teorii względności (OTW) nie jest tematem tej notki, ale skomentuję go w niebawem. Policzymy zatem jedynie wkład „kinematyczny”, co można zrobić przy pomocy samej STW.

Przede wszystkim, należy zauważyć, że układy spoczynkowe zegarów w obu przypadkach, w samolocie i na Ziemi, NIE są układami inercjalnymi. Trzeba zatem użyć inercjalnego układu odniesienia, który ma swój początek w środku Ziemi. (Tutaj przypomnę, że obiekty podlegające przyspieszeniom są w STW jak najbardziej opisywane, tak jak choćby „relatywistyczne” cząstki naładowane w akceleratorach). Innymi słowy, mierzone czasy „atomowe” są ze sobą porównane w odniesieniu do czasu „referencyjnego” Tw tymże układzie inercjalnym.

Dla małych prędkości, „nierelatywistycznych”, współczynnik „odwrotny” dylatacji relatywistycznej wynosi 1-V2/(2c2), gdzie V jest prędkością obiektu w układzie inercjalnym. Zatem różnica policzona w układzie inercjalnym pomiędzy czasami zmierzonymi w samolocie (T) i na Ziemii (t) wynosi, w pierwszym, bardzo dobrym przybliżeniu dla T~ t:

T – t = {1 – (Vs+Vz)2/(2c2) – 1+Vz2/(2c2)} t = – (Vz + Vs/2) Vs t/c2 ,

gdzie Vs to prędkość samolotu względem Ziemi, a Vz to prędkość zegarów na powierzchni Ziemi w układzie inercjalnym. Jeśli samolot leci na zachód Vs jest ujemna, a T-t jest dodatnia, a gdy na wschód jest na odwrót. Mając te dane, możemy w końcu podać  jakich wyników oczekujemy dla przelotu non-stop o prędkości 900 km/h (względem gruntu), zakładając loty tuż nad równikiem gdzie Vz = 1667 km/h:

T – t (zachód) = 150 ns,  T – t (wschód) = – 261 ns,

Rzeczywiste loty nie były tak szybkie i nie przebiegały nad równikiem oraz miały specyficzne trajektorie, więc należy po prostu policzyć odpowiednie po nich całki. Odpowiednie wyniki = 96 ns i -184 ns już podałem w powyższej tabelce.

Wkład „grawitacyjny” jest związany z wysokością lotu samolotów, a ponieważ „profile” lotów w obu kierunkach były podobne, toteż wkłady od OTW były bliskie sobie. Dlatego zatem w podwójnej różnicy „zachód” – „wschód”  to wkład „kinematyczny” jest dominujący:

Eksperyment („zachód” – „wschód”) = 273 + 59 = 332 ± 12 [ns],

a przewidywanie teorii = 280 (STW) + 35 (OTW) = 315 ± 28 [ns].

Czyli w efekcie mamy tu mocny test na poprawność samej STW. Z kolei suma „zachód” + „wschód” daje dobry test na efekt grawitacyjny.

__

Na zakończenie warto przypomnieć tzw. „paradoks drabiny”, związany z relatywistycznym skróceniem długości: Wyobraźmy sobie drabinę o długości 20 m przelatującą (w pozycji „wzdłuż”) z podświetlną prędkością przez stodołę o długości 10 m. Ponieważ owo relatywistyczne skrócenie Lorentza wynosi tu akurat 50% miejscowi obserwatorzy stwierdzą, iż „na moment” cała drabina zmieściła się w stodole. Jak to jest możliwe skoro w (inercjalnym) układzie spoczynkowym drabiny ma ona oczywiście 20 m, a to stodoła skróciła się do 5 m?!

A, bo w „układzie spoczynkowym stodoły” faktycznie oba końce drabiny jednocześnie pokrywały się z brzegami owej stodoły podczas gdy w „układzie drabiny” nie! Równoczesność nie jest generalnie zachowana w STW.

PS.

Capture d’écran 2018-11-26 à 15.44.12.pngCapture d’écran 2018-11-26 à 15.44.32.pngCapture d’écran 2018-11-26 à 15.45.01.pngCapture d’écran 2018-11-26 à 15.45.48.pngCapture d’écran 2018-11-26 à 15.55.21.png

 

Szczególna teoria czyli nieistniejący paradoks

Faktem jest, że szczególna teoria względności (STW) ma szczególny dar przyciągania obalaczy. Część z nich przyciąga osoba Alberta Einsteina, czy raczej jego sława, a właściwie chęć jej zburzenia. Argumentują, że to wcale nie on jest odkrywcą, ale zupełnie kto inny i powołują się przy tym także na inne jego „rzekome” osiągnięcia, tak jakby fizyka była tworzona przez indywidua w kompletnej izolacji, a sława była zawsze sprawiedliwa…

Rzeczywiście, tzw. ruchy Browna wyjaśnił głębiej prof. Smoluchowski z UJ, a o krok od otrzymania równań grawitacji Einsteina był Dawid Hilbert. W przypadku słynnej pracy Einsteina z 1905 nt. szczególnej teorii względności było „jeszcze gorzej”,  bo autor nie umieścił tam żadnych odwołań, ani cytowań – w szczególności ani do pionierskich publikacji Henri Poincaré’go ani do tych Hendrika Lorentza („Because Lorentz laid the fundamentals for the work by Einstein, this theory was originally called the Lorentz-Einstein theory…).  Owszem, nawet z paru różnych powodów, zachowanie Einsteina może bulwersować, ale odmawianie mu osobistego i wyjątkowego wkładu w powyższych przypadkach jest zupełnie bez sensu. W dodatku, swą jedyną nagrodę Nobla otrzymał za zupełnie oryginalne wytłumaczenie (także z 1905!) efektu fotoelektrycznego poprzez hipotezę istnienia fotonów – kwantów fal elektromagnetycznych.

Jednak tak czy inaczej, wcześniej czy później obalacze atakują samą teorię względności przedstawiając jej rzekomo paradoksalną, czyli sprzeczną naturę. Ulubionym tego przykładem jest tzw. paradoks bliźniąt. Zacznijmy jednak ab ovo, czyli od przypomnienia, że obalenie STW oznaczałoby automatycznie obalenie równań Maxwella, czyli obalenie elektromagnetyzmu (klasycznego). Bo właśnie historycznie, owa szczególna teoria względności została wywiedziona z rozważań nt. elektromagnetyzmu – wpierw w 1900 przez Poincaré’go i w owym 1905 przez Einsteina – przypomnijmy tytuł jego publikacji: „Zur Elektrodynamik bewegter Körper” (O elektrodynamice ciał w ruchu).

Dlaczego to jest teoria szczególna? A, bo dotyczy TYLKO fizyki w układach inercjalnych, czyli układach odniesienia, w których każde ciało, niepodlegające zewnętrznemu oddziaływaniu z innymi ciałami, porusza się bez przyspieszenia (tzn. ruchem jednostajnym prostoliniowym) lub pozostaje w spoczynku. STW po prostu zawiera w sobie stary aksjomat Galileusza o niezmienności praw fizycznych w tychże układach inercjalnych, ale nowym aksjomatem jest stałość prędkości światła w próżni (= c), niezależnie od ruchu jego źródła czy obserwatora! I właśnie ten aksjomat prowadzi do szeregu spektakularnych zjawisk, kiedy prędkości ciał są bliskie owej prędkości maksymalnej, czyli c. Tutaj warto nadmienić, że słynna relatywistyczna równoważność masy i energii była dla Poincaré’go paradoksem i to właśnie Einstein zrobił ten wielki krok i uczynił z niej zasadę i to wykraczającą poza zjawiska elektromagnetyczne!

Wracając w końcu do tego tzw. paradoksu bliźniąt trzeba znowu podkreślić, że nie jest to żaden paradoks, ani sprzeczność. Wręcz przeciwnie – jest to jeden z najlepszych, pedagogicznie rzecz biorąc, przykładów poglądowych na „działanie teorii”.

W dodatku uważam, iż – co jest wyjątkowe – polska wiki daje lepszy opis problemu niż przegadana i przekomplikowana wersja angielska! U góry dałem obrazek stamtąd, który świetnie wyjaśnia źródło „efektu bliźniaków”. Przypomnijmy o co tam chodzi: o hipotetyczną podróż jednego z bliźniaków z prędkością podświetlną (powyżej to okolo 75% c) na odległość pięciu lat świetlnych – tam i z powrotem. Otóż, przy ponownym spotkaniu okazuje się, że brat-astronauta jest o prawie 4 lata młodszy od brata bliźniaka, który pozostał na Ziemii!

Jak już wyżej wspomniałem – to nie jest żaden paradoks, ale zwykłe przewidywanie STW. Potwierdzone to zostało wielokrotnie, bezpośrednio i doświadczalnie, wprawdzie nie na ludziach, ale na innych obiektach o skończonym czasie życia, a które potrafimy przyspieszać do podświetlnych prędkości**. A jak argumentują nasi obalacze? Np. powołując się na aksjomat względności! Dlaczego mamy jakąś różnicę między braćmi skoro z punktu widzenia brata-astronauty to właśnie Ziemia oddala się z identyczną prędkością, tyle że o przeciwnym zwrocie!

I jest w tym trochę racji, co można zaobserwować na wykresie u góry – rzeczywiście podczas dwóch faz ruchu jednostajnego do i z powrotem – wzajemne obserwacje sygnałów przyjęć urodzinowych braci są IDENTYCZNE!! Symetria jest wtedy zupełna, ale jest złamana w trzech momentach, kiedy nasz astronauta startuje, zawraca i hamuje. I jest złamana w sposób absolutny – brat na Ziemii wie, że to nie on zawraca, bo nie odczuwa żadnych PRZYSPIESZEŃ. Cały efekt bierze się z „przeskakiwania” astronauty pomiędzy RÓŻNYMI układami inercjalnymi: wpierw, z tego w spoczynku do tego w ruchu „do”, potem do tego w ruchu „z”, i w końcu z powrotem do spoczynku. TO właśnie jest przyczyną obserwowanej różnicy wieku, a NIE jakoby inny sposób płynięcia czasu w rakiecie i na Ziemi – czas „własny” (czy „biologiczny”) płynie i tu i tam identycznie.

Za to względnie rzecz biorąc, czyli z punktu widzenia obserwatora zewnętrznego – czas płynie wolniej w obiekcie poruszającym się względem owego obserwatora. Zatem, obaj bracia tak właśnie interpretują sygnały nt. swoich wzajemnych urodzin, tyle że tylko astronauta dokonuje owych kluczowych (i „absolutnych”) „przeskoków” pomiędzy układami inercjalnymi, które w efekcie powodują absolutną różnicę wieku przy ich ponownym spotkaniu.

_

**) Wyjątek to klasyczny eksperyment z 1971 na „bliźniaczy efekt”, czyli zegary atomowe na pokładzie samolotu. O czym za moment…

___

PS. Żeby uniknąć nieporozumień, tak na wszelki wypadek – brat-astronauta w żaden sposób nie żyje dłużej „z własnego punktu widzenia”, czy też jego koleżanek i kolegów w owej rakiecie – różnica wieku się pojawia dopiero przy porównaniu do tych co zostali na Ziemi. Jest to, innymi słowy, sposób, aby żyć (dużo) dłużej ale tylko z punktu widzenia „ziemskiej historii”… wracając z jeszcze dłuższej i szybszej podróży np. po 300 ziemskich latach.

Piza, d’Artagnan i Maastricht czyli fale grawitacyjne

Jak powszechnie wiadomo, to we włoskiej Pizie przesławny Galileusz prawa grawitacji drzewiej badał, a tymczasem niedawno, nieopodal owej słynnej Pizy, w małej toskańskiej wiosce Cascina (patrz wyżej) zainstalowano detektor-antenę fal grawitacyjnych, czyli super-hiper subtelnej deformacji przestrzeni, nazwany VIRGO, czyli Panna (= gwiazdozbiór).

I to tam właśnie, ów detektor Virgo wraz z jego amerykańskimi kuzynami LIGO, zarejestrował ten sławny przypadek GW170817. No, a w tym oto tygodniu liczni „użytkownicy” Virgo i LIGO spotykają się w Maastricht aby między innymi omówić inne podobne przypadki

Owo Maastricht to też bardzo ciekawe miejsce – leży na wąskim, zachodnio-południowym czubku Holandii, głęboko wrzynającym się pomiędzy terytoria Belgii i Niemiec. „Istnieje spór czy Maastricht jest najstarszym miastem Holandii. Według niektórych tytuł ten powinien przypaść miastu Nijmegen, jako że było ono pierwszą osadą w Holandii, która otrzymała rzymskie prawa miejskie. Maastricht nigdy takich praw nie otrzymało, ale jako osada jest znacząco starsze…

Święty Serwacy był pierwszym biskupem Holandii. Jego grób, który znajduje się w krypcie bazyliki świętego Serwacego, jest ulubionym miejscem pielgrzymek. Papież Jan Paweł II odwiedził go w 1985 roku. Pozłacany relikwiarz jest niesiony wokół miasta co siedem lat. Miasto było chrześcijańskim biskupstwem dopóki nie straciło swojej pozycji na rzecz pobliskiego Liège w VIII wieku.

We wczesnym średniowieczu Maastricht było częścią Imperium Karolińskiego. Później przekształciło się w miasto kondominium o podwójnej władzy: książę-biskup Liège i księstwo Brabancji miały wspólne zwierzchnictwo nad miastem. Maastricht otrzymało prawa miejskie w 1204 roku.

W 1632 roku miasto zostało odebrane Hiszpanom przez Fryderyka Henryka Orańskiego. Ważne strategicznie położenie Maastricht zaowocowało imponującą liczbą fortyfikacji…

Okopy o takim kształcie powodowały, że obrońcy mieli ogromne trudności ze skutecznością ognia zwalczającego wojska oblężnicze. Strategia ta przyniosła oczekiwany skutek.

Następnie wojska Ludwika XIV otoczyły miasto. Pod wodzą kapitana-porucznika Charlesa de Batz-Castelmor’a, znanego jako hrabia d’Artagnan, pierwsza kompania muszkieterów zaatakowała szańce w pobliżu bram miasta. D’Artagnan poległ 25 czerwca 1673 roku podczas ataku na Bramę Tongerse (wydarzenie to zostało opisane w powieści Dumasa Wicehrabia de Bragelonne)…

Z racji swojego położenia Maastricht często utrzymywało bliższe kontakty z Belgią i Niemcami niż z pozostałą częścią Holandii. Z powodu bliskości Walonii i jej przemysłu Maastricht zostało zindustrializowane wcześniej niż inne regiony Holandii. Miasto zachowało nie-holenderski charakter aż do I wojny światowej.”

W pobliżu Maastricht (w trójkącie Maastricht – Liège (Leodium) – Akwizgran) planuje się instalację w podziemnych tunelach następcy owej anteny Virgo – nazwanego Teleskopem Einsteina…

 

 

Dlaczego w lustrze „góra i dół” pozostają niezamienione?

Wielu z nas zapewne przypomina sobie konfuzję związaną z banalnym pozornie pytaniem: dlaczego w lustrze lewe zamienia się na prawe, a „góra i dół” pozostają niezamienione? Nauczyciele fizyki w szkołach, nim zaskoczeni, często gubią się w wyjaśnieniach. A odpowiedź jest przecież prosta – a dlaczego miałyby być zamienione? Przecież mowa jest o zupełnie innych zagadnieniach, relacja góra-dół to w efekcie definicja tylko pewnego kierunku, a relacja lewe-prawe to coś innego, tylko pozornie bardzo podobnego, przy czym bardziej skomplikowanego.

Chodzi po prostu o chiralność. Rzecz bardzo ciekawa i bardzo ważna – zarówno na poziomie fundamentalnym, jak i mezoskopowym (łańcuchy DNA lewo- i prawo-skrętne), a także w życiu codziennym. Tak duża i powszechna istotność tej własności wydaje się jednak zaskakująca i tajemnicza.

A wracając do lustra, to sprawa jest naprawdę (nomen omen) prosta – odbicie lustrzane to inaczej zmiana zwrotu jednej osi układu kartezjańskiego, oczywiście tej osi prostopadłej do powierzchni lustra. Obiekt jest chiralny jeśli operacja odbicia go zmienia** – np. śrubę lewo- na prawo-skrętną, lub wreszcie dłoń lewą na prawą:

A więc jeśli obiekt nie jest chiralny (jak butelka wina, ale bez naklejki, bo przecież piszemy od lewej do prawej!) to jego odbicie w lustrze jest niezmienione. Jednak, gdy obiekt – tak jak my – ma wyróżnioną chiralność (serce po lewej!), to jego lustrzane odbicie ma chiralność przeciwną (czyli serce po prawej)! I do tego, wbrew pozorom, zawsze potrzeba użyć wszystkich trzech wymiarów – to jest problem 3D!

A że relacja góra-dół jest problemem jedno-wymiarowym pozostaje niezmieniona w lustrze. Tak jak wszystkie inne proste relacje „kierunkowe” – np. uporządkowanie przedmiotów w kierunku do i od łazienki, czy do i od kuchni, a nawet ta od i do lustra…

_____

PS. Wiele osób nie rozumie co to znaczy, że w lustrze lewe z prawym się zamienia:

– chodzi o „osobę i świat” po tamtej stronie lustra, a nie o nasz odbiór tego co widzimy w lustrze; czyli trzeba „patrzeć oczami” osoby w lustrze (= Alicji), a nie naszymi!

– w świecie lustrzanym wszystko jest tak samo, tylko nie „rodzaj” chiralności, czyli rodzaj danej śrubki itd.

_____

**) Zmieniony to znaczy, że nie da się go „nałożyć na oryginał” za pomocą operacji obrotów i translacji.