Powszechnie przyjmowana hipoteza mówi o zupie pierwotnej, błyskawicy i nieprawdopodobnie szczęśliwym przypadku. Ostatnio jednak pojawiła się nowa, dająca do myślenia teoria. Jeśli znajdzie potwierdzenie, szczęście okaże się zupełnie nieistotnym czynnikiem. Fizyk, który ją sformułował, twierdzi, że początki życia i jego późniejszy rozwój to skutek funkcjonowania podstawowych praw natury. „Powstanie życia jest w zasadzie nieuchronne, jak schodzenie lawiny w dół zbocza”.
Z punktu widzenia fizyki istnieje zasadnicza różnica między żywymi organizmami a martwymi skupiskami atomów węgla. Otóż te pierwsze dużo lepiej radzą sobie z pozyskiwaniem energii ze środowiska oraz z oddawaniem jej w postaci ciepła, czyli dyssypacją. Jeremy England, młody adiunkt z Massachusetts Institute of Technology, opracował formułę matematyczną, która, jak twierdzi, opisuje tę zdolność. Formuła opiera się na przyjętych prawach fizyki. Powiada, że gdy grupa atomów jest poddana działaniu zewnętrznego źródła energii (może być nim słońce lub paliwo chemiczne) i otoczona kąpielą cieplną (np. gazami atmosferycznymi lub oceanem), będzie się stopniowo przekształcała, by rozprzestrzeniać coraz więcej energii. Może to oznaczać, że w określonych warunkach materia nieuchronnie nabiera pewnych fundamentalnych właściwości fizycznych tożsamych z życiem.
„Jeśli weźmie się skupisko przypadkowych atomów i będzie się je dostatecznie długo napromieniać, prędzej czy później powstanie roślina” – mówi England.
Nowa koncepcja ma przedstawiać kontekst darwinowskiej teorii ewolucji przez dobór naturalny opisującej życie na poziomie genów i populacji. „Ani przez moment nie twierdzę, że Darwin się mylił – podkreśla England. – Przeciwnie. Mówię jedynie, że z punktu widzenia fizyki darwinowska ewolucja to szczególny przypadek pewnego szerszego zjawiska”.
Nowa teoria przedstawiona w opublikowanym niedawno artykule oraz w wykładach, które England wygłasza na uczelniach w najróżniejszych krajach, wywołała wiele kontrowersji. Fizycy mówią o potencjalnej rewolucji. Albo o niewypale. Albo o jednym i drugim.
England „zrobił ważny i śmiały krok” – twierdzi Alexander Grosberg, profesor fizyki na New York University, który od początku śledził prace młodego naukowca, i wyraża „ogromną nadzieję”, że udało mu się wskazać podstawowe prawa fizyki odpowiedzialne za powstanie i rozwój życia.
„Jeremy to bodaj najbardziej błyskotliwy młody naukowiec, jakiego kiedykolwiek spotkałem – oznajmia Attila Szabo, biofizyk z Laboratory of Chemical Physics w National Institutes of Health, który poznał Englanda na konferencji, a następnie korespondował z nim na temat nowej teorii. – Oryginalność jego pomysłów jest wprost zdumiewająca”.
Natomiast Eugene Shakhnovich, profesor chemii, biochemii i biofizyki z Harvardu wyraża sceptycyzm. „Jeremy ma ciekawe i obiecujące pomysły, lecz na chwilę obecną wszystko to jedynie spekulacje, zwłaszcza w odniesieniu do zjawisk życiowych” – mówi.
Na poziomie teorii wyniki uzyskane przez Englanda uchodzą za trafne i wiarygodne. Problemem pozostaje interpretacja, wedle której opisują one przyczynę określonych zjawisk, w tym również życia. Niemniej pojawiają się już pierwsze pomysły, w jaki sposób zweryfikować teorię metodą eksperymentalną.
„[England] próbuje czegoś radykalnie nowego – przyznaje Mara Prentiss, fizyczka z Harvardu, opracowująca jeden z tego rodzaju eksperymentów. – Podsunął wspaniałe rozwiązanie porządkujące wiele faktów i zjawisk. Warto przekonać się, czy jest ono trafne”.
Istotą teorii Englanda jest druga zasada termodynamiki, czyli prawo rosnącej entropii lub strzałki czasu. Ciała ciepłe stygną. Gaz rozrzedza się w powietrzu. Można stłuc jajko, ale nie da się go na powrót złożyć do kupy. Mówiąc prosto, energia rozprasza się z upływem czasu. Miarą tego jest entropia. Informuje ona, jak bardzo rozprasza się energia w danym układzie i jak bardzo cząsteczki rozchodzą się w przestrzeni. Wzrost entropii to po prostu kwestia rachunku prawdopodobieństwa: istnieje więcej sposobów rozproszenia energii niż sposobów jej koncentracji. Gdy zatem cząsteczki w danym układzie przemieszczają się i wchodzą ze sobą w kontakt, tworzą za sprawą przypadku konfiguracje, w których energia jest bardziej rozproszona. Prędzej czy później entropia układu osiąga maksimum, co określa się mianem równowagi termodynamicznej. Na przykład jeśli zostawimy w pokoju kubek z kawą, pokój i kawa będą miały ostatecznie tę samą temperaturę. Kawa nie może się zacząć spontanicznie nagrzewać, gdyż jest nieprawdopodobne, by skupiła się w niej odpowiednio duża ilość energii całego układu.
Dotyczy to jednak układów zamkniętych. Układ otwarty może zachowywać niską entropię i dzielić energię nierówno między atomy. W zamian zwiększa się entropia otoczenia. W swojej wpływowej pracy Czym jest życie? z 1944 r. słynny fizyk Erwin Schrödinger twierdził, że tak właśnie postępują żywe istoty. Roślina przyswaja mnóstwo energii słonecznej, wykorzystuje ją do budowy cukrów, po czym emituje podczerwień, o wiele mniej skupioną formę energii. Zatem podczas fotosyntezy światło słoneczne ulega dyssypacji, a całkowita entropia Wszechświata rośnie, lecz sama roślina zachowuje regularną, uporządkowaną strukturę.
Życie nie narusza zatem drugiej zasady termodynamiki,
lecz do niedawna fizycy nie potrafili za jej pomocą wyjaśnić, skąd się
wzięło. W czasach Schrödingera istniały rozwiązania równań
termodynamicznych tylko dla zamkniętych systemów w stanie równowagi.
Później, w latach 60. belgijski fizyk Ilya Prigogine zdołał przewidzieć
zachowanie układów otwartych, mających zewnętrzne źródła energii (w 1977
r. otrzymał za to Nagrodę Nobla z chemii). Wciąż jednak nie udawało się
opisać zachowań układów dalekich od równowagi, silnie sprzężonych
z otoczeniem i mających zewnętrzne źródła energii.
Zmieniło się to pod koniec lat 90., głównie za sprawą
prac Chrisa Jarzynskiego, który pracuje obecnie na University of
Maryland, i Gavina Crooksa z Lawrence Berkeley National Laboratory.
Jarzynski i Crooks dowiedli, że entropia powstająca na skutek procesów
termodynamicznych (jak choćby w przypadku stygnięcia kawy) odpowiada
ilorazowi prawdopodobieństwa, że atomy przejdą dany proces,
i prawdopodobieństwa procesu odwrotnego (czyli że przypadkowo wejdą
w takie interakcje, na skutek których kawa zacznie się nagrzewać). Wynik
ilorazu rośnie w miarę wzrostu entropii. Zachowania układu stają się
coraz bardziej „nieodwracalne”. Ową prostą, ścisłą formułę można
zasadniczo odnieść do każdego procesu termodynamicznego bez względu na
to, jak szybko zachodzi albo jak daleko jest do osiągnięcia równowagi.
„Zdołaliśmy lepiej zrozumieć statystyczne mechanizmy funkcjonowania
takich układów” – mówi Grosberg. England, z wykształcenia biochemik
i fizyk, dwa lata temu stanął na czele własnego zespołu w MIT
i postanowił odnieść przywołane odkrycia do zjawisk biologicznych.
Powołując się na ustalenia Jarzynskiego i Crooksa, opracował generalizację drugiej zasady termodynamiki dla układów cząstek o określonych cechach. Układy te są silnie zależne od zewnętrznego źródła energii – np. od fali elektromagnetycznej – i oddają ciepło otaczającej je kąpieli cieplnej. Każdą żywą istotę można potraktować jako taki układ. England określił, jak układy zmieniają się z czasem i jak stają się coraz bardziej nieodwracalne. „Możemy teraz w łatwy sposób wykazać, że bardziej prawdopodobny jest taki przebieg ewolucji, który zakłada pozyskiwanie ze środowiska większej ilości energii i jej dyssypację” – mówi England.
Intuicja podpowiada, że to prawda. Cząstki oddają zazwyczaj więcej energii, gdy są poddawane jakiejś sile. Jeśli owa siła pcha je w danym kierunku, z większym prawdopodobieństwem właśnie w tym kierunku będą się poruszały. „A zatem skupisko atomów w otoczeniu o określonej temperaturze, np. w atmosferze lub oceanie, z czasem uporządkuje się tak, by lepiej zestroić się ze źródłem mechanicznej, elektromagnetycznej lub chemicznej energii” – tłumaczy England.
Samoreplikacja (lub też, mówiąc w kategoriach biologicznych, reprodukcja), czyli proces odpowiedzialny za ewolucję życia na Ziemi, to jeden z mechanizmów, dzięki którym układ może zwiększać z czasem ilość oddawanej energii. „Znakomitym sposobem oddawania energii jest tworzenie własnych kopii” – zauważa England. W artykule opublikowanym we wrześniu 2013 r. na łamach „Journal of Chemical Physics” England obliczył na podstawie założeń swojej teorii minimalną dyssypację energii podczas samoreplikacji cząsteczek RNA i komórek bakteryjnych. Okazało się, że tak oszacowana dyssypacja jest bardzo zbliżona do tego, co faktycznie obserwujemy. Naukowiec wykazał także, że RNA, kwas nukleinowy uważany za prekursora form życia opartych na DNA, to wyjątkowo „tani” budulec. Kiedy zatem powstał, nic dziwnego, że ruszyły procesy ewolucji przebiegające zgodnie z „logiką darwinowską”.
Na florę i faunę w całej ich różnorodności wpłynęły też inne czynniki, chociażby chemia zupy pierwotnej, losowe mutacje, geografia lub rozmaitego rodzaju katastrofy naturalne. Niemniej według teorii Englanda podstawową zasadą, która napędza procesy życiowe, jest organizowanie się materii podporządkowane zwiększaniu dyssypacji.
Odnosi się to również do materii nieożywionej. „Kusi, by pospekulować sobie, jakie zjawiska da się wyjaśnić organizacją materii do większej dyssypacji – mówi England. – Być może wiele przykładów mamy tuż przed oczami, lecz do tej pory nie wiedzieliśmy, na co patrzymy”.
Powołując się na ustalenia Jarzynskiego i Crooksa, opracował generalizację drugiej zasady termodynamiki dla układów cząstek o określonych cechach. Układy te są silnie zależne od zewnętrznego źródła energii – np. od fali elektromagnetycznej – i oddają ciepło otaczającej je kąpieli cieplnej. Każdą żywą istotę można potraktować jako taki układ. England określił, jak układy zmieniają się z czasem i jak stają się coraz bardziej nieodwracalne. „Możemy teraz w łatwy sposób wykazać, że bardziej prawdopodobny jest taki przebieg ewolucji, który zakłada pozyskiwanie ze środowiska większej ilości energii i jej dyssypację” – mówi England.
Intuicja podpowiada, że to prawda. Cząstki oddają zazwyczaj więcej energii, gdy są poddawane jakiejś sile. Jeśli owa siła pcha je w danym kierunku, z większym prawdopodobieństwem właśnie w tym kierunku będą się poruszały. „A zatem skupisko atomów w otoczeniu o określonej temperaturze, np. w atmosferze lub oceanie, z czasem uporządkuje się tak, by lepiej zestroić się ze źródłem mechanicznej, elektromagnetycznej lub chemicznej energii” – tłumaczy England.
Samoreplikacja (lub też, mówiąc w kategoriach biologicznych, reprodukcja), czyli proces odpowiedzialny za ewolucję życia na Ziemi, to jeden z mechanizmów, dzięki którym układ może zwiększać z czasem ilość oddawanej energii. „Znakomitym sposobem oddawania energii jest tworzenie własnych kopii” – zauważa England. W artykule opublikowanym we wrześniu 2013 r. na łamach „Journal of Chemical Physics” England obliczył na podstawie założeń swojej teorii minimalną dyssypację energii podczas samoreplikacji cząsteczek RNA i komórek bakteryjnych. Okazało się, że tak oszacowana dyssypacja jest bardzo zbliżona do tego, co faktycznie obserwujemy. Naukowiec wykazał także, że RNA, kwas nukleinowy uważany za prekursora form życia opartych na DNA, to wyjątkowo „tani” budulec. Kiedy zatem powstał, nic dziwnego, że ruszyły procesy ewolucji przebiegające zgodnie z „logiką darwinowską”.
Na florę i faunę w całej ich różnorodności wpłynęły też inne czynniki, chociażby chemia zupy pierwotnej, losowe mutacje, geografia lub rozmaitego rodzaju katastrofy naturalne. Niemniej według teorii Englanda podstawową zasadą, która napędza procesy życiowe, jest organizowanie się materii podporządkowane zwiększaniu dyssypacji.
Odnosi się to również do materii nieożywionej. „Kusi, by pospekulować sobie, jakie zjawiska da się wyjaśnić organizacją materii do większej dyssypacji – mówi England. – Być może wiele przykładów mamy tuż przed oczami, lecz do tej pory nie wiedzieliśmy, na co patrzymy”.
Samoreplikacja w układach nieożywionych to zjawisko
znane nauce. Nowe badania prowadzone przez Philipa Marcusa z University
of California w Berkeley i opublikowane w sierpniu 2013 r. w „Physical
Review Letters” mówią, że wiry potrafią się spontanicznie replikować,
czerpiąc energię z otaczających je płynów. Z kolei w zeszłym tygodniu
Michael Brenner, profesor fizyki i matematyki stosowanej z Harvardu,
oraz jego współpracownicy zaprezentowali modele teoretyczne i symulacje
samoreplikujących się mikrostruktur. Owe mikrostruktury to skupiska
mikrosfer w określonym otoczeniu. Rozpraszają one energię przez
zmuszanie pobliskich sfer do tworzenia identycznych skupisk. „To bardzo
zbieżne z teorią Jeremy’ego” – twierdzi Brenner.
Innym oprócz samoreplikacji sposobem skutecznego rozpraszania energii jest tworzenie bardziej złożonych struktur organizacyjnych. Roślina lepiej radzi sobie z pozyskiwaniem i oddawaniem energii słonecznej niż nieuporządkowane atomy węgla. England powiada więc, że w określonych warunkach materia będzie się spontanicznie organizowała. Może to być klucz do wyjaśnienia wewnętrznego uporządkowania żywych istot, a także rozmaitych struktur nieożywionych. „Płatki śniegu, wydmy czy wiry mają cechę wspólną: są niezwykle regularnymi strukturami, które powstają w układach wielocząsteczkowych dzięki procesom dyssypacji” – mówi. W opisanych przypadkach procesy te to kondensacja, wiatr i powstawanie oporu aero(hydro)dynamicznego.
„Pod wpływem jego teorii zacząłem się zastanawiać, czy różnica między materią ożywioną a nieożywioną rzeczywiście jest tak jednoznaczna” – przyznaje Carl Franck, fizyk i biolog z Cornell University.
Odważne pomysły Englanda będą zapewne testowane w nadchodzących latach. Obecnie naukowiec przeprowadza symulacje komputerowe, by przekonać się, czy faktycznie systemy cząsteczek przystosowują swe struktury w celu skuteczniejszej dyssypacji. Następnym krokiem będą eksperymenty w układach ożywionych.
Prentiss, która zarządza zespołem biofizyki eksperymentalnej na Harvardzie, uważa, że za sprawdzian teorii może posłużyć porównanie komórek o różnych mutacjach i szukanie korelacji między ilością energii rozpraszanej przez owe komórki a tempem replikacji. „Trzeba tu zachować ostrożność. Jedna mutacja miewa wiele skutków. Ale jeżeli przeprowadzi się odpowiednio dużo eksperymentów w różnych układach i jeśli [dyssypacja i tempo replikacji] faktycznie są skorelowane, będzie to świadczyło, że poznaliśmy zasadę organizującą”.
Brenner liczy, że powiąże teorię Englanda ze swoimi badaniami mikrosfer i wykorzysta ją do przewidywania procesów samoreplikacji i samoorganizacji „co stanowi fundamentalny problem naukowy”.
Poznanie ogólnej reguły życia i ewolucji pozwoli naukowcom szerzej spojrzeć na wyłanianie się struktur i funkcji żyjących organizmów. „Dobór naturalny nie wyjaśnia pewnych cech” – stwierdza Ard Louis, biofizyk z Oksfordu. Na przykład metylacja odpowiedzialna za dziedziczne zmiany ekspresji genów przyczynia się do większej złożoności, choć dobór naturalny nie zachodzi.
Gdyby teoria Englanda doczekała się potwierdzenia, biolodzy nie musieliby wreszcie szukać wyjaśnień wyłącznie na gruncie teorii Darwina. Zamiast pisać „dany organizm posiada cechę X, a nie Y, gdyż X zapewnia lepsze przystosowanie”, mogliby formułować inne wnioski: „Uwarunkowania fizyczne czynią cechę X łatwiejszą do uzyskania na drodze ewolucji” – mówi Louis.
„Ludzie często poprzestają na prostych, konkretnych pytaniach” – dodaje Prentiss. Bez względu na to, czy pomysły Englanda okażą się trafne, czy też nie, „każdy przełom w nauce wymaga myślenia w szerszych kategoriach”.
Innym oprócz samoreplikacji sposobem skutecznego rozpraszania energii jest tworzenie bardziej złożonych struktur organizacyjnych. Roślina lepiej radzi sobie z pozyskiwaniem i oddawaniem energii słonecznej niż nieuporządkowane atomy węgla. England powiada więc, że w określonych warunkach materia będzie się spontanicznie organizowała. Może to być klucz do wyjaśnienia wewnętrznego uporządkowania żywych istot, a także rozmaitych struktur nieożywionych. „Płatki śniegu, wydmy czy wiry mają cechę wspólną: są niezwykle regularnymi strukturami, które powstają w układach wielocząsteczkowych dzięki procesom dyssypacji” – mówi. W opisanych przypadkach procesy te to kondensacja, wiatr i powstawanie oporu aero(hydro)dynamicznego.
„Pod wpływem jego teorii zacząłem się zastanawiać, czy różnica między materią ożywioną a nieożywioną rzeczywiście jest tak jednoznaczna” – przyznaje Carl Franck, fizyk i biolog z Cornell University.
Odważne pomysły Englanda będą zapewne testowane w nadchodzących latach. Obecnie naukowiec przeprowadza symulacje komputerowe, by przekonać się, czy faktycznie systemy cząsteczek przystosowują swe struktury w celu skuteczniejszej dyssypacji. Następnym krokiem będą eksperymenty w układach ożywionych.
Prentiss, która zarządza zespołem biofizyki eksperymentalnej na Harvardzie, uważa, że za sprawdzian teorii może posłużyć porównanie komórek o różnych mutacjach i szukanie korelacji między ilością energii rozpraszanej przez owe komórki a tempem replikacji. „Trzeba tu zachować ostrożność. Jedna mutacja miewa wiele skutków. Ale jeżeli przeprowadzi się odpowiednio dużo eksperymentów w różnych układach i jeśli [dyssypacja i tempo replikacji] faktycznie są skorelowane, będzie to świadczyło, że poznaliśmy zasadę organizującą”.
Brenner liczy, że powiąże teorię Englanda ze swoimi badaniami mikrosfer i wykorzysta ją do przewidywania procesów samoreplikacji i samoorganizacji „co stanowi fundamentalny problem naukowy”.
Poznanie ogólnej reguły życia i ewolucji pozwoli naukowcom szerzej spojrzeć na wyłanianie się struktur i funkcji żyjących organizmów. „Dobór naturalny nie wyjaśnia pewnych cech” – stwierdza Ard Louis, biofizyk z Oksfordu. Na przykład metylacja odpowiedzialna za dziedziczne zmiany ekspresji genów przyczynia się do większej złożoności, choć dobór naturalny nie zachodzi.
Gdyby teoria Englanda doczekała się potwierdzenia, biolodzy nie musieliby wreszcie szukać wyjaśnień wyłącznie na gruncie teorii Darwina. Zamiast pisać „dany organizm posiada cechę X, a nie Y, gdyż X zapewnia lepsze przystosowanie”, mogliby formułować inne wnioski: „Uwarunkowania fizyczne czynią cechę X łatwiejszą do uzyskania na drodze ewolucji” – mówi Louis.
„Ludzie często poprzestają na prostych, konkretnych pytaniach” – dodaje Prentiss. Bez względu na to, czy pomysły Englanda okażą się trafne, czy też nie, „każdy przełom w nauce wymaga myślenia w szerszych kategoriach”.
Data publikacji:
Brak komentarzy:
Prześlij komentarz