Bóg czy „demon przypadku”? Część II

Marek Chmielowski Ph.D.

Które teorie rozwoju życia na Ziemi są prawdziwe
i czy powinny być nauczane w szkole?


Wnioski z badań genetycznych z początku XXI w.

Streszczenie

W dwu częściowym artykule porównano, w świetle kryteriów stosowanych w naukach ścisłych, konkurencyjne teorie rozwoju życia na Ziemi – Neo-darwinowską Teorię Ewolucji opartej o przypadkowe mutacje i mechanizm selekcji naturalnej, klasyczną Teorię Kreacjonizmu i koncepcję Planu Bożego. W części I oceniono jakość każdej z powyższych teorii w odniesieniu do obserwacji makroskopowych, znanych faktów historycznych i danych z innych dziedzin nauk ścisłych. We wnioskach odniesiono się do negatywnego wpływu czynników ideologicznych na obowiązujące programy nauczania. Opisano także problem wpływu praktyk „poprawności politycznej” na zniekształcanie przez media i szkolnictwo obiektywnego obrazu ewolucji ekosystemów wyłaniającego się z najnowszych badań. W części II przedstawiono ocenę każdej z powyższych teorii w świetle najnowszych badań genetycznych. Zasygnalizowano także zbliżający się przełom w naszym pojmowaniu ewolucji ekosystemów spowodowany dynamicznym rozwojem inżynierii genetycznej i stopniowym odkrywaniem naturalnych mechanizmów genetycznych sterujących rozwojem gatunków.

Wstęp

W pierwszej części tego artykułu zatytułowanej „Jakość hipotez: Ocena i wnioski z obserwacji makroskopowych przedstawiono ocenę głównych teorii rozwoju życia na Ziemi w kontekście kryteriów, jakie powinna spełniać poprawna teoria naukowa w rozumieniu nauk ścisłych. Do analizy wybrano teorie dobrane tak, aby rozważyć możliwie szeroki zakres poglądów na zagadnienie powstania i rozwoju życia na Ziemi. W oparciu o obserwacje makroskopowe rozważono następujące teorie:

1)       Darwinowską (neo-Darwinowską) Teorię Ewolucji opartą o przypadkowe zmiany genetyczne.

2)       Czystą Teorię Kreacjonizmu zakładającą całkowity brak zmienności gatunków.

3)       Koncepcję Planu Bożego (zwaną niekiedy teorią „Inteligentnego Projektu”) zakładającą ewoluowanie gatunków zgodnie z „Planem Bożym”.

W tej części artykułu rozważymy zgodność każdej z powyższych teorii z wynikami najnowszych badań genetycznych i wnioskami wynikającymi z ostatnich osiągnięć inżynierii genetycznej. Na wstępie spróbujmy w poglądowy sposób przedstawić zmiany, jakie zaszły w ciągu ostatnich 50 lat w rozumieniu mechanizmu genetycznego w oparciu o wyniki badań naukowych.

XX wieczny obraz mechanizmu genetycznego

Badania mechanizmu dziedziczenia zapoczątkowane w połowie 19-tego wieku przez Mendla sugerowały istnienie „jednostek dziedziczenia”, które przenoszą informacje pomiędzy pokoleniami. W 1909 roku duński biolog Wilhelm Johannsen wprowadził słowo gen jako opis fizycznej jednostki przenoszącej dziedziczoną cechę. Następnie odkryto, że geny muszą być przenoszone w DNA lub RNA i że geny są odpowiedzialne za syntezę enzymów sterujących różnymi procesami w organizmie. Dalsze badania skoncentrowały się na komórkach zawierających jądro i znajdujących się w nich długich cząsteczkach DNA zawartych w chromosomach. W 1953 roku, bazując na wykonanych przez Rosalind Franklin badaniach krystalograficznych DNA, Crick i Watson (bez powoływania się na autorkę badań!) zasugerowali molekularny mechanizm replikacji DNA odpowiedzialny za dziedziczenie. Według tej, szeroko potwierdzonej w drugiej połowie XX wieku teorii, informacja genetyczna organizmów jest kodowana w chromosomach w formie podwójnych łańcuchów DNA. Materiał genetyczny zawarty we wszystkich chromosomach (u człowieka 23 pary) tworzy genom określający własności genetyczne komórek. Tworzące skręconą spiralę, podwójne łańcuchy (lub pierścienie u organizmów, których komórki nie mają jąder komórkowych – prokaryotes) DNA są połączony wiązaniami zbudowanymi z par zasad azotowych (nukleotydów). Pary te są zazwyczaj oznaczane literami A-T (lub A-U u niektórych wirusów i w RNA), G-C. Uproszczony biologiczny proces replikacji DNA polega na rozłączeniu łańcuchów DNA (czyli „rozerwaniu” par nukleotydów) i „odtworzeniu” brakującej połówki (miedzy innymi poprzez dołączenie pasującego do rozerwanej pary nukleotydu). W innym procesie biologicznym (zwanym procesem transkrypcji) informacja zawarta w DNA jest użyta do syntezy mRNA.  W następnym kroku (zwanym tłumaczeniem) mRNA służy do wytwarzania protein (w tym enzymów sterujących procesami w organizmie). mRNA i proteiny są nazywane produktami genetycznymi. W obu powyższych procesach (transkrypcji DNA do mRNA i procesie wytwarzania protein na bazie mRNA) trójki kolejnych par nukleotydów (zwane parami bazowymi i oznaczane jedną literą z danej pary) tworzą „kodony” określające kolejność aminokwasów w procesie syntezy produktów genetycznych. Np. Sekwencja par bazowych C-G, A-T, G-C (oznaczona jako kodon CAG) odpowiada aminokwasowi glutaminie. Kod oparty o trójki nukleotydów (zwany kodem genetycznym) jest nadmiarowy, czyli kilka różnych sekwencji (średnio trzy) odpowiada takiemu samemu aminokwasowi np. syntezę aminokwasu glyciny powoduje dowolna sekwencja z czterech GGT, GGC, GGA i GGG.

W drugiej połowie XX wieku na podstawie powyższego mechanizmu kodowania aminokwasów zasugerowano fizyczną interpretację genu jako sekwencji par bazowych (około 10 tysięcy w przypadku genów ludzkich) odpowiedzialną za przenoszenie jakiejś cechy dziedzicznej. W myśl tej XX wiecznej interpretacji chromosom składał się z wielu tysięcy genów ustawionych kolejno jeden za drugim i tworzących długi, skręcony prawostronnie, łańcuch DNA (u człowieka cząsteczki DNA mają po wyprostowaniu długość do 2 metrów). Chromosom można było porównać do sznurka z koralikami gdzie każdemu koralikowi odpowiadał gen, czyli sekwencja DNA odpowiedzialna za syntezę jednej proteiny. Niestety wkrótce okazało się, że tylko około 1,5% ludzkiego DNA jest odpowiedzialne za syntezę protein, reszta została nazwana „śmieciowym DNA”.

Wkrótce po odkryciu budowy DNA zasugerowano również mechanizm przypadkowych mutacji. W myśl tej koncepcji mutacje genetyczne powstawały jako przypadkowe przestawienia par bazowych (mutacje punktowe) w wyniku błędów w procesie replikacji czy w wyniku działania czynników zewnętrznych (np. promieniowania radioaktywnego czy utleniaczy chemicznych). Taka koncepcja przypadkowych mutacji wydawała się jakościowo zgodna z teorią Darwina. Koncepcja przypadkowych mutacji kodonów DNA wykazywała jednak fundamentalne wręcz wady w przypadku analizy ilościowej. Wyniki badań mutacji indukowanych przez promieniowanie radioaktywne wskazywały, że mniej niż jedna na kilkaset milionów przypadkowa mutacja par bazowych ma w ogóle jakiś sens biologiczny. Do tego w kodzie genetycznym jest zakodowana własność (kodony stop), która praktycznie uniemożliwiająca testowanie przez naturalną selekcję wielokrotnych mutacji w obrębie tego samego genu. W przypadku wielokrotnych mutacji w tym samym łańcuchu DNA najbardziej prawdopodobnym rezultatem będzie zatrzymanie procesu syntezy proteiny, a nie wyprodukowanie innej wersji proteiny możliwej do „przetestowania” przez naturalną selekcję. Jest to spowodowane tym, że w kodzie genetycznym występują trzy kodony stop, a wystąpienie dowolnego z nich oznacza zatrzymanie syntezy. Ponieważ występują sześćdziesiąt cztery możliwe kombinacje trójek par bazowych to prawdopodobieństwo wygenerowania kodonu stop w jednej mutacji wynosi prawie 5%, w przypadku dwu mutacji około 10%, a piętnastu mutacji 50%. To szybko rosnące z ilością mutacji prawdopodobieństwo zatrzymania syntezy praktycznie wyklucza możliwość generowania więcej niż kilku jednoczesnych mutacji w łańcuchu genu. Oznacza to, że selekcja naturalna powinna, według koncepcji przypadkowych mutacji, „testować” pojedynczo każdą mutację – zadanie zupełnie niewykonalne w czasie miliardy razy większym od wieku wszechświata i przy miliardowych populacjach, ponieważ możliwa liczba odmian protein powstałych w wyniku przypadkowych mutacji jest astronomicznie wielka (rzędu 2 do potęgi liczba sekwencji w genie – około 2 do potęgi 10 tysięcy). Dodatkowo dane paleontologiczne wskazują, że ewolucja zachodziła skokowo i każdy skok ewolucyjny obejmował tylko pewne grupy gatunków. Jest to sprzeczne z postulowanym w XX wieku mechanizmem mutacji par bazowych, z którego wynika powolne i równomierne tempo ewolucji.

Do 1970 roku sformułowano hipotezę zwaną „głównym dogmatem biologii molekularnej” (central dogma of molecular biology) głoszącą, że informacja genetyczna jest przekazywana jednokierunkowo od DNA, poprzez mRNA do protein. Ten dogmat leżał u podstaw redukcjonizmu biologicznego, po którym spodziewano się wyjaśnienia wszystkich własności żywych organizmów za pomocą prostej, mechanistycznej, interpretacji kodu genetycznego (czyli sposobu kodowania, zawartych w DNA, par bazowych nukleotydów na aminokwasy). Takie pojmowanie mechanizmu genetycznego także wydawało się zgodne z neo-Darwinowską teorią ewolucji (w języku angielskim występującą także pod nazwą „modern evolutionary synthesis”) mającą wyjaśniać teorię Darwina za pomocą mechanizmu genetycznego. W szczególności, według powyższej neo-Darwinowską hipotezy mechanizmu genetycznego, cały proces tworzenia nowych gatunków z przypadkowo zmutowanych organizmów miał opierać się tylko i wyłącznie na mechanizmie selekcji naturalnej (w zgodzie z oryginalną teorią Darwina).

Naturalny mechanizm inżynierii genetycznej wyłaniający się z badań na przełomie wieków

Pod koniec XX wieku rozwój inżynierii genetycznej poważnie podważył powyższy uproszczony obraz mechanizmów genetycznych. Zachodzący obecnie przełom da się porównać tylko do rewolucyjnych zmian w naszym pojmowaniu świata nieożywionego związanych z odkryciem w XX wieku fizyki kwantowej, cząstek elementarnych i rozwojem badań astrofizycznych (kosmologicznych).

W latach sześćdziesiątych ubiegłego wieku odkryto, że kod genetyczny zawarty w DNA ma bardziej skomplikowaną budowę niż sądzono na podstawie interpretacji Cricka i Watsona. Odkryto że geny składają się z części kodującej produkty genetyczne (RNA i proteiny) i części niekodującej. Część niekodująca służy do kontroli procesu transkrypcji RNA i może aktywować bądź deaktywować kodowanie proteiny w zależności od różnych sygnałów biochemicznych. Następnie odkryto, że część niekodująca genu ma za zadanie sterowania procesem syntezy protein i może prowadzić do powstania różnych produktów genetycznych (RNA i protein) w zależności od czynników zewnętrznych. Co więcej, w latach osiemdziesiątych ubiegłego wieku, okazało się, że segment DNA (zwany operator) może kontrolować (wstrzymywać i/lub uaktywniać) proces transkrypcji innego genu (zwanego operon) do RNA. Te odkrycia podważyły uprzedni obraz DNA jako sznurka z genami. W wyniku dalszych badań okazało się, że nie ma jednoznacznej relacji pomiędzy genem a proteiną czy enzymem. Dalsze odkrycia „zamiennego sklejania” („alternative splicing”) i „sklejania z przeładowaniem” („trans-splicing”) wskazują, że RNA powstaje nie z jednej sekwencji DNA, ale w wyniku skomplikowanego procesu składania z wielu fragmentów DNA (czasem z różnych chromosomów). Ponadto, ten sam kodujący fragment DNA może być użyty do kodowania różnych protein. Jak wspomniano uprzednio, tylko około 1,5% kodu genetycznego służy do bezpośredniego kodowania produktów genetycznych (RNA czy protein) według procesu syntezy protein opisanego przez Cricka i Watsona.  Badania wykazały, że pozostałe ponad 98% kodu genetycznego, które było uprzednio uważane za śmieciowe DNA („junk DNA”), ma niezwykle istotną rolę polegającą na sterowaniu, modyfikowaniu i kontrolowaniu różnych procesów genetycznych.

Powyższe badania podważyły mechanistyczny obraz systemu genetycznego leżący u podstaw neo-Darwinowskiej teorii ewolucji. Działanie mechanizmu syntezy produktów genetycznych (RNA i protein) zaczęło przypominać funkcjonowanie skomplikowanego, zorganizowanego hierarchicznie, programu komputerowego przetwarzającego różnorodne informacje. Tylko około 1,5% kodu DNA (zawierające informacje kodującą RNA i proteiny) da się porównać, w analogii z informatyką, do statycznych plików z tekstem wyświetlanym na ekranie. Pozostała, (około 98%) część kodu DNA w naszej analogii z informatyką odpowiada, zawierającemu cała logikę i funkcjonalność systemu, kodowi sterującemu programu. Co więcej, informacja potrzebna do wytworzenia protein nie jest zapisana w sposób ciągły w kodzie DNA, ale porozrzucana w różnych miejscach, a czasem nawet po różnych chromosomach. Fakt, że produkty przetwarzania DNA zależą od informacji zawartych w wielu różnych miejscach w samym kodzie jak i od różnorodnych czynników zewnętrznych, zarówno środowiskowych jak i sterowanych przez inne komórki czy sąsiednie organizmy w kolonii jednokomórkowców, podważył dotychczasowy interpretację genu jako sekwencji par bazowych w łańcuchu DNA. Okazało się, że XX wieczne pojęcie genów prawie nie ma sensu, a należy rozważać cały genom jako spójnie działający mechanizm sterowany sygnałami zewnętrznymi i sprzężeniem zwrotnym od wyników własnego działania.

Również mechanizm kopiowania (replikacji) DNA okazał się dużo bardziej skomplikowany niż zakładano w połowie XX wieku. Okazało się, że wszystkie komórki, od najprostszych bakterii do człowieka posiadają skomplikowany system wykrywania i usuwania przypadkowych zmian w sekwencji DNA. System ten przypomina w działaniu mechanizmy zabezpieczające i usuwające błędy stosowane w informatyce w transmisji danych. Odkrycie tego mechanizmu pokazało, że komórki są bardzo dobrze zabezpieczone przed przypadkowymi mutacjami w kodzie genetycznym. Błędy replikacji DNA są na poziomie dużo mniejszym niż jeden błąd na dziesięć bilionów replikacji. Tak niski poziom błędów replikacji wyklucza jakąkolwiek rolę przypadkowych mutacji w ewolucji DNA i wyjaśnia niepowodzenie prób wytworzenia nowych gatunków przy pomocy eksperymentów radiacyjnych.

Mechanizmy kopiowania DNA są zdolne nie tylko do usuwania błędów i mutacji, ale same są odpowiedzialne za modyfikację DNA na masową skalę. Pod koniec XX wieku odkryto, że całe fragmenty DNA mogą być przestawiane w łańcuchu DNA, wstawiane z innego łańcucha, czy w przypadku bakterii, wstawiane z materiału genetycznego innych organizmów. W początku XXI wieku odkryto, że niektóre pierwotniaki mogą całkowicie przeorganizowywać strukturę DNA poprzez podział DNA na fragmenty i ponowne złożenie w innej kolejności (patrz praca C.L. Jahn i L.A. Klobutcher „Genome Remodeling In Ciliated Protozoa” Annual Review of Microbiology vol 56 dostępna w internecie http://arjournals.annualreviews.org ). Wyniki badań struktury DNA które powstało w wyniku naturalnej reorganizacji wskazują, że zmiany w strukturze DNA w żadnym przypadku nie są przypadkowe, a przypominają składanie nowych mechanizmów z funkcjonalnych modułów. Niektórzy autorzy porównują powyższy proces restrukturyzacji DNA do budowania konstrukcji z klocków lego. W procesie restrukturyzacji DNA fragmenty genów są przeorganizowywane w myśl skutecznej strategii, a każdy krok jest sprawdzany w określonych fazach reorganizacji („check points”) i ewentualnie korygowany. Co więcej, wbrew przypuszczeniom z połowy XX wieku, mutacje polegające na przestawieniu nukleotydów kodujących (mutacje punktowe) wydają się być mało istotne względem zmian polegających na reorganizacji całych sekwencji genomu i ewentualnie służą tylko do ostatecznego zmodyfikowania genomu („fine tuning”) po fazie dużej reorganizacji. Powyższe mechanizmy przeorganizowywania DNA odgrywają kluczową rolę w ciągłym dostosowywaniu systemu immunologicznego u zwierząt wielokomórkowych czy uzyskiwaniu odporności na antybiotyki u bakterii.

Mechanizmy modyfikacji DNA polegające na przeorganizowaniu fragmentów czy wstawieniu nowych są z powodzeniem wykorzystywane w sterowanej przez ludzi inżynierii genetycznej. Pojęcie inżynierii genetycznej w tym przypadku odnosi się to zarówno do inżynierii działającej bezpośrednio na poziomie molekularnym (znanej od końca XX wieku) jak i do zabiegów hodowlanych dających podobne skutki w wyniku sztucznego krzyżowania gatunków. Porównanie skutków działanie naturalnych mechanizmów modyfikacji DNA z działaniami inżynierów genetycznych doprowadziło do powstania pojęcia naturalnej inżynierii genetycznej jako opisu komórkowego mechanizmu modyfikacji DNA.

Około roku 1970, czyli paradoksalnie w tym czasie, kiedy sformułowano główny dogmat biologii molekularnej, podczas badań nad retrowirusami odkryto mechanizm odwróconej transkrypcji („reverse transcription”), czyli syntezy DNA z mRNA. To odkrycie podważyło główny dogmat biologii molekularnej poprzez pokazanie, że informacja może być transmitowana do DNA. Dalsze badania wykonane na przełomie wieków pokazały, że DNA nie może być traktowane (zgodnie z „ głównym dogmatem biologii molekularnej”) jako przeznaczona tylko do odczytu (read-only) taśma z informacją genetyczną, ale wbrew głównemu dogmatowi biologii molekularnej, DNA powinno być traktowane jak pamięć komputera umożliwiająca odczyt i zapis informacji (read-write). Ponadto okazało się, że naturalny mechanizm inżynierii genetycznej kontroluje częstość i zakres odwróconej transkrypcji. Ma to bardzo istotne znaczenie, ponieważ procesy syntezy DNA z RNA nie są wspomagane przez mechanizmy wykrywania i usuwania błędów i z tego względu proces syntezy DNA z RNA (odwrócona transkrypcja) charakteryzuje się częstością błędów kopiowania na poziomie jeden na kilkadziesiąt tysięcy. Wynika z powyższego, że kod genetyczny sam kontroluje zakres, miejsce i częstość wprowadzania przypadkowych zmian i są one uzupełnieniem („fine tuning”) do opisanego powyżej kontrolowanego przeorganizowania sekwencji DNA.

U organizmów jednokomórkowych zaobserwowano wielokrotnie, że różne implementacje mechanizmu odwróconej transkrypcji służą do włączenia obcego dla danego gatunku bakterii materiału genetycznego pochodzącego w jej kod genetyczny. Inkorporacja fragmentów zewnętrznego kodu genetycznego (czyli kodu pochodzącego od innych gatunków), zwana transferem horyzontalnym, okazała się dosyć powszechna w wśród organizmów jednokomórkowych i jest wspierana przez różnorodne mechanizmy genetyczne. Nie zaobserwowano jeszcze bezpośrednio takiego zjawiska wśród wyższych organizmów, ale pewne obserwacje pośrednie wskazują, że taka bezpośrednia wymiana materiału genetycznego może zachodzić powszechnie między gatunkami zwierząt i roślin. Np. wśród roślin motylkowych odkryto białko (leghemoglobina) prawie tożsame z hemoglobiną, prawdopodobnie materiał genetyczny został przeniesiony za pośrednictwem bakterii żyjących w symbiozie z roślinami motylkowymi.

Wyniki badań z końca XX wieku i początku XXI wieku całkowicie zmieniły nasz pogląd na działanie mechanizmu genetycznego. W miejsce mechanistycznego traktowania DNA jako taśmy z kolejno zapisaną informacją o budowie protein powstał obraz skomplikowanego systemu naturalnej inżynierii genetycznej. System naturalnej inżynierii genetycznej przetwarza informację na poziomie komórkowym i dokonuje znacznych modyfikacji DNA w zależności od wielu czynników wewnętrznych i zewnętrznych. Czynniki zewnętrzne mogą obejmować oddziaływania międzykomórkowe, wpływy środowiskowe jak i inkorporacje zewnętrznego (czyli pochodzącego z innych gatunków) materiału genetycznego (patrz „mobile genetic elements”) np. plazmidów. Prace Barbary McClintock nad zmiennością genetyczną kukurydzy z lat osiemdziesiątych pokazały, że organizmy aktywnie przeorganizowują moduły systemu genetycznego oraz, że kod genetyczny posiada mechanizmy pozwalające wykryć zagrożenie i odpowiedzieć modyfikacjami genomu. Do analizy mechanizmów genetycznych zaczęto z powodzeniem stosować metody badawcze pochodzące z informatyki i teorii samo-modyfikujących się programów. Szczegółowy opis współczesnego stanu wiedzy na temat naturalnego systemu inżynierii genetycznej można znaleźć w dostępnym w internecie artykule przeglądowym J.A. Shapiro „Genome Informatics: The Role of DNA In Cellural Computation” (http://shapiro.bsd.uchicago.edu/Shapiro2006.GenomeInformatics.pdf).

Obraz ewolucji w świetle naturalnego mechanizmu inżynierii genetycznej

Poznanie opisanych powyżej mechanizmów naturalnej inżynierii genetycznej ma wręcz rewolucyjny wpływ na współczesne rozumienie procesów ewolucji gatunków.

  1. Z jednej strony, została na poziomie molekularnym obalona czysta teoria kreacjonizmu – poprzez bezpośrednie pokazanie pokrewieństwa gatunków na poziomie molekularnym i poprzez bezpośrednie pokazanie działania naturalnych mechanizmów modyfikacji genomu.
  2. Z drugiej strony, został całkowicie obalony neo-Darwinowski pogląd na przyczyny, mechanizmy i przebieg ewolucji.

Najważniejsze wnioski sprzeczne z XX wiecznym neo-Darwinowskim podejściem wynikające z aktualnych badan genetycznych to:

  • przypadkowe mutacje nie są siłą napędową ewolucji,
  • nieprawdziwy jest główny dogmat biologii molekularnej ponieważ informacja jest nie tylko pobierana z DNA, ale organizmy maja także możliwość aktywnego zapisywania różnorodnych informacji w DNA,
  • zmiany ewolucyjne zachodzą w wyniku aktywnego przeorganizowania przez sam organizm modułów sterujących z których zbudowany jest system genetyczny,
  • zmiany i przeorganizowanie powtarzających się w kodzie DNA modułów sterujących powodują, że genom funkcjonuje w nowy sposób pomimo braku zmian w sekwencjach DNA kodujących proteiny,
  • gatunki różnią się głównie sposobem organizacji genomu, czyli architekturą genomu, a w mniejszym stopniu różnicami w sposobie kodowania protein,
  • nowe proteiny powstają poprzez przeorganizowanie całych sekwencji, a nieliczne zmiany pojedynczych „kodonów” mają jedynie znaczenie uzupełniające,
  • duże przeorganizowania w genomie zachodzą gwałtownie, w wyniku aktywowania naturalnego mechanizmu inżynierii genetycznej przez wpływy zewnętrzne, a tempo i zakres zmian jest kontrolowane przez biologiczną pętlę sprzężenia zwrotnego,
  • działanie naturalnego mechanizmu inżynierii genetycznej nie opiera się o procesy stochastyczne, działanie kodu genetycznego przypomina funkcjonowanie komputera i pozwala wykryć zagrożenia czy zmiany i aktywnie dopasować organizację genomu.

Ewolucyjne zmiany w genomie możemy zaobserwować bezpośrednio. W przypadku bakterii zaobserwowano doświadczalnie, że w przypadku braku pożywienia przez kilka generacji podziałów uruchamiany jest mechanizm przeorganizowania genomu i modyfikacji DNA. U organizmów wielokomórkowych sztuczne krzyżówki pomiędzy organizmami różnych gatunków czy odmian (a także hodowla wsobna) są czynnikiem uaktywniającym przeorganizowanie DNA i modyfikację opartą na różnych formach odwrotnej transkrypcji. Zjawisko to wykazano laboratoryjnie w przypadku robaków, muszek owocowych i myszy.

Fakt, że krzyżówki międzygatunkowe czy międzyodmianowe oraz hodowla wsobna stymulują reorganizację DNA, wyjaśnia wyniki hodowli roślin i zwierząt. Nasi przodkowie, stymulując krzyżówki uaktywnili naturalny mechanizm inżynierii genetycznej a poprzez szczepionki prawdopodobnie spowodowali bezpośredni międzygatunkowy horyzontalny transfer materiału genetycznego. Wykorzystanie mechanizmów naturalnej inżynierii genetycznej umożliwiło wytworzenie gatunków o cechach niespotykanych w żadnym z gatunków wyjściowych. Ponadto, w wyniku uaktywnienia naturalnych mechanizmów reorganizacji genomu nowe gatunki czy odmiany powstały w czasie niezwykle krótkim w porównaniu z naturalnym tempem ewolucji.

Podobnie, jak wyniki hodowli, w oparciu o mechanizmy naturalnej inżynierii genetycznej można wyjaśnić skokowe tempo ewolucji czy ograniczenie zmian tylko do pewnych grup organizmów. Hipotetycznymi czynnikami stymulującym masowe przeorganizowanie architektury genomu, a tym samym skok ewolucyjny pewnych grup organizmów, jest stres, ograniczenie populacji oraz mechanizmy kontrolne zawarte w samym kodzie genetycznym. Mechanizmy te w funkcjonowaniu mogą być podobne do fragmentów kodu (telomery) zakańczających łańcuchy DNA, których w niektórych komórkach są skracanie przy każdej replikacji DNA, co pozwala ograniczać liczbę możliwych podziałów komórki (generacji).

Odkrycie, że ponad 98% kodu genetycznego steruje, modyfikuje i kontroluje różne procesy genetyczne w oparciu o różnorodne sygnały, w tym także sygnały z innych komórek czy organizmów, pozwala postulować zgodność ewolucji z drugą zasadą termodynamiki. Problem ten był przedstawiony w pierwszej części tego artykułu, gdzie pokazano, że stopniowe komplikowanie ekosystemów nie może zachodzić w wyniku procesów stochastycznych bez wpadnięcia w fundamentalny konflikt z drugą zasadą termodynamiki – jednym z podstawowych zasad fizyki (wynikającej z podstawowych praw fizyki statystycznej) opisujących własności obiektów składających się z wielu cząsteczek. Aktualne wyniki inżynierii genetycznej pokazują elementy i zasady funkcjonowania między-pokoleniowego mechanizmu genetycznego sterującego rozwojem gatunku i modyfikującego DNA z generacji na generację według zaprogramowanego schematu. Odkrycie różnych mechanizmów transferu horyzontalnego (międzygatunkowego transferu fragmentów DNA) i genetycznych mechanizmów kontroli odwróconej transkrypcji sugeruje, że ten mechanizm może mieć szerszy zasięg niż pojedynczy gatunek i sugeruje także, że genetyczny schemat ewolucji może obejmować cały ekosystem. Istnienie kodu genetycznego czy programu obejmującego cały ekosystem pozwala na realizację procesu rozwoju i komplikowania ekosystemu bez naruszania drugiej zasady termodynamiki.

Powyżej przedstawione wyniki aktualnych badań genetycznych i wynikające z nich wnioski są w bezpośredniej sprzeczności z dwiema spośród trzech wymienionych na wstępie teorii rozwoju życia na ziemi.

  • Istnienie i funkcjonowanie w laboratorium naturalnego mechanizmu inżynierii genetycznej o oczywisty sposób bezpośrednio obala teorię niezmienności gatunków.
  • Poznany mechanizm naturalnej inżynierii genetycznej jest zupełnie niekompatybilny z założeniami i wymaganiami stawianymi przez neo-Darwinowską teorię ewolucji opartej na przypadkowych mutacjach i mechanizmie naturalnej selekcji.

Obecnie niekompatybilność naturalnego mechanizmu inżynierii genetycznej z teorią neo-Darwinizmu nie podlega najmniejszej wątpliwości.

Rozstrzygającymi są:

  • porównanie wyników eksperymentów mających stymulować zmiany ewolucyjne z wynikami postulowanymi przez teorię neo-Darwinizmu
  • obserwowana identyczność mechanizmów molekularnych wszystkich komórek

Zgodnie z sugerowanym przez teorię neo-Darwinowską istotnością przypadkowych mutacji genów wielokrotnie próbowano stymulować przypadkowe mutacje za pomocą promieniowania radioaktywnego. Jako wynik indukowanych przez radiację punktowych mutacji kodonów w DNA teoria neo-Darwinizmu przewidywała powstanie mutacji genetycznych. Zmutowane geny następnie miały podlegać wyselekcjonowaniu przez dobór naturalny. Jak wspomniano w pierwszej części tego artykułu na przestrzeni ostatnich 50 lat eksperymentom radiacyjny poddano setek milionów organizmów (głównie much) bez uzyskania żadnych rezultatów zgodnych z przewidywaniami neo-Darwinowskiej teorii. Wszystkie takie eksperymenty dawały tylko uszkodzenia genetyczne i nie produkowały żadnych użytecznych mutacji. W przeciwieństwie do teorii neo-Darwinizmu sztuczna inżynieria genetyczna, polegająca na laboratoryjnym wykorzystaniu poznanych mechanizmów naturalnej inżynierii genetycznej, daje coraz więcej konkretnych, przewidywalnych i czasami użytecznych przykładów modyfikacji genomu. Reorganizację genomu bakterii umiemy stymulować czynnikami środowiskowymi jak i transferem zewnętrznego materiału genetycznego. U zwierząt wielokomórkowych zmiany w genomie potrafimy indukować krzyżówkami lub sztucznym transferem materiału genetycznego.

Neo-darwinowska teoria ewolucji nie potrafi w żaden sposób wyjaśnić faktu obserwowanej identyczności mechanizmów molekularnych wszystkich komórek. Wewnętrzna sprzeczność teorii opartej na przypadkowych mutacjach polega na założeniu, że przypadkowe mutacje miały spowodować ogromne zróżnicowanie wyglądu i funkcji komórek oraz powstanie różnorodnych stworzeń wielokomórkowych, a jednocześnie nie spowodowały na przestrzeni prawie czterech miliardów lat żadnych zmian w kodzie genetycznym determinującym mechanizmy molekularnego działania komórek.

Podsumowanie

Z przedstawionych powyżej w dużym uproszczeniu, wyników aktualnych badań genetycznych wyłania się naturalny mechanizm inżynierii genetycznej funkcjonujący jak skomplikowany, zorganizowany hierarchicznie, system informatyczny zdolny do analizowania i przetwarzania różnorodnej informacji w cyklu obejmującym więcej niż jedno pokolenie. Sporo, powyżej przedstawionych, obserwacji wskazuje, że naturalny mechanizm genetyczny może obejmować cały ekosystem i wiele generacji organizmów. Poznane własności naturalnego mechanizmu genetycznego pozwalają, w pełnej zgodności z podstawowymi prawami fizyki, wyjaśnić, znany z danych paleontologicznych, przebieg naturalnej ewolucji gatunków oraz fakty związane ze sztuczną hodowlą zwierząt i roślin (znane z przekazów historycznych i danych archeologicznych). Rozwój inżynierii genetycznej dokonującej bezpośrednich interwencji w kod genetyczny ciągle dostarcza użytecznych i czasami znajdujących praktyczne zastosowania w hodowli czy medycynie potwierdzeń przewidywań teoretycznych. Własności poznawanego mechanizmu naturalnej inżynierii genetycznej są sprzeczne zarówno z Teorią Ewolucji opartą o przypadkowe mutacje jak i z Teorią Kreacjonizmu. Zgodność pomiędzy poznawanymi mechanizmami naturalnej inżynierii genetycznej a koncepcją ewolucji zachodzącej według „zaprogramowanego projektu”, wydają się, co najmniej wskazywać na konieczność poważnego potraktowania, opisanej w pierwszej części tego artykułu, koncepcji Planu Bożego jako wartej zbadania roboczej hipotezy naukowej. Pomimo ideologicznych niechęci części środowiska naukowego do uznania istnienia Boga, badania genetyczne i dynamiczny rozwój inżynierii genetycznej w coraz większym stopniu potwierdzają, że tylko koncepcja Planu Bożego jest niesprzeczna z wynikami eksperymentalnymi oraz z zaobserwowanymi faktami.

Marek Chmielowski Ph.D.

[Kontakt z Autorem, ew. gromy czy polemiki proszę przekazywać przeze mnie MD]

Posted on 11 lutego 2010, in Darwinizm/Eugenika. Bookmark the permalink. Dodaj komentarz.

Dodaj komentarz