Degenererar DNA?

av Lars Johan Erkell

Människan har en påtagligt hög mutationsfrekvens, så hög att flera genetiker har tagit upp frågan om hur det kommer sig att vi som art klarar av den. För Anders Gärdeborn är saken klar: vi klarar inte av den. Människosläktet är enligt honom stadd i en ofrånkomlig genetisk degeneration.

Genetikern och nobelpristagaren Herman Muller publicerade 1950 en uppmärksammad artikel där han hävdade att människans mutationsfrekvens var så hög att det krävdes en påtaglig selektion för att människosläktets genetiska hälsa inte skulle vara i fara [1]. Den moderna välfärdsstaten och den moderna medicinen skulle enligt Muller medföra att denna selektion mildrades, vilket på sikt riskerade att leda till att skadliga mutationer skulle bli allt vanligare. Andra forskare har fortsatt diskussionen. Den senaste i raden är populationsgenetikern Michael Lynch, som bekräftade Mullers farhågor i en artikel från 2010 [2].

Lynch utgår från att varje nyfött barn bär på 50–100 mutationer som föräldrarna inte har. Uppskattningen stämmer väl med den första direkta mätning av mutationsfrekvensen som gjorts, och som visade på 70 nya mutationer per individ [3]. Nu anser man att större delen av DNA saknar funktion, så mutationer som hamnar i den här delen har ingen betydelse. Ungefär 1,5 % av genomet kodar för proteiner vilket enligt Lynch betyder ca 0,8 nya aminosyraförändringar per nyfödd. Detta eftersom många mutationer antingen inte leder till något byte av aminosyra, eller till en förändring som inte har någon praktisk betydelse.

Emellertid har vi ju delar av genomet som är funktionella men som inte är proteinkodande, exempelvis sådana som binder genreglerande proteiner eller som kodar för reglerande RNA. Man brukar då utgå ifrån att funktionella sekvenser är evolutionärt bevarade eftersom de stått under selektionstryck. Detta handlar om ca 5 % av genomet. Om vi nu subtraherar de 1,5 % som är proteinkodande har vi 3,5 % av genomet som alltså kan tänkas samla på sig maximalt 2,5 nya mutationer per individ. Vi får då ett tak på 3,3 genetiska förändringar som kan vara biologiskt relevanta i varje individ. Detta är mycket – betänkligt mycket.

Nu måste man hålla i minnet att denna beräkning grundar sig på en modell, och alla modeller är mer eller mindre förenklade. I det här fallet saknas exempelvis ett par selektionssteg. Om vi börjar med spermierna, innehåller ett ejakulat ett par hundra miljoner spermier; en vinner loppet och kommer fram först. Det är svårt att tänka sig att en spermie skulle ha en chans att komma först om den hade en skadlig mutation i exempelvis energimetabolism, membranfunktion eller diverse andra mekanismer som tillsammans är beroende av tusentals gener. Spermierna bidrar dessutom med den största delen av mutationsbelastningen [4]. Man kan utgå ifrån att den här selektionen är viktig, problemet är att man inte kan sätta några siffror på den.

Samma sak gäller nästa selektionssteg, när det befruktade ägget skall fästa i livmodern. En stor del klarar inte detta; tillsammans med senare spontanaborter gör detta att ca 2/3 av alla embryon selekteras bort [5]. Dessa mycket tidiga aborter är av naturliga skäl svåra att studera så man vet inte mycket om orsakerna till dem. Emellertid vet man att de flesta spontanaborter är förknippade med genetiska skador. Återigen är problemet att vi inte kan sätta några siffror på den här selektionseffekten.

Ytterligare en faktor måste nämnas i sammanhanget, och det är att den utveckling mot nätverkstänkande som sker i dag ännu inte avsatt några större spår inom den klassiska populationsgenetiken. Här räknar man fortfarande med gener som separata enheter som kan hanteras med matematisk/statistiska modeller. Det har dock påpekats att nätverksmodeller skulle vara fruktbara och kanske också nödvändiga för att förstå hur olika gener växelverkar med varandra [6]. Nätverkens buffrande effekter är tydliga, och skulle kunna förklara en stor del av den robusthet man finner hos biologiska system [7].

Man skulle kunna ta med ännu fler faktorer i den här diskussionen, men poängen borde vara klar; ingen kan i dag säkert säga om mutationsöverskottet är så stort att vi verkligen är på väg mot en genetisk katastrof, eller hur stark den selektion är som balanserar våra oundvikliga mutationer. Vi kan ännu inte ställa upp någon säker balansräkning, helt enkelt. Det finns alltså inget stöd för Gärdeborns tvärsäkra påstående att ”Mänsklighetens genetiska degenerering är [...] ofrånkomlig” (s. 108).

Hela den här diskussionen ger mig ärligt talat rysningar. Inte bara utsikterna att mänskligheten  kunde vara på väg mot stora svårigheter utöver de vi redan har – tankarna går också till det tidiga 1900-talets arvs- och rashygieniska massmord och steriliseringskampanjer. Dessa grymheter hade visserligen ingen vetenskaplig grund [8], men varje program som syftar till att skilja de önskade från de oönskade riskerar att ställa oss på ett lutande plan som kan leda dit man inte vill komma. Men någon återupprepning av 1900-talets rasism är knappast aktuell. Michael Lynch påpekar att de ”renaste” genomen kan vi vänta oss att finna hos tredje världens fattigaste och mest marginaliserade grupper.

***

Anders Gärdeborn anger mutationsfrekvensen till ”[...] minst 100, men troligen omkring 300, och kanske ännu fler mutationer per person och generation” (s. 108). Eftersom han, som vi sett tidigare, inte anser att det finns något onödigt DNA, måste alla förändringar ligga i fungerande DNA-sekvenser. Men vad händer då? Vi läser på s. 109:

”Problemet med genetisk degenerering kommer alltså inte från de riktigt allvarliga mutationerna. Dem tar det naturliga urvalet hand om. Inte heller är neutrala mutationer något problem. De påverkar inte överlevnaden och reproduceringen. Nej, problemet är de nära-neutrala mutationerna. De är inte tillräckligt allvarliga för att selekteras bort och därför ackumuleras de ofrånkomligen i arvsmassan.”

Det här är alldeles korrekt – en populationsgenetiker hade inte uttryckt saken annorlunda. Genetikern hade dock fortsatt med att förklara att de individer som samlat på sig flest och allvarligast mutationer kan fångas upp av s.k. kvasi-trunkerande selektion, vilket innebär att individer med särskilt hög belastning selekteras bort [9]. Men låt oss se var vi hamnar med Gärdeborns antaganden:

Om vi antar att det för 6 000 år sedan fanns människor med perfekta gener (s. 112), men att sedan dess 300 mutationer per generation samlats i genomet, får vi med en generationstid på 25 år en belastning av 72 000 mutationer i varje individ. Det är svårt att se att så särskilt många av dessa skulle kunna vara harmlösa; om genomet är multifunktionellt måste varje mutation träffa flera koder, och sannolikheten måste vara stor för att åtminstone någon av dem får en skada som har betydelse, något som Gärdeborn själv påpekar (fotnot 88 på s. 103). Och om genomet huvudsakligen innehåller metainformation kommer en skada i en styrande kod att påverka flera koder och gener lägre ner i hierarkin. Båda dessa saker betyder att antalet skador måste vara mycket större än antalet mutationer, och skulle få räknas i hundratusental eller rent av i miljoner.

Anders Gärdeborn målar i sin bok upp en bild av cellen som en genialt konstruerad, oerhört komplicerad och perfekt avstämd mikromaskin. Maskinen är så väl optimerad att varje slumpartad förändring skulle leda till en försämring. Han skriver på s. 104:

”Vi har sett att biologiska mikromaskiner är komplicerade skapelser med intrikata funktioner, och en planlös attack på en sådan förstör istället för att bygga upp. Mutationer kan klogga ihop ett maskineri men inte montera ihop det från början. Man lagar inte en klocka genom att banka på den med en hammare.”

Det är svårt att tro att dessa intrikata maskiner över huvud taget skulle kunna fungera trots de hundratusentals fel som måste bli följden av Gärdeborns scenario. En utväg ur dilemmat skulle vara att säga att Skaparen har gjort sin skapelse så robust att den klarar alla dessa skador, men då borde ju inte heller mutationerna vara något problem. För att klara den saken kunde man förstås göra hjälpantagandet att robustheten råkar ha nått sin gräns just nu, men det vore å andra sidan bra långsökt.

Teorin lider också av den svagheten att den omöjligen går att belägga. Hur kan man veta att människor för ca 6 000 år sedan hade ett perfekt genom? Det kan man inte. Ändå är Gärdeborn säker på sin sak.

Noter

[1] Muller, H. (1950): Our load of mutations. Am. J. Human. Genet. 2, 111–176

[2] Lynch, M. (2010): Rate, molecular spectrum, and consequences of human mutation. Proc. Nat. Acad. Sci. USA 107, 961–968

[3] Roach, J.C. et al. (2010): Analysis of Genetic Inheritance in a Family Quartet by Whole-Genome Sequencing. Science 328, 636–639

[4] Crow, J.F. (2000): The origins, patterns and implications of human spontaneous mutation. Nature Rev. Genet. 1, 40–47

[5] Puscheck, E.E. (2010): Early Pregnancy Loss. emedicine

[6] Omholt, S.W. et al. (2000): Gene Regulatory Networks Generating the Phenomena of Additivity, Dominance and Epistasis. Genetics 155, 969–980

[7] Kitami, T., Nadeau, J.H. (2002): Biochemical networking contributes more to genetic buffering in human and mouse metabolic pathways than does gene duplication. Nature genetics 32, 191–194

[8] Se kapitel 11 och epilogen i: Erkell; L.J. (Red.), (2009): Djuren och människan. Om den moderna biologin och dess världsbild. Studentlitteratur

[9] Crow, J.F., Kimura, M. (1979): Efficiency of truncation selection. Proc. Nat. Acad. Sci. USA 76, 396–399

[Ursprungligen publicerad på http://biologg.wordpress.com.]