3.
El problema espinoso

Ya va siendo hora de dejar aparte los detalles de mi carrera para entrar en el tema principal. Incluso una mirada superficial al mundo de los seres vivos nos indica su inmensa variedad. Aunque en un zoológico podamos encontrar muchos animales distintos, tan sólo son una minúscula fracción de los animales de tamaño y tipo similares. En una ocasión le preguntaron a J.B.S. Haldane qué podía decirnos el estudio de la biología sobre Dios. «En realidad no estoy seguro», respondió Haldane, «si exceptuamos el hecho de que a Él le gustan excesivamente los escarabajos». Se cree que existen al menos 300 000 especies de escarabajos. Por el contrario, tan sólo hay cerca de 10 000 especies de aves. Asimismo deben considerarse todos los tipos distintos de plantas, para no mencionar microorganismos tales como levaduras y bacterias. Además, también están todas las especies extinguidas —de las cuales los dinosaurios son el ejemplo más destacado—, cuya suma probablemente supera en miles de veces el número de las que viven en la actualidad.

La segunda propiedad de casi todos los seres vivos es su complejidad y, en particular, su complejidad altamente organizada. Esto impresionó tanto a nuestros antepasados, que considerarían inconcebible que unos mecanismos tan complicados y bien organizados pudieran haber surgido sin un Creador. Si yo hubiera vivido ciento cincuenta años antes, estoy seguro de que inevitablemente habría estado de acuerdo con este argumento del Creador. Su defensor más consumado y elocuente fue el reverendo William Paley, cuyo libro Teología natural —o Evidencia de la existencia y atributos de la deidad recogidos a partir de los aspectos de la naturaleza— fue publicado en 1802. Imaginaos, dijo él, que al cruzar un brezal uno se encuentre en el suelo un reloj que funciona bien. Su diseño y su funcionamiento sólo se pueden explicar recurriendo a un fabricante. Del mismo modo, argumentaba, el complicado diseño de los organismos vivos nos fuerza a reconocer que ellos también han tenido un Creador.

Este convincente argumento fue demolido por Charles Darwin, quien opinaba que la aparición del diseño se debía al proceso de selección natural. Esta idea fue elaborada de forma independiente por Darwin y Alfred Wallace. Sus respectivos artículos fueron leídos ante la Linnean Society el primero de julio de 1858, pero no produjeron demasiadas reacciones inmediatas. De hecho, en su revisión anual, el presidente de la sociedad observó que aquel año no se había destacado por investigaciones notables. En El origen de las especies, Darwin escribió una «breve» versión de sus ideas (había planeado un trabajo más extenso). Su primera edición en 1859 fue seguida inmediatamente por numerosas reimpresiones: el libro causó un verdadero impacto. Y con razón, puesto que hoy está muy claro que perfiló las características esenciales del «Secreto de la Vida». Sólo fue necesario el descubrimiento de la genética, debido a Gregor Mendel y fechado en la década de los sesenta, y ya en este siglo al establecimiento de las bases moleculares de la genética, para que el secreto se mostrara ante el mundo en toda su gloriosa desnudez. Es increíble que actualmente la mayoría de los seres humanos no reparen en estas cuestiones. Entre quienes reparan en ello, muchos (junto con Ronald Reagan) creen que existe una trampa en algún lado. Un elevado número de personas con cultura se muestra indiferente ante estos descubrimientos, y en la sociedad occidental una minoría ruidosa es activamente hostil a las ideas evolutivas.

Volvamos a la selección natural. Tal vez lo primero que hay que comprender es que un ser complejo, o incluso una parte compleja de un ser, por ejemplo el ojo, no apareció en un único paso evolutivo. Por el contrario, evolucionó a través de una serie de pequeños pasos. Lo que realmente se quiere decir con pequeños no necesariamente es obvio, ya que el crecimiento de un organismo está controlado por un programa elaborado, escrito en sus genes. Algunas veces un pequeño cambio en una parte clave del programa puede conducir a diferencias notables. Por ejemplo, la alteración de un determinado gen en la Drosophila puede producir una mosca de la fruta con patas en el lugar de sus antenas.

Cada pequeño paso está causado por una alteración fortuita de las instrucciones genéticas. Muchas de estas alteraciones no harán ningún bien al organismo (algunas incluso lo matarán antes de nacer), pero ocasionalmente una determinada alteración fortuita puede aportar a un determinado organismo una ventaja relativa. Esto significa que el organismo dará lugar a una media de descendientes superior a la que normalmente daría. Si esta ventaja se mantiene en sus descendientes, entonces este mutante beneficiado, a lo largo de muchas generaciones, se extenderá gradualmente en la población. En los casos favorables cada individuo llegará a poseer la versión mejorada del gen. La versión antigua habrá sido eliminada. De este modo, la selección natural es un hermoso mecanismo a través del cual los acontecimientos raros (concretamente, los acontecimientos raros y favorables) se convierten en hechos habituales.

Actualmente sabemos —y fue señalado por primera vez por R. A. Fischer— que para que este mecanismo tenga lugar, la herencia debe ser «particulada», tal como demostró inicialmente Mendel, y no «combinada». En la herencia combinada, las propiedades de la descendencia son una simple mezcla de las propiedades de los padres. En la herencia particulada los genes, que es lo que se hereda, son partículas y no mezclas, lo que significa una diferencia fundamental.

Por ejemplo, en la herencia combinada un animal negro apareado con un animal blanco siempre produciría descendientes cuyo color sería una mezcla de negro y blanco, es decir, tonos de gris. Y a su vez la descendencia de éstos si se aparearan entre sí, siempre sería gris. En la herencia particulada pueden ocurrir varias cosas. Por ejemplo, podría ser que todos los miembros de la primera generación fueran grises. Si después se cruzaran entre sí, en la segunda generación obtendríamos una media de una cuarta parte de animales negros, la mitad grises y la otra cuarta parte blancos. (Esto presupone que en este caso el color es un carácter mendeliano simple, sin dominancia). Los genes particulados no se mezclan, aunque sus efectos se mezclen en un determinado animal, de modo que una partícula blanca (gen) y una partícula negra, actuando juntas en el mismo ser, producirían un animal gris. Esta herencia particulada conserva la variabilidad (durante dos generaciones habremos mezclado animales negros, grises y blancos, y no solamente grises), mientras que en la herencia combinada se reduce la variabilidad. Si la herencia fuera combinada, la descendencia de un animal negro cruzado con uno blanco daría lugar a animales grises indefinidamente. Obviamente, éste no es el caso, hecho que puede observarse claramente en los seres humanos: a medida que se suceden las generaciones, la gente no se parece cada vez más. Se está conservando la variabilidad.

Darwin, que era un hombre honesto y siempre se enfrentaba a las dificultades intelectuales, no conocía la herencia particulada y, en consecuencia, las críticas de un ingeniero escocés, Fleeming Jenkins, le inquietaron profundamente. Jenkins señaló que la herencia (que Darwin, sin saberlo, consideraba combinada) impediría que la selección natural actuara eficazmente. Como aún no se había pensado en la existencia de la herencia particulada, ello representó una crítica irrefutable.

¿Cuáles son, entonces, los requisitos básicos para que actúe la selección natural? Es obvio que necesitamos de algo que pueda contener la «información», es decir las instrucciones. El requisito más importante es que debemos contar con un proceso que asegure la replicación exacta de dicha información. Es cierto que en cualquier proceso se pueden cometer errores, pero deberían ocurrir sólo ocasionalmente, sobre todo si la entidad que debe replicarse contiene mucha información. (En el caso del DNA o el RNA, la frecuencia de errores cometidos por par de bases efectivo y por generación, en los casos más simples debe ser bastante menor que el recíproco del número efectivo de pares de bases).

El segundo requisito es que la replicación produzca entidades que tengan la capacidad de copiarse por el proceso o procesos de replicación. La replicación no debería ser meramente como una copia de imprenta, donde a partir de los fotolitos se imprimen muchas copias de un periódico. (En términos técnicos, la replicación debería ser geométrica, no meramente aritmética).

El tercer requisito es que los errores —las mutaciones— puedan copiarse, de modo que las modificaciones útiles sean susceptibles de conservarse por la selección natural.

Hay un último requisito: que las instrucciones y sus productos se mantengan unidos (hay que evitar que se entremezclen con otros). Para lograrlo, un truco útil es emplear una bolsa —es decir, una célula—, pero no voy a detenerme en este aspecto.

Además, la información debe hacer útil, o bien producir otras cosas que cumplan tareas útiles, para así ayudar a su supervivencia y producir descendencia fértil que tenga posibilidades elevadas de sobrevivir.

Junto con todo ello, el organismo necesita fuentes de materia prima (ya que debe fabricar copias de sí mismo), capacidad para eliminar los productos de desecho y algún tipo de fuente de energía (energía libre). Todas estas características son necesarias, pero obviamente lo esencial es el proceso de la replicación exacta.

No corresponde explicar aquí la genética mendeliana con todos sus detalles técnicos. Sin embargo, intentaré dar una visión de los sorprendentes resultados que un mecanismo tan simple como la selección natural puede producir durante largos períodos de tiempo. Una versión más completa y fácil de interpretar se puede encontrar en los primeros capítulos del reciente libro de Richard Dawkins, The Blind Watchmaker (El relojero ciego). Cabe preguntarse el porqué del título del libro. El relojero se refiere, evidentemente, al diseñador a quien Paley recurrió para explicar un reloj imaginario hallado tras el brezal. Pero ¿por qué ciego? Lo mejor será citar las propias palabras de Dawkins:

Aunque parezca lo contrario, el único relojero de la naturaleza es la fuerza ciega de la física, y lo es de un modo muy especial. Un auténtico relojero actúa según sus previsiones: diseña sus ruedas dentadas y resortes, y planea sus interconexiones, con un objetivo futuro en su imaginación. La selección natural, el proceso ciego, inconsciente, automático, que Darwin descubrió y que ahora sabemos que es la explicación de la existencia y del objetivo aparente de las formas de vida, no tiene ningún propósito en la mente. No posee mente ni imaginación. No planifica el futuro. No tiene visión, previsión, ni vista. Si se le atribuye el papel de relojero en la naturaleza es, por ende, el relojero ciego.

Dawkins nos da un bonito ejemplo para refutar la idea de que la selección natural no puede haber producido la complejidad que vemos a nuestro alrededor en la naturaleza. El ejemplo es muy simple, pero da en el blanco. Dawkins considera una frase corta (de Hamlet):

METHINKS IT IS LIKE A WEASEL

(Creo que es como una comadreja)

En primer lugar calcula lo sumamente improbable que es que alguien, escribiendo a máquina al azar (tradicionalmente un mono, pero en este caso su hija de once meses de edad o un programa adecuado de ordenador) escribiera esta misma frase, con todas sus letras en el lugar correcto. (Las probabilidades resultan ser de alrededor de 1 en 1040). Dawkins denomina a este proceso «selección de paso único».

A continuación intenta una aproximación distinta, que denomina «selección cumulativa». El ordenador elige al azar una secuencia de veintiocho letras. Acto seguido hace varias copias, pero con cierta probabilidad de cometer errores aleatorios al copiar. Después procede a seleccionar la copia que se parece más a la frase en cuestión, aunque se parezca poco. Empleando esta versión ligeramente mejorada, repite este proceso de replicación (con mutaciones) seguida de la selección. En el libro, Dawkins da ejemplos de algunos de los pasos intermedios. En uno de los casos, después de treinta pasos, había producido:

METHING IT ISWLIKE B WECSEL

y después de cuarenta y tres pasos había logrado la frase totalmente correcta. El número de pasos requeridos es, en parte, una cuestión de azar. En otras pruebas necesitó sesenta y cuatro pasos, cuarenta pasos, etcétera. La cuestión es que la selección cumulativa puede llegar al objetivo en un número de pasos relativamente reducido, mientras que la selección de paso único tardaría una eternidad.

Es evidente que el ejemplo es excesivamente simple, de modo que Dawkins intentó uno más complejo, en el cual el ordenador creaba «árboles» (organismos) según unas leyes recurrentes (genes). Los resultados son demasiado complejos para reproducirlos aquí. Dice Dawkins: «Nada, en mi intuición de biólogo, nada en mi experiencia de veinte años en la programación de ordenadores y ninguno de mis sueños más descabellados, me han preparado para lo que realmente surgió en la pantalla».

Si alguien duda del poder de la selección natural, le recomiendo encarecidamente, para salvar su alma, que lea el libro de Dawkins. Pienso que puede ser una revelación. Dawkins expone un razonamiento ameno para demostrar hasta qué punto puede llegar el proceso de la evolución en el tiempo de que dispone. Señala cómo el hombre, mediante la selección, ha producido una enorme variedad de tipos de perros —tales como pequineses, bulldogs y demás— tan sólo en unos pocos miles de años. Aquí «el hombre» es el factor importante del medio ambiente, y sus gustos peculiares han producido (por crianza selectiva, no por «diseño») los fenómenos de la naturaleza que tenemos a nuestro alrededor en forma de perros domésticos. Sin embargo, en la escala evolutiva de cientos de millones de años, el tiempo requerido para lograrlo es extraordinariamente corto. Por ello no deberíamos sorprendernos de la infinitamente mayor variedad de seres que la selección natural ha producido a lo largo de dicha escala evolutiva.

A propósito, el libro de Dawkins contiene una crítica justa pero devastadora de La probabilidad de Dios, de Hugh Montefiore, obispo de Birmingham. Conocí a Hugh cuando era decano del Caius College de Cambridge, y concuerdo con Dawkins en que su libro «… es un intento sincero y honesto, por parte de un escritor acreditado y culto, de actualizar la teología natural». También estoy totalmente de acuerdo con la crítica de Dawkins.

A estas alturas debo hacer una pausa para preguntar cuál es exactamente la causa de que mucha gente encuentre tan difícil de aceptar la selección natural. Parte de esta dificultad se debe a que el proceso es muy lento, según nuestras pautas habituales, y por consiguiente rara vez tenemos una prueba directa de que está actuando. Tal vez el tipo de juego de ordenador que Richard Dawkins describe ayude a algunas personas a entrever el poder del mecanismo, pero no a todo el mundo le gusta jugar con ordenadores. Otra dificultad es el sorprendente contraste entre la elevada organización y los resultados complejos del proceso —todos los organismos vivos de nuestro alrededor—, y el proceso aleatorio en que se basa. Pero este contraste es ficticio, puesto que el proceso en sí mismo está lejos del azar debido a la presión selectiva del medio ambiente. Sospecho que a algunas personas les desagrada la idea de que la selección natural no tenga objetivo. En efecto, el propio proceso no sabe adónde va. Es el «medio ambiente» el que indica la dirección, y a la larga sus efectos son casi totalmente impredecibles en detalle. Sin embargo, los organismos parecen haber sido diseñados para actuar de un modo sorprendentemente eficaz, y en consecuencia la mente humana encuentra difícil de aceptar que no sea imprescindible un Diseñador para lograrlo. Los aspectos estadísticos del proceso y el elevado número de organismos posibles, demasiados para que todos excepto una parte minúscula hayan existido alguna vez, son difíciles de comprender. Pero es evidente que el proceso funciona. Y disponemos de ejemplos, tanto en el laboratorio como en la naturaleza, de que la selección natural actúa desde el nivel molecular hasta el nivel de organismos y poblaciones.

Creo que hay dos críticas justas a la selección natural. La primera es que aún no se puede calcular, desde el inicio, la velocidad de la selección natural, excepto de un modo aproximado, aunque esto podrá facilitarse cuando comprendamos más detalladamente cómo se desarrollan los organismos. Después de todo, es extraño que nos preocupemos de cómo han evolucionado los organismos (proceso difícil de estudiar, ya que sucedió en el pasado y es inherentemente imprevisible), cuando aún no sabemos con exactitud cómo funcionan actualmente. La embriología es mucho más fácil de estudiar que la evolución. La estrategia más lógica sería la de descubrir, de un modo detallado, cómo se desarrollan los organismos y cómo funcionan, y sólo entonces preocuparnos de cómo evolucionaron. Pero la evolución es una disciplina tan fascinante que no podemos resistir la tentación de intentar encontrarle una explicación ahora, aunque nuestros conocimientos de embriología sean todavía muy incompletos.

La segunda crítica sugiere que quizá no conozcamos aún todos los artilugios que han sido desarrollados para que la selección natural sea más eficaz. Todavía podemos tener sorpresas en cuanto a los mecanismos utilizados para que la evolución sea más fácil y rápida. El sexo, probablemente, es un ejemplo de este tipo de mecanismo, y por lo que sabemos puede haber otros sin descubrir. El DNA egoísta —las elevadas cantidades de DNA de nuestros cromosomas que parecen no tener una función obvia— podría ser parte de otro (véase página 167-168). Es muy posible que este DNA desempeñe un papel esencial en la evolución rápida de algunos de los complejos mecanismos de control genético imprescindibles para los organismos superiores.

Pero dejando a un lado estas reservas, el proceso es poderoso, versátil y muy importante. Es sorprendente que en nuestra cultura moderna haya tan poca gente que realmente lo comprenda.

Se pueden aceptar fácilmente todos estos argumentos sobre la evolución, selección natural y genes, junto con la idea de que los genes son unidades de instrucciones dentro de un programa elaborado que forma los organismos a partir del huevo fertilizado y ayuda a controlar su comportamiento posterior. Y sin embargo, aún resulta posible sentirse intrigado. Podríamos preguntarnos cómo pueden ser los genes tan inteligentes y qué deben de hacer para permitir la construcción de todas las partes, tan bien elaboradas y magníficamente controladas, de los seres vivos.

Para responder a estas cuestiones tenemos que comprender en primer lugar sobre qué dimensiones estamos hablando. ¿Qué tamaño tiene un gen? Cuando empecé con la biología —a finales de la década de los cuarenta—, ya había pruebas indirectas de que un gen no era mayor, posiblemente, que una molécula grande, o sea una macromolécula. Es curioso que un argumento simple y sugestivo, basado en el conocimiento vulgar, también apunte en esta dirección.

A grandes rasgos, la genética nos dice que la mitad de nuestros genes provienen de nuestra madre, del óvulo, y la otra mitad de nuestro padre, del espermatozoo. Ahora bien, la cabeza del espermatozoo humano, donde están contenidos estos genes, es muy pequeña. Un espermatozoo es demasiado pequeño para ser detectado a simple vista, pero puede observarse con un microscopio de alta potencia. Y sin embargo, en este espacio tan pequeño debe alojarse una serie casi completa de instrucciones para fabricar un ser humano completo (el duplicado de la serie lo aporta el óvulo). Trabajando con estos datos, la conclusión inevitable es que un gen tiene que ser pequeño, muy pequeño, de un tamaño similar al de una molécula grande. Con sólo esta información no podemos saber cuál es la función de un gen, pero sí que sería razonable considerar antes la química de las macromoléculas.

En aquella época también se sabía que cada reacción química de la célula está catalizada por un tipo especial de molécula grande. Estas moléculas se llaman enzimas. Los enzimas son los instrumentos de la maquinaria de las células vivas. Fueron descubiertos por Edward Buchner, quien diez años más tarde recibió el Premio Nobel por este hallazgo. En sus experimentos, aplastó células de levadura en una prensa hidráulica y obtuvo una mezcla rica en jugos de levadura. Se preguntó si estos fragmentos de células vivas podían llevar a cabo alguna de sus reacciones químicas características, puesto que en aquel tiempo la mayoría de la gente creía que la célula debía de estar intacta para que estas reacciones tuvieran lugar. Puesto que quería conservar el jugo, utilizó una estrategia usada en la cocina: añadió mucho azúcar. Para su sorpresa, ¡el jugo fermentó la solución de azúcar! Y así fueron descubiertos los enzimas. (La palabra enzima significa «en la levadura»). Pronto se descubrió que los enzimas podían obtenerse de muchos otros tipos de células, incluidas las nuestras, y que cada célula contenía muchos tipos distintos de enzimas. Hasta una simple célula bacteriana puede contener más de mil tipos distintos de enzimas. Puede haber cientos o miles de moléculas de cualquier tipo.

En circunstancias favorables, es posible aislar un enzima de los restantes y estudiar su acción en solución. Estos estudios demostraron que cada enzima era muy específico, y que sólo catalizaba una reacción química determinada o, como máximo, unas pocas relacionadas. Sin el enzima determinado, en las condiciones suaves de temperatura y acidez habituales de las células vivas, la reacción química sólo se llevaría a cabo lenta, muy lentamente. Se añade dicho enzima y la reacción ocurre a una buena marcha. Si hacemos una solución bien dispersa de almidón en agua, es poco lo que sucede. Si se escupe en ella, el enzima amilasa de la saliva empezará a digerir el almidón y a liberar los azúcares.

El siguiente descubrimiento importante fue que cada uno de los enzimas estudiados era una macromolécula y que todos ellos pertenecían a la misma familia de macromoléculas, denominadas proteínas. El descubrimiento clave fue realizado en 1926 por el químico estadounidense James Summers, que era manco. No es fácil trabajar como químico cuando sólo se tiene un brazo (había perdido el otro en un accidente de caza cuando era niño), pero Summers, un hombre muy obstinado, decidió que, de todos modos, demostraría que los enzimas son proteínas. Aunque probó que un enzima determinado, la ureasa, era una proteína y la obtuvo en forma cristalizada, sus resultados no fueron aceptados inmediatamente. De hecho, un grupo alemán atacó enérgicamente la idea, lo cual amargó a Summers, pero al final resultó que él tenía razón. En 1946 compartió el Premio Nobel de Química por su descubrimiento. Aunque recientemente han aparecido algunas excepciones a esta regla, sigue siendo válido que la mayoría de enzimas son proteínas.

Así, las proteínas son una familia de moléculas sutiles y versátiles. En cuanto supe lo que eran, me di cuenta de que uno de los problemas clave consistía en explicar cómo son sintetizadas.

Hubo una tercera generalización importante, aunque en los años cuarenta era demasiado novedosa para que todo el mundo se decidiera a aceptarla. La idea fue de George Beadle y Ed Tatum (también recibirían el Premio Nobel por su hallazgo). Trabajando en el minúsculo hongo del pan Neurospora, observaron que a cada mutante que estudiaban sólo le faltaba un único enzima. Así, acuñaron el famoso lema «Un gen, un enzima».

De este modo, el esquema general de los seres vivos parecía bastante claro. Cada gen determina un enzima concreto. Algunas de estas proteínas se utilizan para formar estructuras o para transportar señales, mientras que muchas de ellas son los catalizadores que deciden qué reacciones químicas deben tener o no tener lugar en cada célula. Prácticamente cada célula de nuestro cuerpo contiene un juego completo de genes en su interior, y este programa químico determina de qué modo cada célula metaboliza, crece e interacciona con sus vecinas. Equipado con todos estos conocimientos (para mí nuevos), no me costó mucho identificar las cuestiones clave. ¿De qué están formados los genes? ¿Cómo son copiados con exactitud? ¿Y cómo controlan la síntesis de proteínas, o al menos cómo influyen en ella?

Hacía tiempo que se sabía que la mayoría de genes de una célula estaban localizados en sus cromosomas y que éstos, probablemente, estaban constituidos por nucleoproteína, es decir, proteína y DNA, y tal vez también un poco de RNA. A principios de los años cuarenta se creía, equivocadamente, que las moléculas de DNA eran pequeñas y, aún más erróneamente, simples. Phoebus Levene, el máximo experto de los años treinta en ácidos nucleicos, propuso que tenían una estructura regular repetida (la llamada hipótesis del tetranucleótido). Esto no parecía indicar que pudieran almacenar fácilmente información genética. Se creía que si los genes tenían que tener unas propiedades tan notables, probablemente estarían constituidos por proteínas, ya que se sabía que las proteínas, como clase, eran capaces de llevar a cabo funciones extraordinarias. Tal vez el DNA tenía alguna función asociada, como la de actuar de andamio para las proteínas más sofisticadas.

Se sabía también que cada proteína era un polímero. Es decir que consistía en una cadena larga, conocida como cadena polipeptídica, construida al ensartar pequeñas moléculas orgánicas unidas por sus extremos, denominadas monómeros, puesto que son los elementos de un polímero. En un homopolímero como el nailon, los monómeros pequeños son normalmente idénticos. Las proteínas no son tan simples. Cada proteína es un heteropolímero, con cadenas ensartadas juntas a partir de un conjunto de pequeñas moléculas algo distintas, en este caso los aminoácidos. En términos químicos, el resultado neto es que cada cadena polipeptídica tiene una espina dorsal totalmente regular, con pequeñas cadenas laterales unidas a intervalos regulares. Se creía que había unas veinte cadenas laterales distintas posibles (entonces el número exacto no se conocía). Los aminoácidos (los monómeros) son como letras de fundición. La base de cada tipo de letra de la fundición es siempre la misma, para que puedan encajar en las ranuras que mantienen el conjunto, pero su parte superior es distinta, de modo que se pueda imprimir cada una de ellas. Cada proteína tiene un número característico de aminoácidos, normalmente varios centenares, de modo que una proteína concreta se podría considerar burdamente como un párrafo escrito en una lengua especial con cerca de veinte letras (letras químicas). Entonces no se sabía con certeza, como se sabe hoy, que para cada proteína las letras tienen que estar en un orden específico (como también tienen que estarlo en un párrafo determinado). Poco después esto fue demostrado por el bioquímico Fred Sanger, pero era fácil conjeturar que probablemente fuera así.

De hecho, un párrafo de nuestro lenguaje es, en realidad, una larga hilera de letras. Para comodidad, se divide en una serie de líneas, escritas una debajo de la otra, pero esto es secundario, pues el significado es exactamente el mismo si las líneas son largas o cortas, pocas o muchas, siempre que no contemos las palabras al final de cada línea. Se sabía que las proteínas eran muy distintas. Aunque el polipéptido dorsal es químicamente regular, contiene muchos enlaces flexibles, de modo que son posibles muchas formas tridimensionales. Sin embargo, cada proteína parecía tener su propia forma, y en muchos casos se sabía que esta forma era muy compacta (la palabra utilizada fue «globular») en lugar de extendida (o «fibrosa»). Varias proteínas habían sido cristalizadas y estos cristales presentaban patrones de difracción de rayos X característicos, lo que sugería que la estructura tridimensional de cada molécula de un tipo de proteínas era idéntica (o casi idéntica). Además muchas proteínas, al ser calentadas brevemente hasta el punto de ebullición del agua —o incluso a una temperatura inferior— se desnaturalizaban, como si se hubieran desplegado y su estructura tridimensional se hubiera destruido parcialmente. Cuando esto sucedía, la proteína desnaturalizada solía perder su capacidad catalítica u otra función, lo que sugería que la función de tales proteínas dependía de su exacta estructura tridimensional.

Y ahora podemos abordar el problema aparentemente insoluble. Si los genes están formados por proteínas, parecía plausible que cada gen tuviera que tener una estructura tridimensional especial, algo así como una estructura compacta. Ahora bien, una propiedad vital del gen era que pudiera copiarse exactamente de generación en generación, con sólo algunos errores ocasionales. Lo que intentábamos dilucidar era la naturaleza general de este mecanismo de copia. Evidentemente, la manera de copiar algo era hacer una estructura complementaria —un molde— y después hacer otra estructura complementaria del molde, para producir una copia exacta del original. En términos generales así es, al fin y al cabo, como se copia la escultura. Pero entonces surgió el dilema: de esta manera es fácil copiar la parte externa de la estructura tridimensional, pero ¿cómo es posible copiar la interna? El proceso global parecía tan misterioso que apenas sabíamos cómo empezar a pensar en él.

Claro que ahora, que conocemos la respuesta, todo parece tan evidente que nadie se acuerda de lo enigmático que entonces parecía.

Si por casualidad el lector no conoce la respuesta, le pediría que hiciera una pausa durante un momento y reflexione sobre cuál podría ser. No es necesario preocuparse por los conocimientos químicos. Es la idea básica la que importa. El problema también se agravaba porque no se sabía con certeza si muchas de las propiedades de las proteínas mencionadas anteriormente existían. Todas parecían plausibles y muchas daban la impresión de ser muy probables; pero como en casi todos los problemas relacionados con la investigación, siempre persistían dudas sobre si una o más de estas suposiciones serían erróneas.

¿Cuál era entonces la respuesta? Curiosamente, yo había encontrado la respuesta correcta antes de descubrir con Jim Watson la estructura en doble hélice del DNA. La idea básica (no del todo nueva) era la siguiente: lo único que debía hacer un gen era tener la secuencia de aminoácidos correcta para la proteína. Una vez que la cadena polipeptídica correcta se hubiera sintetizado, con todas sus cadenas laterales en la posición adecuada, la proteína, siguiendo las leyes de la química, se plegaría correctamente en una estructura tridimensional única. (La estructura tridimensional exacta de cada proteína aún estaba por determinar). Con esta hipótesis temeraria, el problema había pasado de una estructura tridimensional a otra unidimensional, y la mayor parte del dilema original se había desvanecido.

Claro está que no se había resuelto el problema. Meramente había convertido un dilema intratable en otro manejable. Pero el problema aún persistía: cómo hacer una copia exacta de una secuencia unidimensional. Para abordar esta cuestión debemos volver a lo que se conocía sobre el DNA.

A finales de la década de los cuarenta, nuestros conocimientos sobre el DNA habían mejorado en varios aspectos importantes. Se había descubierto que, después de todo, las moléculas de DNA no eran muy cortas, aunque no estaba claro en qué medida eran largas. Ahora sabemos que parecían cortas porque siendo moléculas largas (en el sentido en que un trozo de cordel es largo) podían romperse con facilidad durante el proceso de extracción de la célula y de manipulación en un tubo de ensayo. La agitación de una solución de DNA es suficiente para romper las moléculas más largas. Ahora su química se conocía mejor y, además, la hipótesis del tetranucleótido había muerto, liquidada por el magnífico trabajo de un químico de Columbia, el refugiado austríaco Erwin Chargaff. Se sabía que el DNA era un polímero, pero con un esqueleto dorsal muy distinto y con sólo cuatro letras en su alfabeto, en lugar de veinte. Chargaff demostró que los DNA procedentes de distintas fuentes tenían unas cantidades muy diferentes de estas cuatro bases (así se llamaron). Después de todo, tal vez el DNA no fuera una molécula tan sosa. Posiblemente era suficientemente larga y variada para contener algo de información genética.

Incluso antes de que yo dejara el Ministerio de Marina se habían dado pruebas bastante inesperadas, indicativas de que el DNA podría estar cerca del núcleo del misterio. Avery, MacLeod y MacCarty, que trabajaban en el Rockefeller Institute de Nueva York en 1944, habían publicado un artículo afirmando que el «factor transformante» del neumococo consistía en DNA puro. El factor transformante era extraído químicamente a partir de cepas de bacterias de cubierta lisa. Cuando se añadía a una cepa relacionada que carecía de esta cubierta, la «transformaba», de modo que algunas de las bacterias adquirían la cubierta lisa. Y, lo que era más importante aún, todos los descendientes de estas células tenían la misma cubierta lisa. En el artículo, los autores fueron muy prudentes en la interpretación de sus resultados, pero en una carta ahora famosa, dirigida a su hermano, Avery se expresó con más libertad. «Parece un virus… puede ser un gen», escribió.

Esta conclusión no fue aceptada de inmediato. Un bioquímico muy influyente, Alfred Mirsky —también del Rockefeller—, estaba convencido de que era una impureza del DNA la que provocaba la transformación. A continuación, un trabajo más minucioso de Rollin Hotchkiss, en el Rockefeller, demostró que esto era altamente improbable. Se argumentó que la prueba de Avery, MacLeod y MacCarty era endeble, puesto que sólo se había transformado un carácter. Hotchkiss demostró que también se podía transformar otro carácter. El hecho de que estas transformaciones fueran poco fiables, difíciles de realizar, y que sólo alteraran una minoría de las células, no mejoró la cuestión. Otra de las objeciones era que sólo se había demostrado que el proceso ocurría en estas bacterias. Además, en aquella época no se había demostrado aún que las bacterias tuvieran genes, aunque fue descubierto no mucho después por Joshua Lederberg y Ed Tatum. En resumen, se temía que la transformación hubiera sido un caso fortuito y equívoco en lo que se refiere a los organismos superiores. Esta opinión no era del todo descabellada. Una pequeña prueba aislada y única, por notable que sea, siempre está sujeta a la duda. Lo convincente es la acumulación de varias líneas distintas de pruebas.

A veces se afirma que el trabajo de Avery y sus colegas fue ignorado y desatendido. Naturalmente, hubo un espectro de reacciones distintas frente a sus resultados, pero es difícil afirmar que nadie los conociera. Por ejemplo la Royal Society, aquel cuerpo augusto y algo conservador, premió a Avery con la Medalla Copley en 1945, citando específicamente su trabajo sobre el factor transformante. Me encantaría saber quién les mandó la mención.

Sin embargo, incluso si se dejan a un lado todas las objeciones y reservas, el hecho de que el factor transformante fuera DNA puro no prueba que sólo el DNA sea el material genético en el neumococo. Lógicamente, se podría afirmar que el gen estuviera formado por DNA y proteínas, cada uno conteniendo una parte de la información genética, y que sólo fuera un accidente del sistema que, en la transformación, la parte de DNA alterado contuviera la información para cambiar la cubierta de polisacáridos. Posiblemente en otro experimento se podría encontrar un componente proteico que también produciría un cambio heredable en la cubierta o en otras propiedades de la célula.

Cualquiera que fuera la interpretación, a causa de este experimento y del aumento de conocimientos sobre la química del DNA, ahora era plausible que los genes estuvieran formados sólo por DNA. Mientras tanto, el interés principal del grupo del Cavendish se volcaba en la estructura tridimensional de proteínas tales como hemoglobina y mioglobina.