Como ya se ha visto, el código genético era un problema que no se resolvería con aproximaciones puramente teóricas. Esto no quiere decir que una base teórica no pudiera ser útil, aunque sólo fuera para dirigir los experimentos que había que hacer. La naturaleza de la estructura del DNA daba vida a estas especulaciones. De otra forma hubieran sido demasiado vagas para ser útiles. En 1957 fui invitado a participar en un simposio de la Sociedad para la Biología Experimental de Londres, lo que me dio la oportunidad de concretar y escribir mis ideas, muchas de las cuales habían sido formuladas antes.
Lo que sugería la estructura del DNA era que la secuencia de bases en el DNA codificaba la secuencia de aminoácidos de la proteína correspondiente. En el artículo, llamaba a esto hipótesis de la secuencia. Cuando he vuelto a leerlo me he dado cuenta de que no me expliqué de forma muy precisa cuando decía: «… esto supone que la especificidad de un fragmento de ácido nucleico viene expresada únicamente por la secuencia de sus bases y que esta secuencia es un (sencillo) código para la secuencia de aminoácidos de una proteína particular». Esto parece implicar que todas las secuencias de ácido nucleico deben codificar para proteínas, lo que ciertamente no es lo que yo quería dar a entender. Hubiera debido decir que la única manera de que un gen codificara la secuencia de aminoácidos de una proteína era por medio de su secuencia de bases. Esto deja abierta la posibilidad de que partes de la secuencia de bases puedan ser utilizadas para otros propósitos, como mecanismos de control (para determinar si un gen en particular debería estar trabajando y a qué velocidad) o para producir RNA que tuviera otra finalidad que de codificador. No creo que nadie se diera cuenta de mi resbalón, así que debió de hacer poco daño.
La otra idea teórica que propuse era de un carácter muy distinto. Sugería que «una vez que la “información” ha pasado a la proteína ya no puede salir de ella» y añadía que «la información significa aquí la determinación precisa de la secuencia, ya sea de bases en el ácido nucleico o de residuos de aminoácido en la proteína» (ver apéndice A).
Llamé a esta idea dogma central por dos razones, supongo. Ya había utilizado la palabra hipótesis en la hipótesis de la secuencia y además quería sugerir que esta nueva suposición era más central y más poderosa. Me di cuenta de que su naturaleza especulativa estaba reforzada con su nombre.
Resultó que el uso de la palabra dogma provocó más problemas de los que merecía. Muchos años más tarde, Jacques Monod me señaló que yo no parecía entender el uso correcto de la palabra dogma, que equivale a una creencia de la que no puede dudarse. Yo lo sospechaba vagamente, pero como pensaba que todas las creencias religiosas carecían de fundamentos serios, usé la palabra a mi manera, que no es muy distinta a la del resto del mundo y la apliqué sencillamente a una gran hipótesis que, aunque fuera plausible, tenía poco soporte experimental directo.
¿Para qué sirven estas ideas generales? Evidentemente son especulativas y por tanto puede llegar a demostrarse que son erróneas. Sin embargo, ayudan a organizar hipótesis más positivas y explícitas. Si se formulan adecuadamente pueden actuar como una guía a través de la enmarañada confusión de las teorías. Sin una guía así, cualquier teoría parece posible. Con ella muchas hipótesis caen y uno ve de forma mucho más clara en cuáles hay que concentrarse. Si esta aproximación todavía le deja a uno perdido en la selva, se prueba otra vez con un nuevo dogma para ver si se avanza mejor. Afortunadamente, en biología molecular el primero que se formuló resultó ser correcto.
Creo que ésta es una de las funciones más útiles que un teórico puede realizar en biología. En casi todos los casos, es prácticamente imposible para un teórico llegar a la solución correcta de un conjunto de problemas biológicos sólo con el pensamiento. Debido a que han evolucionado por selección natural, los mecanismos implicados suelen ser demasiado accidentales e intrincados. Lo más útil que puede hacer el teórico es indicar la dirección correcta a un experimentador, y esto suele hacerse mejor indicando qué direcciones hay que evitar. Si uno tiene pocas esperanzas de llegar sin ayuda a la teoría correcta, es más útil sugerir qué clase de teorías tienen menor probabilidad de ser ciertas, utilizando algún argumento general sobre lo que se conoce de la naturaleza del sistema.
Mirando hacia el pasado, puede observarse que «Sobre la síntesis de proteínas» es una mezcla de ideas buenas y malas, de intuiciones penetrantes y absurdas. Las ideas que luego se han demostrado correctas son las que, principalmente, estaban basadas en argumentos generales utilizando datos establecidos algún tiempo atrás. Las ideas incorrectas surgían principalmente de los resultados experimentales más inmediatos, que en muchos casos han acabado siendo incompletos o engañosos, si no totalmente falsos.
También en esta fase se había introducido una idea errónea. Estaba claro que yo veía el RNA en el citoplasma —en las que entonces se llamaban partículas microsomales (la palabra ribosoma no tenía todavía un uso generalizado)— como un «molde», es decir algo que tenía una estructura bastante rígida, comparable con la doble hélice del DNA, aunque probablemente con una sola cadena. Fue más tarde cuando me di cuenta de que ésta era una idea demasiado restrictiva y que una «cinta» podía estar más cerca de la verdad. Así como una cinta de papel perforado no tiene una estructura rígida excepto cuando está en la máquina lectora, me di cuenta de que el RNA que dirige la síntesis de una proteína no tiene por qué ser rígido, sino que podría ser flexible excepto por la parte que codifica para el siguiente aminoácido que sería incorporado. Otra consecuencia de esta idea era que la proteína que crecía no tenía por qué permanecer en el molde, sino que podría comenzar a plegarse al ir realizándose la síntesis, tal como había sido sugerido previamente.
Había otro error mucho más grave en mis ideas de aquel entonces. No voy a explicar todos los detalles (están en el artículo) pero estaba cometiendo errores porque confundía el mecanismo (de la síntesis de proteínas) con los mecanismos completamente independientes que lo controlaban. En pocas palabras, debido a que algunos experimentos sugerían que la leucina (uno de los aminoácidos) era necesaria para la síntesis de RNA, yo infería que probablemente había intermediarios comunes para la síntesis de proteínas y de RNA que podían ser utilizados para sintetizar uno u otro según fuera necesario. De hecho, es el mecanismo de control el que necesita leucina libre si el RNA ha de continuar, probablemente porque no se necesita nuevo RNA si la célula está tan hambrienta que no hay leucina libre disponible. Creo que uno puede caer en el error de mezclar efectos debidos a la naturaleza misma del mecanismo con efectos debidos a su control al tratar de descifrar un sistema biológico complejo.
Es interesante señalar en este punto otro error dentro de esta categoría general. Y este consiste en confundir un proceso menor, que ha aparecido para mejorar la eficacia del proceso principal, con el proceso principal mismo y, en consecuencia, sacar conclusiones falsas respecto a este último. También puede ocurrir que uno desconozca este proceso menor y por tanto concluya que un mecanismo postulado para el proceso principal no podría funcionar.
Consideremos, por ejemplo, el porcentaje de errores en la replicación del DNA. No es difícil comprender que si un organismo posee un millón de pares de bases con significado, el porcentaje de errores por paso de replicación no puede ser mayor que una en un millón. (La formulación exacta ha sido hecha con propiedad por Manfred Eigen). El DNA humano tiene alrededor de tres mil millones de pares de bases (por conjunto haploide de cromosomas) y aunque ahora sabemos que sólo una fracción de éstas han de ser replicadas de forma precisa, el porcentaje de error no puede ser mayor que uno en cien millones (hablando de forma aproximada), o el organismo acabaría siendo torpedeado en la evolución por sus propios errores. Sin embargo, hay una proporción natural de errores en la replicación (debido a la naturaleza tautomérica de las bases) que sería difícil de reducir por debajo de uno en diez mil. Una conclusión evidente es que el DNA no puede ser el material genético, ya que su replicación produciría demasiados errores.
Por suerte nunca consideramos muy seriamente este argumento. La salida obvia es suponer que la célula ha desarrollado mecanismos de corrección de los errores. Ya que la doble hélice lleva dos copias (complementarias) de la información de la secuencia, es fácil ver cómo ello puede hacerse. La tasa de error observado (la tasa de mutación) podría deberse a errores en el mecanismo mismo de corrección de errores y de esta forma podría ser reducida a un valor muy bajo. Leslie Orgel y yo escribimos una carta personal a Arthur Kornberg explicándole esto y previendo que el enzima que estaba estudiando y que replicaba el DNA en el tubo de ensayo (el llamado enzima de Kornberg) debería de contener dentro de sí un sistema de corrección de errores, tal como en efecto sucede. De hecho, el DNA es tan precioso y frágil que, como hoy sabemos, la célula ha desarrollado una gran variedad de mecanismos de reparación para protegerlo de los ataques de la radiación, de los productos químicos y de otros peligros. Este es el tipo de cosas que el proceso de evolución por selección natural nos llevaría a esperar.
Quizá vale la pena mencionar otro tipo de error. Uno no debería creerse demasiado listo. O, más concretamente, es importante no confiar demasiado en los propios razonamientos. Esto es aplicable a los razonamientos negativos en particular, razonamientos que sugieren que no vale la pena probar aproximaciones determinadas porque necesariamente fallarán.
Consideremos el siguiente ejemplo. Por lo que sé, este razonamiento no fue nunca formulado, aunque podría haberlo sido hacia 1950. Rosalind Franklin había demostrado que las fibras de DNA, especialmente cuando estaban estiradas cuidadosamente y montadas en condiciones en las que la humedad era controlada, podían dar un patrón de difracción de rayos X de la llamada forma A que tiene muchos puntos bien definidos. Utilizando la teoría de la Transformada de Fourier se puede ver inmediatamente que estos puntos demuestran la existencia de una estructura con una repetición regular. Si el DNA fuera el material genético, difícilmente tendría una repetición regular, ya que no podría llevar información. En consecuencia, el DNA no puede ser el material genético.
Sin embargo existe un razonamiento contrario al anterior. Los puntos de rayos X no se extienden hacia espaciados pequeños. ¿Por qué los puntos decrecen de esta forma? Podría ser que, o bien la estructura es muy regular pero está distorsionada de alguna forma al azar en la fibra, o bien una parte de la estructura es regular y otra irregular. Si esto fuera así ¿por qué la parte irregular no podría llevar la información genética? Si éste es el caso, resolver la parte regular de la estructura de rayos X usando los puntos que existen no nos dirá nunca lo que queremos saber, la naturaleza de la información genética; por tanto, ¿para qué preocuparnos en hacerlo?
Conociendo la respuesta es fácil percibir la falacia de este razonamiento negativo. Es verdad que los datos de rayos X de fibras no pueden nunca decirnos los detalles íntimos de la secuencia de bases. Los datos condujeron al modelo de la doble hélice con el apareamiento de las bases como una característica clave. A la baja resolución asociada con estos puntos, un par de bases tiene el mismo aspecto que cualquiera de los otros tres, pero lo que el modelo nos demostraba por vez primera era la existencia de los pares de bases y esto fue fundamental para la rápida resolución del problema.
¿Cuál era en este caso el razonamiento adecuado que hubiera debido usarse? Es seguro que la naturaleza química de los genes es una cuestión de primera importancia. Se sabía que los genes se encuentran en los cromosomas y ahí fue hallado el DNA. Por ello cualquier cosa que tuviera que ver con el DNA debía ser estudiada hasta donde fuera posible, ya que no se podía estar seguro por adelantado de lo que iba a salir. Evidentemente, hay que tratar de pensar en qué líneas deben seguirse y cuáles no, pero es prudente tomar muchas precauciones sobre los propios razonamientos, especialmente si se trata de una cuestión importante, ya que de lo contrario es muy alto el precio que se paga por olvidar una aproximación útil.
El ejemplo presentado sobre el DNA era hipotético, si bien es cierto que más de una vez me he encontrado atrapado de manera parecida. Se había demostrado que existían moléculas de RNA de transferencia (tRNA), que había aminoácidos asociados con ellas y que probablemente había muchas clases de moléculas de tRNA, cada una con su propio aminoácido particular. Obviamente, el paso siguiente consistía en purificar al menos un tipo de RNA de manera que pudiera saberse más acerca de él, sobre la base de que en la medida de lo posible era mejor trabajar con una especie pura que con una mezcla.
El problema consistía en fraccionar una mezcla semejante. Yo me decía a mí mismo que, puesto que todas las moléculas de tRNA debían llevar a cabo una función similar y caber dentro del mismo lugar o conjunto de lugares en el ribosoma, todas ellas serían muy semejantes entre sí y por tanto muy difíciles de separar. Presentía que la única forma de separarlas era utilizar algún método que intentara basarse en el aminoácido unido al RNA, atrapando el grupo lateral de este aminoácido y escogiendo uno, como la cisteína, que fuera a la vez químicamente activo y único. Incluso intenté comprobarlo experimentalmente.
El razonamiento no era ninguna tontería, pero resultó que yo estaba equivocado. Aunque entonces no podía saberlo, la mayoría de las moléculas de tRNA tienen muchas bases modificadas. Estas modificaciones alteran su comportamiento cromatográfico y permiten separarlas por métodos mucho más simples de fraccionamiento ya que, de momento, sólo se necesitaba una de ellas. No es necesario especificar por adelantado qué tRNA hay que estudiar, simplemente se experimenta sobre el que es más fácil de atrapar. Como el biólogo molecular Bob Holley descubrió, este resultó ser el tRNA de alanina, ya que corría de forma distinta a los otros en una columna de cromatografía. Una vez más, el mensaje a los experimentadores es: hay que ser sensible a los razonamientos negativos pero no dejarse impresionar demasiado por ellos. Si es posible, hay que probar y ver lo que sale. Los teóricos suelen desaprobar este tipo de aproximación.
El camino del éxito en biología teórica está sembrado de incógnitas. Es muy fácil hacer suposiciones simplificadoras plausibles, unas matemáticas elaboradas que parecen corresponder aproximadamente con al menos algunos datos experimentales y pensar que uno ha conseguido algo. La probabilidad de que este enfoque produzca algo útil, aparte de adular el ego del teórico, es bastante reducida, especialmente en biología. Además, para mi sorpresa, he reparado que muchos teóricos no se dan cuenta de la diferencia entre un modelo y una demostración y a menudo toman esta última por el primero.
En mi terminología, una «demostración» equivale a una teoría de «no se preocupe» (ver lo que se ha descrito en la pág. 114). Es decir que no pretende aproximarse a la verdadera respuesta, pero demuestra al menos que puede construirse una teoría de este tipo general. En cierto sentido consiste sólo en una prueba de existencia. Curiosamente, existe en la literatura un ejemplo de demostración así en relación con los genes y el DNA.
Lionel Penrose, fallecido en 1972, fue un distinguido geneticista que en sus últimos años ocupó la prestigiosa cátedra Galton en el University College de Londres. Estaba interesado en la estructura posible del gen (tema en el que entonces no todos los geneticistas se interesaban). Le encantaba hacer fretwork (como se llama en Inglaterra), es decir objetos de madera con una pequeña sierra. De este modo construyó algunos modelos para demostrar cómo debían de replicarse los genes. Las piezas de madera tenían piezas ingeniosas con ganchos y otros artilugios, de modo que cuando se agitaban se separaban y unían en una forma divertida. Publicó un artículo científico describiéndolos y también otro de mayor divulgación en Scientific American. Un relato escrito por su hijo Roger Penrose, el distinguido físico teórico y matemático, aparece en el discurso funerario a su padre realizado para la Royal Society.
El zoólogo Murdoch Mitchson me llevó a visitar a Lionel Penrose y sus modelos. Procuré demostrar un educado interés por todo aquello, si bien me costaba tomármelo en serio. Lo más extraño era que estábamos en mitad de los años cincuenta, después de la publicación de la doble hélice del DNA. Traté de llamar la atención de Penrose hacia nuestro modelo, pero él estaba muchísimo más interesado en sus «modelos». Pensaba que quizá podrían ser interesantes para un período del origen de la vida anterior al DNA.
Por lo que yo pude ver, sus piezas de madera no tenían relación con ningún compuesto químico conocido (o desconocido). No puedo creer que él pensara que los genes estaban hechos con piezas de madera, si bien es verdad que no parecía en absoluto interesado en los productos químicos orgánicos. ¿Por qué servía de tan poco su aproximación? La razón es que su modelo no se acercaba lo bastante a la realidad. Por supuesto, cualquier modelo es necesariamente una simplificación de algún tipo. Nuestro modelo del DNA estaba hecho de metal pero contenía las distancias conocidas entre los átomos químicos y, en los enlaces de hidrógeno, tenía en cuenta las diferentes energías de los distintos enlaces químicos. El modelo en sí mismo no obedecía a las leyes de la mecánica cuántica, pero de alguna forma las contenía. No vibraba debido a la agitación térmica pero podíamos permitir que se hicieran estas vibraciones. La diferencia crucial entre nuestro modelo y el de Penrose era que el primero conducía a predicciones detalladas sobre cuestiones que no se habían puesto explícitamente en el modelo. No existe quizás una línea precisa de división entre una demostración y un modelo, pero en este caso la diferencia está muy clara. La doble hélice, al contener detalles químicos precisos, era un modelo verdadero, mientras que el de Penrose no era más que una demostración, una teoría de «no te preocupes».
Era extraordinario que su «modelo» apareciera después del nuestro. ¿Qué fascinación le producía? Creo que en el fondo le gustaba trabajar la madera, jugar con pequeñas piezas de madera, y estaba encantado de que su hobby favorito pudiera ser utilizado para esclarecer uno de los problemas clave de su vida profesional, la naturaleza del gen. Creo que, por otra parte, no le gustaba la química y no quería que se le molestara con ella.
No puedo dejar de pensar que muchos de los «modelos» del cerebro con que nos afligen, se producen principalmente porque a sus autores les encanta jugar con ordenadores y escribir programas de ordenador y simplemente se entusiasman cuando un programa produce un resultado hermoso. No parece preocuparles lo más mínimo si el cerebro utiliza realmente los mecanismos incorporados en su «modelo».
Por tanto, un buen modelo en biología no debería plantear sólo el problema que se presenta, sino que, de ser posible, debería servir para unificar los datos que provienen de distintos enfoques, de forma que pudieran realizarse varios tipos de comprobaciones. Puede que esto no sea posible de forma directa —la teoría de la selección natural no pudo ser comprobada de forma inmediata a nivel molecular y celular—, pero una teoría reclamará siempre mayor atención si está confirmada por evidencias inesperadas, particularmente por evidencias de tipos distintos.