Evidentemente, el método científico es el método que utilizan los científicos para hacer descubrimientos científicos. Pero esta definición no parece muy útil. ¿Podemos dar más detalles?
Pues bien, cabría dar la siguiente versión ideal de dicho método:
Está claro que ninguna teoría ni ley natural tiene carácter definitivo. El proceso se repite una y otra vez. Continuamente se hacen y obtienen nuevos datos, nuevas observaciones, nuevos experimentos. Las viejas leyes naturales se ven constantemente superadas por otras más generales que explican todo cuanto explicaban las antiguas y un poco más.
Todo esto, como digo, es una versión ideal del método científico. En la práctica no es necesario que el científico pase por los distintos puntos como si fuese una serie de ejercicios caligráficos, y normalmente no lo hace.
Más que nada son factores como la intuición, la sagacidad y la suerte, a secas, los que juegan un papel. La historia de la ciencia está llena de casos en los que un científico da de pronto con una idea brillante basada en datos insuficientes y en poca o ninguna experimentación, llegando así a una verdad útil cuyo descubrimiento quizá hubiese requerido años mediante la aplicación directa y estricta del método científico.
F. A. Kekulé dio con la estructura del benceno mientras descabezaba un sueño en el autobús. Otto Loewi despertó en medio de la noche con la solución del problema de la conducción sináptica. Donald Glaser concibió la idea de la cámara de burbujas mientras miraba ociosamente su vaso de cerveza.
¿Quiere decir esto que a fin de cuentas todo es cuestión de suerte y no de cabeza? No, no y mil veces no. Esta clase de «suerte» sólo se da en los mejores cerebros; sólo en aquellos cuya «intuición» es la recompensa de una larga experiencia, una comprensión profunda y un pensamiento disciplinado.
Si la pregunta fuese «¿Quién fue el segundo científico más grande?» sería imposible de contestar. Hay por lo menos una docena de hombres que, en mi opinión, podrían aspirar a esa segunda plaza. Entre ellos figurarían, por ejemplo, Albert Einstein, Ernest Rutherford, Niels Bohr, Louis Pasteur, Charles Darwin, Galileo Galilei, Clerk Maxwell, Arquímedes y otros.
Incluso es muy probable que ni siquiera exista eso que hemos llamado el segundo científico más grande. Las credenciales de tantos y tantos son tan buenas y la dificultad de distinguir niveles de mérito es tan grande, que al final quizá tendríamos que declarar un empate entre diez o doce.
Pero como la pregunta es «¿Quién es el más grande?», no hay problema alguno. En mi opinión, la mayoría de los historiadores de la ciencia no dudarían en afirmar que Isaac Newton fue el talento científico más grande que jamás haya visto el mundo. Tenía sus faltas, viva el cielo: era un mal conferenciante, tenía algo de cobarde moral y de llorón autocompasivo y de vez en cuando era víctima de serias depresiones. Pero como científico no tenía igual.
Fundó las matemáticas superiores después de elaborar el cálculo. Fundó la óptica moderna mediante sus experimentos de descomponer la luz blanca en los colores del espectro. Fundó la física moderna al establecer las leyes del movimiento y deducir sus consecuencias. Fundó la astronomía moderna estableciendo la ley de la gravitación universal.
Cualquiera de estas cuatro hazañas habría bastado por sí sola para distinguirle como científico de importancia capital. Las cuatro juntas le colocan en primer lugar de modo incuestionable.
Pero no son sólo sus descubrimientos lo que hay que destacar en la figura de Newton. Más importante aún fue su manera de presentarlos.
Los antiguos griegos habían reunido una cantidad ingente de pensamiento científico y filosófico. Los nombres de Platón, Aristóteles, Euclides, Arquímedes y Ptolomeo habían descollado durante dos mil años como gigantes sobre las generaciones siguientes. Los grandes pensadores árabes y europeos echaron mano de los griegos y apenas osaron exponer una idea propia sin refrendarla con alguna referencia a los antiguos. Aristóteles, en particular, fue el «maestro de aquellos que saben».
Durante los siglos XVI y XVII, una serie de experimentadores, como Galileo y Robert Boyle, demostraron que los antiguos griegos no siempre dieron con la respuesta correcta. Galileo, por ejemplo, tiró abajo las ideas de Aristóteles acerca de la física, efectuando el trabajo que Newton resumió más tarde en sus tres leyes del movimiento. No obstante, los intelectuales europeos siguieron sin atreverse a romper con los durante tanto tiempo idolatrados griegos.
Luego, en 1687, publicó Newton sus Principia Mathematica, en latín (el libro científico más grande jamás escrito, según la mayoría de los científicos). Allí presentó sus leyes del movimiento, su teoría de la gravitación y muchas otras cosas, utilizando las matemáticas en el estilo estrictamente griego y organizando todo de manera impecablemente elegante. Quienes leyeron el libro tuvieron que admitir que al fin se hallaban ante una mente igual o superior a cualquiera de las de la Antigüedad, y que la visión del mundo que presentaba era hermosa, completa e infinitamente superior en racionalidad e inevitabilidad a todo lo que contenían los libros griegos.
Ese hombre y ese libro destruyeron la influencia paralizante de los antiguos y rompieron para siempre el complejo de inferioridad intelectual del hombre moderno.
Tras la muerte de Newton, Alexander Pope lo resumió todo en dos líneas:
«La Naturaleza y sus leyes permanecían ocultas en la noche. Dijo Dios: ¡Sea Newton! Y todo fue luz».
La manera más simple de contestar a esto es decir que los científicos no trabajan en el vacío. Están inmersos, por así decirlo, en la estructura y progreso evolutivo de la ciencia, y todos ellos encaran los mismos problemas en cada momento.
Así, en la primera mitad del siglo XIX el problema de la evolución de las especies estaba «en el candelero». Algunos biólogos se oponían acaloradamente a la idea misma, mientras que otros especulaban ávidamente con sus consecuencias y trataban de encontrar pruebas que la apoyaran. Pero lo cierto es que, cada uno a su manera, casi todos los biólogos pensaban sobre la misma cuestión. La clave del problema era ésta:
Si la evolución es un hecho, ¿qué es lo que la motiva?
En Gran Bretaña, Charles Darwin pensaba sobre ello. En las Indias Orientales, Alfred Wallace, inglés también, pensaba sobre el mismo problema. Ambos habían viajado por todo el mundo; ambos habían hecho observaciones similares; y sucedió que ambos, en un punto crucial de su pensamiento, leyeron un libro de Thomas Malthus que describía los efectos de la presión demográfica sobre los seres humanos. Tanto Darwin como Wallace empezaron a pensar sobre la presión demográfica en todas las especies. ¿Qué individuos sobrevivirían y cuáles no? Ambos llegaron a la teoría de la evolución por selección natural.
Lo cual no tiene en realidad nada de sorprendente. Dos hombres que trabajan sobre el mismo problema y con los mismos métodos, encarados con los mismos hechos a observar y disponiendo de los mismos libros de consulta, es muy probable que lleguen a las mismas soluciones. Lo que ya me sorprende más es que el segundo nombre de Darwin, Wallace y Malthus empezase en los tres casos por R.
A finales del siglo XIX eran muchos los biólogos que trataban de poner en claro la mecánica de la genética. Tres hombres, trabajando los tres en el mismo problema, al mismo tiempo y de la misma manera, pero en diferentes países, llegaron a las mismas conclusiones. Pero entonces los tres, repasando la literatura, descubrieron que otro, Gregor Mendel, había obtenido treinta y cuatro años antes las leyes de la herencia y había pasado inadvertido.
Una de las aspiraciones más ambiciosas de los años 1880-1889 era la producción barata de aluminio. Se conocían los usos y la naturaleza del metal, pero resultaba difícil prepararlo a partir de sus minerales. Millones de dólares dependían literalmente de la obtención de una técnica sencilla. Es difícil precisar el número de químicos que se hallaban trabajando en el mismo problema, apoyándose en las mismas experiencias de otros científicos. Dos de ellos: Charles Hall en los Estados Unidos y Paul Héroult en Francia, obtuvieron la misma respuesta en el mismo año de 1886. Nada más natural. Pero ¿y esto?: los apellidos de ambos empezaban por H, ambos nacieron en 1863 y ambos murieron en 1914.
Hoy día son muchos los que tratan de idear teorías que expliquen el comportamiento de las partículas subatómicas. Murray Gell-Man y Yuval Ne’emen, uno en América y otro en Israel, llegaron simultáneamente a teorías parecidas. El principio del máser se obtuvo simultáneamente en Estados Unidos y en la Unión Soviética. Y estoy casi seguro de que el proceso clave para el aprovechamiento futuro de la potencia de la fusión nuclear será obtenido independiente y simultáneamente por dos o más personas.
Naturalmente, hay veces en que el rayo brilla una sola vez. Gregor Mendel no tuvo competidores, ni tampoco Newton ni Einstein. Sus grandes ideas sólo se les ocurrieron a ellos y el resto del mundo les siguió.
Desde los tiempos de Euclides, hace ya dos mil doscientos años, los matemáticos han intentado partir de ciertos enunciados llamados «axiomas» y deducir luego de ellos toda clase de conclusiones útiles.
En ciertos aspectos es casi como un juego, con dos reglas. En primer lugar, los axiomas tienen que ser los menos posibles. En segundo lugar, los axiomas tienen que ser consistentes. Tiene que ser imposible deducir dos conclusiones que se contradigan mutuamente.
Cualquier libro de geometría de bachillerato comienza con un conjunto de axiomas: por dos puntos cualesquiera sólo se puede trazar una recta; el total es la suma de las partes, etc. Durante mucho tiempo se supuso que los axiomas de Euclides eran los únicos que podían constituir una geometría consistente y que por eso eran «verdaderos».
Pero en el siglo XIX se demostró que modificando de cierta manera los axiomas de Euclides se podían construir geometrías diferentes, «no euclidianas». Cada una de estas geometrías difería de las otras, pero todas ellas eran consistentes. A partir de entonces no tenía ya sentido preguntar cuál de ellas era «verdadera». En lugar de ello había que preguntar cuál era útil.
De hecho, son muchos los conjuntos de axiomas a partir de los cuales se podría construir un sistema matemático consistente: todos ellos distintos y todos ellos consistentes.
En ninguno de esos sistemas matemáticos tendría que ser posible deducir, a partir de sus axiomas, que algo es a la vez así y no así, porque entonces las matemáticas no serían consistentes, habría que desecharlas. ¿Pero qué ocurre si establecemos un enunciado y comprobamos que no podemos demostrar que es o así o no así?
Supongamos que digo: «El enunciado que estoy haciendo es falso».
¿Es falso? Si es falso, entonces es falso que esté diciendo algo falso y tengo que estar diciendo algo verdadero. Pero si estoy diciendo algo verdadero, entonces es cierto que estoy diciendo algo falso y sería verdad que estoy diciendo algo falso. Podría estar yendo de un lado para otro indefinidamente. Es imposible demostrar que lo que he dicho es o así o no así.
Supongamos que ajustamos los axiomas de la lógica a fin de eliminar la posibilidad de hacer enunciados de ese tipo. ¿Podríamos encontrar otro modo de hacer enunciados del tipo «ni así ni no así»?
En 1931 el matemático austriaco Kurt Gödel presentó una demostración válida de que para cualquier conjunto de axiomas siempre es posible hacer enunciados que, a partir de esos axiomas, no puede demostrarse ni que son así ni que no son así. En ese sentido, es imposible elaborar jamás un conjunto de axiomas a partir de los cuales se pueda deducir un sistema matemático completo.
¿Quiere decir esto que nunca podremos encontrar la «verdad»? ¡Ni hablar!
Primero: el que un sistema matemático no sea completo no quiere decir que lo que contiene sea «falso». El sistema puede seguir siendo muy útil, siempre que no intentemos utilizarlo más allá de sus límites.
Segundo: el teorema de Gödel sólo se aplica a sistemas deductivos del tipo que se utiliza en matemáticas. Pero la deducción no es el único modo de descubrir la «verdad». No hay axiomas que nos permitan deducir las dimensiones del sistema solar. Estas últimas fueron obtenidas mediante observaciones y medidas ―otro camino hada la «verdad».
Los números ordinarios que utilizamos normalmente están escritos «en base 10». Es decir, están escritos como potencias de diez. Lo que escribimos como 7.291 es en realidad 7·103 más 2·102 más 9·101 más 1·100. Recuérdese que 103 = 10·10·10 = 1.000; que 102 =10·10 = 100; que 101 = 10, y que 100 = 1. Por tanto, 7.291 es 7·1.000 más 2·100 más 9·10 más 1, que es lo que decimos cuando leemos el número en voz alta: «siete mil doscientos noventa (nueve decenas) y uno».
Estamos ya tan familiarizados con el uso de las potencias de diez que sólo escribimos las cifras por las que van multiplicadas (7.291 en este caso) e ignoramos el resto.
Pero las potencias de diez no tienen nada de especial. Igual servirían las potencias de cualquier otro número mayor que uno. Supongamos, por ejemplo, que queremos escribir el número 7.291 en potencias de ocho. Recordemos que 80 = 1; 81 =8; 82 = 8·8 =64; 83= 8·8·8 = 512; y 84 = 8·8·8·8 = 4.096. El número 7.291 se podría escribir entonces como 1·84 más 6·83 más 1·82 más 7·81 más 3·80. (El lector lo puede comprobar haciendo los cálculos pertinentes). Si escribimos sólo las cifras tenemos 16.173. Podemos decir entonces que 16.173 (en base 8) = 7.291 (en base 10).
La ventaja del sistema en base 8 es que sólo hay que recordar siete dígitos aparte del 0. Si intentásemos utilizar el dígito 8, llegaríamos a obtener alguna vez 8 x 83, que es igual a 1 x 84, con lo cual siempre podemos utilizar un 1 en lugar de un 8. Así, 8 (en base 10) = 10 (en base 8); 89 (en base 10) = 131 (en base 8); etc. Por otro lado, los números tienen más dígitos en el sistema de base 8 que en el de base 10. Cuanto más pequeña es la base, tantos menos dígitos diferentes se manejan, pero tantos más entran en la composición de los números.
Si utilizamos el sistema de base 20, el número 7.291 se convierte en 18·202 más 4·201 más 11·200. Si escribimos el 18 como # y el 11 como %, podemos decir que # 4 % (en base 20) = 7.291 (en base 10). En un sistema de base 20 tendríamos que tener 19 dígitos diferentes, pero a cambio tendríamos menos dígitos por número.
El 10 es una base conveniente. No exige recordar demasiados dígitos diferentes y tampoco da demasiados dígitos en un número dado.
¿Y los números basados en potencias de dos, es decir, los números en base 2? Esos son los «números binarios», de la palabra latina que significa «dos de cada vez».
El número 7.291 es igual a 1·212 más 1·211 más 1·210 más 0·29 más 0·28 más 0·27 más 1·26 más 1·25 más 1·24 más 1·23 más 0·22 más 1·21 más 1·20. (El lector puede comprobarlo, recordando que 29, por ejemplo, es 2 multiplicado por sí mismo nueve veces: 2·2·2·2·2·2·2·2·2 = 512). Si nos limitamos a escribir los dígitos tenemos 1110001111011 (en base 2) = 7.291 (en base 10).
Los números binarios contienen sólo unos y ceros, de modo que la adición y la multiplicación son fantásticamente simples. Sin embargo, hay tantos dígitos en números incluso pequeños, como el 7.291, que es muy fácil que la mente humana se confunda.
Los computadores, por su parte, pueden utilizar conmutadores de dos posiciones. En una dirección, cuando pasa la corriente, puede simbolizar un 1; en la otra dirección, cuando no pasa corriente, un 0. Disponiendo los circuitos de manera que los conmutadores se abran y cierren de acuerdo con las reglas binarias de la adición y de la multiplicación, el computador puede realizar cálculos aritméticos a gran velocidad. Y puede hacerlo mucho más rápido que si tuviese que trabajar con ruedas dentadas marcadas del 0 al 9 como en las calculadoras de mesa ordinarias basadas en el sistema de base 10 o decimal.
Hay dos clases de números con las que la mayoría de nosotros está familiarizado: los números positivos (+5, +17,5) y los números negativos (–5, –17,5). Los números negativos fueron introducidos en la Edad Media para poder resolver problemas como 3 – 5. A los antiguos les parecía imposible restar cinco manzanas de tres manzanas. Pero los banqueros medievales tenían una idea muy clara de la deuda. «Dame cinco manzanas. Sólo tengo dinero para tres, de modo que te dejo a deber dos», que es como decir (+3) – (+5)= (–2).
Los números positivos y negativos se pueden multiplicar según reglas bien definidas. Un número positivo multiplicado por otro positivo da un producto positivo. Un número positivo multiplicado por otro negativo da un producto negativo. Y lo que es más importante, un número negativo multiplicado por otro negativo da un producto positivo.
Así: (+1)·(+1) = (+1); (+1)·(–1) = (–1); y (–1)·(–1) = (+1).
Supongamos ahora que nos preguntamos: ¿Qué número multiplicado por sí mismo da +1? O expresándolo de manera más matemática: ¿Cuál es la raíz cuadrada de +1?
Hay dos soluciones. Una es +1, puesto que (+1)·(+1) = (+1). La otra es –1, puesto que (–1)·(–1) = (+1). Los matemáticos lo expresan en su jerga escribiendo = ±1.
Sigamos ahora preguntando: ¿Cuál es la raíz cuadrada de –1?
Aquí nos ponen en un brete. No es +1, porque multiplicado por sí mismo da +1. Tampoco es –1, porque multiplicado por sí mismo da también +1. Cierto que (+1)·(–1) = (–1), pero esto es la multiplicación de dos números diferentes y no la de un número por sí mismo.
Podemos entonces inventar un número y darle un signo especial, por ejemplo # 1, definiéndolo como sigue: # 1 es un número tal que (# 1)·(# 1) = (–1). Cuando se introdujo por vez primera esta noción, los matemáticos se referían a ella como un «número imaginario» debido simplemente a que no existía en el sistema de números a que estaban acostumbrados. De hecho no es más imaginario que los «números reales» ordinarios. Los llamados números imaginarios tienen propiedades perfectamente definidas y se manejan con tanta facilidad como los números que ya existían antes.
Y, sin embargo, como se pensaba que los nuevos números eran «imaginarios», se utilizó el símbolo «i». Podemos hablar de números imaginarios positivos (+i) y números imaginarios negativos (–i), mientras que (+1) es un número real positivo y (–1) un número real negativo. Así pues, podemos decir = +i.
El sistema de los números reales tiene una contrapartida similar en el sistema de los números imaginarios. Si tenemos +5, –17.32, +3/10, también podemos tener +5i, –17,32i, +3i/10.
Incluso podemos representar gráficamente el sistema de números imaginarios.
Supóngase que representamos el sistema de los números reales sobre una recta, con el 0 (cero) en el centro. Los números positivos se hallan a un lado del cero y los negativos al otro.
Podemos entonces representar el sistema imaginario de números a lo largo de otra recta que corte a la primera en ángulo recto en el punto cero, con los imaginarios positivos a un lado y los negativos al otro. Utilizando ambos tipos al mismo tiempo se pueden localizar números en cualquier lugar del plano: (+2) + (+3i) ó (+3) + (–2i). Éstos son «números complejos».
Para los matemáticos y los físicos resulta utilísimo poder asociar todos los puntos de un plano con un sistema de números. No podrían pasarse sin los llamados números imaginarios.
Un número primo es un número que no puede expresarse como producto de dos números distintos de sí mismo y uno. El 15 = 3·5, con lo cual 15 no es un número primo; 12 = 6·2 = 4·3, con lo cual 12 tampoco es un número primo. En cambio 13 = 13·1 y no es el producto de ningún otro par de números, por lo cual 13 es un número primo.
Hay números de los que no hay manera de decir a simple vista si son primos o no. Hay ciertos tipos, en cambio, de los cuales se puede decir inmediatamente que no son primos. Cualquier número, por largo que sea, que termine en 2, 4, 5, 6, 8 ó 0 o cuyos dígitos sumen un número divisible por 3, no es primo. Sin embargo, un número que acabe en 1, 3, 7 ó 9 y cuyos dígitos sumen un número no divisible por 3, puede que sea primo ―pero puede que no―. No hay ninguna fórmula que nos lo diga. Hay que ensayar y ver si se puede escribir como producto de dos números más pequeños.
Una manera de encontrar números primos consiste en escribir todos los números del 2 al más alto posible, por ejemplo el 10.000. El primero es 2, que es primo. Lo dejamos donde está y recorremos toda la lista tachando uno de cada dos números, con lo cual eliminamos todos los números divisibles por dos, que no son primos. De los que quedan, el número más pequeño después del 2 es el 3. Este es el siguiente primo. Dejándolo donde está, tachamos a partir de él uno de cada tres números, deshaciéndonos así de todos los divisibles por 3. El siguiente número sin tachar es el 5, por lo cual tachamos uno de cada cinco números a partir de él. El siguiente es el 7, uno de cada siete; luego el 11, uno de cada once; luego el 13…, etc.
Podría pensarse que después de tachar y tachar números llegará un momento en que todos los números mayores que uno dado estarán tachados y que por tanto no quedará ningún número primo superior a un cierto número primo máximo. En realidad no es así. Por mucho que subamos en los millones y billones, siempre quedan números primos que han escapado a todas las tachaduras.
Ya en el año 300 a. C. demostró el matemático griego Euclides que por mucho que subamos siempre tiene que haber números primos superiores a esos. Tomemos los seis primeros números primos y multipliquémoslos: 2·3·5·7·11·13 = 30.030. Sumando 1 obtenemos 30.031. Este número no es divisible por 2, 3, 5, 7, 11 ni 13, puesto que al dividir siempre dará un resto de 1. Si 30.031 no se puede dividir por ningún número excepto él mismo, es que es primo. Si se puede, entonces los números de los cuales es producto tienen que ser superiores a 13. De hecho 30.031 = 59·509.
Esto mismo lo podemos hacer para el primer centenar de números primos, para el primer billón o para cualquier número. Si calculamos el producto y sumamos 1, el número final o bien es un número primo o bien es el producto de números primos mayores que los que hemos incluido en la lista. Por mucho que subamos siempre habrá números primos aún mayores, con lo cual el número de números primos es infinito.
De cuando en cuando aparecen parejas de números impares consecutivos, ambos primos: 5, 7; 11, 13; 17, 19; 29, 31; 41, 43. Tales parejas de primos aparecen por doquier hasta donde los matemáticos han podido comprobar. ¿Es infinito el número de tales parejas de primos? Nadie lo sabe. Los matemáticos creen que sí, pero nunca lo han podido probar. Por eso están interesados en los números primos. Los números primos presentan problemas aparentemente inocentes pero que son muy difíciles de resolver, y los matemáticos no pueden resistir el desafío.
¿Qué utilidad tiene eso? Ninguna; pero eso precisamente parece aumentar el interés.
He aquí un rompecabezas clásico sobre el que han debido verter su palabrería millones y millones de argumentos.
Pero antes de dar mi solución pongamos algunas cosas en claro. El juego de explorar el universo mediante técnicas racionales hay que jugarlo, como todos los juegos, de acuerdo con ciertas reglas. Si dos personas quieren conversar inteligentemente tienen que ponerse de acuerdo acerca del significado de los símbolos que utilizan (palabras o cualesquiera otros) y sus comentarios han de tener sentido en función de ese significado.
Todas las preguntas que no tengan sentido en función de las definiciones convenidas se las echa fuera de casa. No hay respuesta porque la pregunta no ha debido ser formulada.
Supongamos por ejemplo que pregunto: «¿Cuánto pesa la justicia?» (quizá esté pensando en la estatua de la justicia con la balanza en la mano).
Pero el peso es una propiedad de la masa, y sólo tienen masa las cosas materiales. (De hecho, la definición más simple de materia es «aquello que tiene masa».)
La justicia no es una cosa material, sino una abstracción. Por definición, la masa no es una de sus propiedades, y preguntar por el peso de la justicia es formular una pregunta sin sentido. No existe respuesta.
Por otro lado, mediante una serie de manipulaciones algebraicas muy simples es posible demostrar que 1 = 2. Lo malo es que en el curso de la demostración hay que dividir por cero. A fin de evitar una igualdad tan inconveniente (por no hablar de otras muchas demostraciones que destruirían la utilidad de las matemáticas), los matemáticos han decidido excluir la división por cero en cualquier operación matemática. Así pues, la pregunta «¿cuánto vale la fracción 2/0?» viola las reglas del juego y carece de sentido. No precisa de respuesta.
Ahora ya estamos listos para vérnoslas con esa fuerza irresistible y ese cuerpo inamovible.
Una «fuerza irresistible» es, por definición (si queremos que las palabras tengan significado), una fuerza que no puede ser resistida; una fuerza que moverá o destruirá cualquier cuerpo que encuentre, por grande que sea, sin debilitarse ni desviarse perceptiblemente. En un universo que contiene una fuerza irresistible no puede haber ningún cuerpo inamovible, pues acabamos de definir esa fuerza irresistible como una fuerza capaz de mover cualquier cosa.
Un «cuerpo inamovible» es, por definición (si queremos que las palabras tengan algún significado), un cuerpo que no puede ser movido; un cuerpo que absorberá cualquier fuerza que encuentre, por muy grande que sea, sin cambiar ni sufrir daños perceptibles en el encuentro. En un universo que contiene un cuerpo inamovible no puede haber ninguna fuerza irresistible porque acabamos de definir ese cuerpo inamovible como un cuerpo capaz de resistir cualquier fuerza.
Si formulamos una pregunta que implique la existencia simultánea de una fuerza irresistible y de un cuerpo inamovible, estamos violando las definiciones implicadas por las frases mismas. Las reglas del juego de la razón no lo permiten. Así pues, la pregunta «¿Qué ocurriría si una fuerza irresistible se enfrentase con un cuerpo inamovible?» carece de sentido y no precisa de respuesta.
El lector quizá se pregunte si es posible construir las definiciones de modo que no quepa formular preguntas incontestables. La respuesta es que no, como ya expliqué en la cuestión 4.
En realidad no hay una respuesta concreta a esta pregunta, porque de entrada no sabemos cómo es de grande el universo. Sin embargo hagamos algunas hipótesis.
Uno de los cálculos es que hay unas 100.000.000.000 (ó 1011, un 1 seguido de 11 ceros) de galaxias en el universo. Cada una de estas galaxias tiene por término medio una masa 100.000.000.000 (ó 1011) mayor que la del Sol.
Quiere decirse que la cantidad total de materia en el universo es igual a 1011·1011 ó 1022 veces la masa del Sol. Dicho con otras palabras, en el universo hay materia suficiente para hacer 10.000.000.000.000.000.000.000 (diez mil trillones) de soles como el nuestro.
La masa del Sol es de 2·1033 gramos. Esto significa que la cantidad total de materia en el universo tiene una masa de 1022·2·1033 gramos. Lo cual puede escribirse como 20.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.000. Dicho con palabras, veinte nonillones.
Procedamos ahora desde el otro extremo. La masa del universo está concentrada casi por entero en los nucleones que contiene. (Los nucleones son las partículas que constituyen los componentes principales del núcleo atómico). Los nucleones son cosas diminutas y hacen falta 6·1023 de ellos para juntar una masa de 1 gramo.
Pues bien, si 6·1023 nucleones hacen 1 gramo y si hay 2·1055 gramos en el universo, entonces el número total de nucleones en el universo es 6·1023·2·1055 ó 12·1078, que de manera más convencional se escribiría 1,2·1079.
Los astrónomos opinan que el 90 por 100 de los átomos del universo son hidrógeno, el 9 por 100 helio y el 1 por 100 elementos más complicados. Una muestra típica de 100 átomos consistiría entonces en 90 átomos de hidrógeno, 9 átomos de helio y 1 átomo de oxígeno (por ejemplo). Los núcleos de los átomos de hidrógeno contendrían 1 nucleón cada uno: 1 protón. Los núcleos de los átomos de helio contendrían 4 nucleones cada uno: 2 protones y 2 neutrones. El núcleo del átomo de oxígeno contendría 16 nucleones: 8 protones y 8 neutrones.
Los cien átomos juntos contendrían, por tanto, 142 nucleones: 116 protones y 26 neutrones.
Existe una diferencia entre estos dos tipos de nucleones. El neutrón no tiene carga eléctrica y no es preciso considerar ninguna partícula que lo acompañe. Pero el protón tiene una carga eléctrica positiva y como el universo es, según se cree, eléctricamente neutro en su conjunto, tiene que existir un electrón (con una carga eléctrica negativa) por cada protón.
Así pues, por cada 142 nucleones hay 116 electrones (para compensar los 116 protones). Para mantener la proporción, los 1,2·1079 nucleones del universo tienen que ir acompañados de 1 x 1079 electrones. Sumando los nucleones y electrones, tenemos un número total de 2,2 x 1079 partículas de materia en el universo. Lo cual se puede escribir como 22.000.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.000.000.000.000.000.000.000.000 (ó 22 tredecillones).
Si el universo es mitad materia y mitad antimateria, entonces la mitad de esas partículas son antinucleones y antielectrones. Pero esto no afectaría al número total.
De las demás partículas, las únicas que existen en cantidades importantes en el universo son los fotones, los neutrinos y posiblemente los gravitones. Pero como son partículas sin masa no las contaré. Veintidós tredecillones es después de todo suficiente y constituye un universo apreciable.
La respuesta a la primera pregunta es simplemente que nadie lo sabe.
La ciencia no garantiza una respuesta a todo. Lo único que ofrece es un sistema para obtener respuestas una vez que se tiene suficiente información. Hasta ahora no disponemos de la clase de información que nos podría decir de dónde vino la sustancia del universo.
Pero especulemos un poco. A mí, por mi parte, se me ha ocurrido que podría haber algo llamado «energía negativa» que fuese igual que la «energía positiva» ordinaria pero con la particularidad de que cantidades iguales de ambas se unirían para dar nada como resultado (igual que +1 y –1 sumados dan 0).
Y al revés: lo que antes era nada podría cambiar de pronto y convertirse en una pompa de «energía positiva» y otra pompa igual de «energía negativa». De ser así, la pompa de «energía positiva» quizá se convirtiese en el universo que conocemos, mientras que en algún otro lado existiría el correspondiente «universo negativo».
¿Pero por qué lo que antes era nada se convirtió de pronto en dos pompas de energía opuesta?
¿Y por qué no? Sí 0 = (+1) + (–1), entonces algo que es cero podría convertirse igual de bien en +1 y –1. Acaso sea que en un mar infinito de nada se estén formando constantemente pompas de energía positiva y negativa de igual tamaño, para luego, después de sufrir una serie de cambios evolutivos, recombinarse y desaparecer. Estamos en una de esas pompas, en el período de tiempo entre la nada y la nada, y pensando sobre ello.
Pero todo esto no es más que especulación. Los científicos no han descubierto hasta ahora nada que se parezca a esa «energía negativa» ni tienen ninguna razón para suponer que exista; hasta entonces mí idea carecerá de valor.
¿Y qué hay más allá del universo? Supongamos que contesto: no-universo.
El lector dirá que eso no significa nada, y quizá esté en lo cierto. Por otro lado, hay muchas preguntas que no tienen respuesta sensata (por ejemplo, «¿qué altura tiene arriba?»), y estas preguntas son «preguntas sin sentido».
Pero pensemos de todos modos sobre ello.
Imagínese el lector convertido en una hormiga muy inteligente que viviese en medio del continente norteamericano. A lo largo de una vida entera de viaje habría cubierto kilómetros y kilómetros cuadrados de superficie terrestre y con ayuda de unos prismáticos inventados por él mismo vería miles y miles de kilómetros más. Naturalmente, supondría que la tierra continuaba sin fin.
Pero la hormiga podría también preguntarse si la tierra se acaba en algún lugar. Y entonces se plantearía una pregunta embarazosa: «Sí la tierra se acaba, ¿qué habrá más allá?».
Recuérdese bien: la única experiencia está relacionada con la tierra. La hormiga nunca ha visto el océano, ni tiene la noción de océano, ni puede imaginarse más que tierra. ¿No tendría que decir: «Si la tierra de hecho se acaba, al otro lado tiene que haber no-tierra, sea lo que fuese eso», y no estaría en lo cierto?
Pues bien, si el universo se define como la suma total de la materia y energía y todo el espacio que llenan, entonces, en el supuesto de que el universo tenga un fin, tiene que haber no-materia y no-energía inmersas en el no-espacio al otro lado. Dicho brevemente, no-universo sea lo que fuere eso.
Y si el universo nació como una pompa de energía positiva formada, junto con otra de energía negativa, a partir de nada, entonces más allá del universo hay nada, o lo que quizá sea lo mismo, no-universo.
Ni debería hablarse de «baja temperatura del espacio» ni puede el espacio vacío tener una temperatura. La temperatura es el contenido térmico medio por átomo de una cantidad de materia, y sólo la materia puede tener temperatura.
Supongamos que un cuerpo como la Luna flotase en el espacio, a años luz de la estrella más cercana. Si al principio la superficie está a 25 ºC, perdería continuamente calor por radiación, pero también lo ganaría de la radiación de las estrellas lejanas. Sin embargo, la radiación que llegaría hasta ella desde las estrellas sería tan pequeña, que no compensaría la pérdida ocasionada por su propia radiación, y la temperatura de la superficie comenzaría a bajar al instante.
A medida que la temperatura de la superficie lunar bajase iría decreciendo el ritmo de pérdida de calor por radiación, hasta que finalmente, cuando la temperatura fuese suficientemente baja, la pérdida por radiación sería lo suficientemente pequeña como para ser compensada por la absorción de la radiación de las lejanas estrellas. En ese momento, la temperatura de la superficie lunar sería realmente baja: ligeramente superior al cero absoluto.
Esta baja temperatura de la superficie lunar, lejos de las estrellas, es un ejemplo de lo que la gente quiere decir cuando habla de la «baja temperatura del espacio».
En realidad, la Luna no está lejos de todas las estrellas. Está bastante cerca ―menos de 100 millones de millas― de una de ellas: el Sol. Si la Luna diese al Sol siempre la misma cara, esta cara iría absorbiendo calor solar hasta que su temperatura en el centro de la cara sobrepasara con mucho el punto de ebullición del agua. Sólo a esa temperatura tan alta estarían equilibrados el gran influjo solar y su propia pérdida por radiación.
El calor solar avanzaría muy despacio a través de la sustancia aislante de la Luna, de suerte que la cara opuesta recibiría muy poco calor y este poco lo radiaría al espacio. La cara nocturna se hallaría por tanto a la «baja temperatura del espacio».
Ahora bien, la Luna gira con respecto al Sol, de suerte que cualquier parte de la superficie recibe sólo el equivalente de dos semanas de luz solar de cada vez. Con este período de radiación tan limitado, la temperatura superficial de la Luna apenas alcanza el punto de ebullición del agua en algunos lugares. Durante la larga noche, la temperatura permanece nada menos que a 120º por encima del cero absoluto (más bien frío para nosotros) en todo momento, porque antes de que siga bajando vuelve a salir el Sol.
La Tierra es un caso completamente diferente, debido a que tiene una atmósfera y océanos. El océano se traga el calor de manera mucho más eficaz que la roca desnuda y lo suelta más despacio. Actúa como un colchón térmico: su temperatura no sube tanto en presencia del Sol ni baja tampoco tanto, comparado con la Tierra, en ausencia suya. La Tierra gira además tan rápido, que en la mayor parte de su superficie el día y la noche sólo duran horas. Por otro lado, los vientos atmosféricos transportan el calor de la cara diurna a la nocturna y de los trópicos a los polos.
Todo esto hace que la Tierra esté sometida a una gama de temperaturas mucho más pequeñas que la Luna, pese a que ambos cuerpos distan lo mismo del Sol.
¿Qué le pasaría a una persona que se viera expuesta a las temperaturas subantárticas de la cara nocturna de la Luna? No tanto como uno diría. Aquí, en la Tierra, aun yendo abrigados con vestidos aislantes, el cuerpo humano pierde rápidamente calor, que se disipa en la atmósfera y sus vientos, que a su vez se encargan de llevárselo lejos. La situación en la Luna es muy diferente. Un hombre, enfundado en su traje y botas espaciales, experimentaría una pérdida muy escasa, ya fuese por conducción a la superficie o por convección al espacio vacío en ausencia de viento. Es como si se hallase dentro de un termo en el vacío y radiando sólo pequeñas cantidades de infrarrojos. El proceso de enfriamiento sería muy lento. Su cuerpo estaría produciendo naturalmente calor todo el tiempo, y es más probable que sintiese calor que no frío.
Según las teorías astronómicas actuales, las galaxias fueron en origen grandes conglomerados de gas y polvo que giraban lentamente, fragmentándose en vórtices turbulentos y condensándose en estrellas. En algunas regiones donde la formación de estrellas fue muy activa, casi todo el polvo y el gas fue a parar a una estrella u otra. Poco o nada fue lo que quedó en el espacio intermedio. Esto es cierto para los cúmulos globulares, las galaxias elípticas y el núcleo central de las galaxias espirales.
Dicho proceso fue mucho menos eficaz en las afueras de las galaxias espirales. Las estrellas se formaron en números mucho menores y sobró mucho polvo y mucho gas. Nosotros, los habitantes de la Tierra, nos encontramos en los brazos espirales de nuestra galaxia y vemos las manchas oscuras que proyectan las nubes de polvo contra el resplandor de la Vía Láctea. El centro de nuestra propia galaxia queda completamente oscurecido por tales nubes.
El material de que está formado el universo consiste en su mayor parte en hidrógeno y helio. Los átomos de helio no tienen ninguna tendencia a juntarse unos con otros. Los de hidrógeno sí, pero sólo en parejas, formando moléculas de hidrógeno (H2). Quiere decirse que la mayor parte del material que flota entre las estrellas consiste en pequeños átomos de helio o en pequeños átomos y moléculas de hidrógeno. Todo ello constituye el gas interestelar, que forma la mayor parte de la materia entre las estrellas.
El polvo interestelar (o polvo cósmico) que se halla presente en cantidades mucho más pequeñas, se compone de partículas diminutas, pero mucho más grandes que átomos o moléculas, y por tanto deben contener átomos que no son ni de hidrógeno ni de helio.
El tipo de átomo más común en el universo, después del hidrógeno y del helio, es el oxígeno. El oxígeno puede combinarse con hidrógeno para formar grupos oxhidrilo (OH) y moléculas de agua (H2O), que tienen una marcada tendencia a unirse a otros grupos y moléculas del mismo tipo que encuentren en el camino, de forma que poco a poco se van constituyendo pequeñísimas partículas compuestas por millones y millones de tales moléculas. Los grupos oxhidrilo y las moléculas de agua pueden llegar a constituir una parte importante del polvo cósmico. Fue en 1965 cuando se detectó por primera vez grupos oxhidrilo en el espacio y se comenzó a estudiar su distribución. Desde entonces se ha informado también de la existencia de moléculas más complejas, que contienen átomos de carbono así como de hidrógeno y oxígeno.
El polvo cósmico tiene que contener también agrupaciones atómicas formadas por átomos aún menos comunes que los de hidrógeno, oxígeno y carbono. En el espacio interestelar se han detectado átomos de calcio, sodio, potasio y hierro, observando la luz que esos átomos absorben.
Dentro de nuestro sistema solar hay un material parecido, aportado quizás por los cometas. Es posible que fuera de los límites visibles del sistema solar exista una capa con gran número de cometas, y que algunos de ellos se precipiten hacia el Sol (acaso por los efectos gravitatorios de las estrellas cercanas). Los cometas son conglomerados sueltos de diminutos fragmentos sólidos de metal y roca, unidos por una mezcla de hielo, metano y amoníaco congelados y otros materiales parecidos. Cada vez que un cometa se aproxima al Sol, se evapora parte de su materia, liberando diminutas partículas sólidas que se esparcen por el espacio en forma de larga cola. En última instancia el cometa se desintegra por completo.
A lo largo de la historia del sistema solar se han desintegrado innumerables cometas y han llenado de polvo el espacio interior del sistema. La Tierra recoge cada día miles de millones de estas partículas de polvo («micrometeoroides»). Los científicos espaciales se interesan por ellas por diversas razones; una de ellas es que los micrometeoroides de mayor tamaño podrían suponer un peligro para los futuros astronautas y colonizadores de la Luna.
En el verano de 1967 Anthony Hewish y sus colaboradores de la Universidad de Cambridge detectaron, por accidente, emisiones de radio en los cielos que en nada se parecían a las que se habían detectado hasta entonces. Llegaban en impulsos muy regulares a intervalos de sólo 4/3 segundos. Para ser exactos, a intervalos de 1,33730109 segundos. La fuente emisora recibió el nombre de «estrella pulsante» o «púlsar» en abreviatura (pulsating star en inglés).
Durante los dos años siguientes se descubrieron un número bastante grande de tales púlsares, y el lector seguramente se preguntará por qué no se descubrieron antes. El caso es que un púlsar radia mucha energía en cada impulso, pero estos impulsos son tan breves que por término medio la intensidad de radioondas es muy baja, pasando inadvertida. Es más, los astrónomos suponían que las fuentes de radio emitían energía a un nivel constante y no prestaban atención a los impulsos intermitentes.
Uno de los púlsares más rápidos fue el que se encontró en la nebulosa del Cangrejo, comprobándose que radiaba en la zona visible del espectro electromagnético.
Se apagaba y se encendía en perfecta sincronización con los impulsos de radio. Aunque había sido observado muchas veces, había pasado hasta entonces por una estrella ordinaria. Nadie pensó jamás en observarlo con un aparato de detección lo bastante delicado como para demostrar que guiñaba treinta veces por segundo. Con pulsaciones tan rápidas, la luz parecía constante, tanto para el ojo humano como para los instrumentos ordinarios.
¿Pero qué es un púlsar? Si un objeto emite energía a intervalos periódicos es que está experimentando algún fenómeno de carácter físico en dichos intervalos. Puede ser, por ejemplo, un cuerpo que se está expandiendo y contrayendo y que emite un impulso de energía en cada contracción. O podría girar alrededor de su eje o alrededor de otro cuerpo y emitir un impulso de energía en cada rotación o revolución.
La dificultad estribaba en que la cadencia de impulsos era rapidísima, desde un impulso cada cuatro segundos a uno cada 1/30 de segundo. El púlsar tenía que ser un cuerpo muy caliente, pues si no, no podría emitir tanta energía; y tenía que ser un cuerpo muy pequeño, porque si no, no podría hacer nada con esa rapidez.
Los cuerpos calientes más pequeños que habían observado los científicos eran las estrellas enanas blancas. Pueden llegar a tener la masa de nuestro sol, son tanto o más calientes que él y sin embargo no son mayores que la Tierra. ¿Podría ser que esas enanas blancas produjesen impulsos al expandirse y contraerse o al rotar? ¿O se trataba de dos enanas blancas girando una alrededor de la otra? Pero por muchas vueltas que le dieron los astrónomos al problema no conseguían que las enanas blancas se movieran con suficiente rapidez.
En cuanto a objetos aún más pequeños, los astrónomos habían previsto teóricamente la posibilidad de que una estrella se contrajera brutalmente bajo la atracción de la gravedad, estrujando los núcleos atómicos unos contra otros. Los electrones y protones interaccionarían y formarían neutrones, y la estrella se convertiría en una especie de gelatina de neutrones. Una «estrella de neutrones» como ésta podría tener la misma masa que el Sol y medir sin embargo sólo diez millas de diámetro.
Ahora bien, jamás se había observado una estrella de neutrones, y siendo tan pequeñas se temía que aunque existiesen no fueran detectables.
Con todo, un cuerpo tan pequeño sí podría girar suficientemente rápido para producir los impulsos. En ciertas condiciones, los electrones sólo podrían escapar en ciertos puntos de la superficie. Al girar la estrella de neutrones, los electrones saldrían despedidos como el agua de un aspersor; en cada vuelta habría un momento en que el chorro apuntase en dirección a la Tierra, haciéndonos llegar ondas de radio y luz visible.
Thomas Gold, de la Universidad Cornell, pensó que, en ese supuesto, la estrella de neutrones perdería energía y las pulsaciones se irían espaciando cada vez más, cosa que resultó ser cierta. Hoy día parece muy probable que los púlsares sean esas estrellas de neutrones que los astrónomos creían indetectables.
Un átomo tiene aproximadamente 10–8 centímetros de diámetro. En los sólidos y líquidos ordinarios los átomos están muy juntos, casi en contacto mutuo. La densidad de los sólidos y líquidos ordinarios depende por tanto del tamaño exacto de los átomos, del grado de empaquetamiento y del peso de los distintos átomos.
De los sólidos ordinarios, el menos denso es el hidrógeno solidificado, con una densidad de 0,076 gramos por centímetro cúbico. El más denso es un metal raro, el osmio, con una densidad de 22,48 gramos por centímetro cúbico.
Si los átomos fuesen bolas macizas e incomprensibles, el osmio sería el material más denso posible y un centímetro cúbico de materia jamás podría pesar ni un kilogramo, y mucho menos toneladas.
Pero los átomos no son macizos. El físico neozelandés Ernest Rutherford demostró ya en 1909 que los átomos eran en su mayor parte espacio vacío. La corteza exterior de los átomos contiene sólo electrones ligerísimos, mientras que el 99,9 por 100 de la masa del átomo está concentrada en una estructura diminuta situada en el centro: el núcleo atómico.
El núcleo atómico tiene un diámetro de unos 10–13 centímetros (aproximadamente 1/100.000 del propio átomo). Si los átomos de una esfera de materia se pudieran estrujar hasta el punto de desplazar todos los electrones y dejar a los núcleos atómicos en contacto mutuo, el diámetro de la esfera disminuiría hasta 1/100.000 de su tamaño anterior.
De modo análogo, sí se pudiera comprimir la Tierra hasta dejarla reducida a un balón de núcleos atómicos, toda su materia quedaría reducida a una esfera de unos 130 metros de diámetro. En esas mismas condiciones, el Sol mediría 13,7 kilómetros de diámetro. Y si pudiéramos convertir toda la materia conocida del universo en núcleos atómicos en contacto, obtendríamos una esfera de sólo algunos cientos de millones de kilómetros de diámetro, que cabría cómodamente dentro del cinturón de asteroides del sistema solar.
El calor y la presión que reinan en el centro de las estrellas rompen la estructura atómica y permiten que los núcleos atómicos empiecen a empaquetarse unos junto a otros. Las densidades en el centro del Sol son mucho más altas que la del osmio, pero como los núcleos atómicos se mueven de un lado a otro sin impedimento alguno, el material sigue siendo un gas. Hay estrellas que se componen casi por entero de tales átomos destrozados. La compañera de la estrella Sirio es una «enana blanca» no mayor que el planeta Urano, y sin embargo tiene una masa parecida a la del Sol.
Los núcleos atómicos se componen de protones y neutrones. Todos los protones tienen cargas eléctricas positivas y se repelen entre sí, de modo que en un lugar dado no se pueden reunir más de un centenar de ellos. Los neutrones, por el contrario, no tienen carga y en condiciones adecuadas es posible empaquetar un sinfín de ellos para formar una «estrella de neutrones». Los púlsares, según se cree, son estrellas de neutrones.
Si el Sol se convirtiera en una estrella de neutrones, toda su masa quedaría concentrada en una pelota cuyo diámetro sería 1/100.000 del actual y su volumen (1/100.000)3 ó 1/1.000.000.000.000.000 (una milbillónésima) del actual. Su densidad sería por tanto 1.000.000.000.000.000 (mil billones) de veces superior a la que tiene ahora.
La densidad global del Sol hoy día es de 1,4 gramos por centímetro cúbico. Si fuese una estrella de neutrones, su densidad sería de 1.400.000.000.000.000 gramos por centímetro cúbico. Es decir, un centímetro cúbico de una estrella de neutrones puede llegar a pesar 1.400.000.000 (mil cuatrocientos millones) de toneladas.
Para entender lo que es un agujero negro empecemos por una estrella como el Sol. El Sol tiene un diámetro de 1.390.000 kilómetros y una masa 330.000 veces superior a la de la Tierra. Teniendo en cuenta esa masa y la distancia de la superficie al centro se demuestra que cualquier objeto colocado sobre la superficie del Sol estaría sometido a una atracción gravitatoria 28 veces superior a la gravedad terrestre en la superficie.
Una estrella corriente conserva su tamaño normal gracias al equilibrio entre una altísima temperatura central, que tiende a expandir la sustancia estelar, y la gigantesca atracción gravitatoria, que tiende a contraerla y estrujarla.
Si en un momento dado la temperatura interna desciende, la gravitación se hará dueña de la situación. La estrella comienza a contraerse y a lo largo de ese proceso la estructura atómica del interior se desintegra. En lugar de átomos habrá ahora electrones, protones y neutrones sueltos. La estrella sigue contrayéndose hasta el momento en que la repulsión mutua de los electrones contrarresta cualquier contracción ulterior.
La estrella es ahora una «enana blanca». Si una estrella como el Sol sufriera este colapso que conduce al estado de enana blanca, toda su masa quedaría reducida a una esfera de unos 16.000 kilómetros de diámetro, y su gravedad superficial (con la misma masa pero a una distancia mucho menor del centro) sería 210.000 veces superior a la de la Tierra.
En determinadas condiciones, la atracción gravitatoria se hace demasiado fuerte para ser contrarrestada por la repulsión electrónica. La estrella se contrae de nuevo, obligando a los electrones y protones a combinarse para formar neutrones y forzando también a estos últimos a apelotonarse en estrecho contacto. La estructura neutrónica contrarresta entonces cualquier ulterior contracción y lo que tenemos es una «estrella de neutrones», que podría albergar toda la masa de nuestro sol en una esfera de sólo 16 kilómetros de diámetro. La gravedad superficial sería 210.000.000.000 veces superior a la de la Tierra.
En ciertas condiciones, la gravitación puede superar incluso la resistencia de la estructura neutrónica. En ese caso ya no hay nada que pueda oponerse al colapso. La estrella puede contraerse hasta un volumen cero y la gravedad superficial aumentar hacia el infinito.
Según la teoría de la relatividad, la luz emitida por una estrella pierde algo de su energía al avanzar contra el campo gravitatorio de la estrella. Cuanto más intenso es el campo, tanto mayor es la pérdida de energía, lo cual ha sido comprobado experimentalmente en el espacio y en el laboratorio.
La luz emitida por una estrella ordinaria como el Sol pierde muy poca energía. La emitida por una enana blanca, algo más; y la emitida por una estrella de neutrones aún más. A lo largo del proceso de colapso de la estrella de neutrones llega un momento en que la luz que emana de la superficie pierde toda su energía y no puede escapar.
Un objeto sometido a una compresión mayor que la de las estrellas de neutrones tendría un campo gravitatorio tan intenso, que cualquier cosa que se aproximara a él quedaría atrapada y no podría volver a salir. Es como si el objeto atrapado hubiera caído en un agujero infinitamente hondo y no cesase nunca de caer. Y como ni siquiera la luz puede escapar, el objeto comprimido será negro. Literalmente, un «agujero negro».
Hoy día los astrónomos están buscando pruebas de la existencia de agujeros negros en distintos lugares del universo.
Depende de la estrella y de qué parte de la estrella consideremos.
Más del 99 por 100 de las estrellas que podemos detectar pertenecen ―como nuestro Sol― a una clasificación llamada «secuencia principal», y al hablar de la temperatura de una estrella queremos decir, por lo general, la temperatura de su superficie. Empecemos por aquí.
Toda estrella tiene una tendencia a «colapsar» (derrumbarse hacia el interior) bajo su propia atracción gravitatoria, pero a medida que lo hace aumenta la temperatura en su interior. Y al calentarse el interior, la estrella tiende a expandirse. Al final se establece el equilibrio y la estrella alcanza un cierto tamaño fijo. Cuanto mayor es la masa de la estrella, mayor tiene que ser la temperatura interna para contrarrestar esa tendencia al colapso; y mayor también, por consiguiente, la temperatura superficial.
El Sol, que es una estrella de tamaño medio, tiene una temperatura superficial de 6.000 ºC. Las estrellas de masa inferior tienen temperaturas superficiales más bajas, algunas de sólo 2.500 ºC.
Las estrellas de masa superior tienen temperaturas más altas: 10.000 ºC, 20.000 ºC y más. Las estrellas de mayor masa, y por tanto las más calientes y más brillantes, tienen una temperatura superficial constante de 50.000 ºC como mínimo, y quizá más. Nos atreveríamos a decir que la temperatura superficial constante más alta posible de una estrella de la secuencia principal es 80.000 ºC.
¿Por qué no más? ¿Y si consideramos estrellas de masa cada vez mayor? Aquí hay que parar el carro. Si una estrella ordinaria adquiere una masa tal que su temperatura superficial supera los 80.000 ºC, las altísimas temperaturas del interior producirán una explosión. En momentos determinados es posible que se alcancen temperaturas superiores, pero una vez pasada la explosión quedará atrás una estrella más pequeña y más fría que antes.
La superficie, sin embargo, no es la parte más caliente de una estrella. El calor de la superficie se transmite hacia afuera, a la delgada atmósfera (o «corona») que rodea a la estrella. La cantidad total de calor no es mucha, pero como los átomos son muy escasos en la corona (comparados con los que hay en la estrella misma), cada uno de ellos recibe una cuantiosa ración. Lo que mide la temperatura es la energía térmica por átomo, y por esa razón la corona solar tiene una temperatura de 1.000.000 ºC aproximadamente.
También el interior de una estrella es mucho más caliente que la superficie. Y tiene que ser así porque si no no podría aguantar las capas exteriores de la estrella contra la enorme atracción centrípeta de la gravedad. La temperatura del núcleo interior del Sol viene a ser de unos 15.000.000 ºC.
Una estrella de masa mayor que la del Sol tendrá naturalmente una temperatura nuclear y una temperatura superficial más altas. Por otro lado, para una masa dada, las estrellas tienden a hacerse más calientes en su núcleo interior a medida que envejecen. Algunos astrónomos han intentado calcular la temperatura que puede alcanzar el núcleo interior antes de que la estrella se desintegre. Una de las estimaciones que yo conozco da una temperatura máxima de 6.000.000.000 ºC.
¿Y qué ocurre con los objetos que no se hallan en la secuencia principal? En particular, ¿qué decir acerca de los objetos descubiertos recientemente, en los años sesenta? Tenemos los púlsares, que según se cree son «estrellas de neutrones» increíblemente densas, con toda la masa de una estrella ordinaria empaquetada en una esfera de un par de decenas de kilómetros de diámetro. La temperatura de su interior ¿no podría sobrepasar ese «máximo» de los seis mil millones de grados? Y también están los quásares, que según algunos son un millón de estrellas ordinarias, o más, colapsadas todas en una ¿Qué decir de la temperatura de su núcleo interior?
Hasta ahora nadie lo sabe.
Cuando un número determinado de protones y neutrones se juntan para formar un núcleo atómico, la combinación resultante es más estable y contiene menos masa que esos mismos protones y neutrones por separado. Al formarse la combinación, el exceso de masa se convierte en energía y se dispersa por radiación.
Mil toneladas de hidrógeno, cuyos núcleos están constituidos por un solo protón, se convierten en 993 toneladas de helio, cuyos núcleos constan de dos protones y dos neutrones. Las siete toneladas restantes de masa se emiten en forma de energía.
Las estrellas como nuestro Sol radian energía formada de esta manera. El Sol convierte unas 654.600.000 toneladas de hidrógeno en algo menos de 650.000.000 toneladas de helio por segundo. Pierde por tanto 4.600.000 toneladas de masa cada segundo. Pero incluso a este ritmo tan tremendo, el Sol contiene suficiente hidrógeno para mantenerse todavía activo durante miles de millones de años.
Ahora bien, llegará el día en que las reservas de hidrógeno del Sol lleguen a agotarse. ¿Significa eso que el proceso de fusión se parará y que el Sol se enfriará?
No del todo. Los núcleos de helio no representan el empaquetamiento más económico de los protones y neutrones. Los núcleos de helio se pueden fusionar en núcleos aún más complicados, tan complicados como los del hierro. De este modo se seguirá emitiendo energía.
Pero tampoco mucha más. Las 1.000 toneladas de hidrógeno que, según hemos dicho, se fusionan en 993 toneladas de helio se pueden fusionar luego en 991,5 toneladas de hierro. Al pasar de hidrógeno a helio se convierten en energía siete toneladas de masa, pero sólo una y media al pasar de helio a hierro.
Y al llegar al hierro entramos en una vía muerta. Los protones y neutrones del núcleo de hierro están empaquetados con una estabilidad máxima. Cualquier cambio que se produzca en el hierro, ya sea en la dirección de átomos más simples o de átomos más complejos, no emite energía sino que la absorbe.
Podemos decir por tanto que cuando la estrella alcanza la fase del helio ha emitido ya unas cuatro quintas partes de toda la energía de fusión disponible; al pasar al hierro emite la quinta parte restante y allí se acaba la historia.
Pero ¿qué sucede después?
Al pasar a la etapa de fusión posterior al helio, el núcleo de la estrella se torna mucho más caliente. Según una teoría, al llegar a la etapa del hierro se vuelve lo bastante caliente como para iniciar reacciones nucleares que producen cantidades enormes de neutrinos. El material estelar no absorbe los neutrinos: tan pronto como se forman salen disparados a la velocidad de la luz, llevándose energía consigo. El núcleo de la estrella pierde energía, se enfría de forma bastante brusca y la estrella se convierte por colapso en una enana blanca.
En el curso de este colapso, las capas exteriores, que aún poseen átomos menos complicados que los de hierro, se fusionan todos a un tiempo, explotando en una «nova». La energía resultante forma átomos más complicados que los de hierro, incluso de uranio y más complejos aún.
Los restos de tales novas, que contienen átomos pesados, se mezclan con el gas interestelar. Las estrellas formadas a partir de ese gas, llamadas «estrellas de la segunda generación», contienen pequeñas cantidades de átomos pesados que jamás se podrían haber conseguido a través del proceso de fusión ordinario. El Sol es una estrella de la segunda generación. Y por eso, hay oro y uranio en la Tierra.
Las estrellas emiten energía de diferentes maneras:
Todas estas partículas emitidas ―fotones, neutrinos, gravitones, protones, etc.― son estables mientras se hallen aisladas en el espacio. Pueden viajar miles de millones de años sin sufrir ningún cambio, al menos por lo que sabemos.
Así pues, todas estas partículas radiadas sobreviven hasta el momento (por muy lejano que sea) en que chocan contra alguna forma de materia que las absorbe. En el caso de los fotones sirve casi cualquier clase de materia. Los protones energéticos son ya más difíciles de parar y absorber, y mucho más difíciles aún los neutrinos. En cuanto a los gravitones, poco es lo que se sabe hasta ahora.
Supongamos ahora que el universo sólo consistiese en estrellas colocadas en una configuración invariable. Cualquier partícula emitida por una estrella viajaría por el espacio hasta chocar contra algo (otra estrella) y ser absorbida. Las partículas viajarían de una estrella a otra y, a fin de cuentas, cada una de ellas recuperaría toda la energía que había radiado. Parece entonces que el universo debería continuar inmutable para siempre.
El hecho de que no sea así es consecuencia de tres cosas:
Naturalmente, cuando el universo comience a contraerse de nuevo ―suponiendo que lo haga― la situación será la inversa y empezará a calentarse otra vez.
Ya en 1850, el astrónomo inglés Richard C. Carrington, estudiando a la sazón las manchas solares, notó una pequeñísima erupción en la cara del Sol que permaneció visible durante unos cinco minutos. Carrington pensó que había tenido la suerte de observar la caída de un gran meteoro en el Sol.
El uso de instrumentos más refinados para el estudio del Sol mostró hacia los años veinte de este siglo que esas «erupciones solares» eran sucesos comunes que solían ocurrir en conjunción con las manchas solares. El astrónomo americano George E. Hale había inventado en 1889 el «espectroheliógrafo», que permitía observar el Sol a través de la luz de una longitud de onda determinada y fotografiar el Sol con la luz de hidrógeno incandescente de la atmósfera solar o del calcio incandescente, por ejemplo. Y se comprobó que las erupciones solares no tenían nada que ver con los meteoritos, sino que eran efímeras explosiones de hidrógeno caliente.
Las erupciones de pequeño tamaño son muy comunes, pudiéndose detectar cientos de ellas en un día, especialmente donde hay grandes complejos de manchas solares y cuando éstas están creciendo. Las de gran tamaño, como la que vio Carrington, son raras, apareciendo sólo unas cuantas cada año.
Hay veces en que la erupción se produce justo en el centro del disco solar y explotan hacia arriba en dirección a la Tierra. Al cabo de un tiempo empiezan a ocurrir cosas muy curiosas en nuestro planeta. En cuestión de días las auroras boreales se abrillantan, dejándose ver a veces desde las regiones templadas. La aguja magnética se desmanda y se vuelve loca, por lo que a veces se habla de una «tormenta magnética».
Hasta el siglo presente tales sucesos no afectaban gran cosa a la población general. Pero en el siglo xx se comprobó que las tormentas magnéticas también afectaban a la recepción de radio y al comportamiento de los equipos electrónicos en general. La importancia de las tormentas magnéticas aumentó a medida que la humanidad fue dependiendo cada vez más de dichos equipos. Durante una de esas tormentas es muy posible que la transmisión por radio y televisión se interrumpa y que los equipos de radar dejen de funcionar.
Cuando los astrónomos estudiaron las erupciones con más detenimiento, se vio que en la explosión salía despedido hacia arriba hidrógeno caliente y que parte de él lograba saltar al espacio a pesar de la gigantesca gravedad del Sol. Como los núcleos de hidrógeno son simples protones, el Sol está rodeado de una nube de protones (y de otros núcleos más complicados en cantidades más pequeñas) dispersos en todas direcciones. En 1958 el físico americano Eugene N. Parker llamó «viento solar» a esta nube de protones que mana hacia fuera.
Aquellos protones que salen despedidos en dirección a la Tierra llegan hasta nosotros, aunque la mayor parte de ellos bordean el planeta obligados por la fuerza del campo magnético. Algunos, sin embargo, logran entrar en la atmósfera superior, donde dan lugar a las auroras boreales y a una serie de fenómenos eléctricos. Una erupción especialmente grande, que proyecte una nube muy intensa hacia la Tierra, producirá lo que podríamos llamar una «galerna solar» y dará lugar a los efectos de la tormenta magnética.
El viento solar es el agente responsable de las colas de los cometas. Lo que hace es barrer hacia afuera la nube de polvo y gas que rodea al cometa cuando pasa cerca del Sol. También se ha observado el efecto del viento solar sobre los satélites artificiales. Uno de ellos, el Echo I, grande y ligero de peso, se desvió perceptiblemente de su órbita calculada por la acción del viento solar.
El Sol podrá mantener la vida terrestre (tal como la conocemos) mientras radie energía como lo hace ahora, y a este período de tiempo podemos ponerle ciertos límites.
La radiación del Sol proviene de la fusión del hidrógeno a helio. Para producir toda la radiación vertida por el Sol hace falta una cantidad ingente de fusión: cada segundo tienen que fusionarse 654.600.000 toneladas de hidrógeno en 650.000.000 toneladas de helio. (Las 4.600.000 toneladas restantes se convierten en energía de radiación y las pierde el Sol para siempre. La ínfima porción de esta energía que incide sobre la Tierra basta para mantener toda la vida de nuestro planeta.)
Nadie diría que con este consumo tan alto de hidrógeno por segundo el Sol pudiera durar mucho tiempo, pero es que ese cálculo no tiene en cuenta el enorme tamaño del Sol. Su masa totaliza 2.200.000.000.000.000.000.000.000.000 (más de dos mil cuatrillones) de toneladas. Un 53 por 100 de esta masa es hidrógeno, lo cual significa que el Sol contiene en la actualidad 1.166.000.000.000.000.000.000.000.000 de toneladas, aproximadamente, de hidrógeno.
(Para satisfacer la curiosidad del lector, diremos que el resto de la masa del Sol es casi todo helio. Menos del 0,1 por 100 de su masa está constituido por átomos más complicados que el helio. El helio es más compacto que el hidrógeno. En condiciones idénticas, un número dado de átomos de helio tiene una masa cuatro veces mayor que el mismo número de átomos de hidrógeno. O digámoslo así: una masa dada de helio ocupa menos espacio que la misma masa de hidrógeno. En función del volumen ―el espacio ocupado―, el Sol es hidrógeno en un 80 por 100.)
Si suponemos que el Sol fue en origen todo hidrógeno, que siempre ha convertido hidrógeno en helio al ritmo de 654 millones de toneladas por segundo y que lo seguirá haciendo hasta el final, se calcula que ha estado radiando desde hace unos cuarenta mil millones de años y que continuará así otros sesenta mil.
Pero las cosas no son en realidad tan simples. El Sol es una «estrella de la segunda generación», constituida a partir del gas y polvo cósmicos desperdigados por estrellas que se habían quemado y explotado miles de millones de años atrás. Así pues, la materia prima del Sol contenía ya mucho helio, desde el principio casi tanto como tiene ahora. Lo cual significa que el Sol ha estado radiando durante un ratito solamente (a escala astronómica), porque sus reservas originales de hidrógeno sólo han disminuido moderadamente. El Sol puede que no tenga más de seis mil millones de años.
Pero además es que el Sol no continuará radiando exactamente al mismo ritmo que ahora. El hidrógeno y el helio no están perfectamente entremezclados. El helio está concentrado en el núcleo central, y la reacción de fusión se produce en la superficie de este núcleo.
A medida que el Sol siga radiando, irá adquiriendo una masa cada vez mayor ese núcleo de helio y la temperatura en el centro aumentará. En última instancia, la temperatura sube lo suficiente como para transformar los átomos de helio en átomos más complicados. Hasta entonces el Sol radiará más o menos como ahora, pero una vez que comience la fusión del helio, empezará a expandirse y a convertirse poco a poco en una gigante roja. El calor se hará insoportable en la Tierra, los océanos se evaporarán y el planeta dejará de albergar la vida en la forma que conocemos.
Los astrónomos estiman que el Sol entrará en esta nueva fase dentro de unos ocho mil millones de años. Y como ocho mil millones de años es un plazo bastante largo, no hay motivo para alarmarse todavía.
La pregunta, tal como está formulada, parece una verdadera pega. De hecho, a principios del siglo pasado el gran astrónomo William Herschel concluyó que las manchas solares tenían que ser frías porque eran negras. La única manera de explicarlo era suponer que el Sol no era caliente en su totalidad. Según Herschel, tenía una atmósfera incandescente, pero debajo había un cuerpo sólido frío, que es lo que nosotros veíamos a través de una serie de grietas de la atmósfera solar. Estas grietas eran las manchas solares. Herschel llegó incluso a pensar que el frío interior del Sol podía estar habitado por seres vivientes.
Pero esto es falso. Hoy día estamos completamente seguros de que el Sol es caliente en su totalidad. Es más, la superficie que vemos es la parte más fría del Sol, y aun así es ya demasiado caliente, sin lugar a dudas, para los seres vivos.
Radiación y temperatura están estrechamente relacionadas. En 1894, el físico alemán Wilhelm Wien estudió los distintos tipos de luz radiada a diferentes temperaturas y concluyó que, en condiciones ideales, cualquier objeto, independientemente de su composición química, radiaba una gama determinada de luz para cada temperatura.
A medida que aumenta la temperatura, la longitud de onda del máximo de radiación se hace cada vez más corta, del mismo modo para todos los cuerpos. A unos 600 ºC se desliza en la porción visible suficiente radiación para conferir al objeto un aspecto rojo mate. A temperaturas aún mayores, el objeto se hace rojo brillante, anaranjado, blanco y blanco azulado. (A temperaturas suficientemente altas, la radiación se hallaría en su mayor parte en el ultravioleta, y más allá aún.)
Midiendo con cuidado la longitud de onda del máximo de radiación solar (que se halla en la región del color amarillo) es posible calcular la temperatura de la superficie solar: resulta ser de unos 6.000 ºC.
Las manchas solares no se hallan a esta temperatura. Son bastante más frías y su temperatura en el centro hay que situarla en los 4.000 ºC solamente. Parece ser que las manchas solares representan gigantescas expansiones de gases, y tales expansiones, ya sean en el Sol o en un frigorífico, dan lugar a una importante caída de temperatura. Qué duda cabe que para mantener fría una gigantesca mancha solar durante días y semanas contra el calor que afluye de las zonas circundantes, más calientes, hace falta una enorme bomba térmica, y lo cierto es que los astrónomos no han dado aún con un mecanismo completamente satisfactorio para la formación de esas manchas.
Incluso a 4.000 ºC, las manchas solares deberían ser muy brillantes: mucho más que un arco voltaico, y un arco voltaico es ya demasiado brillante para mirarlo directamente.
Lo que ocurre es que las manchas solares son, efectivamente, más brillantes que un arco voltaico, y de ello pueden dar fe los instrumentos. El quid está en que el ojo humano no ve la luz de un modo absoluto, sino que juzga el brillo por comparación con el entorno. Las zonas más calientes de la superficie solar, las que podríamos llamar normales, son de cuatro a cinco veces más brillantes que las regiones más frías en el centro de una mancha solar, y comparando éstas con aquéllas, nos parecen negras. Ese negro es una especie de ilusión óptica.
Que esto es así puede demostrarse a veces durante los eclipses. La Luna eclipsante, con su cara oscura vuelta hacia la Tierra, es realmente negra contra el globo brillante del Sol. Cuando el borde de la Luna pasa por encima de una gran mancha solar, de modo que el «negro» de la mancha contrasta con la Luna, entonces se ve que la mancha, en realidad, no es negra.
La mejor conjetura astronómica es que todos se mueven en el mismo plano orbital porque nacieron de un mismo y único disco plano de materia.
Las teorías al uso sugieren que el sistema solar fue en origen una enorme masa de gas y polvo en rotación, que acaso fuese esférica en un principio. Bajo la influencia de su propia atracción gravitatoria fue condensándose, con lo cual tuvo que empezar a girar cada vez más deprisa para conservar el momento angular.
En un cierto momento de este proceso de condensación y rotación cada vez más acentuadas, el efecto centrífugo acabó por desgajar una porción de materia del plano ecuatorial. Esta porción de materia desgajada, que representaba un porcentaje pequeño del total, formó un gran disco plano alrededor de la porción central principal de la nube. De un modo u otro (pues sobre los detalles no hay ni mucho menos un consenso general) se condensaron una serie de planetas a partir de ese disco, mientras que el grueso de la nube se convirtió en el Sol. Los planetas siguieron girando en la región antes ocupada por el disco, y por esa razón giran todos ellos más o menos en el mismo plano del ecuador solar.
Por razones parecidas, los planetas, a medida que se fueron condensando, fueron formando satélites que giran, por lo general, en un único plano, que coincide con el del ecuador del planeta.
Según se cree, las excepciones a esta regla son debidas a sucesos violentos ocurridos mucho después de la formación general del sistema solar. El planeta Plutón gira en un plano que forma un ángulo de 17 grados con el plano de revolución de la Tierra. (Ningún otro planeta tiene una órbita tan inclinada). Algunos astrónomos han conjeturado que Plutón quizá fuese en otro tiempo un satélite de Neptuno y que logró liberarse gracias a algún cataclismo no determinado. De los satélites actuales de Neptuno, el principal, que es Tritón, no gira en el plano ecuatorial de Neptuno, lo cual constituye otro indicio de algún cataclismo que afectó a ese planeta.
Júpiter posee siete satélites pequeños y distantes que no giran en el plano de su ecuador. El satélite más exterior de Saturno se halla en el mismo caso. Es probable que estos satélites no se formaran en su presente posición, en el momento de nacer el sistema solar, sino que sean asteroides capturados mucho después por esos planetas gigantes.
Muchos de los asteroides que giran entre las órbitas de Marte y Júpiter tienen planos orbitales muy inclinados. Una vez más, todo parece indicar una catástrofe. Es muy posible que en origen los asteroides fuesen un solo planeta pequeño que giraba en el plano general. Mucho después de la formación del sistema solar, una explosión o serie de explosiones puede que fragmentara ese malhadado mundo, colocando los fragmentos en órbitas que, en muchos casos diferían grandemente del plano orbital general.
Los cometas giran en todos los planos posibles. Ahora bien, hay astrónomos que creen que muy en las afueras del sistema solar, como a un año-luz del Sol, existe una nube dispersa de cometas. Estos cometas puede que se hayan condensado a partir de las porciones más exteriores de la nube esférica original, antes de comenzar la contracción general y antes de formarse el disco ecuatorial.
En tales circunstancias, cuando de vez en cuando un cometa abandona esa capa esférica y se precipita en las regiones interiores del sistema solar (quizá como resultado de la influencia gravitatoria de estrellas lejanas), su plano de rotación alrededor del Sol puede ser cualquiera.
Plutón es notable por ser el planeta más alejado del Sol (su distancia media es de 5.790 millones de kilómetros). Claro está que alguno había de ser el más distante, y ése es precisamente Plutón.
Pero ahí no para la cosa. Plutón posee ciertas características poco usuales que lo distinguen de los otros ocho planetas y hacen de él un objeto de notable curiosidad para los astrónomos. Por ejemplo:
¿A qué responden todos estos extremos? ¿Hay alguna razón para que Plutón sea tan diferente?
Una conjetura especialmente interesante es la siguiente. Supongamos que Plutón no fuese antes un planeta, sino un satélite de Neptuno. Y supongamos también que una catástrofe cósmica de algún tipo lo sacara de su órbita y lo colocara en otra, planetaria e independiente.
En ese supuesto, la naturaleza de la explosión (sí es eso lo que fue) muy bien pudo lanzarlo a una órbita inclinada, que, sin embargo, sigue trayendo a Plutón una y otra vez hacia Neptuno, que es de donde había partido.
Como satélite, sería pequeño y quizá denso, en lugar de un gigante gaseoso como los verdaderos planetas exteriores. Y, por otro lado, giraría alrededor de su eje en el mismo tiempo que tardaba en girar alrededor de Neptuno, gracias a la atracción gravitatoria de éste. (Esto es cierto en general para los satélites; y es cierto, en particular, para la Luna). En ese caso, el período de rotación de Plutón podría muy bien ser de una semana. (El período de rotación de la Luna es de cuatro semanas).Puede que Plutón, al ser arrancado de Neptuno, conservara su período de rotación, adquiriendo así un período muy raro para un planeta.
Pero, por desgracia, todo esto no son más que especulaciones. No hay ninguna prueba sólida de que Plutón fuese antes un satélite de Neptuno; y aun si lo fuese, no sabemos qué clase de catástrofe pudo haberlo arrancado de allí.
Los cometas han aterrorizado durante siglos a la humanidad. De cuando en cuando, y sin razón aparente, surgía uno en los cielos. Su forma era distinta de la de los demás cuerpos celestes, su contorno no era nítido sino borroso y exhibía una tenue cola que parecía manar de él. Las imaginaciones más calenturientas veían en esa cola el cabello desordenado de una mujer abatida por el dolor (la palabra «cometa» viene de otra latina que significa «cabello») y, según se decía, presagiaban desastres.
En el siglo xviii se averiguó por fin que algunos cometas seguían órbitas regulares alrededor del Sol, pero en general muy alargadas. En el extremo más remoto de su órbita resultaban invisibles, dejándose ver solamente en el más cercano, que frecuentaban una vez cada doce o cien o mil años.
El astrónomo holandés Jan H. Oort sugirió en 1950 la existencia de una gran nube de quizá miles de millones de planetoides que giraban alrededor del Sol a un año luz o más de distancia. Tendrían más de un millar de veces la distancia al Sol de Plutón, el planeta más lejano y, pese a su número, serían completamente invisibles. De cuando en cuando, debido quizá a la atracción gravitatoria de las estrellas más próximas, alguno de ellos vería frenado su movimiento orbital y comenzaría a precipitarse hacia el Sol. Y una de esas veces podría ocurrir que el planetoide penetrara con bastante profundidad en el interior del sistema solar y virase alrededor del Sol a una distancia mínima de unos cuantos millones de kilómetros. De ahí en adelante conservaría la nueva órbita y constituiría la clase de objeto que nosotros llamamos cometa.
Más o menos por entonces, el astrónomo norteamericano Fred L. Whipple conjeturó que los cometas estaban compuestos principalmente por sustancias de bajo punto de ebullición como el amoníaco y el metano, incluyendo en su interior granos de material rocoso. En esa nube de cometas, tan alejada del Sol, el amoníaco, el metano y otras sustancias estarían congelados en duro «hielo».
La estructura gélida de los cometas es estable en ese reducto exterior; pero ¿qué ocurre cuando uno de ellos decelera y se acerca al Sol? Al entrar en las regiones interiores del sistema solar, el calor cada vez mayor que recibe del Sol hace que sus hielos comiencen a evaporarse. Las partículas rocosas atrapadas en la capa de hielo superficial quedan libres. El resultado es que el núcleo del cometa queda rodeado por una nube de polvo y vapor, que se espesa a medida que se acerca al Sol.
Por otro lado tenemos el viento solar, que es una nube de partículas subatómicas que emerge del Sol en todas las direcciones. El viento solar ejerce una fuerza que es superior a la diminuta atracción gravitatoria del cometa. Por tanto, ese viento solar empujará a la nube de polvo y vapor del cometa, alejándola del Sol. A medida que el cometa se aproxima al Sol, el viento solar arrecia y esa nube de polvo y vapor se estira en una larga cola que huye del Sol. La cola es tanto más larga cuanto más próximo se halle el cometa al Sol; pero lo cierto es que siempre está compuesta de materia muy dispersa.
Claro está que los cometas no duran mucho una vez que entran en las entrañas del sistema solar. Cada pasada por las proximidades del Sol ocasiona una pérdida de material, y al cabo de unas cuantas docenas de vueltas el cometa queda reducido a un diminuto núcleo rocoso o se desintegra del todo en una nube de pequeños meteoros. Alrededor del Sol giran, efectivamente, en órbitas regulares, una serie de «corrientes de meteoros», y cuando alguna de ellas intersecta la atmósfera terrestre, se produce un vistoso despliegue de estrellas errantes. Sin duda, los restos de cometas muertos.
La atracción gravitatoria de la Luna sobre la Tierra hace subir el nivel del océano a ambos lados de nuestro planeta y crea así dos abultamientos. A medida que la Tierra gira de oeste a este, estos dos bultos ―de los cuales uno mira siempre hacia la Luna y el otro en dirección contraria― se desplazan de este a oeste alrededor de la Tierra.
Al efectuar este desplazamiento, los dos bultos rozan contra el fondo de los mares poco profundos como el de Bering o el de Irlanda. Tal rozamiento convierte energía de rotación en calor, y este consumo de la energía de rotación terrestre hace que el movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a poco. Las marcas actúan como un freno sobre la rotación de la Tierra, y como consecuencia de ello los días terrestres se van alargando un segundo cada mil años.
Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar. La corteza sólida de la Tierra también acusa el efecto, aunque en medida menos notable. El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la Tierra, el uno mirando hacia la Luna y el otro en la cara opuesta de nuestro planeta. Durante este desplazamiento, el rozamiento de una capa rocosa contra otra va minando también la energía de rotación terrestre. (Los bultos, claro está, no se mueven físicamente alrededor del planeta, sino que, a medida que el planeta gira, remiten en un lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la Luna.)
La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida de la Luna acusa la fuerza gravitatoria de la Tierra, y no hay que olvidar que ésta es ochenta veces más grande que la de la Luna. El abultamiento provocado en la superficie lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un período de veinticuatro horas, estaría sometida a un rozamiento muchísimo mayor que la Tierra. Además, como nuestro satélite tiene una masa mucho menor que la Tierra, su energía total de rotación sería ya de entrada, para períodos de rotación iguales, mucho menor.
Así, pues, la Luna, con una reserva inicial de energía muy pequeña, socavada rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una disminución relativamente rápida de su período de rotación. Hace seguramente muchos millones de años debió de decelerarse hasta el punto de que el día lunar se igualó con el mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara hacia la Tierra.
Esto, a su vez, congela los abultamientos en una posición fija. Uno de ellos mira hacía la Tierra desde el centro mismo de la cara lunar que nosotros vemos, mientras que el otro apunta en la dirección contraria desde el centro mismo de la cara que no vemos. Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de la Tierra, los bultos no experimentan ningún nuevo cambio ni tampoco se produce rozamiento alguno que altere el período de rotación del satélite. La Luna continuará mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna coincidencia, sino consecuencia inevitable de la gravitación y del rozamiento.
La Luna es un caso relativamente simple. En ciertas condiciones, el rozamiento debido a las mareas puede dar lugar a condiciones de estabilidad más complicadas. Durante unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercano al Sol y el más afectado por la gravedad solar) ofrecía siempre la misma cara al Sol, por el mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha comprobado que, en el caso de Mercurio, los efectos del rozamiento producen un período estable de rotación de 58 días, que es justamente dos tercios de los 88 días que constituyen el período de revolución de Mercurio alrededor del Sol.
La ley de Newton de la gravitación universal admite una fórmula muy simple, siempre que se suponga que todos los objetos del universo tienen concentrada la masa en un solo punto. Si los objetos están muy alejados, podemos sentar esa hipótesis; pero cuanto más cerca estén unos de otros, tanto más habremos de tener en cuenta que su masa está, en realidad, distribuida por todo el cuerpo.
Con todo, el tratamiento sigue siendo muy sencillo, siempre que, primero, el objeto sea una esfera perfecta, y, segundo, su densidad sea radialmente simétrica.
Al decir que la densidad es «radialmente simétrica» debemos entender que si el objeto es muy denso en el centro y cada vez menos hacia la superficie, la manera en que la densidad decrece es exactamente la misma cualquiera que sea la dirección en que nos movamos a partir del centro. Da igual que haya cambios bruscos de densidad, siempre que esos cambios sean exactamente iguales en todas las direcciones a partir del centro.
Los objetos astronómicos más o menos grandes cumplen aproximadamente esos requisitos. Por lo general, son de forma casi esférica y su densidad exhibe una simetría casi radial. Claro está que cuando se trata de objetos muy próximos entre sí hay que contar con pequeñas desviaciones. Al estudiar los efectos gravitatorios entre la Luna y la Tierra hay que tener en cuenta que la Tierra no es una esfera perfecta, sino que presenta un abultamiento en el ecuador. El exceso de materia en el abultamiento produce un diminuto efecto gravitatorio que requiere especial atención.
Durante los años sesenta, los Estados Unidos pusieron en órbita alrededor de la Luna varios vehículos espaciales (los «Lunar Orbiters»). Conociendo como conocían el tamaño y la forma de la Luna con todo detalle, los expertos en cohetes estaban seguros de poder calcular con toda exactitud el tiempo que tardarían los vehículos en circundar el satélite. Pero cuál no sería su sorpresa cuando comprobaron que los vehículos se movían un poquitín demasiado aprisa en ciertas partes de la órbita.
Se observaron las órbitas con todo detalle y resultó que los vehículos se aceleraban ligeramente al pasar sobre los grandes mares lunares, que son regiones llanas con pocos cráteres. Esto sólo se podía deber a que la densidad de la Luna no tuviese una simetría perfectamente radial. En dichos mares tenía que haber una concentración adicional de masa que producía efectos gravitatorios no tenidos en cuenta. Los astrónomos empezaron a hablar de «concentraciones de masa» o, en forma abreviada, «mascones».
¿Qué son estas concentraciones de masa?
Dos son las teorías propuestas. Algunos astrónomos piensan que los mares lunares son cráteres supergigantes producidos por la colisión de meteoritos gigantescos con la Luna. Estos meteoritos puede que se enterraran bajo la superficie de los mares y que aún estén allí. Quizá estén compuestos de hierro en su mayor parte y sean, por tanto, mucho más densos que la superficie normal de la Luna. Constituirían, pues, una concentración de masa anormalmente alta.
Otra teoría es que, a lo largo de la historia de la Luna, los mares lunares fuesen realmente mares de agua. Antes de que el agua se evaporase al espacio, se habrían depositado densos sedimentos, explicando así ese exceso de masa.
Las futuras exploraciones de la superficie lunar deberían determinar cuál de esas teorías es la correcta (o si no lo es ninguna de las dos), lo cual podría a su vez revelarnos mucho más acerca de la historia de la Luna (y también de la Tierra).
En cierto modo es injusto esperar demasiado de las exploraciones lunares, si tenemos en cuenta los límites de lo que se ha hecho. Al fin y al cabo, no se ha hecho otra cosa que recoger algún que otro material de la superficie en seis lugares muy separados y dentro de un área total equivalente a América del Norte y América del Sur juntas. Pudiera muy bien ser que en cualquiera de estos alunizajes los astronautas no hayan estado ni a cinco kilómetros de alguna clave para descifrar los enigmas lunares, sin que ellos lo supiesen.
Por otra parte, los astrónomos y los geólogos no han hecho sino comenzar su misión. El estudio de las rocas lunares proseguirá durante años. El proceso puede ser útil, porque algunas de las rocas tienen unos 4.000 millones de años y son, por tanto, reliquias de los primeros mil millones de años de existencia del sistema solar. Jamás se ha encontrado en la Tierra nada que se remonte, inmutable, a un período tan remoto.
De entre las cosas que nos ha revelado la investigación de la constitución química de la superficie lunar, la más clara quizá sea que la distribución de elementos es muy diferente de la de la Tierra. Comparadas con la Tierra, en las rocas de la superficie lunar escasean aquellos elementos que tienden a formar compuestos de bajo punto de fusión: hidrógeno, carbono, sodio, plomo, etc. Los elementos que forman compuestos de alto punto de fusión (zirconio, titanio y las tierras raras) se encuentran en mayor porcentaje en la corteza lunar que en la terrestre.
Una explicación lógica sería suponer que la superficie lunar sufrió en otro tiempo un calentamiento lo bastante fuerte y continuado como para evaporar y echar a perder los compuestos de bajo punto de fusión, dejando atrás los de alto punto de fusión. Esta conclusión viene además apoyada por el hecho de que, al parecer, hay una proporción muy alta de materiales vítreos en la Luna, como si gran parte de la superficie se hubiese fundido y solidificado después.
Pero ¿qué es lo que originó ese calor? Pues, por ejemplo, el impacto de grandes meteoritos a lo largo de la historia remota de la Luna, o bien, gigantescas erupciones volcánicas. En ese caso, el efecto aparecería en ciertas zonas y no en otras. Sin embargo, hasta ahora las pruebas parecen indicar que dicho efecto se extiende a toda la Luna.
Acaso viniese ocasionado por un largo período de sobrecalentamiento del Sol. En ese caso, la Tierra también habría estado inmersa en un calor parecido. Aunque la Tierra está protegida por el aire y los océanos, mientras que la Luna no, podrían existir pruebas en nuestro planeta de ese cálido período. No se ha encontrado ninguna, pero quizá sea porque en la Tierra no hay rocas que hayan subsistido, sin modificación alguna, desde aquellos primeros mil millones de años del sistema solar.
Una tercera posibilidad es que la Luna estuviese en otro tiempo mucho más cerca del Sol. Quizá fuese en origen un planeta independiente, con una órbita alargada que, en uno de los extremos, la aproximara al Sol hasta una distancia parecida a la de Mercurio hoy día. En ese supuesto podemos estar seguros de que su superficie estaba completamente cocida por el Sol.
Puede que el otro extremo de la órbita llevara a la Luna bastante cerca de la órbita terrestre y que en un momento dado ―quizá no más de mil millones de años atrás― la Tierra lograra capturarla, convirtiendo así en satélite lo que antes fuera planeta.
Sea cual fuere la causa, lo cierto es que esa agostada superficie lunar es descorazonadora en un aspecto, pues alimenta la posibilidad de que no haya agua en toda la superficie, lo cual significa que el trabajo de establecer una colonia en la Luna es mucho más difícil que en otras circunstancias.
En realidad, no lo sabemos todavía. Y quizá no lo sepamos hasta el día en que amarticen allí los científicos e investiguen.
Pero, a juzgar por lo que sabemos hoy día, parece probable que exista vida en Marte. Cierto es que la sonda Mariner IX, colocada en órbita a unas mil millas sobre la superficie de Marte, no observó ningún signo de vida, pese a que rastreó todo el planeta. Pero la Tierra, vista desde la misma distancia y con los mismos métodos, tampoco revelaría ningún signo de vida.
La atmósfera de Marte está muy enrarecida, es cien veces menos densa que la de la Tierra, y lo poco que hay es casi todo ello anhídrido carbónico. Por otra parte, Marte dista del Sol vez y media más que la Tierra, de modo que de noche la temperatura alcanza cifras antárticas y en las regiones polares hace suficiente frío para congelar el anhídrido carbónico.
El hombre no podría sobrevivir en ese medio sin una protección especial. Ni, para el caso, ningún animal terrestre. Los colonizadores de Marte (colonizadores terrestres, se entiende) tendrían que vivir en cúpulas o en cavernas subterráneas. Pero ¿quiere eso decir que en Marte no puedan existir formas complejas de vida, adaptadas a las condiciones de este planeta? Puede que las posibilidades sean escasas, pero tampoco podemos eliminarlas del todo.
¿Qué decir, por ejemplo, de formas de vida muy simples, plantas del tipo de los líquenes o microorganismos parecidos a las bacterias? Aquí las posibilidades son ya mejores, incluso bastante buenas, diríamos.
Admitimos de entrada que también había esperanzas de que en la Luna existiesen formas simples de vida y que todo ello quedó luego en nada. Pero es que Marte ofrece un medio ambiente mucho más favorable que la Luna. Marte está mucho más lejos del Sol y tiene una atmósfera que ofrece cierta protección, de modo que está mucho menos sometido a la radiación del Sol, que rompería las complejas moléculas necesarias para la vida.
Además, al ser Marte más frío y más grande que la Luna, es también capaz de retener las sustancias volátiles que sirven como puntos de arranque fundamentales para la vida. Marte es rico en anhídrido carbónico y, sin duda alguna, tiene agua. A partir de ahí puede formarse la vida. Si, como se ha comprobado, ciertas formas de vida terrestre sumamente simple son capaces de sobrevivir en condiciones marcianas simuladas, tanto más cierto será esto en el caso de formas de vida adaptadas desde el principio a las condiciones de ese planeta.
Las fotografías tomadas por el Mariner IX demuestran que las condiciones en Marte no tienen por qué ser tan rigurosas como las que imperan hoy día. Hay regiones volcánicas, así como un volcán gigante, el Nix Olympica, que es dos veces más ancho que cualquier volcán de la Tierra. Lo cual significa que Marte es un mundo geológicamente activo, capaz de experimentar cambios.
La faz de Marte muestra además marcas ondulantes que tienen todo el aspecto de cauces fluviales y cuyas características, según conjeturas de algunos astrónomos, demuestran que no hace mucho (geológicamente hablando) llevaban todavía agua. Es más, los casquetes polares de Marte parecen pasar por períodos alternados de crecimiento y recesión.
Es posible que Marte alterne entre una especie de largo invierno, durante el cual se hiela casi toda la atmósfera y el resto está muy rarificada (como ocurre en la actualidad), y una especie de largo verano, durante el cual casi toda la atmósfera se derrite y adquiere una densidad parecida a la de la Tierra.
Así, pues, es posible que en el suelo marciano yazgan latentes ciertas formas de vida y que, cuando llegue el verano y la atmósfera se espese y el agua corra, la vida florezca en mayor medida de lo que cabría hoy esperar.
Los científicos no dudarían ni un momento en contestar con un fortísimo «¡sí!».
Todas las formas de vida terrestre, sin excepción, están basadas en las grandes moléculas de proteínas y ácidos nucleicos. Todas utilizan la misma clase de reacciones químicas, mediadas por la misma especie de enzimas. Toda la vida terrestre consiste en variaciones sobre el mismo tema.
Si hay vida en Marte, por muy simple que sea, puede que exista como variaciones sobre un tema muy distinto. De golpe y porrazo doblaríamos el número de tipos de vida conocidos y quizá adquiriríamos inmediatamente una compresión más básica de la naturaleza de la vida.
Y aun si la vida en Marte resulta estar basada en el mismo tema que el de la Tierra, puede ser que haya interesantes diferencias de detalle. Por ejemplo, todas las moléculas de proteína de la Tierra están construidas de aminoácidos, los cuales (salvo uno) admiten, o bien una orientación derecha, o bien una orientación izquierda. En cualesquiera condiciones en que no esté involucrada la vida, los dos tipos son igual de estables y existen en cantidades iguales.
En las proteínas terrestres, sin embargo, todos los aminoácidos, con excepciones rarísimas e insignificantes, son de orientación izquierda. Esto permite la construcción de proteínas en pilas perfectas, lo cual sería imposible si unas fuesen derechas y otras izquierdas (aunque las pilas serían igual de perfectas si todas fuesen derechas).
Entonces, ¿por qué izquierda sí y derecha no? ¿Es cuestión de pura casualidad? ¿Será que el primer brote de vida en la Tierra resultó ser izquierdo? ¿O es que hay en la naturaleza alguna asimetría básica que hace inevitable la forma izquierda? La vida marciana podría contestar a esta pregunta y otras parecidas.
Aun si la vida marciana resultara estar basada en el mismo tema que la vida terrestre y fuese idéntica en todos los detalles, valdría la pena saberlo. Pues ese hecho podría ser una interesante prueba de que el tema de la vida, tal como existe en la Tierra, quizá sea el único posible en cualquier planeta, siquiera remotamente parecido a la Tierra.
Además, aunque la vida en Marte fuese un calco de la vida terrestre desde el punto de vista bioquímico, cabría aún la posibilidad de que aquélla estuviese constituida por sistemas moleculares más primitivos que los que se han desarrollado a lo largo de miles de millones de años en el ambiente mucho más prolífico y suave de la Tierra. Marte sería entonces un laboratorio en el que podríamos observar la protovida tal como (quizá) existió antes en la Tierra. Incluso podríamos experimentar con ella ―cosa que sólo podríamos hacer aquí si tuviéramos una máquina del tiempo― y buscar ciertas verdades fundamentales que se hallan ocultas en las complejidades de la vida terrestre.
Y aunque no existiese vida alguna en Marte, podrían existir moléculas orgánicas que, sin ser materia viviente, estuvieran en camino hacia la vida, por así decirlo. De este modo podrían indicar la naturaleza del camino antaño seguido en la Tierra durante el período de «evolución química», previo al desarrollo del primer sistema lo bastante complejo para merecer el calificativo de viviente.
En resumen: aprendamos lo que aprendamos en Marte sobre la vida, es muy probable que nos ayude a comprender mejor la vida terrestre (igual que el estudio del latín y del francés nos ayuda a entender mejor el inglés). Y qué duda cabe que el ir a Marte para aprender algo sobre la Tierra que aquí no podemos aprender, es razón más que suficiente para hacerlo, si es que se puede.
A principios del siglo xx se pensaba que la Tierra y los demás planetas estaban formados de materia arrancada del Sol. Y circulaba la imagen de una Tierra en gradual proceso de enfriamiento, desde la incandescencia hasta el rojo vivo, para pasar luego a un calor moderado y finalmente al punto de ebullición del agua. Una vez enfriada lo bastante para que el agua se condensase, el vapor de agua de la atmósfera caliente de la Tierra pasó a estado líquido y empezó a llover, y llover, y llover. Al cabo de muchos años de esta increíble lluvia de agua hirviendo que saltaba y bramaba al golpear el suelo caliente, las cuencas de la accidentada superficie del planeta acabaron por enfriarse lo bastante como para retener el agua, llenarse y constituir así los océanos.
Muy espectacular…, pero absolutamente falso, podríamos casi asegurar.
Hoy día, los científicos están convencidos de que la Tierra y demás planetas no se formaron a partir del Sol, sino a partir de partículas que se conglomeraron hacia la misma época en que el Sol estaba gestándose. La Tierra nunca estuvo a la temperatura del Sol, pero adquirió bastante calor gracias a la energía de colisión de todas las partículas que la formaron. Tanto, que su masa, relativamente pequeña, no era capaz en un principio de retener una atmósfera ni el vapor de agua.
O lo que es lo mismo, el cuerpo sólido de esta Tierra recién formada no tenía ni atmósfera ni océanos. ¿De dónde vinieron entonces?
Desde luego había agua (y gases) combinada débilmente con las sustancias rocosas que constituían la porción sólida del globo. A medida que esa porción sólida se fue empaquetando de forma cada vez más compacta bajo el tirón de la gravedad, el interior se fue haciendo cada vez más caliente. Los gases y el vapor de agua se vieron expulsados de esa su anterior combinación con la roca y abandonaron la sustancia sólida.
Las pompas gaseosas, al formarse y agruparse, conmocionaron a la joven Tierra con enormes cataclismos, mientras que el calor liberado provocaba violentas erupciones volcánicas. Durante muchísimos años no cayó ni una gota de agua líquida del cielo; era más bien vapor de agua, que salía silbando de la corteza, para luego condensarse. Los océanos se formaron desde arriba, no desde abajo.
En lo que los geólogos no están de acuerdo hoy día es en la velocidad de formación de los océanos. ¿Salió todo el vapor de agua en cosa de mil millones de años, de suerte que el océano tiene el tamaño actual desde que comenzó la vida? ¿O se trata de un proceso lento en el que el océano ha ido creciendo a través de las eras geológicas y sigue creciendo aún?
Quienes mantienen que el océano se formó en los comienzos mismos del juego y que ha conservado un tamaño constante desde entonces, señalan que los continentes parecen ser un rasgo permanente de la Tierra. No parece que fuesen mucho más grandes en tiempos pasados, cuando era el océano supuestamente mucho más pequeño.
Por otra parte, quienes opinan que el océano ha venido creciendo constantemente, señalan que las erupciones volcánicas escupen aún hoy cantidades ingentes de vapor de agua al aire: vapor de agua de rocas profundas, no del océano. Además, en el Pacífico hay montañas submarinas cuyas cimas, planas, quizá estuviesen antes al nivel del mar, pero ahora quedan a cientos de pies por debajo de él.
Acaso sea posible llegar a un compromiso. Se ha sugerido que aunque el océano ha ido efectivamente creciendo continuamente, el peso del agua acumulada hizo que el fondo marino cediera. Es decir, los océanos han crecido constantemente en profundidad, no en anchura. Lo cual explicaría la presencia de esas mesetas marinas sumergidas y también la existencia de los continentes.
En la Tierra existe un ciclo del agua. Cada año se evaporan unos 125.000 kilómetros cúbicos de agua del océano, que luego caen en forma de lluvia y vuelven, de un modo u otro, al océano.
El equilibrio entre las dos ramas del ciclo ―evaporación y vuelta al océano― no es perfecto. De todo el contenido del océano, sólo se evapora el agua propiamente dicha, de modo que la lluvia es agua casi pura. Pero, al volver a la Tierra, parte de esa agua cae primero sobre tierra firme, se filtra en el suelo y recoge una serie de productos químicos solubles que transporta consigo hasta el océano. El agua de los ríos, por ejemplo, es sal en un 1/100 de 1 por 100: no lo suficiente para dejar de ser insípida, pero sí para ser importante.
Parece, pues, que el océano está recibiendo constantemente trazas de sales y otros productos químicos de la Tierra, sin perder ni un ápice de ellos durante la evaporación. Hay que pensar, por tanto, que el océano se hace cada vez más salino; muy despacio, claro está, pero al cabo de millones y millones de años de tiempo geológico la sal tendría que alcanzar concentraciones enormes. Hoy día, las aguas del océano contienen un 3,5 por 100 de materiales disueltos, que en su mayor parte son sal común.
El agua de los ríos vierte también sus sales en algunos lagos interiores que no están conectados con el mar, acumulándose allí los materiales disueltos igual que en el océano. Si el lago está situado en una región cálida y su velocidad media de evaporación es mayor que la del océano, los materiales disueltos se acumulan con mayor rapidez y el lago puede llegar a tener una salinidad mucho mayor que la del océano. El mar Muerto, en la raya entre Israel y Jordania, tiene un 25 por 100 de materiales disueltos. Es tan salado, que no hay nada capaz de vivir en sus aguas.
El océano ¿está abocado también a un fin tan lúgubre?
Podría ser, si no fuera porque hay procesos que tienden a reducir el contenido salino del océano. Las tormentas, por ejemplo, arrastran consigo tierra adentro la espuma de las olas y distribuyen sobre el continente las sales disueltas.
Pero hay un factor que opera a una escala mucho más importante, y es que ciertas combinaciones de sustancias disueltas, en concentraciones suficientes, se unen en compuestos insolubles que van a parar al fondo del mar. Y, por otro lado, hay sustancias que son absorbidas por las células de los organismos marinos.
El balance final es que el océano es mucho menos rico en sustancias disueltas de lo que debería ser si calculamos todo el material que han tenido que aportar los ríos a lo largo de los últimos miles de millones de años. Por otra parte, el fondo del océano es muy rico en sustancias que tienen que haber venido de la tierra. Por todo el suelo marino hay grandes cantidades de metales en forma de nódulos.
Andando el tiempo, puede también que una porción poco profunda del océano quede acorralada por tierras que suben de nivel. Estas porciones de océano se van evaporando poco a poco, dejando atrás grandes cantidades de materiales disueltos, que regresan así a la tierra. Las minas de sal, de las que se pueden extraer grandes cantidades de este compuesto y volúmenes menores de otras sustancias, son los restos de esas porciones de océano desecadas.
¿Cuál es entonces el resultado global? A la larga, ¿aumenta ligeramente la salinidad del océano? ¿O en realidad se está haciendo menos salado? ¿Vira unas veces en una dirección y otras en la contraria, conservando por término medio un equilibrio? Los geólogos en realidad no lo saben.
Sí, claro. ¿Por qué no lo va a haber?
El agua de lluvia corre y se filtra constantemente por las tierras resecas en su camino de vuelta hacia el océano, y al hacerlo disuelve un poco de todos los materiales que empapa y atraviesa. Al final es poca la cantidad disuelta y además hay sustancias que son menos solubles que otras. A lo cual hay que añadir que algunas, después de llegar al océano, se hunden hasta el fondo del mar.
Sin embargo, al cabo de los miles y miles de millones de años que lleva existiendo el océano es tanta la cantidad de materiales disueltos que se han vertido en el agua, que verdaderamente hay grandes cantidades de cada elemento en los compuestos mezclados con las moléculas de agua del mar.
Aproximadamente un 3,25 por 100 del mar es materia sólida disuelta; y en total, contando todo, hay 330.000.000 millas cúbicas (1,4·1018 metros cúbicos) de agua marina, que pesan aproximadamente 1,5 trillones de toneladas. Si separáramos del agua del mar todas las materias sólidas, obtendríamos un peso total de 50.000 billones (50.000.000.000.000.000) de toneladas. Claro está que más de las tres cuartas partes de la materia sólida es sal ordinaria, pero en el cuarto restante hay un poco de todo.
Por ejemplo, hay suficientes compuestos de magnesio para dar un total de 1.900.000.000.000.000 (1.900 billones) de toneladas de ese metal. Con esta reserva oceánica tendríamos para mucho tiempo, sobre todo porque lo que extrajésemos y usásemos iría a parar de nuevo, en último término, al océano.
Pero ocurre que el magnesio no está repartido de manera discontinua, con ricas bolsas aquí y allá (como sucede con los minerales terrestres). El hecho de que esté repartido uniformemente por todo el océano significa que, aun trabajando con un rendimiento perfecto, tendríamos que extraer magnesio de 950 litros de agua marina para obtener un kilo. Hoy día hay ya métodos para hacerlo económicamente, pudiendo obtenerse magnesio en cantidades cualesquiera de manera rentable.
Otro elemento que se halla presente en el agua marina en cantidades grandes es el bromo (un pariente del cloro, pero menos común). El mar contiene compuestos disueltos que arrojarían un total de 100 billones (100.000.000.000.000) de toneladas de bromo. Equivale aproximadamente a un veinteavo de la reserva de magnesio, con lo cual habría que despojar de su contenido a una cantidad de agua veinte veces mayor ―unos 19.000 litros, con rendimiento perfecto― para obtener un kilo de bromo. También en este caso se puede trabajar con rentabilidad, y de hecho el mar es uno de los principales proveedores de bromo del mundo.
Un tercer pariente del cloro y del bromo es el yodo. A escala mundial escasea más que ellos, y en el océano se halla presente en cantidades mil veces menores que el bromo. El total asciende a 86.000 millones de toneladas, lo cual suena a mucho, pero equivale sólo a un kilo por cada 20 millones de litros de agua. Es demasiado poco para que su extracción directa resulte rentable, pero, por suerte, las algas marinas se encargan de extraer el yodo por nosotros y sus cenizas proporcionan cantidades importantes de este elemento.
Lo cual nos lleva al oro. La cantidad total de oro que hay en el agua del mar oscila entre los 6 y los 12 millones de toneladas. Si hubiese dado esta cifra al principio del artículo, habría sonado a muchísimo. ¡Por lo menos 6 millones de toneladas! ¡Qué barbaridad!
Pero a estas alturas veréis que no es mucho. Para extraer un solo kilo de oro habría que escudriñar de 130 a 270 mil millones de litros, lo cual costaría mucho más que un kilo de oro. Así que el oro se deja en el océano.
La superficie de tierra firme de nuestro planeta soporta una carga de unos 38 millones de kilómetros cúbicos de hielo (de los cuales, un 85 por 100 está en el continente de la Antártida). Como el agua es algo más densa que el hielo, esos 38 millones, al derretirse, se quedarían en unos 33 millones de kilómetros cúbicos de agua.
Está claro que si el hielo se derritiese, toda el agua, o casi toda, iría a parar al océano. El océano tiene una superficie total de 360 millones de kilómetros cuadrados. Si dicha superficie permaneciera constante y los 33 millones de kilómetros cúbicos de hielo fundido se esparcieran uniformemente por toda su extensión, alcanzaría una altura de 33/360 ó 0,092 kilómetros. Es decir, la capa de hielo fundido tendría un espesor de 92 metros.
Pero lo cierto es que la extensión superficial del océano no permanecería constante, porque, de subir su nivel, se comería unos cinco millones de kilómetros cuadrados de las tierras bajas que hoy día festonean sus orillas. Lo cual significa que la superficie del océano aumentaría y que la capa de ese nuevo aporte de agua no sería tan gruesa como acabamos de suponer, aparte de que el peso adicional de agua haría ceder un poco el fondo del mar. Aun así, el nivel subiría probablemente unos 60 metros, lo bastante como para alcanzar la vigésima planta del Empire State Building y anegar buena parte de las zonas más pobladas de la Tierra.
La cantidad de hielos terrestres ha variado mucho a lo largo de la historia geológica de la Tierra. En el apogeo de un período glacial avanzan, gigantescos, los glaciares sobre millones de kilómetros cuadrados de tierra, y el nivel del océano baja hasta el punto de dejar al aire libre las plataformas continentales.
En cambio, cuando la carga de hielo es prácticamente nula, como sucedió durante decenas de millones de años, el nivel del océano es alto y pequeña la superficie continental.
Ninguna de las dos situaciones tiene por qué ser catastrófica. En pleno período glacial, los hielos cubren millones de kilómetros cuadrados de tierra, que quedan así inhabilitados para la vida terrestre. Pero, en cambio, salen a la luz millones de kilómetros cuadrados de plataforma continental, con posibilidad de ser habitados.
Si, por el contrario, se derrite el hielo, el agua anegará millones de kilómetros cuadrados, que quedan así inservibles para la vida terrestre. Pero en ausencia de hielo y con áreas terrestres más pequeñas, el clima será ahora más benigno y habrá pocos desiertos, por lo cual será mayor el porcentaje de tierras habitables. Y como la variación en el volumen total del océano es relativamente pequeña (6 ó 7 por 100 como máximo), la vida marina no se verá afectada demasiado.
Si el cambio de nivel durase miles y miles de años, como siempre ha sido en el pasado, no habría dificultad para afrontarlo. Pero el problema es que la tecnología humana está vertiendo polvo y anhídrido carbónico en el aire. El polvo intercepta la radiación solar y enfría la Tierra, mientras que el anhídrido carbónico atrapa el calor y la calienta. Si uno de los efectos llega a predominar en el futuro sobre el otro, la temperatura de la Tierra quizá suba o baje con relativa rapidez. Y en cosa de cien años puede que los hielos se derritan o que se formen glaciares continentales.
Lo catastrófico no será tanto el cambio en sí como la velocidad del cambio.
La opinión de los astrónomos es que los planetas nacieron de torbellinos de gas y polvo, constituidos en general por los diversos elementos presentes, en proporciones correspondientes a su abundancia cósmica. Un 90 por 100 de los átomos eran hidrógeno y otro 9 por 100 helio. El resto incluía todos los demás elementos, principalmente neón, oxígeno, carbono, nitrógeno, carbón, azufre, silicio, magnesio, hierro y aluminio.
El globo sólido de la Tierra en sí nació de una mezcla rocosa de silicatos y sulfuros de magnesio, hierro y aluminio, cuyas moléculas se mantenían firmemente unidas por fuerzas químicas. El exceso de hierro fue hundiéndose lentamente a través de la roca y formó un núcleo metálico incandescente.
Durante este proceso de aglomeración, la materia sólida de la Tierra atrapó una serie de materiales gaseosos y los retuvo en los vanos que quedaban entre las partículas sólidas o bien mediante uniones químicas débiles. Estos gases contendrían seguramente átomos de helio, neón y argón, que no se combinaron con nada; y átomos de hidrógeno, que o bien se combinaron entre sí por parejas para formar moléculas de hidrógeno (H2), o bien se combinaron con otros átomos: con oxígeno para formar agua (H2O), con nitrógeno para formar amoníaco (NH3) o con carbono para formar metano (CH4).
A medida que el material de este planeta en ciernes se fue apelotonando, el efecto opresor de la presión y el aún más violento de la acción volcánica fueron expulsando los gases. Las moléculas de hidrógeno y los átomos de helio y neón, al ser demasiado ligeros para ser retenidos, escaparon rápidamente.
La atmósfera de la Tierra quedó constituida por lo que quedaba: vapor de agua, amoníaco, metano y algo de argón. La mayor parte del vapor de agua, pero no todo, se condensó y formó un océano.
Tal es, en la actualidad, la clase de atmósfera que poseen algunos planetas como Júpiter y Saturno, los cuales, sin embargo, son bastante grandes para retener hidrógeno, helio y neón.
Por su parte, la atmósfera de los planetas interiores comenzó a evolucionar químicamente. Los rayos ultravioletas del cercano Sol rompieron las moléculas de vapor de agua en hidrógeno y oxígeno. El hidrógeno escapó, pero el oxígeno fue acumulándose y combinándose con amoníaco y metano. Con el primero formó nitrógeno y agua; con el segundo, anhídrido carbónico y agua. Poco a poco, la atmósfera de los planetas interiores pasó de ser una mezcla de amoníaco y metano a una mezcla de nitrógeno y anhídrido carbónico. Marte y Venus tienen hoy día atmósferas compuestas por nitrógeno y anhídrido carbónico, mientras que la Tierra debió de tener una parecida hace miles de millones de años, cuando empezó a surgir la vida.
Esa atmósfera es además estable. Una vez formada, la ulterior acción de los rayos ultravioletas sobre el vapor de agua hace que se vaya acumulando oxígeno libre (moléculas formadas por dos átomos de oxígeno, O2). Una acción ultravioleta aún más intensa transforma ese oxígeno en ozono (con tres átomos de oxígeno por molécula, O3). El ozono absorbe la radiación ultravioleta y actúa de barrera. La radiación ultravioleta que logra atravesar la capa de ozono en la alta atmósfera y romper las moléculas de agua más abajo es muy escasa, con lo cual se detiene la evolución química de la atmósfera…, al menos hasta que aparezca algo nuevo.
Pues bien, en la Tierra apareció de hecho algo nuevo. Fue el desarrollo de un grupo de formas de vida capaces de utilizar la luz visible para romper las moléculas de agua. Como la capa de ozono no intercepta la luz visible, ese proceso (la fotosíntesis) podía proseguir indefinidamente. A través de la fotosíntesis se consumía anhídrido carbónico y se liberaba oxígeno. Así, pues, hace 500 millones de años, la atmósfera empezó a convertirse en una mezcla de nitrógeno y oxígeno, que es la que existe hoy.
Cuando decimos que un objeto es «transparente» porque podemos ver a través de él, no queremos necesariamente decir que lo puedan atravesar todos los tipos de luz. A través de un cristal rojo, por ejemplo, se puede ver, siendo, por tanto, transparente. Pero, en cambio, la luz azul no lo atraviesa. El vidrio ordinario es transparente para todos los colores de la luz, pero muy poco para la radiación ultravioleta y la infrarroja.
Pensad ahora en una casa de cristal al aire libre y a pleno sol. La luz visible del Sol atraviesa sin más el vidrio y es absorbida por los objetos que se hallen dentro de la casa. Como resultado de ello, dichos objetos se calientan, igual que se calientan los que están fuera, expuestos a la luz directa del Sol.
Los objetos calentados por la luz solar ceden de nuevo ese calor en forma de radiación. Pero como no están a la temperatura del Sol, no emiten luz visible, sino radiación infrarroja, que es mucho menos energética. Al cabo de un tiempo, ceden igual cantidad de energía en forma de infrarrojos que la que absorben en forma de luz solar, por lo cual su temperatura permanece constante (aunque, naturalmente, están más calientes que si no estuviesen expuestos a la acción directa del Sol).
Los objetos al aire libre no tienen dificultad alguna para deshacerse de la radiación infrarroja, pero el caso es muy distinto para los objetos situados al sol dentro de la casa de cristal. Sólo una parte pequeña de la radiación infrarroja que emiten logra traspasar el cristal. El resto se refleja en las paredes y va acumulándose en el interior. La temperatura de los objetos interiores sube mucho más que la de los exteriores. Y la temperatura del interior de la casa va aumentando hasta que la radiación infrarroja que se filtra por el vidrio es suficiente para establecer el equilibrio.
Esa es la razón por la que se pueden cultivar plantas dentro de un invernadero, pese a que la temperatura exterior bastaría para helarlas. El calor adicional que se acumula dentro del invernadero ―gracias a que el vidrio es bastante transparente a la luz visible pero muy poco a los infrarrojos― es lo que se denomina «efecto invernadero».
La atmósfera terrestre consiste casi por entero en oxígeno, nitrógeno y argón. Estos gases son bastante transparentes tanto para la luz visible como para la clase de radiación infrarroja que emite la superficie terrestre cuando está caliente. Pero la atmósfera contiene también un 0,03 por 100 de anhídrido carbónico, que es transparente para la luz visible pero no demasiado para los infrarrojos. El anhídrido carbónico de la atmósfera actúa como el vidrio del invernadero.
Como la cantidad de anhídrido carbónico que hay en nuestra atmósfera es muy pequeña, el efecto es relativamente secundario. Aun así, la Tierra es un poco más caliente que en ausencia de anhídrido carbónico. Es más, si el contenido en anhídrido carbónico de la atmósfera fuese el doble, el efecto invernadero, ahora mayor, calentaría la Tierra un par de grados más, lo suficiente para provocar la descongelación gradual de los casquetes polares.
Un ejemplo de efecto invernadero a lo grande lo tenemos en Venus, cuya densa atmósfera parece consistir casi toda ella en anhídrido carbónico. Dada su mayor proximidad al Sol, los astrónomos esperaban que Venus fuese más caliente que la Tierra. Pero, ignorantes de la composición exacta de su atmósfera, no habían contado con el calentamiento adicional del efecto invernadero. Su sorpresa fue grande cuando comprobaron que la temperatura superficial de Venus estaba muy por encima del punto de ebullición del agua, cientos de grados más de lo que se esperaban.
La mayoría de los satélites lanzados por los Estados Unidos y la Unión Soviética entran en órbita alrededor de la Tierra.
La órbita de un satélite puede cortar la superficie de la Tierra, de modo que vuelve a nuestro planeta al cabo de una sola vuelta. Los dos primeros vuelos «suborbitales» de las cápsulas Mercurio fueron de este tipo. Hay veces que la órbita del satélite describe un bucle tan grande alrededor de la Tierra, que llega incluso más allá de la Luna, como hizo el Lunik III para tomar fotografías de la «otra cara» de la Luna.
Si se lanza un satélite con una velocidad mayor que 11 kilómetros por segundo, el campo gravitatorio terrestre no le podrá retener y el satélite entrará en una órbita independiente alrededor del Sol, cuyo campo gravitatorio, más intenso que el de la Tierra, le permite retener cuerpos de mayor velocidad. Una órbita alrededor del Sol puede cortar la superficie de algún cuerpo celeste, como fue el caso de los Rangers VII, VIII y IX, que se estrellaron contra la Luna (a propósito, claro está).
Pero también puede ser que un satélite en órbita alrededor del Sol no corte la superficie de ningún cuerpo celeste, y entonces seguirá describiendo su elipse alrededor del Sol indefinidamente. Las diversas «sondas lunares» y «sondas planetarias» son de esta clase.
Las trayectorias de las sondas colocadas en órbita alrededor del Sol pueden calcularse de modo que en su primera revolución se aproximen mucho a la Luna (Pioneer IV), a Venus (Mariner II) o a Marte (Mariner IV). En el transcurso de esta aproximación, la sonda envía información acerca del cuerpo estudiado y del espacio circundante. La sonda rebasará luego el cuerpo celeste y proseguirá su órbita alrededor del Sol.
Si las sondas no se vieran afectadas por el campo gravitatorio del planeta por el que pasan, volverían finalmente al punto del espacio desde el que fueron lanzadas (aunque la Tierra habría proseguido entretanto su órbita y no estaría ahí ya).
Lo cierto, sin embargo, es que la sonda planetaria se desplaza a una nueva órbita como consecuencia de la atracción del planeta por el que pasa. Es más: la órbita cambia un poco cada vez que pasa cerca de un cuerpo pesado, con lo cual es casi imposible predecir con exactitud la posición de una sonda al cabo de una o dos revoluciones alrededor del Sol. Las ecuaciones que representan sus movimientos son demasiado complicadas para que merezca la pena molestarse en resolverlas.
Si las sondas pudiesen radiar continuamente señales, habría la posibilidad de seguirlas, cualquiera que fuese su órbita, sobre todo cerca de la Tierra. Pero es que, una vez que se agotan las baterías, el satélite se pierde. No puede emitir señales y además es demasiado pequeño para divisarlo. Todas las sondas acaban por perderse, y con ello ya se cuenta.
No obstante, continúan describiendo órbitas alrededor del Sol y permanecen en las mismas regiones generales del espacio, sin emprender largos viajes a otros planetas. Como no recibimos ninguna información de ellas, no nos sirven de nada y lo mejor que se puede hacer es considerarlas como «basura interplanetaria». Girarán así para siempre en su órbita, a no ser que en alguna de sus revoluciones alrededor del Sol se estrellen contra la Tierra, la Luna, Marte o Venus.
El primero en intentar hacer un estudio detallado de la historia pasada y previsiblemente futura de la Tierra sin recurrir a la intervención divina fue el geólogo escocés James Hutton. En 1785 publicó el primer libro de geología moderna, en el cual admitía que del estudio de la Tierra no veía signo alguno de un comienzo ni perspectivas de fin ninguno.
Desde entonces hemos avanzado algo. Hoy día estamos bastante seguros de que la Tierra adquirió su forma actual hace unos 4.700 millones de años. Fue por entonces cuando, a partir del polvo y gas de la nebulosa originaria que formó el sistema solar, nació la Tierra tal como la conocemos hoy día. Una vez formada, y dejada en paz como colección de metales y rocas cubierta por una delgada película de agua y aire, podría existir para siempre, al menos por lo que sabemos hoy. Pero ¿la dejarán en paz?
El objeto más cercano, de tamaño suficiente y energía bastante para afectar seriamente a la Tierral es el Sol. Mientras el Sol mantenga su actual nivel de actividad (como lleva haciendo durante miles de millones de años), la Tierra seguirá esencialmente inmutable. Ahora bien, ¿puede el Sol mantener para siempre ese nivel? Y, caso de que no, ¿qué cambio se producirá y cómo afectará esto a la Tierra?
Hasta los años treinta parecía evidente que el Sol, como cualquier otro cuerpo caliente, tenía que acabar enfriándose. Vertía y vertía energía al espacio, por lo cual este inmenso torrente tendría que disminuir y reducirse poco a poco a un simple chorrito. El Sol se haría naranja, luego rojo, iría apagándose cada vez más y finalmente se apagaría.
En estas condiciones, también la Tierra se iría enfriando lentamente. El agua se congelaría y las regiones polares serían cada vez más extensas. En último término, ni siquiera las regiones ecuatoriales tendrían suficiente calor para mantener la vida. El océano entero se congelaría en un bloque macizo de hielo e incluso el aire se licuaría primero y luego se congelaría. Durante billones de años, esta Tierra gélida (y los demás planetas) seguiría girando alrededor del difunto Sol.
Pero aun en esas condiciones, la Tierra, como planeta, seguiría existiendo.
Sin embargo, durante la década de los treinta, los científicos nucleares empezaron por primera vez a calcular las reacciones nucleares que tienen lugar en el interior del Sol y otras estrellas. Y hallaron que aunque el Sol tiene que acabar por enfriarse, habrá períodos de fuerte calentamiento antes de ese fin. Una vez consumida la mayor parte del combustible básico, que es el hidrógeno, empezarán a desarrollarse otras reacciones nucleares, que calentarán el Sol y harán que se expanda enormemente. Aunque emitirá una cantidad mayor de calor, cada porción de su ahora vastísima superficie tocará a una fracción mucho más pequeña de ese calor y será, por tanto, más fría. El Sol se convertirá en una gigante roja.
En tales condiciones es probable que la Tierra se convierta en un ascua y luego se vaporice. En ese momento, la Tierra, como cuerpo planetario sólido, acabará sus días. Pero no os preocupéis demasiado. Echadle todavía unos ocho mil millones de años.
La ciencia de la física trata principalmente de la energía en sus diversas formas y de la interacción de la energía con la materia. Un físico está interesado en las leyes que gobiernan el movimiento porque cualquier trozo de materia en movimiento posee «energía cinética». Y también le interesan el calor, el sonido, la luz, la electricidad, el magnetismo y la radiactividad, porque todos ellos son formas de energía. Y en nuestro siglo se vio que incluso la masa es una forma de energía.
Al físico también le interesa la manera en que una forma de energía se convierte en otra y las reglas que gobiernan esa conversión.
Ni que decir tiene que los físicos se pueden especializar. El que se centra en la interacción de la energía con las partículas subatómicas es el «físico nuclear». (El núcleo es la estructura principal dentro del átomo). Si lo que le interesa es la interacción de energía y materia en las estrellas, es un «astrofísico».
Luego están los que estudian los aspectos energéticos de las reacciones químicas, que son los «químicos físicos», y los que se interesan principalmente por la manera en que los tejidos vivos manejan y producen energía, que son los «biofísicos» (la palabra griega «bios» significa «vida»).
Hay físicos que se dedican a hacer medidas cuidadosas bajo diversas condiciones controladas. Uno quizá quiera medir la cantidad exacta de calor producido por determinadas reacciones químicas. Otro, medir de qué manera se desintegra una partícula subatómica en otra serie de partículas más energía. Un tercero, medir de qué manera varían diminutos potenciales eléctricos en el cerebro bajo la influencia de ciertas drogas. En todos estos casos tenemos ante nosotros a un «físico experimental».
Por otra parte, hay físicos a quienes les interesa especialmente estudiar las mediciones hechas por otros e intentar darles un sentido general. Quizá logre hallar una relación matemática que explique por qué todas esas medidas son como son. Y una vez hallada esa relación matemática podrá utilizarla para predecir los valores de otras mediciones aún no efectuadas. Si al efectuar éstas resulta que concuerdan con lo predicho, el físico en cuestión puede que haya dado con lo que a menudo se llama una «ley de la naturaleza».
Los físicos que intentan descubrir de esta manera las leyes de la naturaleza se llaman «físicos teóricos».
Hay físicos experimentales muy brillantes a quienes no les interesa demasiado teorizar. Un ejemplo es Albert A. Michelson, que inventó el interferómetro e hizo medidas muy exactas de la velocidad de la luz. Y también hay físicos teóricos verdaderamente geniales a quienes no les preocupa la experimentación. Albert Einstein, el fundador de la teoría de la relatividad, fue uno de ellos.
Tanto los físicos experimentales como los teóricos son de gran valor para la ciencia, aun cuando los primeros se limiten a medir y los segundos a razonar matemáticamente. Pero no deja de ser fascinante encontrar alguno que sobresalga como experimentador y como teórico, ambas cosas a la vez. Enrico Fermi fue un ejemplo notable de estos físicos de «dos caras». (También era un excelente profesor, lo que quizás le hiciese un físico de «tres caras».)
El tiempo, para empezar, es un asunto psicológico; es una sensación de duración. Uno come, y al cabo de un rato vuelve a tener hambre. Es de día, y al cabo de un rato se hace de noche.
La cuestión de qué es esta sensación de duración, de qué es lo que hace que uno sea consciente de que algo ocurre «al cabo de un rato», forma parte del problema del mecanismo de la mente en general, problema que aún no está resuelto.
Tarde o temprano, todos nos damos cuenta de que esa sensación de duración varía con las circunstancias. Una jornada de trabajo parece mucho más larga que un día con la persona amada; y una hora en una conferencia aburrida, mucho más larga que una hora con los naipes. Lo cual podría significar que lo que llamamos un «día» o una «hora» es más largo unas veces que otras. Pero cuidado con la trampa. Un período que a uno le parece corto quizá se le antoje largo a otro, y ni desmesuradamente corto ni largo a un tercero.
Para que este sentido de la duración resulte útil a un grupo de gente es preciso encontrar un método para medir su longitud que sea universal y no personal. Si un grupo acuerda reunirse «dentro de seis semanas exactamente», sería absurdo dejar que cada cual se presentara en el lugar de la cita cuando, en algún rincón de su interior, sienta que han pasado seis semanas. Mejor será que se pongan todos de acuerdo en contar cuarenta y dos períodos de luz-oscuridad y presentarse entonces, sin hacer caso de lo que diga el sentido de la duración.
En el momento que elegimos un fenómeno físico objetivo como medio para sustituir el sentido innato de la duración por un sistema de contar, tenemos algo a lo que podemos llamar «tiempo». En ese sentido, no debemos intentar definir el tiempo como esto o aquello, sino sólo como un sistema de medida.
Las primeras medidas del tiempo estaban basadas en fenómenos astronómicos periódicos: la repetición del mediodía (el Sol en la posición más alta) marcaba el día; la repetición de la Luna nueva marcaba el mes; la repetición del equinoccio vernal (el Sol de mediodía sobre el ecuador después de la estación fría) marcaba el año. Dividiendo el día en unidades iguales obtenemos las horas, los minutos y los segundos.
Estas unidades menores de tiempo no podían medirse con exactitud sin utilizar un movimiento periódico más rápido que la repetición del mediodía. El uso de la oscilación regular de un péndulo o de un diapasón introdujo en el siglo xvii los modernos relojes. Fue entonces cuando la medida del tiempo empezó a adquirir una precisión aceptable. Hoy día se utilizan las vibraciones de los átomos para una precisión aún mayor.
Pero ¿quién nos asegura que estos fenómenos periódicos son realmente «regulares»? ¿No serán tan poco de fiar como nuestro sentido de la duración?
Puede que sí, pero es que hay varios métodos independientes de medir el tiempo y los podemos comparar entre sí. Si alguno o varios de ellos son completamente irregulares, dicha comparación lo pondrá de manifiesto. Y aunque todos ellos sean irregulares, es sumamente improbable que lo sean de la misma forma. Si, por el contrario, todos los métodos de medir el tiempo coinciden con gran aproximación, como de hecho ocurre, la única conclusión que cabe es que los distintos fenómenos periódicos que usamos son todos ellos esencialmente regulares. (Aunque no perfectamente regulares. La longitud del día, por ejemplo, varía ligeramente.)
Las medidas físicas miden el «tiempo físico». Hay organismos, entre ellos el hombre, que tienen métodos de engranarse en fenómenos periódicos (como despertarse y dormirse) aun sin referencia a cambios exteriores (como el día y la noche). Pero este «tiempo biológico» no es, ni con mucho tan regular como el tiempo físico.
Y también está, claro es, el sentido de duración o «tiempo psicológico». Aun teniendo un reloj delante de las narices, una jornada de trabajo sigue pareciéndonos más larga que un día con la persona amada.
Poco después de 1800 se sugirió que la materia consistía en pequeñas unidades llamadas «átomos». Poco después de 1900 se aceptó que la energía constaba de pequeñas unidades llamadas «cuantos». Pues bien, ¿hay alguna otra magnitud común que venga en pequeñas unidades fijas? ¿El tiempo, por ejemplo?
Hay dos maneras de encontrar una «unidad lo más pequeña posible». Está primero el método directo de dividir una cantidad conocida hasta que no se pueda seguir dividiendo: descomponer una masa conocida en cantidades cada vez más pequeñas hasta quedarnos con un solo átomo, o dividir energías conocidas hasta obtener un solo cuanto. El otro método, indirecto, consiste en observar algún fenómeno que no pueda explicarse a menos que supongamos la existencia de una unidad mínima.
En el caso de la materia, la necesidad de una teoría atómica vino a través de una serie muy nutrida de observaciones químicas, entre las cuales figuraban la «ley de las proporciones definidas» y la «ley de las proporciones múltiples». En el caso de la energía, fue el estudio de la radiación del cuerpo negro y la existencia del efecto fotoeléctrico lo que determinó la necesidad de la teoría cuántica.
En el caso del tiempo, el método indirecto falla… al menos hasta ahora. No se han observado fenómenos que hagan necesario suponer que existe una unidad de tiempo mínima.
¿Y por el método directo? ¿Podemos observar períodos de tiempo cada vez más cortos, hasta llegar a algo que sea lo más corto posible?
Los físicos empezaron a manejar intervalos de tiempo ultracortos a raíz del descubrimiento de la radiactividad. Algunos tipos de átomos tenían una vida media muy breve. El polonio 212, por ejemplo, tiene una vida media inferior a una millonésima (10–6) de segundo. Se desintegra en el tiempo que tarda la Tierra en recorrer una pulgada en su giro alrededor del Sol a 29,8 kilómetros por segundo. Pero por mucho que los físicos estudiaron estos procesos con detalle, no había ningún signo, durante ese intervalo, de que el tiempo fluyese a pequeños saltos y no uniformemente.
Pero podemos ir un poco más lejos. Algunas partículas subatómicas se desintegran en intervalos de tiempo mucho más cortos. En la cámara de burbujas hay partículas que, viajando casi a la velocidad de la luz, logran formar, entre el momento de su nacimiento y el de su desintegración, una traza de unos tres centímetros, que corresponde a una vida de una diezmilmillonésima (10–10) de segundo.
Más ahí tampoco acaba la cosa. Durante los años sesenta se descubrieron partículas de vida especialmente corta. Tan efímeras, que aun moviéndose casi a la velocidad de la luz no podían desplazarse lo bastante para dejar una traza medible. El tiempo que vivían había que medirlo por métodos indirectos y resultó que estas «resonancias» de vida ultracorta vivían sólo diez cuatrillonésimas (10–23) de segundo.
Es casi imposible hacerse una idea de un tiempo tan fugaz. La vida de una resonancia es a una millonésima de segundo lo que una millonésima de segundo a tres mil años.
O mirémoslo de otra manera, La luz se mueve en el vacío a unos 300.000 kilómetros por segundo, que es la velocidad más grande que se conoce. Pues bien, la distancia que recorre la luz entre el nacimiento y la muerte de una resonancia es de 10–13centímetros. ¡Aproximadamente la anchura de un protón!
Pero tampoco hay que pensar que la vida de una resonancia es la unidad de tiempo más pequeña que puede haber. No hay signos de que exista un límite.
La palabra «dimensión» viene de un término latino que significa «medir completamente». Vayamos, pues, con algunas medidas.
Supongamos que tienes una línea recta y que quieres marcar sobre ella un punto fijo X, de manera que cualquier otra persona pueda encontrarlo con sólo leer tu descripción. Para empezar, haces una señal en cualquier lugar de la línea y la llamas «cero». Mides luego y compruebas que X está exactamente a dos pulgadas de la marca del cero. Si está a uno de los lados, convienes en llamar a esa distancia +2; si está al otro, –2.
El punto queda así localizado con un solo número, siempre que los demás acepten esas «convenciones»: dónde está la marca del cero, y qué lado es más y cuál menos.
Como para localizar un punto sobre una línea sólo se necesita un número, la línea, o cualquier trozo de ella es «unidimensional» («un solo número para medir completamente»).
Pero supón que tienes una gran hoja de papel y que quieres localizar en ella un punto fijo X. Empiezas en la marca del cero y compruebas que está a cinco pulgadas… ¿pero en qué dirección? Lo que puedes hacer es descomponer la distancia en dos direcciones. Tres pulgadas al norte y cuatro al este. Sí llamamos al norte más y al sur menos y al este más y al oeste menos, podrás localizar el punto con dos números: +3, +4.
O también puedes decir que está a cinco pulgadas del cero y a un ángulo de 36,87º de la línea este-oeste. De nuevo dos números: 5 y 36,87º. Hagas lo que hagas, siempre necesitarás dos números para localizar un punto fijo en un plano. Un plano, o cualquier trozo de él, es bidimensional.
Supón ahora que lo que tienes es un espacio como el interior de una habitación. Un punto fijo X lo podrías localizar diciendo que está a cinco pulgadas, por ejemplo, al norte de la marca cero, dos pulgadas al éste de ella y 15 pulgadas por encima de ella. O también dando una distancia y dos ángulos. Hagas lo que hagas, siempre necesitarás tres números para localizar un punto fijo en el interior de una habitación (o en el interior del universo).
La habitación, o el universo, son, por tanto, tridimensionales.
Supongamos que hubiese un espacio de naturaleza tal, que se necesitaran cuatro números, o cinco, o dieciocho, para localizar un punto fijo en él. Sería un espacio cuadridimensional, o de cinco dimensiones, o de dieciocho dimensiones. Tales espacios no existen en el universo ordinario, pero los matemáticos sí pueden concebir estos «hiperespacios» y calcular qué propiedades tendrían las correspondientes figuras matemáticas. E incluso llegan a calcular las propiedades que se cumplirían para cualquier espacio dimensional: lo que se llama «geometría n-dimensional».
Pero, ¿y si lo que estamos manejando son puntos, no fijos, sino variables en el tiempo? Si queremos localizar la posición de un mosquito que está volando en una habitación, tendremos que dar los tres números que ya conocemos: norte-sur, este-oeste y arriba-abajo. Pero luego tendríamos que añadir un cuarto número que representara el tiempo, porque el mosquito habrá ocupado esa posición espacial sólo durante un instante, y ese instante hay que identificarlo.
Lo mismo vale para todo cuanto hay en el universo. Tenemos el espacio, que es tridimensional, y hay que añadir el tiempo para obtener un «espacio-tiempo» cuadridimensional. Pero dándole un tratamiento diferente que a las tres «dimensiones espaciales». En ciertas ecuaciones clave en las que los símbolos de las tres dimensiones espaciales tienen signo positivo, el símbolo del tiempo lo lleva negativo.
Por tanto, no debemos decir que el tiempo es la cuarta dimensión. Es sólo una cuarta dimensión, diferente de las otras tres.
Al leer, así, de pronto, que la teoría de la relatividad de Einstein habla del «espacio curvado», uno quizá tiene todo derecho a sentirse desconcertado. El espacio vacío ¿cómo puede ser curvo? ¿Cómo se puede doblar el vacío?
Para verlo, imaginemos que alguien observa, desde una nave espacial, un planeta cercano. El planeta está cubierto todo él por un profundo océano, de modo que es una esfera de superficie tan pulida como la de una bola de billar. Y supongamos también que por este océano planetario navega un velero a lo largo del ecuador, rumbo este.
Imaginemos ahora algo más. El planeta es completamente invisible para el observador. Lo único que ve es el velero. Al estudiar su trayectoria comprueba con sorpresa que el barco sigue un camino circular. Al final, regresará al punto de partida, habiendo descrito entonces una circunferencia completa.
Si el barco cambia de rumbo, ya no será una circunferencia perfecta. Pero por mucho que cambie de rumbo, por mucho que vire y retroceda, la trayectoria se acoplará perfectamente a la superficie de una esfera.
De todo ello el observador deducirá que en el centro de la esfera hay una fuerza gravitatoria que mantiene al barco atado a una superficie esférica invisible. O también podría deducir que el barco está confinado a una sección particular del espacio y que esa sección está curvada en forma de esfera. O digámoslo así: la elección está entre una fuerza y una geometría espacial.
Diréis que la situación es imaginaria, pero en realidad no lo es. La Tierra describe una elipse alrededor del Sol, como si navegara por una superficie curvada e invisible, y para explicar la elipse suponemos que entre el Sol y la Tierra hay una fuerza gravitatoria que mantiene a nuestro planeta en su órbita.
Pero suponed que en lugar de ello consideramos una geometría espacial. Para definirla podríamos mirar, no el espacio en sí, que es invisible, sino la manera en que los objetos se mueven en él. Si el espacio fuese «plano», los objetos se moverían en líneas rectas; si fuese «curvo», en líneas curvas.
Un objeto de masa y velocidad dadas, que se mueva muy alejado de cualquier otra masa, sigue de hecho una trayectoria casi recta. Al acercarse a otra masa, la trayectoria se hace cada vez más curva. La masa, al parecer, curva el espacio; cuanto mayor y más próxima, más acentuada será la curvatura.
Quizá parezca mucho más conveniente y natural hablar de la gravitación corno una fuerza, que no como una geometría espacial… hasta que se considera la luz. La luz no tiene masa, y según las viejas teorías no debería verse afectada por la fuerza gravitatoria. Pero si la luz viaja por el espacio curvado, también debería curvarse su trayectoria. Conociendo la velocidad de la luz se puede calcular la deflexión de su trayectoria al pasar cerca de la ingente masa del Sol.
En 1919 se comprobó esta parte de la teoría de Einstein (anunciada tres años antes) durante un eclipse de Sol. Para ello se comparó la posición de las estrellas próximas al Sol con la posición registrada cuando el Sol no se hallaba en esa parte de los cielos. La teoría de Einstein quedó confirmada y desde entonces es más exacto hablar de la gravedad en función del espacio curvado, que no en función de una fuerza.
Sin embargo, justo es decir que ciertas medidas, muy delicadas, de la forma del Sol, realizadas en 1967, pusieron en duda la teoría de la gravitación de Einstein. Para ver lo que pasará ahora y en el futuro habrá que esperar.
Toda partícula subatómica da lugar a por lo menos una de cuatro clases distintas de influencias: la gravitatoria, la electromagnética, la nuclear débil y la nuclear fuerte. Cualquiera de ellas se extiende desde su fuente de origen en la forma de un «campo» que, en teoría, permea el universo entero. Los campos de un gran número de partículas juntas pueden sumar sus influencias y crear un campo resultante muy intenso. El campo gravitatorio es, con mucho, el más débil de los cuatro, pero el del Sol (cuerpo compuesto por un número enorme de partículas) es muy fuerte, precisamente por la razón anterior.
Dos partículas colocadas dentro de un campo pueden moverse al encuentro una de otra o alejarse entre sí, según sea la naturaleza de las partículas y del campo; y además lo harán con una aceleración que depende de la distancia entre ambas. La interpretación que se suele dar a estas aceleraciones es que están producidas por «fuerzas», con lo cual se habla de «campos de fuerza». En este sentido, existen realmente.
Ahora bien, los campos de fuerza que conocemos tienen siempre por origen la materia y no existen en ausencia de ella, mientras que en los relatos de ciencia ficción es a veces muy útil imaginar la construcción de intensos campos de fuerza sin materia. El novelista puede así convertir una sección del vacío en una barrera contra partículas y radiación (igual que si fuese una lámina de acero de seis pies de espesor). Tendría todas las fuerzas interatómicas, pero ninguno de los átomos que las crean. Esos «campos de fuerza libres de materia» son un recurso muy útil de la ciencia ficción, pero sin base alguna en la ciencia actual.
El «hiperespacio» es otro recurso útil de la ciencia ficción: un artificio para burlar la barrera de la velocidad de la luz.
Para ver cómo funciona, pensad en una hoja de papel plana y muy grande, en la que hay dos puntos a seis pies uno de otro. Imaginad ahora un lentísimo caracol que sólo pueda caminar un pie a la hora. Está claro que tardará seis horas en pasar de un punto al otro.
Pero suponed que cogemos ahora esa hoja de papel, que en esencia es bidimensional, y la doblamos por la tercera dimensión, poniendo casi en contacto los dos puntos. Si la distancia es ahora de sólo una décima de pulgada y si el caracol es capaz de cruzar de algún modo el espacio que queda entre los dos trozos de papel así doblados, podrá pasar de un punto a otro en medio minuto exactamente.
Vayamos ahora con la analogía. Si tenemos dos estrellas que distan cincuenta años-luz entre sí, una nave espacial que vuele a la máxima velocidad (la de la luz) tardará cincuenta años en ir de una a otra (referidos a alguien que se encuentre en cualquiera de estos dos sistemas estelares). Todo esto crea numerosas complicaciones, pero los escritores de ciencia ficción han descubierto un modo de simplificar los argumentos, y es pretender que la estructura del espacio (en esencia tridimensional) puede doblarse por una cuarta dimensión espacial, dejando así entre las dos estrellas un vano cuadridimensional muy pequeño. La nave cruza entonces ese estrecho y se presenta en la estrella en un santiamén.
Los matemáticos acostumbran a hablar de los objetos de cuatro dimensiones como si se tratara de objetos análogos tridimensionales y añadiendo luego el prefijo «hiper», palabra griega que significa «por encima de», «más allá de». Un objeto cuya superficie dista lo mismo del centro en las cuatro dimensiones es una «hiperesfera». Y de la misma manera podemos obtener el «hipertetraedro», el «hipercubo» y el «hiperelipsoide». Con este convenio podemos llamar «hiperespacio» a ese vano cuadridimensional entre las estrellas.
Pero ¡viva el cielo!, que por muy útil que le sea al escritor de ciencia ficción el hiperespacio, nada hay en la ciencia actual que demuestre la existencia de tal cosa, salvo como abstracción matemática.
Hay dos tipos de campos ―los electromagnéticos y los gravitatorios― cuya intensidad decrece con el cuadrado de la distancia. Esta disminución de intensidad es suficientemente lenta para permitir que un campo electromagnético o gravitatorio sea detectable a grandes distancias. La Tierra está firmemente sujeta por el campo gravitatorio solar, pese a que el Sol está a 150 millones de kilómetros.
Sin embargo, el campo gravitatorio es, con mucho, el más débil de los dos. El campo electromagnético creado por un electrón es algo así como cuatro septillones más intenso que su campo gravitatorio.
Claro está que parecer, sí parecen intensos los campos gravitatorios. Cada vez que nos caemos experimentamos dolorosamente la intensidad del campo gravitatorio terrestre. Pero es sólo porque la Tierra tiene un tamaño inmenso. Cada fragmento diminuto contribuye a ese campo, y al final la suma es ingente.
Pero suponed que cogemos 100 millones de electrones (que, juntados en un punto, ni siquiera se verían al microscopio) y los dispersamos por un volumen del tamaño de la Tierra. El campo electromagnético resultante sería igual al campo gravitatorio de toda la Tierra.
¿Por qué no notamos más los campos electromagnéticos que los gravitatorios?
Aquí es donde surge otra diferencia. Hay dos clases de carga eléctrica, llamadas positiva y negativa, de modo que un campo electromagnético puede resultar en una atracción (entre una carga positiva y otra negativa) o en una repulsión (entre dos positivas o entre dos negativas). De hecho, si la Tierra no contuviera otra cosa que esos 100 millones de electrones, éstos se repelerían y se dispersarían en todas direcciones.
Las fuerzas de atracción y repulsión electromagnéticas sirven para mezclar a fondo las cargas positivas y negativas, de modo que el efecto de éstas se anula en definitiva. Aquí y allá es posible que surjan pequeñísimos excesos o defectos de electrones, y los campos electromagnéticos que nosotros estudiamos son precisamente los correspondientes a estos desplazamientos.
El campo gravitatorio, por el contrario, parece ser que sólo produce fuerzas de atracción. Cualquier objeto que posea masa atrae a cualquier otro que también la posea, y a medida que se acumula la masa aumenta también la intensidad del campo gravitatorio, sin cancelación alguna.
Si un objeto con masa repeliera a otro objeto (dotado también de masa) con la misma intensidad y de la misma manera que se atraen dichos objetos en las condiciones gravitatorias normales, lo que tendríamos sería «antigravedad» o «gravedad negativa».
Jamás se ha detectado una repulsión gravitatoria de este tipo, pero quizá sea porque todos los objetos que podemos estudiar con detalle están constituidos por partículas ordinarias.
Pero además de las partículas ordinarias están las «antipartículas», que son iguales que aquéllas, salvo que el campo electromagnético está invertido. Si una partícula dada tiene carga negativa, la correspondiente antipartícula la tiene positiva. Y puede ser que el campo gravitatorio de las antipartículas también esté invertido. Dos antipartículas se atraerían gravitatoriamente igual que dos partículas, pero una antipartícula y una partícula se repelerían.
Lo malo es que los campos gravitatorios son tan débiles, que en partículas o antipartículas sueltas es imposible detectarlos, como no sea en masas grandes. Masas grandes de partículas sí tenemos, pero en cambio nadie ha reunido una masa apreciable de antipartículas. Ni tampoco ha sugerido nadie un modo alternativo, y práctico, de detectar los efectos antigravitatorios.
Una manera más larga, pero quizá más clara, de plantear la cuestión es ésta: supongamos que el Sol dejara de pronto de existir y se desvaneciera en la nada. ¿Cuánto tiempo pasaría antes de que la Tierra dejara de verse solicitada por su campo gravitatorio?
Una pregunta parecida podría ser: ¿Cuánto tiempo después de la desaparición del Sol dejaría la Tierra de recibir su luz?
La respuesta a la segunda pregunta la conocemos muy bien. Sabemos que el Sol se halla a poco menos de 150 millones de kilómetros de la Tierra y también que la luz se propaga a 299.793 kilómetros por segundo en el vacío. El último rayo de luz que abandonara el Sol, justo antes de desaparecer, tardaría 8,3 minutos en llegar a la Tierra. O digámoslo así: al Sol lo veríamos desaparecer 8,3 minutos más tarde de haber desaparecido realmente.
El motivo de que sea fácil contestar esta pregunta acerca de la luz es que hay una serie de métodos para medir efectivamente su velocidad de propagación. Tales mediciones son viables gracias a que podemos detectar cambios en la debilísima luz emitida por los cuerpos celestes remotos, y gracias también a que somos capaces de producir haces de luz muy intensos.
Con los campos gravitatorios no tenemos esas ventajas. Es muy difícil estudiar pequeños cambios en campos gravitatorios débiles, y además no sabemos producir, aquí en la Tierra, efectos gravitatorios intensos que se extiendan a grandes distancias.
Así que hay que recurrir a la teoría. Hay cuatro tipos de interacción en el universo: 1) nucleares fuertes, 2) nucleares débiles, 3) electromagnéticas, y 4) gravitatorias. Las dos primeras son de corto alcance y decrecen muy rápidamente con la distancia. A distancias superiores a la anchura de un núcleo atómico, las interacciones nucleares son tan débiles que pueden ignorarse. Las interacciones electromagnéticas y gravitatorias son, por el contrario, de largo alcance. Decrecen sólo con el cuadrado de la distancia, lo cual quiere decir que se dejan sentir a distancias astronómicas.
Los físicos creen que cualquier interacción entre dos cuerpos tiene lugar por intercambio de partículas subatómicas. Cuanto mayor sea la masa de la partícula de intercambio, menor será el alcance de la interacción. La interacción nuclear fuerte, por ejemplo, resulta del intercambio de piones, que tienen una masa 270 veces más grande que la de los electrones. La interacción nuclear débil tiene lugar por intercambio de partículas más pesadas aún: las partículas W (que, por cierto, no han sido detectadas aún).
Si las partículas de intercambio no tienen masa, la interacción tiene un alcance máximo, y esto es lo que ocurre con la interacción electromagnética. La partícula de intercambio es en este caso el fotón, que no tiene masa. Una corriente de estos fotones carentes de masa constituye un haz de luz o de radiaciones afines. La interacción gravitatoria, que tiene un alcance tan grande como la electromagnética, ha de implicar una partícula de intercambio carente también de masa: lo que se llama el gravitón.
Pero los físicos tienen buenas razones para suponer que las partículas sin masa no pueden viajar por el vacío a una velocidad superior a la de la luz; es decir, a 299.793 kilómetros por segundo, ni más ni menos.
Si es así, los gravitones viajan exactamente a la velocidad de los fotones. Lo cual significa que los últimos gravitones que emitiera el Sol al desaparecer llegarían hasta nosotros junto con los últimos fotones. En el momento en que dejásemos de ver el Sol, dejaríamos también de estar bajo su atracción gravitatoria.
En resumen, la gravitación se propaga a la velocidad de la luz.
A mediados del siglo XIX se conocían cuatro fenómenos que eran capaces de hacerse notar a través del vacío. Eran: 1) gravitación, 2) luz, 3) atracción y repulsión eléctricas, y 4) atracción y repulsión magnéticas.
Al principio parecía que los cuatro fenómenos eran completamente independientes, que no tenían necesariamente ninguna conexión entre sí. Pero entre 1864 y 1873, el físico teórico escocés J. Clerk Maxwell analizó matemáticamente los fenómenos eléctricos y magnéticos, encontrando ciertas relaciones básicas (las «ecuaciones de Maxwell») que describían tanto los fenómenos eléctricos como los magnéticos y que demostraban que los unos dependían de los otros. No había ningún efecto eléctrico que no fuese acompañado de un determinado efecto magnético, y viceversa. En otras palabras, podía hablarse de un «campo electromagnético», que se extendía a través del vacío y que, por contacto, influía sobre los cuerpos de acuerdo con la intensidad del campo en ese punto del espacio.
Maxwell demostró también que haciendo oscilar de manera regular a este campo se originaba una radiación que se alejaba de la fuente de oscilación a la velocidad de la luz en todas direcciones. La luz propiamente dicha era una de esas «radiaciones electromagnéticas» y Maxwell predijo la existencia de formas de luz con longitudes de onda mucho más pequeñas y mucho más grandes que la de la luz ordinaria. Esas otras formas de luz fueron descubiertas a lo largo de los veinte años siguientes, y hoy día se habla de todo un «espectro electromagnético».
Así pues, de los cuatro fenómenos mencionados al principio, tres (electricidad, magnetismo y luz) quedaron fundidos en un único campo. Pero quedaba aún la gravedad por explicar. Estaban 1) el campo electromagnético y 2) el campo gravitatorio, que al parecer seguían siendo dos campos independientes.
Los físicos, sin embargo, pensaban que sería mucho más bonito que hubiese un solo campo (esa es la «teoría del campo unificado»); y así empezaron a buscar la manera de describir los efectos electromagnéticos y los gravitatorios de modo que la existencia de unos pudiera utilizarse para describir la naturaleza de la existencia de los otros.
Pero aunque se descubriesen unas ecuaciones que combinaran los efectos electromagnéticos y los gravitatorios, no lograrían del todo proporcionar ―según los criterios actuales― un campo auténticamente unificado. Después de 1935 se descubrieron dos nuevos tipos de campo que sólo afectan a las partículas subatómicas y, además, sólo a distancias inferiores al diámetro de un núcleo atómico. Son la «interacción nuclear fuerte» y la «interacción nuclear débil».
Un auténtico campo unificado tendría que dar cuenta de los cuatro campos que hoy se conocen.
Según las leyes del movimiento establecidas por primera vez con detalle por Isaac Newton hacia 1680-89, dos o más movimientos se suman de acuerdo con las reglas de la aritmética elemental. Supongamos que un tren pasa a nuestro lado a 20 kilómetros por hora y que un niño tira desde el tren una pelota a 20 kilómetros por hora en la dirección del movimiento del tren. Para el niño, que se mueve junto con el tren, la pelota se mueve a 20 kilómetros por hora. Pero para nosotros, el movimiento del tren y el de la pelota se suman, de modo que la pelota se moverá a la velocidad de 40 kilómetros por hora.
Como veis, no se puede hablar de la velocidad de la pelota a secas. Lo que cuenta es su velocidad con respecto a un observador particular. Cualquier teoría del movimiento que intente explicar la manera en que las velocidades (y fenómenos afines) parecen variar de un observador a otro sería una «teoría de la relatividad».
La teoría de la relatividad de Einstein nació del siguiente hecho: lo que funciona para pelotas tiradas desde un tren no funciona para la luz. En principio podría hacerse que la luz se propagara, o bien a favor del movimiento terrestre, o bien en contra de él. En el primer caso parecería viajar más rápido que en el segundo (de la misma manera que un avión viaja más aprisa, en relación con el suelo, cuando lleva viento de cola que cuando lo lleva de cara). Sin embargo, medidas muy cuidadosas demostraron que la velocidad de la luz nunca variaba, fuese cual fuese la naturaleza del movimiento de la fuente que emitía la luz.
Einstein dijo entonces: supongamos que cuando se mide la velocidad de la luz en el vacío, siempre resulta el mismo valor (unos 299.793 kilómetros por segundo), en cualesquiera circunstancias. ¿Cómo podemos disponer las leyes del universo para explicar esto?
Einstein encontró que para explicar la constancia de la velocidad de la luz había que aceptar una serie de fenómenos inesperados.
Halló que los objetos tenían que acortarse en la dirección del movimiento, tanto más cuanto mayor fuese su velocidad, hasta llegar finalmente a una longitud nula en el límite de la velocidad de la luz; que la masa de los objetos en movimiento tenía que aumentar con la velocidad, hasta hacerse infinita en el límite de la velocidad de la luz; que el paso del tiempo en un objeto en movimiento era cada vez más lento a medida que aumentaba la velocidad, hasta llegar a pararse en dicho límite; que la masa era equivalente a una cierta cantidad de energía y viceversa.
Todo esto lo elaboró en 1905 en la forma de la «teoría especial de la relatividad», que se ocupaba de cuerpos con velocidad constante. En 1915 extrajo consecuencias aún más sutiles para objetos con velocidad variable, incluyendo una descripción del comportamiento de los efectos gravitatorios. Era la «teoría general de la relatividad».
Los cambios predichos por Einstein sólo son notables a grandes velocidades. Tales velocidades han sido observadas entre las partículas subatómicas, viéndose que los cambios predichos por Einstein se daban realmente, y con gran exactitud. Es más, sí la teoría de la relatividad de Einstein fuese incorrecta, los aceleradores de partículas no podrían funcionar, las bombas atómicas no explotarían y habría ciertas observaciones astronómicas imposibles de hacer.
Pero a las velocidades corrientes, los cambios predichos son tan pequeños que pueden ignorarse. En estas circunstancias rige la aritmética elemental de las leyes de Newton; y como estamos acostumbrados al funcionamiento de estas leyes, nos parecen ya de «sentido común», mientras que la ley de Einstein se nos antoja «extraña».
La energía suministrada a un cuerpo puede influir sobre él de distintas maneras. Si un martillo golpea a un clavo en medio del aire, el clavo sale despedido y gana energía cinética o, dicho de otro modo, energía de movimiento. Si el martillo golpea sobre un clavo incrustado en madera dura e incapaz por tanto de moverse, el clavo seguirá ganando energía, pero en forma de calor.
Albert Einstein demostró en su teoría de la relatividad que la masa cabía contemplarla como una forma de energía (y el invento de la bomba atómica probó que estaba en lo cierto). Al añadir energía a un cuerpo, esa energía puede aparecer por tanto en la forma de masa, o bien en otra serie de formas.
En condiciones ordinarias, la ganancia de energía en forma de masa es tan increíblemente pequeña, que sería imposible medirla. Fue en el siglo XX ―con la observación de partículas subatómicas que se movían a velocidades de decenas de miles de kilómetros por segundo― cuando se empezaron a encontrar aumentos de masa que eran suficientemente grandes para poder detectarlos. Un cuerpo que se moviera a unos 260.000 kilómetros por segundo respecto a nosotros mostraría una masa dos veces mayor que en reposo (siempre respecto a nosotros).
La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas: 1) en forma de velocidad, con lo cual aumenta la rapidez del movimiento, y 2) en forma de masa, con lo cual se hace «más pesado». La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).
Si el cuerpo se mueve a velocidades normales, prácticamente toda la energía se incorpora en forma de velocidad: el cuerpo se mueve más aprisa sin sufrir apenas ningún cambio de masa.
A medida que aumenta la velocidad del cuerpo (y suponiendo que se sigue inyectando constantemente energía) es cada vez menos la energía que se convierte en velocidad y más la que se transforma en masa. Observamos que aunque el cuerpo siga moviéndose cada vez más rápido, el ritmo de aumento de velocidad decrece. Como contrapartida notamos que gana masa a un ritmo ligeramente mayor.
Al aumentar aún más la velocidad y acercarse a los 299.793 kilómetros por segundo, que es la velocidad de la luz en el vacío, casi toda la energía añadida entra en forma de masa. Es decir, la velocidad del cuerpo aumenta muy lentamente, pero ahora es la masa la que sube a pasos agigantados. En el momento en que se alcanza la velocidad de la luz, toda la energía añadida aparece en forma de masa adicional.
El cuerpo no puede sobrepasar la velocidad de la luz, porque para conseguirlo hay que comunicarle energía adicional, y a la velocidad de la luz toda esa energía, por mucha que sea, se convertirá en nueva masa, con lo cual la velocidad no aumentará ni un ápice.
Todo esto no es «pura teoría». Los científicos han observado con todo cuidado durante años las partículas subatómicas. En los rayos cósmicos hay partículas de energía increíblemente alta, pero por mucho que aumenta su masa, la velocidad nunca llega a la de la luz en el vacío. La masa y la velocidad de las partículas subatómicas son exactamente como predice la teoría de la relatividad, y la velocidad de la luz es una velocidad máxima como una cuestión de hecho, no en virtud de simples especulaciones.
Las explicaciones anteriores no dejaron sentada del todo la cuestión, sino que plantearon dudas e incitaron a muchos a formular por carta nuevas preguntas. Algunos preguntaban: «¿Por qué se convierte la energía en masa y no en velocidad?» o «¿Por qué se propaga la luz a 299.793 kilómetros por segundo y no a otra velocidad?».
Hoy por hoy, la única respuesta posible a esas preguntas es: «Porque así es el universo».
Otros preguntaban: «¿Cómo aumenta la masa?». Esto ya es más fácil. No es que aumente el número de átomos, que sigue siendo el mismo, sino que es la masa de cada átomo (en realidad de cada partícula dentro del átomo) la que aumenta.
Hubo quienes preguntaron si no sería posible aumentar los recursos terrestres a base de mover la materia muy deprisa, doblando así su masa. De ese modo tendríamos justamente el doble.
No es cierto. El aumento de masa no es «real». Es una cuestión de medida. La velocidad sólo adquiere significado como medida relativa a algo: a la persona que efectúa la medida, pongamos por caso. Lo único que cuenta es la medición. Ni tú ni yo podemos medir materia que se mueve más deprisa que la luz.
Pero supón que te agarras a esa materia que acabas de comprobar que tiene el doble de su masa normal y que la quieres utilizar para un fin determinado. Al moverte junto con ella, su velocidad con respecto a ti es cero y de pronto su masa es otra vez la normal.
Si pasas como un relámpago al lado de tu amigo a una velocidad próxima a la de la luz, verías que su masa es enorme y él vería igual de enorme la tuya. Tanto tú corno él pensaríais que vuestra propia masa era normal.
Preguntaréis: «¿Pero cuál de los dos ha aumentado realmente de masa?». La respuesta es: «Depende de quién haga la medida». No hay «realmente» que valga; las cosas son tal como son medidas con respecto a algo y por alguien. De ahí el nombre de teoría de la «relatividad».
Nosotros pensamos que estamos cabeza arriba y que los australianos están cabeza abajo. Los australianos piensan lo mismo pero al revés. ¿Cuál de las dos visiones es «realmente» la correcta? Ninguna de las dos. No hay «realmente» que valga. Depende de en qué punto de la Tierra nos encontremos. Todo es relativo.
Hubo también lectores que preguntaron: «Si la masa aumenta con la velocidad, ¿no se haría cero cuando el objeto estuviera absolutamente quieto?». Pero es que no hay el «absolutamente quieto». Sólo hay «reposo relativo». Una cosa puede estar en reposo en relación con otra. Cuando un objeto está en reposo en relación con la persona que efectúa la medida, posee una cierta masa mínima denominada «masa en reposo». La masa no puede ser menor que eso.
A velocidades relativas grandes no sólo aumenta la masa de un objeto, sino que disminuye también la longitud del mismo en la dirección del movimiento y se retrasa el paso del tiempo por dicho objeto.
Y si preguntamos que por qué, la respuesta es: «Porque si no fuese así, la velocidad de la luz no sería la velocidad máxima para la materia».