La teoría de supercuerdas: ¿La unificación por fin?
Por primera vez en la historia, tenemos en la teoría de supercuerdas —más concretamente en la teoría de supercuerdas heteróticas— una propuesta seria para una teoría unificada de todas las partículas elementales y de sus interacciones y, por tanto, de todas las fuerzas de la naturaleza. El siguiente paso es obtener predicciones de la teoría y compararlas con lo que ya sabemos, además de lo que pronto se podrá medir, sobre las partículas elementales. Un rasgo llamativo de esta comparación es la aparición en las ecuaciones de una energía o masa característica (la masa de Planck), cerca de la cual se manifiesta directamente la total unificación de la teoría de supercuerdas. Pero la energía equivalente a la masa de Planck es enorme comparada con la escala de energía de los fenómenos detectables en el laboratorio. De modo que todas las partículas que pueden estudiarse más o menos directamente en un laboratorio pertenecen en su totalidad al «sector de masa baja» de la teoría.
Hay cierto número de partículas, grande pero finito (pongamos entre cien y doscientas), con masas lo suficientemente pequeñas como para que aparezcan en un futuro previsible en los experimentos realizados en aceleradores. Estas partículas y sus interacciones constituyen el sector de masa baja de la teoría de supercuerdas.
El resto de partículas elementales (en número infinito) son enormemente más masivas, y su presencia sólo puede constatarse a través de efectos virtuales (tales como la generación de fuerzas por intercambio de cuantos virtuales). Algunos de estos efectos virtuales pueden resultar de importancia capital, como por ejemplo los que permiten incluir la gravitación einsteniana en el marco de la teoría sin engendrar infinitos agobiantes.
El modelo estándar, incluyendo las tres familias de fermiones, sus antipartículas y los doce cuantos conocidos, forma parte del sector de masa baja de la teoría unificada. El gravitón, de masa cero, así como otras partículas predichas, pertenece también, obviamente, al sector de masa baja.
El modelo estándar se distingue de la teoría de la gravitación por una propiedad extraordinaria llamada renormalización. Esto significa que puede separarse como una buena aproximación del resto de la teoría unificada sin que aparezcan infinitos que hagan que los cálculos carezcan de sentido. Una parte renormalizable de la teoría unificada puede usarse por sí misma, casi como, si fuese la teoría final. Sin embargo, hay que pagar un precio por esta separación, que en el caso del modelo estándar es la aparición de más de una docena de números arbitrarios, imposibles de calcular teóricamente y que deben determinarse experimentalmente. Estos parámetros representan la dependencia del modelo del resto de la teoría fundamental unificada, incluyendo el conjunto infinito de partículas de masa alta.
Dado que las razones entre la masa de Planck y las masas de las partículas del sector de masa baja son muy grandes, unos pocos físicos teóricos y varios autores profanos han afirmado que las predicciones de la teoría son difíciles o imposibles de comprobar por medio de la observación. No obstante, tales argumentos son incorrectos. Hay muchas maneras de confrontar la teoría con los resultados experimentales:
Aunque no debemos perder la esperanza de hallar métodos para comparar las predicciones de la teoría con los hechos de la naturaleza, los teóricos deben proceder a la difícil tarea de extraer estas predicciones.
¿Cuál es la enorme energía que caracteriza la teoría de supercuerdas y de dónde procede? Es la unidad básica de energía, derivada de las constantes universales de la naturaleza. Estas constantes son tres: c, la velocidad de la luz en el vacío; h, la constante de Plank, y G, la constante de gravitación de Newton.
La constante h es la razón entre la energía de cualquier cuanto de radiación y la frecuencia de vibración de esa radiación. En la práctica se suele emplear la forma ħ, que significa h dividido por 2π, donde 2π es la razón entre la circunferencia de cualquier círculo y su radio. (Werner Heisenberg solía llevar un alfiler de corbata en forma de ħ para mostrar su orgullo como descubridor de la mecánica cuántica. Este símbolo resulta tan familiar para los físicos teóricos que mi viejo amigo Stanisław Ulam, el brillante y divertido matemático, solía describir la letra polaca ł, la ele «oscura» que aparece en su nombre, como l dividido por 2π.)
G es la constante universal de la fórmula de Newton para la fuerza gravitatoria entre dos masas puntuales, que es igual al producto de G por las dos masas dividido por el cuadrado de la distancia entre ellas. (Newton demostró que la misma fórmula podía aplicarse a dos cuerpos esféricos si la distancia que se emplea es la distancia entre sus centros. La fórmula puede emplearse aproximadamente para el Sol, los planetas y para satélites como la Luna.)
Multiplicando y dividiendo potencias adecuadas de las tres constantes universales, c, ħ y G, puede construirse la unidad fundamental de cualquier magnitud física, como longitud, tiempo, energía o fuerza. La longitud fundamental es del orden de un centímetro dividido por un uno seguido de treinta y tres ceros. Dividiendo esta longitud por la velocidad de la luz obtenemos la unidad de tiempo fundamental, que es del orden de un segundo dividido por un uno seguido de cuarenta y cuatro ceros.
En contraste, las unidades a las que está acostumbrada la mayoría de la gente son arbitrarias; no están construidas a partir de constantes universales de la naturaleza. Aunque un pie ya no es (si es que lo fue alguna vez) la media de la longitud de los zapatos de las diez primeras personas que salen de la iglesia un domingo por la mañana, sigue sin ser una unidad fundamental. Tampoco lo es el metro, definido en primera instancia como la longitud de una determinada barra de metal guardada en una cámara acorazada cerca de París, y en la actualidad como cierto múltiplo de la longitud de onda de la luz emitida por un átomo de kriptón en un estado particular de excitación.
La unidad fundamental de masa, la masa de Planck, es aproximadamente una cienmilésima de gramo. Ciertamente, no parece enorme a escala humana, pero en la escala de las masas del protón y el neutrón (ambas cercanas a 1 GeV) es gigantesca —veinte trillones de veces mayor—. Dando la vuelta, podemos decir que el neutrón y el protón son extremadamente pequeños en comparación con la unidad fundamental. La masa del electrón es dos mil veces más pequeña todavía. ¿A qué se deben estos números tan pequeños? La respuesta más simple es que aún no lo sabemos. La teoría de supercuerdas heteróticas no contiene ningún parámetro ajustable. Si resulta ser la teoría correcta, debe generar por sí misma, de alguna forma, las pequeñas razones entre las masas de las partículas conocidas y la masa de Planck. Una de las más severas pruebas de la teoría es verificar sobre el papel que esto efectivamente es así.
Hasta ahora, no hay más que indicios sobre la manera en que surgen estos pequeños valores en la teoría. Una conjetura bastante obvia consiste en admitir como aproximación útil que todas las partículas del sector de masa baja tienen masa nula. Las correcciones que introduce la ruptura de simetría en esta aproximación (incluyendo las inducidas por el mecanismo de Anderson-Higgs) se convierten en las responsables de las masas reales, pequeñas pero distintas de cero. Unas pocas masas, entre ellas las del fotón y el gravitón, no reciben correcciones y son efectivamente nulas.
Las energías alcanzables en los experimentos actuales son del orden de un millar de GeV; pronto podrán ser de un orden unas diez veces mayor, pero no más. Todavía serán diminutas comparadas con la unidad fundamental de energía, alrededor de los veinte trillones de GeV. Dado que los experimentadores no pueden producir en sus laboratorios partículas de masa superior a las energías disponibles en sus aceleradores, siempre trabajarán directamente con partículas pertenecientes al sector de masa baja.
¿Qué observaciones generales pueden hacerse sobre las partículas incluidas en la teoría de supercuerdas heteróticas? La respuesta tiene que ver con el significado de la palabra cuerda y del prefijo super-.
El término cuerda indica que la teoría describe las partículas en términos de pequeños lazos, en lugar de puntos; el tamaño típico de cada lazo es del orden de la unidad fundamental de longitud, una milmillonésima de billonésima de billonésima de centímetro. Estos lazos son tan pequeños que, para la mayoría de fines, se pueden describir como partículas puntuales, de hecho una infinidad de clases de partículas puntuales. ¿Cuáles son las relaciones entre las diferentes partículas? En concreto, ¿cómo se relacionan las pertenecientes al sector de masa baja con las que tienen una masa comparable a la masa de Planck, o mayor?
Una buena analogía es una cuerda de violín, que tiene un modo fundamental de vibración y un número infinito de otros modos (armónicos) de frecuencia cada vez mayor. Pero en mecánica cuántica la energía equivale a la frecuencia multiplicada por la constante de Planck h. Las partículas del sector de masa baja pueden visualizarse como los modos fundamentales de vibración de los diversos tipos de lazo que se dan en la teoría de supercuerdas, mientras que las partículas de masa comparable a la de Planck representan armónicos, y las de masa aún mayor, armónicos de frecuencia más alta.
El prefijo super- indica que la teoría es aproximadamente «supersimétrica», es decir, que para cada fermión de la lista de partículas elementales existe un bosón correspondiente, y viceversa. Si la supersimetría del sistema de partículas fuese exacta, cada fermión tendría precisamente la misma masa que su bosón asociado. Sin embargo, la supersimetría se «rompe» por sí misma, de un modo todavía mal comprendido, lo que hace que las masas de los fermiones y bosones correspondientes estén separadas por lo que yo llamaría un «superhueco». Éste no tiene exactamente el mismo valor para cada pareja fermión-bosón, pero probablemente siempre es del mismo orden de magnitud. Si el superhueco es del orden de la masa de Planck, ya podemos desistir de observar directamente en el laboratorio los compañeros supersimétricos de las partículas conocidas.
Sin embargo, si la energía equivalente al superhueco es sólo de unos cientos o miles de GeV, estas observaciones de los compañeros supersimétricos deberían ser posibles en los próximos años, suponiendo que se acabe de construir el nuevo acelerador del CERN. (Las posibilidades hubieran sido mayores si se hubiera construido el acelerador SSC, que trabajaría con energías superiores.) El análisis teórico de los resultados de ciertos experimentos indica que el superhueco podría ser lo suficientemente pequeño para las posibilidades del SSC, y tal vez también para las del aparato del CERN. Asumiendo que esto sea cierto, pienso que la perspectiva del descubrimiento de los compañeros supersimétricos es la motivación más apasionante para la construcción de nuevos aceleradores (a la que siempre se suma la más general de explorar lo desconocido y comprobar si aparecen fenómenos imprevistos).
La nomenclatura de los hipotéticos compañeros supersimétricos sigue dos esquemas distintos. Cuando la partícula conocida es un bosón, el fermión asociado recibe un nombre que termina con el diminutivo italiano -ino, empleado por primera vez (en un contexto distinto) por Fermi para bautizar al neutrino. Así, el compañero del fotón es el fotino, y el del gravitón el gravitino. Como los bosones cargados que mediatizan la interacción débil suelen denotarse por W+ y W−, los correspondientes fermiones supersimétricos han recibido el peregrino nombre de «winos». En caso de que la partícula conocida sea un fermión, su pareja, un bosón, recibe el mismo nombre que el fermión, pero con la letra «s» como prefijo (probablemente como abreviatura de «super»). Así se obtienen nombres estrafalarios como squark, selectrón, etc. (Me gustaría dejar claro que no me considero responsable de esta nomenclatura, aunque, debo admitirlo, sí estaba presente cuando se escogió el sufijo -ino para las parejas de los bosones conocidos.)
Dado que el compañero supersimétrico de un bosón es un fermión y viceversa, los espines de los dos supercompañeros deben ser siempre diferentes, uno un número entero y el otro un semientero. De hecho, ambos espines deben diferir en 1/2. Los bosones de Higgs tienen espín 0, y sus parejas supersimétricas (higgsinos) tienen espín 1/2. Las tres familias de fermiones tienen espín 1/2, y sus parejas squarks, selectrones, etc.) tienen espín 0. Los cuantos (gluones, fotones, bosones X o W y Z0) tienen espín 1, y sus compañeros (gluinos, íotinos, etc.) tienen espín 1/2. El gravitón tiene espín 2 y el gravitino 3/2.
En la teoría de supercuerdas, el modelo estándar queda englobado en una teoría renormalizable más grande, que podemos llamar modelo superestándar, el cual contiene los veinte cuantos, los fermiones usuales y algunos bosones de Higgs, junto con las parejas supersimétricas de todas estas partículas. Las predicciones del modelo superestándar proporcionan maneras de comprobar experimentalmente la validez de la teoría de supercuerdas.
Al aumentar la energía y abandonar el sector de masa baja —el único directamente accesible a la experimentación— la teoría de supercuerdas predice que las interacciones gluónica, electromagnética y débil deben aproximarse en intensidad y revelar su íntima relación. (La extrapolación de los resultados experimentales actuales a las altas energías conduce a la misma conclusión, si se tiene en cuenta la rotura de la supersimetría y un superhueco no excesivamente grande. Así pues, se puede decir que ya hay evidencias indirectas de la supersimetría.) Al mismo tiempo, las simetrías entre los fermiones comienzan a imponerse.
Dejemos que la energía continúe aumentando. Podría suceder que, en un dominio de energía inmediatamente inferior a la masa de Planck, el modelo superestándar dejase paso a una versión supersimétrica de una «teoría de gran unificación» antes de manifestar, en la vecindad de la masa de Planck, los primeros estados excitados de supercuerdas.
Aunque ninguno de nosotros vivirá para ver energías comparables a la masa de Planck producidas en el laboratorio, estas energías eran comunes cuando el universo comenzó a expandirse. La unidad fundamental de tiempo, una cienmillonésima de trillonésima de trillonésima de segundo, es una medida del período en que el universo experimentó todos los efectos físicos de la teoría de supercuerdas. ¿Hay alguna evidencia cósmica remanente que pueda probar la validez de la teoría de supercuerdas a través de sus efectos en aquel crucial aunque remoto episodio?
Los teóricos no están seguros de que exista evidencia alguna. Aquel breve lapso fue seguido, casi con toda certeza, por un período de inflación, una expansión explosiva del universo, seguida de la expansión más gradual que observamos hoy. La inflación barrió prácticamente muchas de las características del universo primitivo, y pudo haber borrado así muchas de las consecuencias de la teoría de supercuerdas. Sin embargo, las ligaduras que esta teoría impone sobre el carácter de la inflación quizá permitan, después de todo, que pueda ser comprobada a través de la cosmología.
El mismo tipo de razonamiento se aplica también a las condiciones iniciales del universo, que, de acuerdo con Hartle y Hawking, están ligadas a la teoría cuántica de campos unificada. Asumiendo que tanto su modelo como la teoría de supercuerdas son correctos, las condiciones iniciales del universo quedan unívocamente determinadas, aunque sus efectos sobre el universo ulterior tienen que pasar por el filtro del período de inflación.
Además de la gran disparidad entre la escala de energía característica de la teoría de supercuerdas y las energías alcanzables en los experimentos, hay otra razón por la que algunos físicos han expresado dudas acerca de la verificabilidad de la teoría. Tiene que ver con el descubrimiento de numerosas soluciones aproximadas de las ecuaciones de la teoría de supercuerdas heteróticas.
Cada una de estas soluciones proporciona, entre otras cosas, una relación de las partículas que tienen, dentro de la aproximación considerada, masa nula. Es razonable asumir que estas partículas son las mismas que conforman el sector de masa baja de la teoría cuando se incluyen las pequeñas correcciones de masa. Las partículas sin masa de cada solución aproximada pueden compararse con las del modelo superestándar. Para ciertas soluciones, se observa un buen acuerdo: el sector de masa baja contiene el modelo superestándar y unas pocas partículas adicionales, entre ellas el gravitón y el gravitino.
El problema que surge es que han aparecido miles de soluciones aproximadas y, según parece, surgirán muchas más. Por tanto, no resulta de ningún modo imposible que la situación observada sea compatible con una solución de la teoría de supercuerdas, pero ¿qué hacemos con el resto de soluciones?
Hay varias respuestas posibles. Una es, por supuesto, que la teoría esté equivocada, pero creo que no hay razones para sacar una conclusión tan drástica de la existencia de una plétora de soluciones aproximadas. Otra posibilidad es que los problemas se deban exclusivamente a la aproximación (que no está ni mucho menos completamente justificada, sino que simplemente resulta conveniente), y que cuando ésta sea mejorada todas las soluciones menos una carezcan de sentido y puedan ser abandonadas. (Una versión modificada de esta posibilidad es que sobrevivan únicamente unas pocas soluciones.)
Para considerar el resto de posibles respuestas al problema de las soluciones múltiples, es útil sacar a colación una importante magnitud física denominada acción, designada habitualmente por el símbolo S. Fue introducida en la física clásica newtoniana hace mucho tiempo y se demostró muy útil, pero con la llegada de la mecánica cuántica pasó de ser útil a ser esencial. (La acción tiene unidades de energía por tiempo; ħ, la constante de Planck dividida por 2π, tiene idénticas dimensiones y puede considerarse la unidad fundamental de acción.) Recordemos que las probabilidades de las historias no detalladas en mecánica cuántica son integrales sobre los valores de la magnitud D para parejas de historias completamente detalladas. Una teoría asigna, dentro de la mecánica cuántica, un valor particular de S a cada historia detallada, y son estos valores de la acción (junto con las condiciones iniciales) los que determinan el valor de D.
Resulta muy deseable encontrar una fórmula para S en términos de la teoría de supercuerdas heteróticas. Sin embargo, hasta ahora, esta fórmula se ha mostrado escurridiza. Lo único que parece factible, hoy por hoy, es expresar la acción como una serie infinita —como han demostrado los trabajos de mi antiguo discípulo Barton Zwiebach, Michio Kaku y un grupo de Kioto—, aunque la sumación de esta serie continúa siendo una tarea formidable.
Puede resultar clarificador comparar la situación con un ejercicio que emprendió Dick Feynman en 1954. (Discutió conmigo su proyecto una vez que visité Caltech en 1954, cuando acepté un empleo que me ofrecieron allí. De hecho, yo mismo había iniciado un proyecto similar.) Feynman comenzó por imaginar que la brillante intuición de Einstein acerca de la naturaleza de la gravitación —que tenía que obedecer el principio de equivalencia de la relatividad general y estar relacionada con la geometría del espacio-tiempo— nunca se produjo. Dick se preguntó si sería posible, sin dicha intuición, construir una teoría por la fuerza bruta. Descubrió que, en efecto, sí lo era. Sin embargo, la acción venía expresada por una serie infinita, cuya suma era virtualmente imposible en ausencia de la perspectiva geométrica y el principio de equivalencia. Este principio, la relatividad general, conduce a una respuesta directa, sin necesidad de la fuerza bruta ni de sumas infinitas. De hecho, una vez Einstein comprendió, sobre la base de la relatividad general, el tipo de fórmula que necesitaba para describir la gravitación, su antiguo compañero de estudios Marcel Grossman le enseñó las matemáticas que precisaba para escribir la fórmula de la acción, de la cual puede derivarse la ecuación que figura al final del capítulo 7.
Tal vez la situación en la teoría de supercuerdas sea similar. Si los teóricos descubriesen el principio de equivalencia de la teoría de supercuerdas, estarían en disposición de escribir la fórmula para la acción de manera directa, sin recurrir a series infinitas. (Mientras esperamos a que lo descubran, ¿cómo debería llamarse este principio? ¿Relatividad mariscal? ¿Relatividad generalísimo? Ciertamente, va más allá de la relatividad general.) En cualquier caso, el hallazgo de la fórmula para la acción S supondrá una comprensión muy profunda de la teoría de supercuerdas.
Como ya dijimos antes, la motivación que condujo a la teoría de supercuerdas fue, en primer lugar, el principio de autoconsistencia, una idea simple y poderosa que todavía no ha sido formulada en el lenguaje adecuado para descubrir la acción o el principio de supersimetría subyacente a ésta. Cuando la teoría de supercuerdas se exprese en el lenguaje de la teoría cuántica de campos y se hayan descubierto su acción y sus simetrías, entonces habremos llegado al comienzo de una nueva era.
A partir de la acción, uno podría en principio calcular una magnitud relacionada que denotaré con el símbolo S. Un teórico la llamaría «acción euclídea con correcciones cuánticas», o algo por el estilo. Es una especie de promedio de una versión modificada de la acción S, modificación que implica una alteración del carácter de la variable tiempo. Podemos referirnos a S como «acción efectiva». Desempeña un papel importantísimo en la interpretación de la teoría. En primer lugar, Hartle y Hawking expresarían las condiciones iniciales del universo en términos de S. En segundo lugar, si realmente la teoría de supercuerdas conduce a tantas soluciones, hay que buscar en S una guía. De alguna manera, esta magnitud, calculada para las diferentes soluciones, debe discriminar entre ellas.
Razonando a partir de la física clásica, donde el principio de mínima acción proporciona un método elegante para formular la dinámica newtoniana, algunos teóricos podrían argüir que la solución correcta con sentido físico —la que caracteriza el universo real— sería la que tiene un menor valor para la acción efectiva S. Éste podría ser, en efecto, el criterio acertado para elegir la solución correcta.
Sin embargo, ya que estamos enmarcados en la mecánica cuántica, podría ser que no hubiese una única solución correcta para el universo, sino una situación probabilística en la que todas las soluciones correctas son alternativas posibles, cada una con su propia probabilidad, menor cuanto mayor sea S. En realidad, la fórmula para la probabilidad en función de S sería una exponencial decreciente, descrita por una curva similar a la de la página 153. La solución correspondiente al mínimo valor de S tendría la máxima probabilidad de caracterizar el universo, pero las otras soluciones también tendrían alguna oportunidad.
La solución particular que se aplica al universo determinaría la estructura del sistema de partículas elementales. De hecho, haría más que eso. Lo más singular es que determinaría también el número de dimensiones del espacio.
Para tratar el aspecto espacial de las supercuerdas heteróticas la teoría parte de una descripción del espacio-tiempo con una dimensión temporal y nueve dimensiones espaciales; las diversas soluciones corresponden entonces al colapso de algunas de estas dimensiones espaciales, quedando las restantes como observables. Si se aplica la interpretación probabilística de S, el carácter tridimensional del espacio en nuestro universo es consecuencia de la realización arbitraria de una solución particular de las ecuaciones de supercuerdas (como lo es, por ejemplo, la existencia de un número determinado de familias fermiónicas que contienen determinado número de partículas).
Este carácter probabilístico es el resultado más sorprendente de los intentos actuales por resolver el problema de las aparentemente múltiples soluciones de las ecuaciones de la teoría de supercuerdas. Supongamos que es correcto. Entonces podemos concebir el árbol de historias no detalladas alternativas del universo, cada una con su propia probabilidad, comenzando con una primera ramificación que selecciona una solución particular de las ecuaciones de supercuerdas.
Las predicciones de la teoría de supercuerdas, dependan o no de tal «elección» probabilística de la solución, tendrán que ser comparadas con nuestra experiencia del espacio tridimensional, así como con las propiedades del sistema de partículas elementales.
Si finalmente la teoría de supercuerdas heteróticas hace predicciones correctas en todos los casos en que sea factible comprobarlas, seguramente habremos resuelto el problema de la teoría fundamental de las partículas elementales. La dinámica subyacente a la evolución del estado del universo será conocida. Pero la descripción de su historia todavía depende de sus condiciones iniciales, así como de los sucesos aleatorios que acaecieron en todas las bifurcaciones del árbol de la historia universal.
La cosmología cuántica que hemos discutido hasta aquí se ha referido a historias alternativas del universo, tratado como una entidad singular que abarca toda la materia. Pero esta disciplina está en un estado dinámico y abunda en ideas especulativas de gran interés, cuya plausibilidad es todavía objeto de discusión; algunas de estas ideas se refieren, de una u otra forma, a universos múltiples. Dado que el prefijo uni- significa uno, esta expresión parece contradictoria, y tal vez un nuevo término ayudaría a evitar las confusiones lingüísticas que podrían surgir si estas ideas resultasen ser, al menos parcialmente, correctas. Podemos emplear la palabra «multiverso» para referirnos a todo el conjunto de universos, uno de los cuales es el que nos es familiar.
La introducción de los universos múltiples carece de sentido a menos que el nuestro sea autónomo en gran medida. Una propuesta es que los otros son «universos bebé», creados y destruidos virtualmente en procesos cuánticos, de forma muy similar a los cuantos virtuales que mediatizan las fuerzas en la teoría cuántica de campos. Según la interpretación de Stephen Hawking y otros, la creación y destrucción virtual de universos bebé altera el resultado de los cálculos en la teoría de partículas elementales, aunque no desafía de manera esencial el concepto de árbol ramificado para la historia de nuestro universo.
Otra de las posibilidades sugeridas es que haya numerosos universos, muchos de ellos de tamaño comparable al nuestro, pero cuyo contacto mutuo, si es que existe, es muy limitado, incluso en el pasado remoto o en el futuro lejano. En este cuadro, los universos serían como burbujas dentro del multiverso, burbujas que se separaron mutuamente hace mucho tiempo, inaugurando una era de aislamiento que perduraría por un tiempo inconcebiblemente grande. Si la interpretación de los universos múltiples resulta tener alguna validez, uno podría intentar determinar qué ocurre en las diversas burbujas con diferentes ramificaciones posibles de la historia del universo. Se abre así la puerta a la fantástica idea de un árbol ramificado de historias no detalladas, todas las cuales se realizan de hecho, pero en diferentes universos burbuja. La probabilidad de cada historia sería entonces esencialmente estadística, la fracción de los diversos «universos» en los que tiene lugar esa historia en particular.
Supongamos ahora que la interpretación probabilística de las múltiples soluciones aproximadas de la teoría de supercuerdas es correcta, de modo que hay muchas soluciones verdaderas asociadas con conjuntos diferentes de partículas elementales y diverso número de dimensiones espaciales. Si realmente existen múltiples universos como burbujas dentro de un multiverso, entonces podrían caracterizarse por soluciones diferentes de la teoría de supercuerdas, cuya frecuencia de aparición disminuiría exponencialmente con el valor de la acción efectiva S.
Aunque estas especulaciones teóricas se demuestren sin fundamento, la noción de universos múltiples e independientes no deja de proporcionar una forma hermosa (aunque bastante abstracta) de pensar probabilísticamente en el marco de la cosmología cuántica.
Algunos cosmólogos cuánticos hacen referencia al llamado principio antrópico, principio que requiere que las condiciones del universo sean compatibles con la existencia de seres humanos. En su formulación débil este principio establece simplemente que la rama particular de la historia en la que nos encontramos posee las características necesarias para que exista nuestro planeta y florezca en él la vida, incluyendo el hombre. Formulado de esta manera, el principio antrópico es trivial.
Sin embargo, en sus formulaciones más fuertes, este principio se aplicaría supuestamente a la dinámica de las partículas elementales y a las condiciones iniciales del universo, modelando de alguna forma las leyes fundamentales para que produzcan seres humanos. Esta idea me parece tan ridícula que no merece más discusión.
No obstante, he intentado encontrar alguna versión del principio antrópico que no sea trivial ni absurda. Lo mejor a lo que he llegado es lo siguiente. Entre las diversas soluciones de las ecuaciones fundamentales (si es que en verdad hay múltiples soluciones) y entre las diversas ramas de la historia, ciertas soluciones y ciertas ramas dan lugar en muchos lugares a condiciones favorables para la evolución de sistemas complejos adaptativos, que pueden actuar como IGUS (sistemas acumuladores y utilizadores de información) observadores de los resultados de las ramificaciones mecanocuánticas (esas condiciones incluyen el predominio de una situación apropiada intermedia entre el orden y el desorden). La caracterización de estas soluciones y ramas representa un problema muy interesante, que podría llamarse, supongo, la búsqueda de un principio IGUSico. Una consecuencia menor de la existencia de condiciones favorables a los IGUS sería que la existencia de la Tierra, de la vida sobre ella y de los seres humanos sería posible y se daría de hecho en ciertas ramas de la historia.
Una aplicación de estas investigaciones teóricas podría ser el refinamiento de los cálculos sobre la probabilidad de recibir señales de sistemas complejos adaptativos inteligentes procedentes de estrellas remotas (uno de los objetivos del proyecto SETI [Search of Extra Terrestrial Intelligence] de búsqueda de inteligencia extraterrestre). Muchos factores influyen en tales cálculos. Uno de ellos es el período de tiempo probable en que una civilización tecnológica sería capaz de perdurar y de transmitir (e interesarse en transmitir) señales, antes de que una guerra catastrófica o el declive tecnológico acabe con ella. Otro factor es la probabilidad de que un planeta pueda albergar sistemas complejos adaptativos similares, por ejemplo, a los que habitan la Tierra. Aquí entran en consideración cuestiones sutiles. Por ejemplo, Harold Morowitz, en su investigación de las condiciones requeridas por la atmósfera de la Tierra en la época de las reacciones químicas prebióticas que dieron origen a la vida, ha llegado a la conclusión de que para que estas reacciones tengan lugar se necesitan condiciones muy restrictivas. Otros expertos, no obstante, no son de la misma opinión.
En lugar de algún imponente «principio antrópico», nos enfrentamos más bien con un conjunto de cuestiones teóricas, fascinantes pero bastante convencionales, sobre las condiciones necesarias para la evolución de sistemas complejos adaptativos en las diferentes ramas de la historia y en diversos lugares y momentos, dada la teoría fundamental de las partículas elementales y el estado cuántico inicial del universo.
Nos hemos topado varias veces con el papel de las condiciones iniciales en el establecimiento del orden que, en el universo primitivo, hizo posible la evolución subsiguiente de objetos celestes como galaxias, estrellas y planetas, y después la aparición de sistemas complejos adaptativos. Hemos discutido también una de las consecuencias más notables de este estado inicial: el fluir del tiempo hacia adelante en todo el universo. Vamos a explorar este fluir del tiempo con más detalle.