15

Las flechas del tiempo
Tiempo hacia adelante y hacia atrás

Recordemos el ejemplo del meteorito atravesando la atmósfera y estrellándose contra el suelo. Si proyectásemos hacia atrás una filmación de toda la escena, reconoceríamos al instante que el tiempo había sido invertido. Sabemos que la razón última de la unidireccionalidad del tiempo es que el universo se encontraba en un estado muy especial hace unos quince mil millones de años. Mirando hacia atrás en el tiempo hasta aquella configuración simple, contemplamos lo que llamamos pasado; mirando en el otro sentido, vemos cómo se extiende ante nosotros lo que llamamos futuro.

La compacidad del estado inicial del universo (en la época de lo que algunos llaman el Big Bang) no caracteriza por completo su simplicidad. Después de todo, los cosmólogos consideran posible, incluso probable, que en algún momento futuro inconcebiblemente lejano el universo vuelva a colapsarse en una estructura muy pequeña. Si así fuera esa estructura sería, sin embargo, bien diferente de su análoga en el pasado. Los acontecimientos no se reproducirían hacia atrás en el tiempo durante el período de colapso. La idea de que la expansión y la contracción deberían ser simétricas es lo que Stephen Hawking llama «su mayor error».

Radiación y registros

Es fácil pensar en la diferencia entre uno y otro sentido del tiempo. Por ejemplo, los cuerpos calientes como las estrellas y las galaxias irradian energía. La forma más común de radiación consiste en fotones —como los de la luz, las radioondas y los rayos gamma, que hacen posible la astronomía óptica, la radioastronomía y la astronomía de rayos gamma, respectivamente—. Además, está comenzando a plantearse la astronomía de neutrinos, y algún día tendremos astronomía de ondas gravitatorias. Todas estas formas de astronomía están basadas en la detección de flujos de energía emitidos en forma de partículas y ondas. De forma similar, cuando percibimos la luz procedente de una llama o una lámpara incandescente, nuestros ojos están detectando un flujo de fotones. Si se invirtiese el curso del tiempo, en cada uno de estos casos la energía fluiría hacia el interior de los cuerpos. Los flujos salientes de energía pueden transportar señales: si una estrella se transforma en supernova y adquiere un brillo enorme durante cierto tiempo, esta información se propaga hacia el exterior a la velocidad de la luz.

Otra diferencia entre el pasado y el futuro es la existencia de registros del pasado, como las trayectorias dejadas en la mica por las partículas cargadas emitidas por núcleos radiactivos desintegrados tiempo atrás. Los registros similares de desintegraciones futuras son notorios por su ausencia. Esta asimetría entre pasado y futuro es tan evidente que tendemos a pasarla por alto.

Los seres humanos empleamos las radiaciones para enviar señales y los registros para conocer el pasado. Incluso creamos y guardamos nuestros propios registros. Pero la existencia de señales y registros en general es independiente de la existencia de sistemas complejos adaptativos —como nosotros— que los empleen para sus propios fines.

Las condiciones iniciales y la causalidad

La asimetría temporal de señales y registros es parte del principio de causalidad física, que afirma que los efectos siguen a las causas. La causalidad física puede trazarse directamente hasta la existencia de unas condiciones iniciales simples del universo. Pero ¿cómo intervienen en la teoría estas condiciones iniciales?

La fórmula mecanocuántica para la magnitud D, que nos da las probabilidades de las diferentes historias alternativas del universo, contiene ya la asimetría entre pasado y futuro. En un extremo, correspondiente a lo que llamamos pasado, contiene una descripción del estado cuántico inicial del universo primitivo, lo que podemos llamar sus condiciones iniciales. En el otro extremo, correspondiente al futuro remoto, la fórmula contiene una integral sobre todos los posibles estados del universo. Esta integral puede describirse como una condición de completa indiferencia en cuanto al estado del universo en el futuro lejano.

Si las condiciones iniciales fuesen también de completa indiferencia, no habría entonces causalidad ni historia. En vez de eso, el estado inicial es simple y especial (tal vez el descrito por Hartle y Hawking, que no requiere más información que la de las leyes dinámicas que gobiernan el sistema de partículas elementales).

Si las condiciones del futuro no fuesen de completa indiferencia, se darían violaciones del principio de causalidad que conducirían a sucesos inexplicables (o al menos altamente improbables) en términos del pasado, pero que serían requeridos (o casi) por las condiciones especificadas para el futuro lejano. Al aumentar la edad del universo, se producirían más y más de estos sucesos. No hay evidencia alguna de tal predestinación, y sí pruebas considerables en su contra. De modo que, en ausencia de argumentos convincentes, podemos descartar la posibilidad de que las condiciones del futuro sean algo distinto a la completa indiferencia. Aun así, aunque relegada al dominio de la ciencia ficción o la superstición, una condición especial sobre el futuro puede considerarse una alternativa interesante, aunque contraria a los hechos, en contraste con la causalidad a la que estamos acostumbrados.

A partir de la fórmula mecanocuántica para las probabilidades de las historias, y con unas condiciones iniciales adecuadas, es posible deducir todos los aspectos familiares de la causalidad, como las señales y registros orientados del pasado al futuro. Todas las flechas del tiempo corresponden a diferentes rasgos de las historias no detalladas del universo, y la fórmula muestra la tendencia de todas estas flechas a señalar hacia adelante en lugar de hacerlo hacia atrás.

Entropía y segunda ley

De entre las flechas que marcan la diferencia entre pasado y futuro, la más famosa es la tendencia de la magnitud denominada entropía a aumentar (o al menos a no disminuir) en un sistema cerrado, lo que conduce al principio conocido como segunda ley de la termodinámica. (Según un viejo chiste de físicos, la primera ley de la termodinámica dice que no puedes ganar, y la segunda dice que tampoco puedes empatar. Ambas leyes resultan frustrantes para los constructores de máquinas de movimiento perpetuo.) La primera ley establece la conservación de la energía: la energía total de un sistema cerrado permanece constante. La segunda ley, que establece el aumento (o la constancia) de la entropía, es más sutil, pese a que en realidad la entropía es un concepto muy familiar en nuestra vida cotidiana. Es una medida de desorden, y ¿quién puede negar que el desorden tiende a aumentar en un sistema cerrado?

Si uno se pasa la tarde en una mesa ordenando monedas según su fecha de acuñación o clavos según su tamaño, y alguien pasa y golpea la mesa, ¿no es enormemente probable que las monedas o los clavos vuelvan a desordenarse? Si en casa los niños están untando tostadas con mantequilla y mermelada, ¿acaso no tiende la mantequilla a mezclarse con la mermelada, y la mermelada con la mantequilla? Si una cámara está dividida en dos por un separador, con oxígeno en el lado izquierdo y una cantidad igual de nitrógeno en el derecho, ¿no es cierto que al retirar el separador se obtendrá con seguridad una mezcla de oxígeno y nitrógeno en ambas partes?

La explicación de estos fenómenos es que hay más formas de tener clavos o monedas desordenados que ordenados. Hay más maneras de tener mantequilla y mermelada mutuamente contaminadas que en estado puro. Y hay muchas más formas de tener oxígeno y nitrógeno con sus moléculas mezcladas que segregadas. Siempre que opere el azar, es probable que un sistema cerrado ordenado evolucione hacia el desorden, dado que éste le ofrece muchas más posibilidades.

Microestados y macroestados

¿Cómo pueden enumerarse estas posibilidades? Un sistema cerrado, descrito con total precisión, puede existir en una variedad de estados, denominados microestados. En mecánica cuántica, estos microestados se entienden como los posibles estados cuánticos del sistema. Los microestados se agrupan en categorías (denominadas macroestados) de acuerdo con diversas propiedades distinguibles macroscópicamente. Los microestados de un macroestado dado se consideran equivalentes, de modo que sólo se tiene en cuenta su número.

Consideremos el caso de la cámara que contiene igual número de moléculas de oxígeno y nitrógeno separadas por un tabique, que es retirado a continuación. Ahora, el número de microestados posibles de las moléculas de oxígeno y nitrógeno pueden agruparse en macroestados de la siguiente manera: aquellos en los que la parte izquierda de la cámara contiene menos de un 10% de nitrógeno y la parte derecha menos de un 10% de oxígeno; aquellos en los que la mezcla está entre un 10% y un 20%; aquellos en los que está entre un 20% y un 30%, etc. Los macroestados en los que la contaminación está entre un 40% y un 50% (o entre un 50% y un 60%) contienen la mayoría de microestados. Son también los macroestados más desordenados, aquellos en los que los gases están más mezclados.

En realidad, la definición técnica de la entropía (medida en la unidad más conveniente, la llamada constante de Boltzmann) está íntimamente relacionada con el número de maneras diferentes en que un sistema cerrado puede encontrarse en un macroestado particular. La entropía de un sistema en un macroestado dado es, aproximadamente, la cantidad de información —el número de bits— necesaria para especificar uno de los microestados correspondientes al macroestado, considerando todos los microestados como igualmente probables.

Recordemos que en el juego de las veinte preguntas, si se juega a la perfección, pueden obtenerse 20 bits de información para adivinar la cosa desconocida una vez se sabe que es animal, vegetal o mineral. Veinte bits corresponden a la información necesaria para distinguir entre 1 048 676 alternativas diferentes igualmente probables, que resultan de multiplicar 2 por sí mismo 20 veces. Análogamente, 3 bits corresponden a 8 posibilidades igualmente probables, porque 8 es igual a 2 multiplicado por sí mismo 3 veces. Cuatro bits corresponden a 16 posibilidades, 5 bits a 32, etc. Si el número de posibilidades está entre 16 y 32, el número de bits está entre 4 y 5.

De esta manera, si el número de microestados de un macroestado dado es 32, la entropía del sistema en ese macroestado es de 5 unidades. Si el número de microestados es 16, la entropía es 4, etc.

Entropía e ignorancia

La entropía y la información están estrechamente relacionadas. De hecho, la entropía puede considerarse como una medida de la ignorancia. Cuando lo único que se sabe es que un sistema está en determinado macroestado, la entropía mide el grado de ignorancia sobre el microestado particular en que se halla el sistema, para lo cual se cuenta el número de bits de información adicional necesaria para especificarlo, considerando equiprobables todos los microestados correspondientes a ese macroestado.

Supongamos ahora que nuestro sistema no se encuentra en un macroestado definido, sino que ocupa varios macroestados con distintas probabilidades. La entropía de los macroestados será el promedio sobre ellos, según sus respectivas probabilidades. La entropía incluye así una contribución adicional del número de bits de información requeridos para especificar el macroestado. La entropía puede definirse por tanto como el promedio de la ignorancia acerca del microestado dentro del macroestado más la ignorancia acerca del propio macroestado.

Especificación corresponde a orden e ignorancia a desorden. La segunda ley de la termodinámica establece simplemente que un sistema cerrado de baja entropía (orden elevado) tenderá, al menos a largo plazo, a desplazarse hasta un estado de mayor entropía (más desorden). Dado que hay más formas de que un sistema esté desordenado que ordenado, la tendencia es a desplazarse hacia el desorden.

La explicación última: Orden en el pasado

Una cuestión más profunda es por qué no es aplicable este mismo argumento cuando se invierte el sentido del tiempo. ¿Por qué la filmación de un sistema, proyectada al revés, no puede mostrárnoslo moviéndose hacia una situación de desorden, en lugar de hacia el orden? La respuesta a esta pregunta reside en última instancia en el estado inicial simple del universo al comienzo de su expansión hace unos diez mil millones de años, en contraste con la condición de indiferencia aplicable al futuro lejano. No sólo la flecha del tiempo causal apunta hacia el futuro por esta razón, sino también las demás, incluida la flecha «termodinámica», que apunta del orden al desorden. La condición original del universo condujo a la condensación gravitatoria de la materia y a la formación de las galaxias. Al envejecer ciertos tipos de galaxias, se formaron dentro de ellas estrellas y sistemas planetarios que envejecieron a su vez. La flecha del tiempo se transfiere del universo a las galaxias, y de éstas a las estrellas y planetas. Señala hacia adelante en el tiempo en todos los puntos del universo. En la Tierra se comunica al origen de la vida y a su evolución, y al nacimiento y envejecimiento de todos los seres vivos. Virtualmente todo el orden en el universo surge a partir de un orden en el pasado y, en última instancia, del estado inicial ordenado del universo. Por ello la transición del orden a un desorden estadísticamente mucho más probable tiende a proceder en todas partes del pasado al futuro, y no al revés.

Metafóricamente, podemos imaginar el universo como un antiguo reloj al que se le ha dado cuerda al principio de su expansión y que desde entonces va perdiéndola a la vez que engendra relojes menores con algo de cuerda, que a su vez van perdiéndola y engendrando más relojes. En cada etapa, siempre que se forma una nueva entidad, hereda de las estructuras previamente existentes la propiedad de tener un poco de cuerda. Podemos identificar el envejecimiento de cada entidad aislada con la pérdida de cuerda de su correspondiente reloj interno.

¿Cómo se comportan galaxias, estrellas y planetas cuando envejecen? Consideremos lo que ocurre con ciertos objetos estelares familiares. En el centro de las estrellas similares al sol se producen reacciones nucleares que, a temperaturas de decenas de millones de grados, convierten hidrógeno en helio, liberando la energía que surge de la superficie del astro. La estrella agota finalmente su combustible nuclear y su carácter cambia, a veces de modo drástico. Si es lo suficientemente masiva, puede ocurrir que se transforme repentinamente en una supernova para, tras brillar con enorme intensidad durante unos meses, colapsarse después en un agujero negro. Este proceso es claramente unidireccional en el tiempo.

Cuando los seres humanos componemos un patrón ordenado (con monedas sobre una mesa, por ejemplo) y lo abandonamos junto a un agente perturbador (pongamos un perro), el sistema cerrado conjunto (monedas sobre una mesa más perro) evolucionará hacia un estado desordenado porque el desorden es más probable. El cambio se producirá hacia adelante en el tiempo, porque nos comportamos causalmente, como cualquier cosa que evolucione de pasado a futuro, creando primero el patrón ordenado y dejándolo luego solo con el perro. Tal situación implica un aumento en la entropía no muy distinto del que se produce en estrellas y galaxias.

Lo que es distinto es el establecimiento en primer lugar de los patrones ordenados: ordenar monedas o reordenarlas después de que el perro haya cargado contra ellas. Ello implica una disminución de la entropía del conjunto de monedas, que no viola el segundo principio de la termodinámica porque las monedas no están aisladas. De hecho, la segunda ley asegura que la entropía del entorno y de la persona que realiza la reordenación ha de aumentar como mínimo tanto como disminuya la entropía de las monedas.

¿Cuáles son los síntomas del aumento de entropía en la persona y en el entorno?

El demonio de Maxwell

Para dar respuesta a esta pregunta, es útil considerar un demonio hipotético que se pasa el tiempo ordenando: el demonio de Maxwell, imaginado por el mismo James Clerk Maxwell que desarrolló las ecuaciones del electromagnetismo. Maxwell estudiaba una aplicación muy común (y tal vez la primera) de la segunda ley de la termodinámica: el comportamiento de un cuerpo caliente y otro frío puestos en contacto. Imaginemos una cámara dividida en dos partes por un tabique móvil. En un lado tenemos gas caliente y en el otro el mismo gas frío. La cámara es un sistema cerrado con una cierta cantidad de orden, dado que las moléculas del gas caliente, más rápidas por término medio, están separadas de las del gas frío del otro lado, en promedio más lentas.

Supongamos en primer lugar que el tabique es metálico y conduce el calor. Todo el mundo sabe que el gas caliente tendrá tendencia a enfriarse y el gas frío a calentarse, hasta que ambas muestras alcancen la misma temperatura. La segunda ley requiere que ocurra precisamente esto, porque así desaparece la segregación entre gas caliente y frío y aumenta la entropía.

Supongamos ahora que el tabique no es conductor, de modo que se mantiene la separación entre gas frío y caliente. La entropía permanecerá entonces constante, lo que sigue siendo compatible con la segunda ley. ¿Pero qué ocurriría si hubiese un demonio que ordenase las moléculas según su velocidad? ¿Disminuiría la entropía?

El demonio de Maxwell vigila ahora una trampilla en el tabique, que sigue siendo no conductor. Controla las moléculas que vienen de ambos lados y estima su velocidad. Las moléculas del gas caliente sólo son más rápidas que las del gas frío desde el punto de vista estadístico; cada muestra contiene moléculas que se mueven a diferentes velocidades. Nuestro perverso demonio, manipulando la trampilla, sólo permite que pasen las moléculas más lentas del lado caliente al lado frío, y las más rápidas del frío al caliente. De esta manera, el gas frío recibe moléculas extremadamente lentas, enfriándose aún más, mientras que el gas caliente recibe moléculas extremadamente rápidas, con lo cual se calienta todavía más. Desafiando aparentemente la segunda ley de la termodinámica, el demonio ha provocado un flujo de calor del gas frío al caliente. ¿Qué es lo que ha sucedido?

Dado que la segunda ley sólo se aplica a sistemas cerrados, debemos incluir al demonio en nuestros cálculos. Su incremento de entropía debe ser al menos tan grande como la disminución experimentada por la cámara. ¿Cómo se las apaña el demonio para aumentar su entropía?

Una nueva contribución a la entropía

Leo Szilard dio un primer paso para resolver la cuestión en 1929, introduciendo la relación entre entropía e información. Más tarde, tras la segunda guerra mundial, Claude Shannon estableció formalmente la noción matemática de información, clarificada posteriormente por el físico teórico francés Léon Brillouin. El concepto de complejidad algorítmica o contenido de información algorítmica fue introducido en los años sesenta por Kolmogorov, Chaitin y Solomonoff. Finalmente, Rolf Landauer y Charlie Bennett, de IBM, desarrollaron en detalle la conexión de la información y el contenido de información algorítmica con la actividad de personas, demonios o dispositivos que reducen la entropía de un sistema físico, aumentado la suya propia en una cantidad igual o superior.

Bennett demostró que un dispositivo que adquiera y registre (sobre papel o cinta magnética, por ejemplo) la clase apropiada de información sobre un sistema físico, puede usar la información registrada para producir un flujo de calor de un objeto frío a uno caliente, siempre y cuando le quede papel o cinta magnética. La entropía del sistema formado por los cuerpos caliente y frío decrece, pero al precio de gastar papel o cinta. Landauer había demostrado con anterioridad que borrar los registros, sin dejar ninguna copia, produce un aumento de entropía que como mínimo compensa la disminución. Finalmente, el dispositivo agota su capacidad de registro y así, a largo plazo, cuando se borran registros para dejar sitio a otros nuevos, la segunda ley de la termodinámica queda restablecida.

Ya hemos mencionado que es el borrado de la última copia de la información lo que debe producir un aumento de entropía que compense la disminución. En realidad, es probable que el borrado de cualquier copia conlleve en la práctica un incremento similar de entropía, pero es únicamente la última copia la que debe hacerlo en principio. La razón es que si existen dos copias hay métodos para, en ciertas condiciones, emplear una de ellas para «descopiar» la otra reversiblemente, sin ningún incremento de la entropía convencional.

Mientras tanto, es posible mantener de alguna forma la segunda ley incluso durante el período en que los registros existen y se hace uso de ellos para corregir la definición de entropía del sistema entero. Esto se consigue incluyendo un término igual al contenido de información algorítmica de los registros relevantes supervivientes. Dado que el contenido de información algorítmica sólo depende de la longitud del menor programa que describe la información, su valor no queda alterado por la existencia de copias extra de los registros. Lo único que importa es que exista al menos una copia de cada registro.

La conveniencia de esta definición corregida de entropía ha sido señalada por Wojtek Zurek, del Laboratorio Nacional de Los Alamos y miembro del Instituto de Santa Fe. Podemos pensar en la nueva definición como sigue: la entropía usual, que es una medida de desinformación, queda modificada por la adición del contenido de información algorítmica de los registros que contienen la información correspondiente. Esto representa una especie de intercambio de desinformación por registros. Cuando se obtiene y registra información, disminuye la desinformación a la vez que aumenta la información en los registros. Cuando se procede a borrar registros, la información de éstos disminuye y la desinformación de todo el sistema cerrado aumenta como mínimo en la misma cantidad.

Borrado y fragmentación

En el desempeño de su tarea, el demonio debe hacer algo con la información que adquiere sobre las moléculas individuales. Almacenando esta información, llegará un momento en que agotará el espacio disponible para registrarla. Al borrar información, aumenta la entropía del demonio y la de su entorno. Ahora bien, ¿qué se entiende por borrado definitivo?

Pensemos en una anotación a lápiz, que borramos con una goma de borrar ordinaria. El borrado desprende pequeños fragmentos de la goma, cada uno de los cuales se lleva una pequeña porción de lápiz, que quedan dispersos sobre la mesa o el suelo. Esta clase de dispersión del orden es en sí misma un aumento de entropía. De hecho, el proceso de borrado típico produce un incremento de entropía mucho mayor que la cantidad de información borrada, gran parte del cual tiene un carácter convencional (por ejemplo, la generación de calor). Hay que señalar, sin embargo, que estamos ignorando esta producción de entropía extra, y nos concentramos exclusivamente en el incremento de entropía mínimo que debe acompañar la destrucción de la información en los registros.

Una cuestión importante es la irreversibilidad de la destrucción. Si el proceso puede revertirse, reconstruyendo lo anotado a partir de los fragmentos de goma de borrar, entonces el incremento de entropía asociado específicamente con el borrado no ha tenido lugar —ni tampoco el propio borrado: existe una copia de la información en los fragmentos de goma.

Podría objetarse que tal reconstrucción siempre es posible en principio, que recobrar la información de los pedacitos de goma sólo es un problema de orden práctico. Un ejemplo espectacular de esto lo ofrecieron los «estudiantes» que ocuparon la embajada estadounidense en Teherán en 1979. Recogieron los trozos de los documentos clasificados que habían sido destruidos en el último momento y, pacientemente, volvieron a componerlos y sus contenidos se hicieron públicos.

Aunque ahora las máquinas para destruir documentos los cortan en ambas dimensiones, lo que hace su reconstrucción mucho más difícil, todavía continúa siendo posible en principio. ¿Cómo podemos entonces hablar de un borrado o dispersión de información irreversible, o incluso de la destrucción de cualquier tipo de orden? ¿Es un fraude el propio concepto de entropía, la transformación de orden en desorden?

La entropía es inútil sin ausencia de detalle

Retomemos a nuestras moléculas de oxígeno y de nitrógeno mezclándose en un depósito. Podemos cuestionar en qué sentido el mezclado aumenta el desorden, dado que cada molécula de oxígeno y de nitrógeno está en algún lugar en cada momento (en la aproximación clásica, al menos) y, por tanto, la situación en cada instante está tan ordenada como en cualquier instante previo (siempre que se describa la posición de cada molécula, y no sólo la distribución de oxígeno y nitrógeno).

La respuesta es que la entropía, como la complejidad efectiva, el contenido de información algorítmica y otras magnitudes antes definidas, depende de la resolución —el grado de detalle con que se describe el sistema—. Matemáticamente, es totalmente correcto que la entropía de un sistema descrito con una resolución máxima no aumente en absoluto; siempre permanece constante. Sin embargo, un sistema con muchas partes se describe siempre en términos de unas pocas variables, y el orden en estas variables tiende a dispersarse con el tiempo en otras variables donde deja de ser considerado como tal. Éste es el sentido real de la segunda ley de la termodinámica.

Podemos pensar también en la resolución en términos de macroestados. Lo normal es que un sistema inicialmente descrito dentro de uno o unos pocos macroestados se encuentre más tarde en una mezcla de muchos, al mezclarse los macroestados como consecuencia de la evolución dinámica del sistema. Además, los macroestados compatibles con el mayor número de microestados tendrán tendencia a predominar en las mezclas. Por estas dos razones el valor final de la entropía tiende a ser mayor que el inicial.

Podemos intentar conectar la resolución aquí descrita con la introducida en el marco de la mecánica cuántica. Recordemos que un dominio cuasiclásico maximal consiste en historias alternativas del universo tan detalladas como sea posible sin que se pierda su decoherencia y carácter casi clásico. Ya dijimos antes que, en mecánica cuántica, un dominio cuasiclásico determina una especie de mínimo teórico para la resolución del universo, correspondiente, en la descripción de un objeto individual, a un máximo de individualidad. Este mismo mínimo puede aplicarse a la resolución propia de la definición de entropía. Cuando se hace así, los macroestados más refinados que pueden utilizarse para definir la entropía son los pertenecientes al dominio cuasiclásico.

La entropía de la complejidad algorítmica

La elección de nuestro demonio entre almacenaje o borrado es la misma a la que se enfrenta cualquier máquina real (o una persona u otro organismo) que crea orden. Si almacena toda la información que adquiere, puede reducir la entropía (definida convencionalmente) del universo como máximo en una cantidad igual al contenido de información algorítmica de la información almacenada. Cuando borra información para dejar espacio, el universo recupera como mínimo la misma entropía que perdió. Si se corrige la definición de entropía para incluir el contenido de información algorítmica de la información almacenada, la segunda ley de la termodinámica no se viola nunca, ni siquiera temporalmente.

La contribución del contenido de información algorítmica a la entropía corregida podría llamarse entropía de la complejidad algorítmica. A menudo es muy pequeña comparada con la entropía usual. Pero aunque represente una contribución insignificante, sigue siendo muy importante, porque cuantifica la posibilidad de utilizar información para burlar la segunda ley convencional, temporalmente al menos, hasta que se borren los registros.

Las flechas del tiempo y las condiciones iniciales

La flecha del tiempo termodinámica puede trazarse desde el estado inicial simple del universo hasta su estado final de indiferencia, dentro de la fórmula mecanocuántica que da las probabilidades para las historias no detalladas decoherentes del universo. Lo mismo puede afirmarse de la flecha del tiempo asociada con la radiación emitida, y también de lo que yo califico como verdadera flecha del tiempo cosmológica, relacionada con el envejecimiento del universo y sus partes componentes. (Stephen Hawking define su propia flecha del tiempo cosmológica a través de la expansión del universo, pero ésta no es una auténtica flecha del tiempo según mi definición. Si tras un lapso de tiempo fantásticamente grande el universo se contrae, esta contracción también tendrá lugar hacia adelante en el tiempo; el envejecimiento continuará, como el propio Hawking señala.)

La flecha del tiempo asociada con la formación de registros deriva también en última instancia del estado inicial simple del universo. Finalmente, la llamada flecha psicológica del tiempo, referente a la experiencia del paso del tiempo por parte de los seres humanos y los demás sistemas complejos adaptativos, surge igualmente de la misma condición. Los recuerdos no son más que registros, y obedecen el principio de causalidad como cualesquiera otros.

La emergencia de mayor complejidad: Accidentes congelados

El paso del tiempo parece brindar oportunidades para el incremento de la complejidad. También sabemos que la complejidad puede descender, como por ejemplo en una sociedad forzada a retroceder a esquemas sociales más simples a causa de fuertes presiones por parte del clima, los enemigos o las disensiones internas. Tales sociedades pueden llegar a desaparecer (el derrumbamiento de la civilización maya clásica tuvo que ver seguramente con una reducción de su complejidad, aunque muchos individuos aislados sobrevivieran). No obstante, al pasar el tiempo sigue apareciendo una complejidad social cada vez mayor. La misma tendencia se observa en la evolución biológica. Aunque algunas transformaciones pueden implicar un descenso en la complejidad, la tendencia es hacia una mayor complejidad máxima. ¿Por qué?

Recordemos que la complejidad efectiva es la longitud de una descripción concisa de las regularidades de un sistema. Algunas de estas regularidades pueden atribuirse en última instancia a las leyes fundamentales que gobiernan el universo. Otras surgen del hecho de que muchas características de una cierta parte del universo se encuentran relacionadas entre sí en un momento dado por su origen común en algún acontecimiento remoto. Estas características tienen rasgos comunes y muestran información mutua. Por ejemplo, los automóviles de un cierto modelo se parecen entre sí porque todos proceden del mismo diseño, el cual contiene muchos rasgos arbitrarios que podrían haber sido de otra manera. Estos «accidentes congelados» pueden manifestarse de múltiples formas. Mirando las monedas del rey Enrique VIII de Inglaterra, podemos reflexionar sobre todas las referencias a este monarca, no sólo en las monedas, sino también en cartas, documentos relativos a la incautación de monasterios y libros de historia, y también sobre cómo hubiesen cambiado todas estas cosas si su hermano mayor Arturo hubiese sobrevivido para ocupar el trono en su lugar. ¡Y de qué manera habría cambiado la historia subsiguiente a partir de este accidente congelado!

Ahora podemos arrojar algo de luz sobre algunas cuestiones profundas mencionadas al principio de este volumen. Si encontramos una moneda con la efigie de Enrique VIII, ¿cómo podemos emplear las ecuaciones dinámicas fundamentales de la física para deducir que deberían aparecer otras monedas como ésta? Al encontrar un fósil en una roca, ¿cómo podemos deducir a partir de las leyes fundamentales que probablemente habrá más fósiles de la misma clase? La respuesta es la siguiente: sólo especificando las condiciones iniciales del universo junto con las leyes dinámicas fundamentales. Entonces podemos servimos del árbol de historias ramificadas y razonar, partiendo del estado inicial y de la causalidad resultante, que la existencia de la moneda o fósil descubiertos implica la ocurrencia de determinados sucesos en el pasado que los produjeron, y que es probable que estos sucesos produjesen otras monedas o fósiles similares. Sin las condiciones iniciales del universo, las leyes dinámicas de la física no podrían conducimos a tal conclusión.

Un accidente congelado puede explicar también, como ya hemos discutido, por qué los cuatro nucleótidos denotados en forma abreviada por A, C, G y T constituyen el ADN de todos los organismos vivos de la Tierra. Los planetas que giran en torno a estrellas lejanas quizás alberguen sistemas complejos adaptativos muy parecidos a los de la Tierra, pero cuyo material genético esté compuesto de otras moléculas. Según algunos teóricos del origen de la vida, puede haber miles de alternativas al conjunto A, C, G y T. (Hay que decir que otros sostienen que el juego familiar de nucleótidos podría ser la única posibilidad real.)

Un candidato a accidente congelado más probable todavía es la presencia de ciertas moléculas dextrógiras que juegan un importante papel en la bioquímica terrestre, mientras que las correspondientes moléculas levógiras no desempeñan ninguno, llegando a faltar por completo en las formas de vida terrestres. No es difícil comprender por qué diversos grupos de moléculas dextrógiras serían mutuamente compatibles en bioquímica, y lo mismo puede decirse de las levógiras; pero ¿qué fue lo que determinó la elección entre unas y otras?

Algunos físicos teóricos han intentado desde hace tiempo conectar esta asimetría izquierda-derecha con el curioso comportamiento de la interacción débil, que muestra una tendencia levógira en la materia ordinaria (compuesta de quarks y electrones) y una tendencia dextrógira en la antimateria (formada por antiquarks y positrones). No parece que sus esfuerzos hayan tenido éxito, y es más probable que la asimetría izquierda-derecha en bioquímica sea un rasgo congelado del ancestro de todas las formas de vida actuales, siendo perfectamente posible que las cosas hubiesen sucedido de otra manera.

La asimetría biológica entre izquierda y derecha ilustra de modo llamativo cómo muchos accidentes congelados pueden contemplarse como el resultado de una ruptura espontánea de simetría.

Puede haber un conjunto simétrico de soluciones (en este caso, moléculas levógiras y dextrógiras), de las cuales sólo una acontece en una parcela del universo y en un intervalo de tiempo dados. En física de partículas elementales, se piensa que ejemplos típicos de ruptura espontánea de simetría se aplican a todo el universo. (Pudiera haber otros ejemplos, también en física de partículas elementales, que se aplicasen a regiones gigantescas del universo, pero no a la totalidad. Si así fuese ¡incluso esta disciplina tendría, en cierto sentido, carácter de ciencia medioambiental!)

La estructura arborescente de las historias ramificadas implica un juego de azar en cada bifurcación. Cualquier historia no detallada individual surge de los resultados particulares de cada una de estas jugadas. Con el transcurso del tiempo, la historia registra un número creciente de tales resultados aleatorios. Pero algunos de esos accidentes se congelan en forma de reglas para el futuro, al menos en alguna parcela del universo. De modo que el número de regularidades posibles sigue aumentando con el tiempo y con ellas las posibilidades de complejidad.

Este efecto no se restringe ni mucho menos a los sistemas complejos adaptativos. La evolución de las estructuras físicas muestra la misma tendencia hacia la emergencia de formas más complejas a través de la acumulación de accidentes congelados. Fluctuaciones aleatorias dieron origen a galaxias y cúmulos de galaxias en el universo primitivo; la existencia de cada uno de estos objetos, con sus características individuales, ha constituido, desde el momento de su aparición, una importante regularidad en su parcela de universo. Análogamente, la condensación de estrellas —incluyendo las estrellas múltiples y las dotadas de sistemas planetarios— a partir de las nubes de gas de esas galaxias creó nuevas regularidades de gran importancia local. A medida que aumenta la entropía del universo —el desorden general—, la autoorganización puede producir orden local, como en los brazos de una galaxia espiral o en la multiplicidad de formas simétricas de los copos de nieve.

La complejidad de un sistema en evolución en un momento dado (sea un sistema complejo adaptativo o no adaptativo) no proporciona medida alguna del grado de complejidad que el sistema o sus descendientes (reales o figurados) puedan alcanzar en el futuro. Para superar esta dificultad hemos introducido con anterioridad el concepto de complejidad potencial. Para definirla, consideramos las posibles historias futuras del sistema y promediamos su complejidad efectiva en cada instante futuro sobre esas historias, cada una de las cuales se pondera de acuerdo con su probabilidad. (La unidad de tiempo natural en este caso es el intervalo medio entre dos cambios aleatorios en el sistema.) La complejidad potencial resultante, como función del tiempo futuro, nos indica algo sobre la probabilidad de que el sistema evolucione hacia una mayor complejidad, tal vez generando una clase completamente nueva de sistema complejo adaptativo. En el ejemplo que presentamos anteriormente, la complejidad potencial distinguiría la emergencia de los seres humanos de la de los otros grandes simios, aunque su complejidad efectiva en el momento de su aparición no fuese muy diferente. Análogamente, se podría distinguir así la superficie de un planeta con una probabilidad significativa de generar vida en un determinado lapso de tiempo de la de otro en que la vida apenas tuviera posibilidades.

¿Continuará por siempre la emergencia de mayor complejidad?

Tras un enorme intervalo de tiempo (incluso para los estándares cosmológicos) el universo, en su continua expansión, se hará muy diferente de como es ahora. Las estrellas morirán; los agujeros negros, mucho más numerosos que en la actualidad, se desintegrarán; probablemente hasta los protones (y los núcleos más pesados) se desintegrarán también. Todas las estructuras que ahora nos parecen familiares desaparecerán. Las regularidades se harán cada vez más escasas, y el universo se describirá principalmente en términos de azar. La entropía será muy elevada, así como el contenido de información algorítmica, de modo que la complejidad efectiva será baja y la profundidad también (ver Figuras 4 y 8).

Si este cuadro es correcto, la emergencia de formas cada vez más complejas se frenará gradualmente hasta detenerse, momento en el cual la regla será la regresión a formas de menor complejidad. Además, las condiciones ya no conducirán a la existencia de sistemas complejos adaptativos. Hasta la individualidad entrará en declive, al volverse cada vez más escasos los objetos individuales.

Este escenario no está en absoluto exento de controversia. Es necesaria una mayor investigación teórica sobre el futuro lejano. Aunque no tiene demasiado valor práctico inmediato, esta investigación arrojará luz sobre el significado de la era de complejidad en que vivimos. El universo podría dirigirse, pasado muchísimo tiempo, a un nuevo colapso; los teóricos estudian también este fenómeno, intentando averiguar cómo podría seguir aumentando la entropía en un universo que se encoge, y cuáles serían las perspectivas para la complejidad en esta fase de la evolución cósmica.

Mientras tanto, las características de nuestro planeta y nuestro Sol han producido accidentes congelados que afectan profundamente a las leyes de la geología, la meteorología y otras ciencias «medioambientales». En particular, han proporcionado la base para la biología terrestre. La evolución de la Tierra, del clima, de las reacciones químicas prebióticas que condujeron a la aparición de la vida, y de la propia vida, ilustran la acumulación de accidentes congelados que se han convertido en regularidades dentro de regiones limitadas del espacio y el tiempo. La evolución biológica en especial ha dado origen a la emergencia de una complejidad efectiva cada vez mayor.