1. LOS ENIGMAS DE LA COHERENCIA EN LA FÍSICA CUÁNTICA

A lo largo del siglo XX, la física cuántica, la física del dominio microscópico de la realidad física, se convirtió en algo extraño más allá de la imaginación. Los descubrimientos muestran que las unidades de materia, fuerza y luz más pequeñas identificables no son enteramente «realidades separadas» sino formas específicas y paquetes de campos de energía subyacente. Algunos de estos «cuantos» tienen propiedades similares a la materia, como masa, gravedad e inercia. Otros tienen propiedades como la fuerza, constituyendo las partículas que permiten una interacción efectiva entre los cuantos similares a la materia. Y otros tienen propiedades como la luz: transportan las ondas electromagnéticas que incluyen el espectro visible. Pero ninguno de los cuantos está realmente separado de los demás, ya que permanecen interrelacionados independientemente de la separación que exista entre ellos. Y ninguno se comporta como un objeto ordinario. Tienen tanto propiedades de corpúsculo como de onda, dependiendo, según parece, del método del experimento que se utilice para observarlos y analizarlos; al medir una de sus propiedades, se hace imposible medir las otras.

EL EXTRAÑO MUNDO DEL CUANTO

El hito principal: las partículas enmarañadas

La mecánica clásica, la física de Isaac Newton, transmitía un concepto comprensible de la realidad física. Su obra Philosophiae Naturalis Principia Matematica, publicada en 1687, demostró con precisión geométrica que los cuerpos materiales se mueven de acuerdo a unas reglas expresables matemáticamente en la Tierra, mientras que los planetas rotan de acuerdo con las leyes de Kepler en el firmamento. El movimiento de todas las cosas está rigurosamente determinado por las condiciones bajo las cuales se inicia, exactamente como sucede con un péndulo cuyo movimiento está determinado por su longitud y desplazamiento inicial, y la trayectoria de un proyectil por su ángulo de lanzamiento y aceleración. Con exactitud matemática, Newton predijo la posición de los planetas, el movimiento de los péndulos, la trayectoria de los proyectiles y el movimiento de los «puntos de masa», que en su física son los bloques primordiales constitutivos del universo.

Hace aproximadamente cien años, el mundo mecanicista y predecible de Newton entró en conflicto. Con la división del átomo a finales del siglo XIX y del núcleo atómico a principios del XX, se fragmentó algo más que una entidad física. Se removió el mismo fundamento de la ciencia natural: los experimentos de la física de principios del siglo XX destruyeron la idea predominante de que toda la realidad está compuesta por bloques que no se pueden dividir en nada más. Sin embargo, los físicos no podían aportar ningún concepto sensato comparable en su lugar. La misma noción de «materia» se volvió problemática. Las partículas subatómicas que emergían cuando los átomos y núcleos atómicos se fisionaban no se comportaban como sólidos convencionales: tenían una interconexión misteriosa conocida como «no localidad» y una naturaleza dual que consistía en unas propiedades similares a las de tipo ondulatorio y corpuscular.

Resultó que las partículas que configuran el aspecto manifiesto de la realidad no son pequeños puntos de masa, como diminutas bolas de materia, sino ondas, y, más exactamente, ondas estáticas. En la física cuántica vienen descritas por funciones de onda. Todo orden visible en el universo está determinado por las reglas que gobiernan la interferencia de estas ondas. Los patrones posibles de interferencia entre las ondas estáticas que conocemos como átomos (que es la interferencia de las funciones de onda de los átomos) determinan qué tipo de moléculas pueden formar los átomos y por lo tanto el tipo de sistemas químicos que pueden darse como resultado. La interferencia de las funciones de onda de las moléculas determina a su vez los posibles tipos de interacciones intermoleculares, incluidas las interacciones complejas que constituyen la base de la vida.

Los tipos de interacciones que son posibles vienen determinados a su vez por el orden de los estados virtuales. Cada partícula, cada átomo y cada molécula posee no solo el estado que ocupa cuando es observado, sino también estados que están vacíos y que por tanto se dice que son «virtuales». Los estados virtuales se describen mediante funciones de probabilidad y pedacitos de información. Pasan a ser reales cuando una partícula, átomo o molécula «salta» a ellos.

Los estados virtuales a los que una determinada partícula, átomo o molécula puede saltar no son aleatorios. Cada estado virtual tiene su propia función de onda bien definida, que es un patrón de orden e información. La distribución de los estados virtuales de una determinada partícula (o átomo o molécula) controla el movimiento de traslación, vibratorio y rotatorio de dicha partícula (o átomo o molécula). Este orden del estado virtual determina el movimiento de los sistemas químicos a través de superficies de energía potencial llevándolos de un estado conforme a otro, de un tipo de conjunto químico o bioquímico a otro.

Cada sistema que aparece en el mundo manifiesto representa una selección de entre los estados virtuales que tiene disponibles. Existe una transformación constante de estados virtuales a estados reales, y también de estados reales a virtuales. El físico-químico del cuanto Lothar Schafer lo describe como «un baile incesante, sin descanso» en el que «los estados ocupados se abandonan constantemente y se convierten en virtuales, mientras que los estados vacíos se hacen reales y ocupados. En la creación de las cosas el orden trascendente (es decir, virtual) y el orden real están interconectados en un desesperado abrazo ininterrumpido».

La misteriosa interacción de los estados reales y virtuales en el mundo físico se complica con otro misterio: la conexión constante, y en apariencia trascendente en cuanto al espacio y tiempo, entre partículas en estado real. El famoso experimento «EPR» (el experimento sugerido en principio por Albert Einstein junto con sus compañeros Boris Podolski y Nathan Rosen) demuestra que las partículas que a un mismo tiempo compartían un mismo estado idéntico (el mismo sistema de coordenadas) se mantenían instantánea e indefinidamente correlacionadas. Esta correlación se extiende a los átomos completos: los actuales experimentos de «teletransporte» muestran que cuando un átomo de una pareja de átomos correlacionados se correlaciona a su vez más tarde con un tercer átomo, el estado cuántico del tercero es instantáneamente transferido («transmitido») al otro átomo del par inicial, sin importar lo lejos que este pueda estar.

LA NO LOCALIDAD DEL CUANTO: LOS EXPERIMENTOS REVOLUCIONARIOS

El experimento EPR

El experimento EPR —el primero de los experimentos revolucionarios que demostraron la no localidad de la microesfera de la realidad física— fue planteado por Albert Einstein, junto con sus colaboradores Boris Podolski y Nathan Rosen, en 1935. Este «experimento mental» (así denominado porque en aquel momento no podía comprobarse experimentalmente) requiere que tomemos dos partículas en el denominado estado singlet, en el que sus espines se cancelan uno con otro para tener un espín total cero. Luego, dejamos que las partículas se separen y viajen una distancia finita. Si podemos entonces medir los estados de espín de ambas partículas, conoceremos ambos estados al mismo tiempo. Einstein creía que esto mostraría que la extraña limitación de lo que puede ser medido, que especifica el principio de incertidumbre de Heisenberg, no era aplicable; la teoría en la que se basa no ofrece una descripción completa de la realidad física.

Cuando se dispuso de aparatos experimentales lo suficientemente sofisticados para comprobar la posibilidad de que Einstein estuviera en lo cierto, el resultado fue que esto no era exactamente lo que sucedía. Supongamos que medimos el estado de espín de una de las partículas, la partícula A, a lo largo de alguna dirección, digamos que el eje Z (los posibles estados de espín son «up» o «down», a lo largo de los ejes x, y y z). Digamos que nuestras mediciones demuestran que el espín está en la dirección «up». Debido a que los espines de las partículas tienen que cancelarse unos a otros, el espín de la partícula B debe ser de forma definitiva «down». Pero las partículas están alejadas unas de otras, así que este requisito no debería servir. Pero sí que se cumple. Cada medida que se efectúa sobre una partícula lleva a un resultado complementario en las mediciones de la otra. Parece como si las medidas sobre la partícula A tuvieran un efecto instantáneo sobre B, haciendo que la función de onda del espín se colapse en el estado complementario. Las medidas en A no se limitan a revelar el estado ya establecido de B: realmente producen ese estado.

Hay un efecto instantáneo que se propaga de A a B, transportando información precisa de lo que se está midiendo. B «sabe» cuándo se está midiendo a A, qué parámetro y con qué resultado, ya que adquiere su propio estado de acuerdo a esto. Hay una conexión no local que une a A y B, independientemente de la distancia que las separe.

Los experimentos realizados en los años 80 por Alain Aspect y sus colaboradores y repetidos en 1997 por Nicolas Gisin mostraron que la velocidad con la que el efecto se transmite es asombrosa: en los experimentos de Aspect, la comunicación entre partículas a doce metros de distancia se realizó a menos de una milmillonésima de segundo, alrededor de veinte veces más rápido de lo que la luz viaja en el espacio vacío, mientras que en el experimento de Gisin partículas separadas una distancia de diez kilómetros parece que se comunicaron 20.000 veces más rápido que la velocidad de la luz, cuando la teoría de la relatividad suponía que era una barrera de velocidad que no podía traspasarse. Los experimentos demostraron también que la conexión entre las partículas no era transmitida por medios convencionales a través de los aparatos de medida, sino que era intrínseca a las partículas en sí. Las partículas estaban «enmarañadas»: su correlación no era sensible a la distancia en el espacio ni a la diferencia en el tiempo.

En los subsiguientes experimentos se incluyeron un mayor número de partículas a mayores distancias sin que se modificaran estos sorprendentes resultados. Parece que la separación no divide a las partículas unas de otras, ya que de otra manera, las medidas sobre una no producirían efecto sobre la otra. Ni siquiera es necesario que las partículas se hayan originado en el mismo estado cuántico. Los experimentos demuestran que dos partículas cualesquiera, ya sean electrones, neutrones o fotones, pueden originarse en diferentes puntos del espacio y del tiempo; si alguna vez se juntan en el mismo sistema de coordenadas, esto ya es suficiente para que continúen actuando como parte del mismo sistema cuántico incluso aunque estén separadas…

LOS EXPERIMENTOS DE TELETRANSPORTE

Experimentos recientes demuestran que existe una forma de conexión no local conocida como «teletransporte» no solo entre partículas individuales, sino también entre átomos completos. El teletransporte ha sido experimentalmente probado desde 1997 con respecto al estado cuántico de los fotones en los haces de luz y el estado de los campos magnéticos producidos por nubes de átomos. En la primavera de 2004 se realizaron experimentos que son ya hitos, diseñados por dos equipos de físicos, unos en el National Institute of Standards en Colorado y otro en la Universidad de Innsbruck en Austria, los cuales demostraron que el estado cuántico de átomos enteros puede ser teletransportado, transmitiendo los bits cuánticos («qubits») que definen a los átomos. Los físicos teletransportaron el estado inicial de iones de berilio en el experimento de Colorado, dirigido por M.D. Barrett, y los estados iniciales y metaestables de iones de calcio magnéticamente confinados en el experimento de Innsbruck, dirigido por M. Riebe. Consiguieron el teletransporte con un alto grado de fidelidad (78% en el experimento de Colorado y un 75% en el experimento de Innsbruck) utilizando diferentes técnicas, pero siguiendo el mismo protocolo básico.

Primero, dos átomos cargados (iones), etiquetados como A y B, se «enmarañaban» (quantum entanglement), creando un vínculo instantáneo como ocurría en el experimento EPR. Luego se preparaba un tercer átomo P, codificando en él el estado cuántico superpuesto que se quería teletransportar. Luego A, unos de los iones enmarañados, se medía junto con el átomo preparado P. En ese punto, el estado cuántico interno de B se transformaba: ¡tomaba el estado exacto que estaba codificado en P! Parecería como si el estado cuántico de P se hubiera «teletransportado» a B.

Aunque los experimentos implicaban procedimientos complejos, el proceso real que demostraron es relativamente directo. Cuando A y P se medían juntos, la conexión no local preexistente entre A y B creaba una transferencia no local del estado de P a B. En el experimento EPR una de las dos partículas enmarañadas «in-formaba» a la otra de su estado medido; de forma similar, en los experimentos de teletransporte, la medida de uno de los iones enmarañados junto con un tercer ión codifica el estado de este último en el otro gemelo. Debido a que el proceso destruye el estado cuántico superpuesto de A y lo recrea en P, recuerda a la idea de la ciencia ficción de «transmitir» un objeto de un lugar a otro.[3.2]

Los experimentos actuales de teletransporte abren unas inmensas oportunidades. En un futuro próximo, los físicos podrán encontrar la manera de transmitir qubits no solo de un átomo a otro, sino entre un número de partículas más grande simultáneamente. Esto sería la base para una nueva generación de ordenadores cuánticos súper rápidos. Cuando una gran cantidad de partículas enmarañadas esté distribuidas a través de la estructura de un ordenador, el «teletransporte cuántico» creará una transferencia instantánea de información entre ellas sin necesidad de que estén cableadas e incluso sin que tengan que estar una cerca de otra.

Lo más destacable en este mar de misterios cuánticos es que las partículas, y los átomos constituidos por partículas, no son entidades individuales. Se trata de entidades sociables que, bajo determinadas condiciones, están tan estrechamente «enmarañadas» unas con otras que no están simplemente aquí o allí, sino en todas partes al mismo tiempo. Su no localidad no respeta ni el tiempo ni el espacio: existen tanto si la distancia que separa las partículas y los átomos se mide en milímetros o en años luz, y tanto si el tiempo que las separa se mide en segundos o en millones de años.

2. LOS ENIGMAS DE LA COHERENCIA EN LA COSMOLOGÍA

La cosmología, una rama de las ciencias astronómicas, se encuentra en un estado de agitación. Cuanto más en profundidad investigan los confines del universo los nuevos instrumentos de alta potencia, más misterios descubren. En su gran mayoría, estos misterios tienen un elemento común: presentan una coherencia asombrosa a través del espacio y el tiempo.

EL SORPRENDENTE MUNDO DE LA NUEVA COSMOLOGÍA

El hito principal: el cosmos coherente en evolución coherente

El universo es bastante más complejo y coherente de lo que ninguno de los poetas o místicos se haya atrevido a imaginar. Éstas son algunas de las observaciones enigmáticas que han surgido:

De acuerdo con el modelo estándar de evolución cósmica, el universo se originó con el Big Bang, hace entre doce y quince mil millones de años. La estimación estándar son 13,7 billones de años, pero en 2006 un equipo de investigación dirigido por Alceste Bonanos en el Carnegie Institution de Washington aportó un dato diferente: el universo tiene 15,8 billones de años de antigüedad.

Independientemente de cuándo ocurriera realmente, parece ser que el Big Bang fue una inestabilidad explosiva en el vacío cuántico. Una región de este vacío, que estaba, y está, lejos del verdadero vacío, es decir, el espacio vacío, explotó, creando una bola de fuego de asombroso calor y densidad. En los primeros milisegundos esta bola sintetizó toda la materia que hoy puebla el espacio cósmico. Las parejas de partículas-antipartículas que surgieron colisionaron y se aniquilaron unas a otras. Pero por alguna razón, que no explican ni la teoría del Big Bang ni el celebrado Modelo Estándar de la física de partículas, se crearon más partículas de materia que de antimateria (es decir, se produjo una violación de la conjugación de carga y paridad, conocida como violación CP). El exceso de partículas de materia configura el universo que observamos.

Después de aproximadamente 400.000 años el universo se enfrió lo suficiente para que esos electrones y protones cargados pudiesen combinarse para formar átomos de hidrógeno. La mayor parte de los cuantos de luz (fotones) escaparon del plasma caliente y, como resultado, el espacio se volvió transparente. Conjuntos de partículas (sobre todo átomos de hidrógeno) se establecieron ellos mismos como elementos separados del cosmos y la materia en esos grupos de hidrógeno se condensó bajo la atracción de la gravedad. En el transcurso de un billón de años, se formaron las primeras galaxias. Dentro de las galaxias se formaron otros grupos subsidiarios, se calentaron y en ellos se produjeron reacciones nucleares en cadena. Las estrellas empezaron a brillar.

Hasta hace relativamente poco, el escenario de la evolución cósmica parecía bien establecido. Las mediciones detalladas de la radiación de fondo de microonda cósmica, los presumiblemente vestigios del Big Bang, dan testimonio de que sus variaciones derivan de pequeñas fluctuaciones en la bola de fuego cósmica cuando nuestro universo tenía una trillonésima parte de un segundo de «edad» y no son distorsiones causadas por la radiación de los cuerpos estelares.

Sin embargo, la cosmología estándar del Big Bang («teoría del BB») no está tan establecida ahora como hace unos años. Ha surgido un creciente número de misterios. En primer lugar, tenemos la inexplicable violación CP en el origen del universo. La teoría del BB no dice nada acerca de la misteriosa fuerza que aparta entre sí las galaxias. Esta fuerza de repulsión es conocida como la «constante cosmológica» y su valor se calcula mediante los principios de la física cuántica. La teoría del Big Bang tampoco explica la cantidad de materia oscura y energía oscura y por tanto tampoco puede explicar el déficit observado de masa gravitacional en el espacio (el problema de la «masa perdida»). No ofrece explicación para la coherencia de algunos ratios cósmicos básicos ni para la uniformidad de las macroestructuras a través del espacio cósmico (el «problema del horizonte»).

El problema que los cosmólogos denominan «el ajuste de la constante universal» es particularmente desconcertante. Las tres docenas o más de parámetros físicos del universo tienen un ajuste tan fino que juntos crean las condiciones sumamente improbables en las que la vida puede surgir en la Tierra (y presumiblemente en otros planetas también) y evolucionar hacia niveles progresivamente más altos de complejidad.

Todo esto son enigmas de coherencia y plantean la posibilidad de que el universo no surgiera en el contexto de una fluctuación aleatoria del subyacente vacío cuántico. En cambio, puede haber nacido en el seno de un «meta-universo» previo: el Metaverso. (El término meta proviene del griego clásico y significa «detrás» o «más allá»; en este caso se refiere a un universo más vasto y fundamental que está detrás o más allá del universo que nosotros observamos y en el que habitamos).

La existencia de un universo más vasto, quizá infinito, queda recalcada con el sorprendente descubrimiento de que, independientemente de la lejanía o la amplitud con la que los potentes telescopios observen el universo, encuentran galaxia tras galaxia, incluso en las «regiones oscuras» del cielo donde no se pensaba que pudieran existir galaxias ni ningún tipo de estrellas. Este panorama es bien distinto al concepto reinante en astronomía hace cientos de años: en esa época, y hasta los años veinte, se pensaba que la Vía Láctea era todo lo que existía en el universo. Donde terminaba la Vía Láctea, el espacio terminaba también. Hoy en día no solo sabemos que la Vía Láctea, «nuestra galaxia», es solo una entre los mil millones de galaxias de «nuestro universo», sino que estamos empezando a reconocer que los límites de «nuestro universo» no son los límites de «el universo». El cosmos puede ser infinito en el tiempo, y puede que también en el espacio, y en algunas magnitudes es más vasto de lo que ningún cosmólogo se hubiera atrevido a soñar hace unas décadas.

Algunos cosmólogos físicos explican de forma cuantitativa cómo el universo en el que vivimos pudo haber surgido en el marco del Metaverso. La promesa de dichos cosmólogos es que podrían superar los enigmas de coherencia en este universo, incluyendo la fantástica casualidad de que sus constantes físicas están tan finamente ajustadas que nos permiten estar aquí para hacernos preguntas sobre ellas. Esto no tiene una explicación creíble en un universo de efecto inmediato y de ciclo sencillo, para el que las fluctuaciones del vacío que han establecido los parámetros del universo emergente han debido ser seleccionadas de forma aleatoria: no había «nada allí» que desviara la casualidad de esta selección. Sin embargo una selección aleatoria de entre todas las fluctuaciones posibles en el caos de un vacío turbulento primordial es astronómicamente improbable que haya llevado a un universo donde los organismos vivos y otros fenómenos coherentes y complejos pueden surgir y evolucionar, o incluso a un universo en el que hay un significativo exceso de materia frente a antimateria.

ALGUNAS HIPÓTESIS ACTUALES DEL METAVERSO

Una hipótesis ampliamente discutida avanzada por el físico John Wheeler de Princeton, sugiere que la expansión del universo llegará a su fin y finalmente se volverá a colapsar en sí mismo. Después de este «Big Crunch» podría volver a explotar, dando lugar a otro universo. Dentro de las incertidumbres cuánticas que dominan el estado súper-aplastado, existen un número casi infinito de posibilidades para la creación del universo. Esto podría explicar las características del ajuste fino de nuestro universo ya que, si se produce un número suficientemente grande de oscilaciones sucesivas de creación del universo, incluso el improbable ajuste fino de un universo como el nuestro tiene alguna oportunidad de producirse.

También es posible que surjan muchos universos al mismo tiempo. Este, a su vez, sería el caso si la explosión que los hace surgir fuera reticular, formada por una serie de regiones individuales. En la «teoría sobre la inflación» del cosmólogo Andrei Linde, el Big Bang tenía regiones distintas, algo muy parecido a una pompa de jabón a la que se adhieren pequeñas burbujas. Como cuando la pompa estalla y las pequeñas burbujas se separan y forman otras burbujas ellas mismas. Los universos-pompa se filtran hacia el exterior y siguen su propio destino evolutivo. Cada universo-pompa alcanza su propio conjunto de constantes físicas, y éstas pueden ser muy distintas de las de nuestro universo. Por ejemplo, en algunos universos la gravedad puede ser tan fuerte que pueden volverse a colapsar casi instantáneamente; en otros la gravedad puede ser tan débil que no se pueden formar estrellas. Da la casualidad de que nosotros vivimos en una burbuja con constantes físicas que permiten la evolución de sistemas complejos, incluyéndonos a nosotros los seres humanos.

Dentro de los agujeros negros podrían crearse también universos nuevos. Las densidades extremadamente altas de estas regiones de espacio-tiempo presentan singularidades donde no se pueden aplicar las leyes conocidas de la física. Stephen Hawking y Alan Guth sugirieron que bajo dichas condiciones las regiones de los agujeros negros de espacio-tiempo se separan del resto y se expanden para crear un universo por sí mismas. El agujero negro de un universo puede ser el «agujero blanco» de otro: el Big Bang que lo crea.

En otro escenario, se crean periódicamente universos recientes en estallidos parecidos al que originó nuestro propio universo. La QSSC (Quasi-Steady State Cosmology, cosmología en estado cuasi-estable), presentado por Fred Hoyle junto con George Burbidge y J. V. Narlikar, postula que tales «casos de creación de materia» se intercalan a través del meta-universo. Los casos de creación de materia surgen en los campos gravitatorios de mucha potencia asociados con agregados densos de materia preexistente, como por ejemplo en los núcleos de las galaxias. El estallido más reciente ocurrió hace aproximadamente catorce mil millones de años, lo cual concuerda perfectamente con las últimas observaciones respecto a la edad de nuestro propio universo.

Sin embargo, Ilya Prigogine, J. Geheniau, E. Gunzig y P. Nardote presentaron otra hipótesis sobre el metaverso. Su teoría concuerda con la QSSC al sugerir que los grandes estallidos de creación de materia similares a nuestro Big Bang se producen solo de vez en cuando. La geometría a gran escala de espacio-tiempo crea una reserva de «energía negativa» (que es la energía necesaria para levantar un cuerpo en dirección contraria a la atracción de la gravedad); de esta reserva, la materia gravitatoria extrae energía positiva. Por lo tanto, la gravitación es la causa de que se siga produciendo la síntesis de la materia: produce un mecanismo eterno de creación de materia. Cuantas más partículas se generan, más energía negativa se produce, que después es transferida como energía positiva para la síntesis de aún más partículas. Dado que el vacío cuántico es inestable en presencia de una interacción gravitacional, la materia y el vacío forman un circuito de realimentación autogenerada. La inestabilidad crítica del estallido de materia hace que el vacío pase al modo inflacionario y este marca el principio de una nueva era de síntesis de la materia.

El trabajo de Paul J. Steinhardt de Princeton y Neil Turok de Cambridge es un modelo cosmológico más reciente. Su cosmología da una explicación para todos los hechos justificados por el Big Bang y también ofrece una aclaración de la enigmática expansión acelerada de las galaxias distantes. Según Steinhardt y Turok, el universo sufre una secuencia eterna de eras cósmicas, cada una de las cuales comienza con un «Bang» y termina en un «Crunch». Cada ciclo incluye un periodo de expansión acelerada, primero gradual y después más acentuada, seguido de una reversión y del comienzo de una época de contracción. Estiman que en el momento presente llevamos aproximadamente 14 mil millones de años en el ciclo actual y en el comienzo de un periodo de tres billones de años de expansión acelerada. Finalmente nuestro universo (más exactamente, nuestro ciclo del universo) alcanzará la condición de homogeneidad, geometría plana y energía necesaria para comenzar el ciclo siguiente. En este modelo el universo (que es en realidad un metaverso) es infinito y plano, más que finito y cerrado, como en los modelos de universo oscilante.

La coherencia de nuestro universo indica que todas sus estrellas y galaxias están conectadas de alguna forma. Y el asombroso ajuste de las constantes físicas de nuestro universo sugiere que en su origen el vacío en el que surgió no estaba estructurado de manera totalmente aleatoria. Un universo previo pudo haber «in-formado» el nacimiento y evolución de nuestro universo, al igual que el código genético de nuestros padres in-formó la concepción y desarrollo del embrión que se transformó en lo que somos hoy en día.

3. LOS ENIGMAS DE LA COHERENCIA EN BIOLOGÍA

Los dominios tanto a escala macroscópica como a escala microscópica de la realidad física resultan ser sorprendentemente coherentes. Pero el mundo en su dimensión habitual es más razonable. Aquí las cosas ocupan un estado a un tiempo y están aquí o allí pero no pueden estar en ambos sitios simultáneamente. Esto es, bajo cualquier consideración, el razonamiento más sensato, y a primera vista tiene sentido. Los organismos vivos estén compuestos por células, que están compuestas por moléculas, que a su vez están compuestas de átomos, compuestos de partículas. El análisis clásico insiste en que, aunque esas partículas mismas son un misterio, el conjunto de ellas forma un objeto clásico: las indeterminaciones cuánticas se anularían al considerarlas a macro-escala. Pero este no es el caso, o al menos no por completo. De momento, las correlaciones multidimensionales están saliendo a la luz entre las partes de los organismos vivos, e incluso entre organismos completos y su entorno.

Las investigaciones más arriesgadas en la biología cuántica encuentran que los átomos y las moléculas del organismo, e incluso de organismos completos y sus medios, están casi tan «enmarañadas» unas con otras como las micropartículas que se originan en el mismo estado cuántico.

EL MUNDO INESPERADO DE LA BIOLOGÍA POST-DARWINIANA

El hito principal: el organismo súper coherente

No resulta sorprendente que los organismos vivos sean coherentes como un todo, lo que sí resulta sorprendente es el grado y forma de esa coherencia. La coherencia de los organismos va más allá de la coherencia de un sistema bioquímico; en algunos aspectos, adopta la coherencia de un sistema cuántico.

Evidentemente, si los organismos vivos no sucumben a las restricciones de un mundo físico, los órganos y partes que los componen deben correlacionarse de una manera flexible y precisa unos con otros. Sin esta correlación, los procesos físicos destruirían rápidamente la organización del estado vital, llevándolo al estado casi inerte de equilibrio químico y térmico en el cual la vida, tal y como la conocemos, es imposible. Los sistemas cercanos al equilibrio son ampliamente inertes, incapaces de mantener procesos como el metabolismo o la reproducción, esenciales para el estado vital. Un organismo solo está en equilibrio termodinámico cuando está muerto. Mientras se mantiene vivo está en un estado de equilibrio dinámico en el que almacena energía e información y las mantiene disponibles para guiar y dirigir sus funciones vitales.[3.3]

En un análisis más profundo se observa que el equilibrio dinámico requiere un alto grado de coherencia: demanda correlaciones instantáneas muy variadas a través del organismo. Las colisiones sencillas entre moléculas próximas, como en un simple juego de billar con relaciones de empuje-impacto entre ellas, se deben complementar con una red de comunicación inmediata que correlacione todas las partes del sistema viviente, incluso aquellas distantes unas de otras. Las moléculas poco comunes, por ejemplo, rara vez están contiguas, y sin embargo se encuentran entre ellas dentro del organismo. No habría suficiente tiempo para que ocurriera esto en un proceso aleatorio de mezcla y agitación; las moléculas necesitan localizarse y responderse unas a otras específicamente, incluso cuando están alejadas. Es difícil ver cómo esto podría conseguirse a través de conexiones químicas o mecánicas entre las partes del organismo, incluso si están correlacionadas a través de un sistema nervioso que interpreta las señales bioquímicas de los genes a través del ADN, ARN, proteínas, enzimas y activadores y transmisores neuronales.

En un organismo complejo el desafío de mantener el equilibrio dinámico es enorme. El cuerpo humano está compuesto por alrededor de 1.000 billones de células, bastantes más que las estrellas de la galaxia de la Vía Láctea. De todas estas células, 600.000 millones mueren cada día y el mismo número se regenera, más de 10 millones de células por segundo. Una célula normal de la piel vive solo dos semanas aproximadamente; las células de los huesos se renuevan cada tres meses. Cada 90 segundos se sintetizan millones de anticuerpos, cada uno con aproximadamente 12.100 aminoácidos, y cada hora se regeneran 200 millones de eritrocitos. No existe ninguna sustancia en el cuerpo que sea constante, aunque las células del corazón y del cerebro duran más que el resto. Y las sustancias que coexisten al mismo tiempo producen miles de reacciones bioquímicas en el cuerpo en cada segundo.

No importa lo diferentes que sean las células, los órganos y los sistemas de órganos del organismo, en los aspectos esenciales actúan como una unidad. Según Mae-Wan Ho, se comportan como una buena banda de jazz, en la que cada componente responde inmediatamente y espontáneamente a cualquier cosa que los otros improvisen. La súper banda de jazz del organismo nunca deja de tocar en toda la vida, expresando las armonías y las melodías de cada organismo en particular con un ritmo y cadencia recurrente, pero con infinitas variaciones. Siempre hay algo nuevo, algo que se compone, según la vida se desarrolla. Puede cambiarse la clave, el tempo o la melodía, según demande la situación, de forma espontánea y sin vacilación. Hay una estructura, pero el arte de verdad es la improvisación interminable, donde todos y cada uno de los ejecutantes, por muy pequeños que sean, disfrutan de la máxima libertad de expresión, mientras continúan perfectamente conjuntados con el todo.

La «música» de un organismo complejo tiene un rango de más de setenta octavas. Está compuesta por la vibración de los enlaces químicos, el girar de las ruedas moleculares, el latido de los microcilios, la propagación de los flujos de electrones y protones y el fluido de metabolitos y las corrientes iónicas dentro de las células y entre ellas, a través de magnitudes espaciales de diez órdenes.

El nivel de coherencia que demuestran los organismos sugiere que en ellos se desarrollan procesos de tipo cuántico. Esto ha sido comprobado mediante experimentos. Se sabe que los organismos responden incluso a radiaciones electromagnéticas de frecuencias extremadamente bajas y a campos magnéticos tan débiles que solo los instrumentos más sofisticados pueden registrarlos. Pero la radiación por debajo de las dimensiones moleculares no podría afectar a las uniones moleculares a menos que un gran número de moléculas estuviesen vinculadas de manera súper coherente entre ellas. Estos vínculos solo pueden producirse si los procesos cuánticos complementan los procesos bioquímicos del organismo. Según parece, el organismo vivo es en algunos aspectos un «sistema cuántico macroscópico».

La correlación en el organismo abarca el conjunto de genes del organismo, el denominado genoma. Esto es una anomalía para la biología conservadora. De acuerdo con el darwinismo clásico, el genoma debería estar aislado de las vicisitudes que le suceden al resto de los organismos. Debe haber una separación completa de la germ line (la información genética que se transmite de padres a hijos) del soma (el organismo que expresa la información genética). Los darwinistas afirman que en el curso de las generaciones sucesivas en la vida de las especies, el germ line varía aleatoriamente, sin que le afecten las influencias que actúan sobre el soma. La evolución procede de una selección de algunas variantes genéticas creadas al azar de acuerdo con el «ajuste» del soma (el organismo resultante) a su entorno particular. Si esto fuese así, la evolución biológica sería el producto de una posibilidad duplicada: la posibilidad de variación del genoma y la posibilidad de ajustar los mutantes resultantes a su medio. Utilizando la metáfora que se hizo popular gracias al biólogo de Oxford Richard Dawkins, la evolución tiene lugar gracias a la prueba y al error: es el trabajo de un relojero ciego.

Sin embargo, el principio darwiniano clásico con respecto al aislamiento del genoma no es correcto. La historia evolutiva de la vida en la Tierra demuestra que el genoma, el organismo y el entorno forman un sistema integrado donde las partes autónomas funcionales están tan correlacionadas que el organismo puede sobrevivir, y puede producir descendencia que sea viable bajo condiciones que habrían resultado fatales para los padres. En ausencia de tal correlación la probabilidad estadística de que los organismos complejos pudieran evolucionar en la Tierra en el margen de tiempo disponible sería sumamente pequeña.[3.4]

La conexión entre el genoma y el soma se ha demostrado a través de pruebas de laboratorio. La conexión entre el genoma y el entorno se puede producir incluso con medios mecánicos. El biólogo celular A. Maniotis describía un experimento donde una fuerza mecánica causada en la membrana celular externa se transmitía hasta el núcleo de la célula, lo que produjo una mutación casi instantánea. El experimentalista Michael Lieber fue aún más lejos. Su trabajo demostró que la fuerza mecánica que actúa en la membrana más externa de las células es solo una variedad de interacción que resulta en una reorganización genética: cualquier tensión que provenga del entorno, mecánica o no, provoca una «hipermutación» global.

El genoma es dinámico y adaptable. Cuando lo necesita, produce series de reorganización complejas y prácticamente inmediatas. Cuando se somete a plantas e insectos a sustancias tóxicas, con frecuencia mutan su carga genética de tal forma que se desintoxican del veneno y desarrollan una resistencia a él. La «respuesta de adaptación» del genoma es también evidente cuando el organismo es irradiado con campos radioactivos o electromagnéticos: esto también tiene un efecto directo sobre la estructura de sus genes. En muchos casos la nueva organización aparece en los descendientes. Los experimentos en Japón y en Estados Unidos muestran que las ratas desarrollan diabetes cuando las drogas administradas en el laboratorio dañan las células productoras de insulina de sus páncreas. Estas ratas diabéticas tienen crías en las que la diabetes aparece espontáneamente. Parece que la alteración de las células del cuerpo de las ratas produce una reorganización de sus genes.

Incluso más sorprendentes son los experimentos en los que unos determinados genes de una cepa de bacterias resultan defectuosos, por ejemplo, los genes que permiten a la bacteria metabolizar la lactosa. Si estas bacterias se alimentan con una dieta basada exclusivamente en la leche, algunas de ellas volverán a mutar precisamente esos genes que les permiten metabolizarla otra vez.

Dada la complejidad del genoma incluso de una humilde bacteria, es astronómicamente improbable que esta respuesta ocurra simplemente por casualidad.

El teórico alemán Marco Bischof resumió la comprensión que surgía en el límite de las ciencias de la vida: «La mecánica cuántica ha establecido la primacía de un todo indivisible. Por este motivo», dice (y hace hincapié en ello), «la base de la nueva biofísica debe ser la comprensión de la capacidad de interconexión fundamental dentro del organismo así como también entre organismos, y la del organismo con el entorno».

4. LOS ENIGMAS DE LA COHERENCIA EN LA CONCIENCIA HUMANA

La conciencia es el hecho conocido por nuestra experiencia más íntimo e inmediato. Nos acompaña desde nuestro nacimiento y presumiblemente lo hace hasta la muerte. Es única y parece pertenecernos individualmente a cada uno de nosotros. Sin embargo «mi» conciencia puede que no sea solo y únicamente mía. Las conexiones que unen «mi» conciencia con la conciencia de otros, bien conocidas tradicionalmente (llamadas primitivas, aunque en realidad en muchos aspectos altamente sofisticadas), se han redescubierto hoy en día con experimentos controlados con transferencia de imagen y pensamiento, y el efecto de la mente de un individuo sobre el cuerpo y la mente de otro.

EL MUNDO TRANSPERSONAL DE LA CONCIENCIA

El hito principal: la capacidad de conexión de la mente humana

Los descubrimientos actuales de los mayores alcances logrados por la conciencia humana recuerdan las palabras pronunciadas por Einstein hace medio siglo. «Un ser humano», dijo, «es parte de un todo que llamamos universo, una parte limitada en tiempo y espacio. Él piensa que sus pensamientos y sus sentimientos están separados del resto, una especie de espejismo de su conciencia. Este espejismo es un tipo de prisión para nosotros, que restringe nuestras decisiones personales y nuestros afectos hacia las personas que nos son más cercanas». Mientras que desde un punto de vista conservador, la comunicación y la interacción humana se limita a nuestros canales sensoriales (todo lo que llega a la mente, se dice, debe pasar antes por el ojo o el oído), los psicólogos destacados, los psiquiatras y los investigadores de la conciencia redescubren lo que Einstein ya había percibido y lo que las antiguas civilizaciones habían sabido siempre: que nosotros estamos unidos también por conexiones más imperceptibles y que nos rodean. En la literatura científica actual, estas interconexiones se denominan transpersonales.

Las culturas tradicionales no consideraban las conexiones transpersonales con personas distantes, tribus, o culturas como una ilusión, pero las sociedades modernas sí lo hacen. La mente moderna no está preparada para aceptar como real nada que no sea «manifiesto», que no esté, literalmente, «a mano» (manus es «mano» en latín). Consecuentemente las conexiones transpersonales se consideran como algo paranormal y solo se admiten bajo condiciones excepcionales.

Una de esas excepciones es el «dolor de los gemelos», cuando uno de los miembros de una pareja de gemelos siente el sufrimiento o dolor del otro. Este fenómeno se acepta como real, ya que está muy bien documentado. Guy Playfair, que escribió el libro Twin Telepathy (Telepatía en los gemelos), mencionaba que aproximadamente el 30% de los gemelos experimenta la interconexión telepática. Cita un programa de televisión en 1997 donde el equipo de producción ponía a prueba a cuatro parejas de gemelos idénticos. Las respuestas de las ondas cerebrales, la presión sanguínea y la carga eléctrica en la piel de las cuatro parejas de gemelos estaban rigurosamente monitorizadas. A uno de los gemelos de cada pareja se le conectaba, por sorpresa, una alarma estridente en el respaldo de la silla donde estaba sentado. En tres de las cuatro parejas, el otro gemelo registraba el sobresalto, aunque estaba aislado a gran distancia en una habitación insonorizada. Las parejas que tuvieron éxito en el experimento fueron al programa en directo y mostraron de nuevo su transmisión de información telepática, aunque el gemelo receptor no podía dar una explicación de lo que le ocurría a su pareja. El supervisor técnico del programa concluyó que los gemelos que estaban separados «ciertamente captaron algo desde alguna parte».

Los gemelos idénticos son solo la punta del iceberg de las parejas que tienen fuertes vínculos. Se han observado algunas formas de telepatía entre personas que comparten un fuerte lazo afectivo, como madres e hijos, amantes, parejas de muchos años e incluso amigos íntimos. En estos casos, todos, a excepción de los psicólogos más conservadores, se ven obligados a reconocer la existencia de algún contacto transpersonal. Pero solo los psicólogos excepcionalmente tolerantes admiten que el contacto transpersonal incluye la capacidad para transmitir pensamientos e imágenes y que muchas o quizá todas las personas tienen esta capacidad. Sin embargo este es un descubrimiento de experimentos recientes. Los poderes telepáticos de la gente (su capacidad de llevar a cabo varias formas de transferencia de imagen y pensamiento) no son simplemente una ilusión o una mala interpretación de los resultados. Se ha desarrollado un espectro completo de protocolos experimentales, que abarcan desde el procedimiento de reducción de sonido, conocido como técnica Ganzfeld, hasta el método riguroso de «influencia mental a distancia en sistemas vivos» (IMDSV). Se han tenido en cuenta las explicaciones en términos de claves sensoriales ocultas, influencia sobre las máquinas, engaños y errores e incompetencias de los que realizan los experimentos, pero se comprobó que eran incapaces de explicar algunos resultados significativos estadísticamente. Parece que también las personas «normales» poseen habilidades «paranormales».

CUATRO EXPERIMENTOS TRANSPERSONALES PIONEROS

1. A principios de los años 70, un equipo formado por los físicos Russell Targ y Harold Puthoff realizó uno de los primeros experimentos para controlar el pensamiento transpersonal y la transferencia de imágenes. Colocaron al «receptor» en una cámara sellada, opaca y eléctricamente aislada y al «emisor» en otra habitación donde era sometido a destellos luminosos a intervalos regulares. Los patrones de ondas cerebrales tanto del emisor como del receptor fueron registrados en máquinas de electroencefalogramas (EEG). Como se esperaba, el emisor presentaba ondas cerebrales rítmicas que acompañaban a los destellos de luz. Sin embargo, después de un breve intervalo, el receptor también empezó a producir los mismos patrones, aunque no estuviera directamente expuesto a los destellos ni recibiera del emisor ninguna señal perceptible por los sentidos.

Targ y Puthoff también realizaron experimentos sobre la visión remota. En estas pruebas, el emisor y el receptor se colocaban a una distancia que impedía cualquier forma de comunicación sensorial entre ellos. En un lugar escogido aleatoriamente, el emisor actuaba como un «faro» y el receptor intentaba recoger lo que veía el emisor. Para documentar sus impresiones, los receptores daban descripciones verbales, algunas veces acompañadas por esquemas. Unos jueces independientes determinaron que las descripciones de los receptores se ajustaban a las características del sitio que veía el emisor en un sesenta por ciento de las ocasiones.

2. En otro experimento, en 1994, dos físicos, Peter Stewart y Michael Brown, en Inglaterra, se unieron a Helen Stewart, una administradora de la universidad en Nueva York, para comprobar el procedimiento telepático sugerido por «Seth» y narrado por Jane Roberts en sus libros súper ventas. La comunicación se intentó a través del Atlántico en catorce sesiones cronometradas con precisión, entre abril y septiembre de ese año. Se hicieron registros detallados de las observaciones e impresiones después de cada experiencia, vía correo electrónico, que fueron grabados en discos automáticamente fechados. Aunque las imágenes percibidas remotamente se describieron en términos de asociaciones más que en reproducciones pictóricas exactas de lo que veía el emisor, en conjunto se correspondían. La imagen de una lluvia de meteoritos, por ejemplo, se convirtió en una tormenta de nieve, la imagen de un restaurante giratorio en lo alto de una torre fue recibida como un globo sobre una base. Se recibieron tanto imágenes estáticas como dinámicas, «fotografías» y «películas». Los físicos llegaron a la conclusión de que la validez del proceso telepático mostrado por Jane Roberts quedaba establecida más allá de cualquier duda razonable.

3. La tercera serie de experimentos pioneros es el trabajo de Jacobo Grinberg-Zylberbaum de la Universidad Nacional de México. Realizó más de cincuenta experimentos a lo largo de cinco años sobre la comunicación espontánea entre los individuos sometidos a estudio. Emparejó a las personas dentro de «jaulas de Faraday» a prueba de sonido y de radiación electromagnética y les pidió que meditaran juntos durante unos veinte minutos. Luego, los colocó en jaulas de Faraday separadas donde una de las personas recibía estímulos y la otra no. El sujeto estimulado recibía los estímulos a intervalos aleatorios de manera que ni siquiera él ni el experimentador sabían cuándo iban a suceder. Las personas que no eran estimuladas permanecían relajadas, con los ojos cerrados y se les pedía que intentaran sentir la presencia de su pareja sin saber nada de los estímulos que estaba recibiendo.

Normalmente se aplicaban series de cien estímulos, como destellos de luz, sonidos o pequeñas descargas eléctricas cortas, intensas pero no dolorosas, en los dedos anular e índice de la mano derecha. Los registros del electroencefalograma (EGG) de las ondas cerebrales de ambos sujetos se sincronizaron y se examinaron para los potenciales «normales» producidos en el sujeto estimulado y los potenciales «transferidos» en el sujeto no estimulado. No se apreciaron potenciales transferidos en las situaciones de control cuando no había estimulación en el sujeto, cuando una pantalla evitaba que el sujeto estimulado percibiera los estímulos (como destellos de luz) o cuando los dos sujetos no habían interactuado previamente. Pero durante las situaciones experimentales con sujetos estimulados y con un contacto previo entre ellos, los potenciales transferidos aparecían regularmente en cerca de un veinticinco por ciento de los casos. Una joven pareja, profundamente enamorada, proporcionó un ejemplo particularmente conmovedor. Sus patrones EGG permanecieron muy sincronizados durante todo el experimento, probando que sus sentimientos de unicidad no eran una ilusión.

De manera limitada, Grinberg-Zylberbaum pudo también duplicar sus resultados. Cuando un individuo mostraba los potenciales transferidos en un experimento, normalmente los mostraba en los experimentos subsiguientes también. Los resultados no dependían de la separación espacial entre los emisores y los receptores, y los potenciales transferidos no parecían afectados por lo cerca o lo lejos que estuvieran uno del otro.

4. El cuarto experimento implica la búsqueda de agua con varillas de zahorí. Se sabe que los zahoríes pueden señalar la localización del agua con gran precisión. Las varillas y los péndulos pueden responder a la presencia de aguas subterráneas, campos magnéticos o incluso petróleo y otras sustancias naturales.

Parece que los zahoríes pueden percibir también información que no es producida por causas naturales, sino proyectada a larga distancia por la mente de otra persona. Líneas, figuras y formas «zahorizables» pueden crearse intencionadamente en la conciencia de una persona y estas líneas, figuras y formas pueden afectar la mente y el cuerpo de personas distantes a las que no se ha dicho lo que se ha creado ni dónde. Sus varillas se mueven como si las figuras, líneas y formas fueran debidas a causas naturales que hay frente a ellos. Este es el descubrimiento de una serie de experimentos remotos llevados a cabo durante los últimos diez años por Jeffrey Keen, un reconocido ingeniero, junto a sus colaboradores en el Dowsing Research Group de la British Society of Dowsers.

En un número considerable de experimentos, las formas exactas creadas por el experimentador eran identificadas por el zahorí. Se observó que las formas coincidían con una exactitud de centímetros incluso cuando se creaban a miles de kilómetros de distancia. La precisión de la situación no se veía afectada por la distancia entre la persona que creaba los campos zahorizables y la localización física del campo: se obtuvieron los mismos resultados cuando el experimentador se encontraba a unos pocos metros o a cinco mil kilómetros de distancia. No había diferencia si el experimentador estaba de pie sobre el suelo, estaba en una cueva, volando en un avión o en una jaula de Faraday con un campo electromagnético. El tiempo tampoco parecía ser un factor a tener en cuenta: los campos se creaban más rápidamente de lo que se realizaban las mediciones, incluso a grandes distancias. También se comprobó que el tiempo era irrelevante porque los campos permanecían presentes y estables en todo momento después de haber sido creados. En uno de los casos se prolongaron durante más de tres años. Pero podían cancelarse si la persona que los había creado así lo deseaba.

Keen llegó a la conclusión de que los campos zahorizables se creaban y se mantenían en un «campo informativo que invade todo el universo». El cerebro interactúa con este campo y percibe los campos zahorizables como hologramas. Esto, según Keen y el Dowsing Research Group, es un ejemplo de interacción no local entre el cerebro y el campo producida entre individuos diferentes y posiblemente distantes.

Las personas no solo pueden comunicarse con otras personas a través de la mente, sino que también pueden interactuar con el cuerpo de otros. Cada vez hay más evidencias de que es posible que la mente consciente de una persona pueda producir un efecto mensurable y repetible en el cuerpo de otra. Estos efectos se conocen como telesomáticos.

Los efectos telesomáticos eran conocidos por las llamadas gentes primitivas: los antropólogos lo llaman «magia simpática». Los chamanes, médicos brujos, y los que practican ciertas magias (vudú, por ejemplo) pueden actuar sobre la persona elegida o sobre una figura de esa persona, como una especie de muñeco. Esta práctica está muy extendida entre la gente tradicional. Sir James Frazer, en su famoso estudio La rama dorada (The Golden Bough), afirmaba que los chamanes americanos nativos dibujaban la figura de la persona en la arena, ceniza o arcilla, y después lo pinchaban con un palo afilado o le infringían cualquier otro daño. Se decía que ese daño se infringiría entonces en la persona que representaba la figura. Los observadores descubrieron que a menudo la persona en cuestión caía enferma o quedaba en estado letárgico, e incluso a veces moría.

Hoy en día hay variantes positivas de la magia simpática, cada vez más ampliamente conocidas y practicadas. Una variante es la rama de la medicina alternativa conocida como cura espiritual. El curandero actúa en el organismo de su paciente con medios «espirituales», esto es, enviando información o fuerzas sanadoras. El curandero y su paciente pueden estar frente a frente o a kilómetros de distancia; la distancia no parece alterar el resultado. La efectividad de esta clase de curas puede ser sorprendente, pero está bien documentada. El conocido médico estadounidense Larry Dossey llama a la forma correspondiente de la práctica médica como «Era III de la medicina no-local», sugiriendo que ésta sucede a la Era I de la medicina bioquímica y a la Era II de la medicina psicosomática.

Otra forma de magia simpática orientada positivamente es la curación mediante una oración intercesora. La eficacia de la oración es bien conocida por la gente de creencias religiosas y sus comunidades desde hace cientos o incluso miles de años. Pero el mérito de demostrar que puede documentarse mediante experimentos controlados se debe al especialista en cardiología Randolph Byrd, que realizó un estudio, asistido por ordenador, de diez meses de duración de los historiales médicos de pacientes de la unidad coronaria del hospital general de San Francisco. Como publicó en el Southern Medical Journal, en 1988, Byrd formó un grupo de experimentación constituido por gente corriente, cuya única característica en común era el hábito de rezar en congregaciones católicas o protestantes. A las personas seleccionadas se les pidió que rezaran por la recuperación de un grupo de 192 pacientes. Como grupo de control se seleccionaron 210 pacientes por los que nadie rezaba. Nadie sabía a qué grupo pertenecía cada paciente, ni ellos mismos, ni las enfermeras, ni los médicos. A la gente que tenía que rezar se le dieron los nombres de los pacientes y alguna información sobre el estado de su corazón. Como cada persona tenía que rezar por varios pacientes, al final cada paciente tenía entre cinco y siete personas que rezaban por él.

Los resultados fueron significativos. El grupo por el que se rezaba tenía cinco veces menos posibilidades de necesitar antibióticos que el grupo de control (tres pacientes frente a dieciséis), tres veces menos posibilidades de desarrollar edema pulmonar (seis frente a dieciocho pacientes) y ninguno de los pacientes por los que se rezaba necesitó intubación endotraqueal (mientras que sí lo necesitaron doce pacientes del grupo de control). Además, murieron menos pacientes del grupo que recibía oraciones que del grupo de control (aunque este último resultado no era estadísticamente representativo). No importaba lo cerca o lo lejos que estuvieran los pacientes de los que rezaban por ellos, ni la manera de rezar. Solo el hecho de una plegaria concentrada y repetida constituía un factor, sin tener en cuenta a quién iba dirigida la oración o dónde tenía lugar. Un experimento posterior, realizado por un equipo de investigadores dirigidos por W.S. Harris, que estudió el efecto de la oración a distancia y que se realizó bajo condiciones aún más restrictivas, ofreció unos resultados significativamente similares.

La oración intercesora y la curación espiritual, junto con otros experimentos y prácticas mentales basadas en las buenas intenciones, arrojan una evidencia impresionante con respecto a la eficacia de la transmisión telepática y telesomática de información y energía. Las prácticas pertinentes producen efectos reales y mensurables en las personas y cada vez están más difundidas. Pero la corriente dominante de la ciencia no tiene explicación para ellas.