Y el Señor contempló Su mundo, y Se maravilló de su belleza; pues tanta era, que lloró. Era un mundo de un solo tipo de partícula y una sola fuerza, llevada por un único mensajero que era también, con divina simplicidad, la única partícula.
Y el Señor contempló el mundo que había creado y vio que además era aburrido. Así que calculó y sonrió, e hizo que Su universo se expandiese y enfriase. Y he aquí que se enfrió lo bastante para que se activase Su seguro y fiel servidor, el campo de Higgs, que antes del enfriamiento no podía soportar el increíble calor de la creación. Y bajo el influjo de Higgs, las partículas tomaron energía del campo, la absorbieron y fueron cogiendo masa. Cada una la fue cogiendo a su manera, no todas de la misma manera. Algunas cogieron una masa increíble, otras sólo una pequeña, algunas, ninguna. Y mientras antes sólo había una partícula, ahora había doce, y mientras antes el mensajero y la partícula eran lo mismo, ahora eran diferentes, y mientras antes sólo había un vehículo de la fuerza y una sola fuerza, ahora había doce vehículos y cuatro fuerzas, y mientras antes había una belleza sin fin y sin sentido, ahora había demócratas y republicanos.
Y el Señor contempló el mundo que había creado y le entró una risa totalmente incontrolable. Y llamó a Su presencia a Higgs y, reprimiendo Su alegría, habló con él con una gran seriedad y le dijo:
—¿Por qué razón habéis destruido la simetría del mundo?
Y Higgs, conmovido por la menor indicación de desaprobación, se defendió diciendo:
—¡Oh!, Jefe, no he destruido la simetría. Sólo he hecho que se oculte mediante el artificio del consumo de energía. Y al proceder así he, en efecto, hecho un mundo complicado.
—¿Quién podría haber previsto que de ese conjunto pavoroso de objetos idénticos podríamos tener núcleos y átomos y moléculas y planetas y estrellas?
—¿Quién podría haber predicho los crepúsculos y los océanos y el hervidero orgánico creado por todas esas moléculas terribles que el relámpago y el calor agitaron? ¿Y quién podría haber esperado la evolución y esos físicos que tientan y sondean y buscan para descubrir lo que yo, en Vuestro servicio, he ocultado tan cuidadosamente?
Y el Señor, que a duras penas retenía Su risa, le hizo señal a Higgs de Su perdón y de una buena subida de sueldo.
EL NOVÍSIMO TESTAMENTO 3:1
Nuestra tarea será en este capítulo convertir la poesía (¿?) del Novísimo Testamento en la dura ciencia de la cosmología de partículas. Pero justo ahora no podemos abandonar nuestra discusión del modelo estándar. Quedan unos cuantos cabos sueltos por atar, y unos pocos que no podemos atar. Aquéllos y éstos son importantes a la hora de hablar del modelo estándar y de más allá del modelo estándar, y debo contar algunos triunfos experimentales más que sentaron con firmeza nuestra visión actual del micromundo. Estos detalles dan una idea del poder del modelo y también de sus limitaciones.
Hay dos tipos de fallos preocupantes en el modelo estándar. El primero estriba en que no sea completo. El quark top no se ha encontrado aún a principios de 1993. Uno de los neutrinos (el tau) no se ha detectado directamente, y muchos de los números que nos hacen falta se conocen de forma imprecisa. Por ejemplo, no sabemos si los neutrinos tienen alguna masa en reposo. Tenemos que saber cómo la violación de la simetría CP —el proceso que originó la materia— aparece, y, lo que es más importante, hemos de introducir un nuevo fenómeno, al que llamamos campo de Higgs, para preservar la coherencia matemática del modelo estándar. El segundo tipo de defecto es puramente estético. El modelo estándar es lo bastante complicado para que a muchos les parezca sólo una estación de paso hacia una visión más simple del mundo. La idea de Higgs, y su partícula asociada, el bosón de Higgs, cuenta en todos los problemas que acabamos de listar, y tanto, que hemos titulado el libro en su honor: la Partícula Divina.
Pensad en el neutrino.
—¿En cuál de ellos?
Bueno, no importa. Tomad el neutrino electrónico —el corriente, el neutrino de la primera generación— porque es el que tiene menos masa. (A no ser, claro, que las masas de todos ellos sean nulas).
—Vale, el neutrino electrónico. No tiene carga eléctrica.
No tiene fuerza electromagnética o fuerte.
No tiene tamaño, no tiene extensión espacial. Su radio es cero. Puede que no tenga masa.
No hay nada que tenga tan pocas propiedades (excepción hecha de los decanos y de los políticos) cono el neutrino. Su presencia no es ni un suspiro.
De niños recitábamos:
Mosquito en el muro
¿No has pillado ni a uno maduro?
¿Ni a mamá? ¿Ni a papá?
Una pedorreta para ti, burro, más que burro.
Y ahora yo recito:
Pequeño neutrino del mundo
que a la velocidad de la luz echas humo
¿Sin carga, ni masa, ni una sola dimensión?
¡Qué vergüenza! Cara plantas a la buena ordenación.
Pero los neutrinos existen. Tienen una especie de localización: una trayectoria, que se encamina siempre en una sola dirección a una velocidad cercana (o igual) a la de la luz. El neutrino tiene un giro propio, un espín, pero si preguntáis qué es lo que gira, os descubriréis como unos que aún no se han limpiado de pensamientos precuánticos impuros. El espín es intrínseco al concepto de «partícula», y si la masa del neutrino es en efecto cero, su velocidad de la luz constante, sin desviaciones, y su espín se combinan para darle un nuevo atributo, cuyo nombre es quiralidad. Ésta ata para siempre la dirección del espín (su giro en el sentido de la agujas del reloj o al revés) a la dirección del movimiento. Puede tener una quiralidad «diestra», lo que quiere decir que avanza con el giro en el sentido de las agujas del reloj, o «zurda», avanzando con un giro en sentido contrario a las agujas del reloj. Detrás de esto se esconde una hermosa simetría. La teoría gauge prefiere que todas las partículas tengan masa nula y una simetría quiral universal. Otra vez esa palabra: simetría.
La simetría quiral es una de esas simetrías elegantes que describen el universo primitivo —un patrón que se repite y se repite y se repite como el papel pintado, pero sin que lo interrumpan pasillos, puertas o esquinas, indefinidamente—. No sorprende que a Él le pareciera aburrido y le ordenase al campo de Higgs que diese masas y rompiese la simetría quiral. ¿Por qué rompe la masa la simetría quiral? En cuanto una partícula tiene masa, viaja a velocidades menores que la de la luz. Entonces los observadores podríais ir más deprisa que la partícula. Y si lo hicieseis, la partícula, relativamente a vosotros, invertiría su dirección de movimiento pero no su espín, así que un objeto que para algunos observadores sería zurdo para otros sería diestro. Pero existen los neutrinos, supervivientes quizá de la guerra de la simetría quiral. El neutrino siempre es zurdo, el antineutrino siempre es diestro. Esta preferencia por una mano es una de las pocas propiedades que tiene el pobre tipejo.
¡Ah, sí!, los neutrinos tienen otra propiedad, la interacción débil. Los neutrinos salen de procesos débiles que tardan en suceder una eternidad (a veces microsegundos). Como hemos visto, pueden chocar con otra partícula. Esta colisión requiere un roce tan estrecho, una intimidad tan profunda, que es rarísima. Que un neutrino choque con dureza en una placa de acero de un par de centímetros de ancho es tan probable como tener la suerte de hallar una pequeña gema que flote al azar en la vastedad del océano Atlántico, es decir, es tan probable como encontrarla en una taza de agua del Atlántico tomada al azar. Y a pesar de toda su falta de propiedades, el neutrino tiene una enorme influencia en el curso de los acontecimientos. Por ejemplo, es la erupción de números enormes de neutrinos desde el núcleo de las estrellas lo que provoca que éstas estallen y se dispersen los elementos más pesados, recién preparados en la estrella condenada, por el espacio. Los residuos de las explosiones de ese tipo acaban por acumularse, y ello explica que en los planetas tengamos silicio, hierro y otras sustancias de provecho.
Hace poco se han venido efectuando extenuantes esfuerzos por detectar la masa del neutrino, si es que en efecto tiene alguna. Los tres neutrinos que forman parte de nuestro modelo estándar se encuentran entre los candidatos a ser lo que los astrónomos llaman la «materia oscura», un material que, dicen, impregna el universo y domina su evolución regida por la gravitación. Por ahora, todo lo que sabemos es que los neutrinos podrían tener una masa pequeña… o nula. Cero es un número tan especial que hasta la masa más insignificante, la millonésima de la de un electrón, por ejemplo, tendría una importancia teórica muy grande. Al ser parte del modelo estándar, los neutrinos y sus masas son uno de los aspectos de las preguntas por responder que aquél encierra.
Cuando un científico, de pura cepa británica, digamos, está muy, pero que muy enfadado con alguien y siente la necesidad de verter los insultos más rabiosos, le dirá en un susurro: «¡maldito aristotélico!». Esas son palabras bragadas, y un insulto más letal no cabe imaginarlo. Se le suele echar a Aristóteles la culpa (lo que seguramente no es razonable) de haber frenado el progreso de la física durante unos 2.000 años, hasta que Galileo tuvo el coraje y la seguridad suficientes para plantarle cara; avergonzó a los acólitos de Aristóteles ante las multitudes reunidas en la Piazza del Duomo, donde hoy en día la torre se inclina y la piazza se llena de vendedores de recuerdos y puestos de helados.
Hemos repasado la historia de las cosas que caen desde torres torcidas. Una pluma cae flotando, una bola de acero se precipita abajo deprisa. Esto le parecía de ley a Aristóteles, que dijo: «Lo pesado cae deprisa, lo ligero despacio». Por lo tanto, decía Ari, el reposo es «natural y preferido; el movimiento, en cambio, requiere una fuerza motriz que lo mantenga como tal movimiento». Está clarísimo, la experiencia cotidiana lo confirma y sin embargo… es erróneo. Galileo guardó su desprecio, no para Aristóteles, sino para las generaciones de filósofos que rindieron culto en el templo de Aristóteles y aceptaron sus opiniones sin ponerlas en duda.
Galileo vio que en las leyes del movimiento reinaría una profunda simplicidad con tal de que se eliminasen los factores que las complicaban, como la resistencia del aire y la fricción, que son de todas, todas, parte del mundo real pero que ocultan la simplicidad. Galileo veía las matemáticas —las parábolas, las ecuaciones cuadráticas— como la manera en que el mundo tiene que ser en realidad. Neil Armstrong, el primer astronauta que pisó la Luna, dejó caer una pluma y un martillo en la superficie lunar, donde no había aire, y enseñó a todos los espectadores del mundo el experimento de la torre. Sin resistencia, los dos objetos cayeron a la misma velocidad. Y, en efecto, una bola que ruede por una superficie horizontal lo haría para siempre si no hubiese fricción. Sobre una mesa muy pulida rueda mucho más lejos, y aún más lejos sobre una cama de aire o el hielo resbaladizo. Requiere cierta habilidad pensar abstractamente, imaginar el movimiento sin aire, sin fricción de rodadura, pero cuando uno lo logra, la recompensa es un conocimiento más profundo de las leyes del movimiento, del espacio y del tiempo.
Desde esta historia entrañable, hemos ido sabiendo más acerca de la simplicidad oculta. El estilo de la naturaleza es ocultar la simetría, la simplicidad y la belleza que se pueden describir por medio de las matemáticas abstractas. Lo que vemos ahora, en lugar de la resistencia al aire y la fricción de Galileo (y las obstrucciones políticas equivalentes), es nuestro modelo estándar. Para seguirlo hasta los años noventa, hemos de volver a los mensajeros pesados que llevan la interacción débil.
La década de 1980 empieza con una gran autocomplacencia teórica. Ahí está el modelo estándar, el resumen, en su forma original, de trescientos años de física de partículas, retando a los experimentadores a que «rellenen los huecos». Los W+, W− y el Z° no se han observado todavía, ni el quark top. El neutrino tau requiere un experimento de tres neutrinos, y se han propuesto experimentos así, pero los arreglos necesarios son complicados, con una probabilidad de éxito pequeña. No se han aprobado. Los experimentos sobre el leptón tau cargado indican con fuerza que el neutrino tau tiene que existir.
El quark top es el objeto de la investigación de todas las máquinas, lo mismo de los colisionadores de electrones y positrones que de las máquinas de protones. Una máquina flamante, Tristán, se está construyendo en Japón (Tristán: ¿qué conexión profunda hay entre la cultura japonesa y la mitología teutónica?). Es una máquina de e+ e− que puede producir el top y el anti top, tt, si la masa del quark top no es de más de 35 GeV, o siete veces más pesado que su primo, el bottom, de diferente sabor y que sólo pesa 5 GeV. El experimento y las esperanzas de Tristán, al menos hasta ahora, se han visto frustrados. El top es pesado.
En la búsqueda del W fueron los europeos quienes pusieron toda la carne en el asador, determinados a mostrar al mundo que ya eran alguien en este negocio. Para hallar el W hacía falta una máquina con la suficiente energía para producirlo. ¿Cuánta energía hacía falta? Depende de lo pesado que sea el W. En respuesta a los insistentes y convincentes argumentos de Carlo Rubbia, el CERN emprendió en 1978 la construcción de un colisionador de protones y antiprotones basado en su máquina de protones de 400 GeV.
A finales de los años setenta, los teóricos calcularon que los W y el Z eran «cien veces más pesados que el protón». (La masa en reposo del protón, acordaos, está muy cerca de un oportuno 1 GeV). Había tanta confianza en ese cálculo, que el CERN estuvo dispuesto a invertir cien millones de dólares o más en «algo que no fallase», un acelerador capaz de suministrar la energía suficiente en una colisión para hacer muchos W y Z, y unos detectores elaborados, caros, que observasen las colisiones. ¿De dónde les venía tan arrogante seguridad?
Había una euforia que nacía de la sensación de que el objetivo final, una teoría unificada, estaba al alcance de la mano. No un modelo del mundo de seis quarks y seis leptones y cuatro fuerzas, sino un modelo que quizá tendría sólo una clase de partículas y una gran —¡oh, qué grandiosa!— fuerza unificada. Sería, seguramente, la realización de la vieja idea griega, el objetivo a lo largo de todo el camino mientras pasábamos del agua al aire, a la tierra, al fuego y a los cuatro a la vez.
La unificación, la búsqueda de una teoría simple y que lo abarque todo, es el Santo Grial. Einstein, prontísimo, en 1901 (a los veintidós años), escribió acerca de las conexiones entre las fuerzas moleculares (eléctricas) y la gravedad. De 1925 hasta su muerte en 1955 persiguió en vano una fuerza unificada del electromagnetismo y la gravedad. Este esfuerzo enorme de uno de los mayores físicos de su época, o de cualquier otra, fracasó. Sabemos ahora que hay otras dos fuerzas, la débil y la fuerte. Sin esas fuerzas, los esfuerzos de Einstein en pos de la unificación estaban condenados. La segunda razón más importante del fracaso de Einstein era su divorcio del logro central de la física del siglo XX (al que él contribuyó decisivamente en su fase de formación), la teoría cuántica. No aceptó nunca esas ideas radicales y revolucionarias, que proporcionaron el marco para la unificación de todas las fuerzas. En los años sesenta, se habían formulado tres de las cuatro fuerzas en la forma de una teoría cuántica de campos, y se la había refinado hasta un punto que clamaba por la «unificación».
Todos los teóricos profundos la persiguieron. Me acuerdo de un seminario en Columbia, a principios de los años cincuenta, cuando Heisenberg y Pauli presentaron su nueva teoría unificada de las partículas elementales. En la primera fila estaban Niels Bohr, I. I. Rabi, Charles Townes, T. D. Lee, Polykarp Kusch, Willis Lamb y James Rainwater, el contingente de laureados presentes y futuros. Los posdoctorados, los que habían tenido un contacto que les invitase, violaban todas las normas contra incendios. Los estudiantes graduados colgaban de ganchos especiales clavados en las vigas del techo. Estaba abarrotado. La teoría me superaba, pero que no la entendiese no quiere decir que fuese incorrecta. La puntilla final de Pauli fue un reconocimiento. «Ya, es una locura de teoría». El comentario de Bohr desde el público, que todos recuerdan, fue algo del estilo de: «El problema de esta teoría es que no es lo suficientemente loca». La teoría se esfumó como tantos otros intentos valientes; Bohr tuvo, una vez más, razón.
Una teoría de las fuerzas que se tenga en pie tiene que cumplir dos criterios: debe ser una teoría cuántica de campos que incorpore la teoría de la relatividad especial y una simetría gauge. Esta última característica y, por lo que sabemos, sólo ella, garantiza que la teoría sea coherente matemáticamente, renormalizable. Pero hay mucho más; ese asunto de la simetría gauge tiene un hondo atractivo estético. Curiosamente, la idea procede de una fuerza que no se ha formulado aún como teoría cuántica de campos: la gravedad. La gravedad de Einstein (en contraposición a la de Newton) sale del deseo de conseguir que las leyes de la física sean las mismas para todos los observadores, tanto los que estén en reposo como los que se encuentren en sistemas acelerados y en presencia de campos gravitatorios, como pasa en la superficie de la Tierra, que rota a 1.500 kilómetros por hora. En un laboratorio rotativo como este, aparecen fuerzas que hacen que los experimentos salgan de forma muy diferente a como habrían salido en un laboratorio que se moviera de una manera constante —no acelerada—. Einstein anduvo tras leyes que tuviesen el mismo aspecto para todos los observadores. Este requisito de «invariancia» que Einstein le impuso a la naturaleza en su teoría de la relatividad general (1915) implicaba lógicamente la existencia de la fuerza gravitatoria. ¡Lo digo tan deprisa, pero he tenido que trabajar tanto para entenderlo! La teoría de la relatividad contiene una simetría incorporada que implica la existencia de una fuerza de la naturaleza; en este caso, la gravitación.
De manera análoga, la simetría gauge, que implica una invariancia más abstracta impuesta a las ecuaciones pertinentes, genera también, en cada caso, las fuerzas electromagnética, débil y fuerte.
Estamos en el umbral del camino privado que conduce a la Partícula Divina. Debemos repasar varias ideas. Una de ellas guarda relación con las partículas de la materia: los quarks y los leptones. Todas tienen un espín de un medio en las curiosas unidades cuánticas del espín. Y están los campos de fuerza, que también se pueden representar por medio de partículas: los cuantos del campo. Todas esas partículas tienen espín entero, un espín de una unidad. No son sino las partículas mensajeras y los bosones gauge de los que hemos hablado a menudo: los fotones, los W y el Z y los gluones, todos descubiertos y sus masas, medidas. Para que esta serie de partículas materiales y vehículos de la fuerza tenga sentido, reconsideremos los conceptos de invariancia y simetría.
Hemos revoloteado alrededor de esta idea de la simetría gauge porque es muy difícil, quizá imposible, explicarla por completo. El problema es que este libro está en lenguaje escrito, y el lenguaje de la teoría gauge es el de las matemáticas. En el lenguaje escrito hemos de recurrir a las metáforas. Más revoloteo, pero quizá sirva.
Por ejemplo, una esfera tiene una simetría perfecta ya que podemos girarla el ángulo que sea alrededor del eje que sea sin producir cambio alguno en el sistema. El acto de la rotación se puede describir matemáticamente; tras la rotación, la esfera se puede describir con una ecuación que es idéntica en cada detalle a la ecuación antes de la rotación. La simetría de la esfera conduce a la invariancia de las ecuaciones que describen la esfera ante la rotación.
Pero ¿a quién le interesan las esferas? El espacio vacío también es rotacionalmente invariante, como la esfera. Por lo tanto, las ecuaciones de la física deben ser rotacionalmente invariantes. En términos matemáticos, esto quiere decir que si rotamos un sistema de coordenadas x-y-z un ángulo cualquiera alrededor de cualquier eje, ese ángulo no aparecerá en la ecuación. Hemos discutido otras simetrías así. Por ejemplo, se puede mover un objeto situado en una superficie plana infinita una distancia cualquiera en la dirección que sea y el sistema será idéntico (invariante) al que se tenía antes del movimiento. A este movimiento del punto A al B se le llama traslación, y creemos que el espacio también es invariante bajo traslaciones; es decir, si le añadimos 12 metros a todas las distancias, el 12 se caerá de nuestras ecuaciones. Es decir, por seguir con la letanía, las ecuaciones de la física deben exhibir la invariancia ante las traslaciones. Para completar esta historia, de la simetría conservación, tenemos la ley de la conservación de la energía. Curiosamente, la simetría con la que se asocia tiene que ver con el tiempo, es decir, con el hecho de que las leyes de la física sean invariantes bajo una traslación temporal. Esto quiere decir que en las ecuaciones de la física, si añadimos un intervalo constante de tiempo, digamos 15 segundos, allá donde aparezca el tiempo, la adición será eliminada y la ecuación permanecerá invariante bajo ese desplazamiento.
Ahora viene la frase brillante. La simetría descubre rasgos nuevos de la naturaleza del espacio. Ya me he referido antes a Emmy Noether en este libro. Su contribución de 1918 fue la siguiente: para cada simetría (que se manifiesta en la incapacidad de las ecuaciones básicas para dar señal de, por ejemplo, las rotaciones espaciales y las traslaciones y la traslación temporal), hay ¡una ley de conservación correspondiente! Ahora bien, las leyes de conservación se pueden contrastar experimentalmente. El trabajo de Noether conectó la invariancia traslacional a la bien comprobada ley de la conservación del momento, la invariancia rotacional a la conservación del momento angular y la invariancia ante la traslación temporal a la conservación de la energía. Entonces, invirtiendo el razonamiento lógico, estas leyes de conservación inexpugnables experimentalmente nos hablan de las simetrías que respetan el espacio y el tiempo.
La conservación de la paridad discutida en el interludio C es un ejemplo de una simetría discreta que se aplica al dominio cuántico microscópico. La simetría especular equivale literalmente a una reflexión en un espejo de todas las coordenadas de un sistema físico. Matemáticamente equivale a cambiar todas las coordenadas z por −z, donde z apunta hacia el espejo. Como hemos visto, aunque las fuerzas electromagnética y fuerte respetan esta simetría, la débil no, lo que, claro está, nos dio una alegría infinita allá por 1957.
Hasta aquí, casi toda la materia es de repaso y la clase lo hace bien. (Lo noto). Vimos en el capítulo 7 que puede haber simetrías más abstractas, que no están relacionadas con la geometría, de la que nuestros ejemplos anteriores han venido dependiendo. Nuestra mejor teoría cuántica de campos, la QED, resulta que es invariante con respecto a lo que a primera vista parece un cambio espectacular de la descripción matemática: no con respecto a una rotación geométrica, una traslación o una reflexión, sino bajo un cambio más abstracto en la descripción del campo.
El nombre del cambio es transformación gauge, y no merece la pena la ansiedad matemática que provocaría cualquier descripción más detallada. Baste decir que las ecuaciones de la electrodinámica cuántica (QED) son invariantes bajo las transformaciones gauge. Se trata de una simetría muy poderosa, en el sentido de que cabe derivar de ella sola todas las propiedades del electromagnetismo. Históricamente no se hizo así, pero hay textos para licenciados que proceden hoy de esa forma. La simetría asegura que el vehículo de la fuerza, el fotón, carece de masa. Como la carencia de masa se conecta con la simetría gauge, al fotón se le llama «bosón gauge». (Recordad que «bosón» es la denominación de las partículas, a menudo mensajeras, que tienen espín entero). Y como se ha mostrado que la QED, la interacción fuerte y la débil se describen con ecuaciones que exhiben simetría gauge, todos los vehículos de la fuerza —los fotones, los W y el Z y los gluones— se llaman bosones gauge.
Los treinta años de esfuerzo estéril de Einstein por hallar una teoría unificada fueron dejados atrás a finales de los años sesenta por el éxito que tuvieron Glashow, Weinberg y Salam al unificar las interacciones débil y electromagnética. La principal consecuencia de la teoría fue la existencia de una familia de partículas mensajeras: el fotón, el W+, el W− y el Z°.
Ahora suena el tema de la Partícula Divina. ¿Cómo tenemos W y Z pesados en una teoría gauge? ¿Cómo pertenecen a una misma familia objetos tan dispares como el fotón sin masa y los pesados W y Z? Las enormes diferencias de masa explican las grandes diferencias entre las naturalezas de las fuerzas electromagnética y débil.
Volveremos a esta irritante introducción luego; demasiada teoría extenúa mi espíritu. Y además, antes de que los teóricos puedan salir con la respuesta a esas preguntas, hemos de hallar el W. Como que se esperan.
Así que el CERN puso su dinero (o más exactamente, se lo dio a Carlo Rubbia) y la persecución del W se puso en marcha. Debería señalar que si el W tiene unos 100 GeV de masa, hace falta una energía disponible de colisión mucho mayor que 100 GeV. Un protón de 400 GeV que choque con un protón en reposo no vale, pues entonces sólo hay 27 GeV disponibles para formar partículas nuevas. El resto de la energía se usa para conservar el momento. Por eso propuso Rubbia la vía del colisionador. Su idea consistía en hacer una fuente de antiprotones valiéndose del inyector del Supersincrotrón de Protones (SPS) del CERN, de 400 GeV, para fabricar p-barras. Cuando se hubiese acumulado un número adecuado, los metería en el anillo de imanes del SPS, más o menos como hemos explicado en el capítulo 6.
Al contrario que el posterior Tevatrón, el SPS no era un acelerador superconductor. Ello significaba que su energía máxima estaba limitada. Si se aceleraban ambos haces, el de protones y el de antiprotones, hasta toda la energía que podía dar el SPS, 400 GeV, se tendrían disponibles 800 GeV, una cantidad enorme. Pero la energía elegida fue de 270 GeV por haz. ¿Por qué no 400 GeV? Primero, porque entonces los imanes habrían tenido que llevar una corriente alta durante mucho tiempo —horas— en el periodo de las colisiones. Los imanes del CERN no estaban diseñados para esto y se recalentarían. Segundo, porque mantener el tiempo que sea un campo intenso es caro. Los imanes del SPS se diseñaron para elevar sus campos magnéticos hasta la energía máxima de 400 GeV durante unos pocos segundos, mientras se entregaban los haces a unos usuarios que hacían experimentos de blanco fijo, y luego reducían el campo a cero. La idea de Rubbia de hacer que chocasen dos haces era ingeniosa, pero su problema básico era que su máquina no se había diseñado originalmente para que fuera un colisionador.
Las autoridades del CERN estuvieron de acuerdo con Rubbia en que seguramente bastarían 270 GeV por haz —sumando una energía total de 540 GeV— para producir los W, que «pesan» sólo unos 100 GeV. Se aprobó el proyecto y en 1978 se concedió una cantidad apropiada de francos suizos. Rubbia formó dos equipos. El primero era un grupo de genios de los aceleradores: franceses, italianos, holandeses, ingleses, noruegos y un yanqui que los visitaba de vez en cuando. Se hablaban en un mal inglés y un impecable «aceleradorés». El segundo equipo, constituido por físicos experimentales, tenía que construir un detector muy grande, denominado UA-1 en un arrebato de imaginación poética, para observar las colisiones entre los protones y los antiprotones.
En el grupo del acelerador de p barras, un ingeniero holandés, Simon Van der Meer, había inventado un método para comprimir los antiprotones en un volumen pequeño del anillo de almacenamiento que acumula objetos tan escasos. Este invento, el «enfriamiento estocástico», como se le llamó, fue la clave para conseguir los bastantes p barras como para que hubiera un número respetable de colisiones p/p barra, es decir, unas 50.000 por segundo. Rubbia, técnico soberbio, apresuró a su grupo, escogió a sus miembros, se encargó de la mercadotecnia, las llamadas y la propaganda. Su técnica: tener labia, viajar lo que haga falta. Sus presentaciones son de estilo metralleta, con cinco transparencias proyectadas por minuto, una mezcla indisociable de exageración, prepotencia, ampulosidad y sustancia.
En la física hay muchos a quienes Carlo Rubbia les parece un científico de proporciones heroicas. Me tocó hacer su presentación antes de que pronunciase el discurso del banquete en una reunión internacional en Santa Fe con una asistencia notable. (Fue después de que hubiese ganado el premio Nobel por haber hallado el W y el Z.) Le presenté con un cuento.
En las ceremonias del Nobel en Estocolmo, el rey Olaf coge a Carlos y se lo lleva aparte, y le dice que hay un problema. Por culpa de una chapuza, sólo se dispone ese año de una medalla. Para determinar qué laureado se merece el oro, el rey ha dispuesto tres tareas heroicas, a afrontar en tres tiendas levantadas en el campo, a la vista de todos. En la primera, se le dice a Carlo, encontrará cuatro litros de slivovitz muy destilado, el brebaje que ayudó a disolver Bulgaria. El tiempo asignado para tomárselo todo es de ¡20 segundos! En la segunda tienda hay un gorila que lleva tres días sin comer y sufre de la muela del juicio. La tarea: sacársela. Tiempo: 40 segundos. La tercera tienda oculta a la cortesana más consumada del ejército iraquí. La tarea: satisfacerla por completo. Tiempo: 60 segundos.
Cuando se dispara la pistola de salida, Carlo se mete en la primera tienda. Todos le oyen tragar y, en 18,6 segundos, se muestran triunfalmente cuatro botellas vacías de slivovitz. Sin perder tiempo, el mítico Carlo corre a la segunda tienda, y de allí salen unos rugidos enormes, ensordecedores, que todos oyen. Luego reina el silencio. Y en 39,1 segundos sale pegando tumbos, se tambalea hasta el micrófono y pide: «Muy bien, ¿dónde está el gorila con el dolor de muelas?».
El público, quizá porque el vino del congreso corría con generosidad, se desternilló. Por último presenté a Carlo, y cuando pasó junto a mí camino del atril, me susurró: «No lo he cogido. Explícamelo luego».
Rubbia no aguantaba de buena gana a los tontos, y su férreo control generó resentimientos. Algún tiempo después de su triunfo, Gary Taubes escribió un libro sobre él, Nobel Dreams, que no era halagador. Una vez, en una escuela de invierno, Carlo estaba entre el público, anuncié que se habían vendido los derechos para el cine del libro y que Sidney Greenstreet había firmado el contrato para hacer el papel de Rubbia. Alguien me señaló que Sidney Greenstreet estaba muerto pero que, si no, habría sido una buena elección. En otra reunión, un congreso de verano en Long Island, alguien escribió en la pizarra: «No nadar. Carlo está usando el océano».
Rubbia empujó con fuerza en todos los frentes de la búsqueda del W. No paraba de urgir a los constructores de los detectores para que ensamblasen el imán monstruoso que detectaría y analizaría los sucesos de cincuenta o sesenta partículas que saldrían de las colisiones frontales de los protones de 270 GeV con los antiprotones de 270 GeV. No estaba menos al tanto de la construcción del acumulador de antiprotones, o anillo AA, ni era menos activo en ella; se trataba del dispositivo que pondría en acción la idea de Van der Meer y produciría una fuente intensa de antiprotones para su inserción y aceleración en el anillo SPS. El anillo había de tener cavidades de radiofrecuencias, un enfriamiento por agua más poderoso y una sala de interacción, con un instrumental especial, donde se pudiese ensamblar el detector UA-1. Las autoridades del CERN aprobaron un detector competidor, el UA-2, claro, para que Rubbia tuviese que ser sincero y cubrirse un poco las espaldas. El UA-2 fue la rara avis del asunto, pero el grupo que lo construyó era joven y entusiasta. Limitados por un presupuesto menor, diseñaron un detector muy diferente.
El tercer frente de Rubbia era el de mantener el entusiasmo de las autoridades del CERN, agitar a la comunidad mundial y poner el escenario para el gran experimento del W. Toda Europa se moría por éste, porque suponía la puesta de largo de la ciencia europea. Un periodista afirmó que un fracaso aplastaría a «papas y primeros ministros».
El experimento estaba en marcha en 1981. Todo estaba en su sitio —el UA-1, el UA-2, el anillo AA—, comprobado y listo. Las primeras sesiones, diseñadas como pruebas de comprobación de todas las partes del complejo sistema que formaban el colisionador y el detector, fueron razonablemente fructíferas. Hubo averías, equivocaciones, accidentes pero, al final, ¡datos! Y todo a un nivel nuevo de complejidad. El Congreso Rochester de 1982 se iba a celebrar en París, y el CERN, el laboratorio entero, se puso a obtener resultados.
Paradójicamente, el UA-2, el detector de última hora, consiguió el primer exitazo al observar chorros, los estrechos manojos de hadrones que son la huella de los quarks. Al UA-1, que todavía estaba aprendiendo, se le escapó este descubrimiento. Cuando David bate a Goliat, todos se regocijan, menos Goliat. En este caso Rubbia, que odia perder, reconoció que la observación de los chorros fue un verdadero triunfo del CERN, que todo ese esfuerzo en máquinas, detectores y programas de ordenador había rendido el fruto de un indicador sólido. ¡Todo funcionaba! Si se habían visto los chorros, pronto se verían los W.
Quizá un viaje fantástico pueda ilustrar mejor cómo funcionan los detectores. Me paso aquí al detector CDF del Fermilab porque es más moderno que el UA-1, aunque la idea general de todos los detectores «cuatro pi» es la misma. (Cuatro pi —4π— quiere decir que el detector rodea por completo el punto de colisión). Recordad que cuando chocan un protón y un antiprotón, brota un surtidor de partículas desperdigadas en todas las direcciones. En promedio, un tercio son neutras, las demás cargadas. La tarea es hallar con exactitud el lugar adonde va a parar cada partícula y qué hacen. Como pasa con cualquier observación física, uno tiene éxito sólo parcialmente.
Subámonos en una partícula. La de la traza número 29, por ejemplo. A toda pastilla, se desvía en cierto ángulo de la línea de la colisión, se encuentra con la fina pared metálica de la vasija de vacío (el tubo del haz), la atraviesa, sin despeinarse, y a lo largo del medio metro siguiente o así pasa a través de un gas que contiene un número inmenso de hilos de oro finísimos. Aunque no haya señal que lo diga, este es el territorio de Charpak. La partícula pasará seguramente cerca de unos cuarenta a cincuenta hilos antes de llegar al final de la cámara de seguimiento. Si la partícula está cargada, cada cable cercano registra su paso, junto con una estimación de lo cerca que ha pasado. La información de los hilos acumulada define el camino de la partícula. Como la cámara de hilos está en un fuerte campo magnético, el camino de la partícula cargada se curva, y una medición de esta curva, calculada por el ordenador de a bordo, le da al físico el momento de la partícula número 29.
La partícula atraviesa a continuación la pared cilíndrica que define la cámara magnética de hilos y entra en un «sector calorimétrico», donde se le mide la energía. Qué hace entonces la partícula depende de qué sea. Si es un electrón, va perdiendo su energía en una serie de placas delgadas de plomo espaciadas muy estrechamente, y la deja toda a los sensibles detectores que dan de comer a los emparedados de plomo. El ordenador observa que el progreso de la número 29 acaba a los ocho o diez centímetros del calorímetro de centelleo de plomo, y concluye: ¡un electrón! Si, en cambio, la número 29 es un hadrón, penetra de veinticinco a cincuenta centímetros en el material del calorímetro antes de agotar toda su energía. En ambos casos se mide la energía y se contrasta con la medición del momento, determinada por la curvatura de la trayectoria de la partícula en el imán. Pero el ordenador deja graciosamente al físico que saque una conclusión.
Si la número 29 es una partícula neutra, la cámara de seguimiento no la registra en absoluto. Cuando pasa al calorímetro, su comportamiento es esencialmente el mismo que el de una partícula cargada. En ambos casos, la partícula produce colisiones nucleares con los materiales del calorímetro, y los residuos producen nuevas colisiones hasta que se acaba toda la energía original. Podemos, pues, registrar y medir las partículas neutras, pero no hacer un diagrama de su momento, y perdemos precisión en la dirección del movimiento pues no deja ninguna traza en la cámara de hilos. Una partícula neutra, el fotón, se puede identificar con facilidad por la relativa rapidez con que la absorbe el plomo, como pasa con el electrón. Otra partícula neutra, el neutrino, abandona por completo el detector llevándose su energía y su momento sin dejar atrás ni siquiera una pizca de su fragancia. Finalmente, el muón se mueve por el calorímetro dejando un poco de energía (no sufre colisiones nucleares fuertes). Cuando sale, se encuentra con de tres cuartos de metro a metro y medio de hierro, que atraviesa sólo para toparse con un detector de muones (cámaras de hilos o contadores de centelleo). Así se les sigue la pista a los muones.
Se hace esto con todas y cada una de las cuarenta y siete partículas, o el número que sea, de ese suceso en particular. El sistema almacena los datos, cerca de un millón de bits de información —equivalente a la información de un libro de cien páginas— por cada suceso. El sistema de recogida de datos debe decidir velozmente si este suceso es interesante o no; debe descartarlo o registrarlo, o pasar los datos a un «buffer» de memoria y borrar todos los registros para que cuando llegue el siguiente suceso esté listo, lo que, en promedio, si la máquina funciona muy bien, ocurrirá en una millonésima de segundo. En la sesión completa más reciente del Tevatrón (1990-1991), la cantidad total de información fue equivalente al texto de un millón de novelas o cinco mil colecciones de la Encyclopaedia Britannica.
Entre las partículas que salen hay algunas cuyas vidas medias son muy cortas. Quizá se muevan sólo unos pocos milímetros desde el punto de colisión en el tubo del haz antes de desintegrarse espontáneamente. Los W y los Z viven tan poco que su distancia de vuelo no se puede medir, y hay que identificar su existencia a partir de las mediciones que se hacen sobre las partículas a las que dan lugar y que a menudo están ocultas entre los residuos que salen disparados de cada colisión. Como el W tiene mucha masa, los productos de desintegración tienen una energía mayor que la media, lo que sirve para localizarlos. Partículas tan exóticas como el quark top o la partícula de Higgs tendrán un conjunto de modos esperados de desintegración que deberá extraerse del barullo de las partículas que salen.
El proceso de convertir un número enorme de bits de datos electrónicos en conclusiones acerca de la naturaleza de las colisiones requiere unos esfuerzos impresionantes. Hay que comprobar y calibrar decenas de miles de señales; hay que inspeccionar decenas de miles de líneas de código, y verificarlas observando sucesos que han de «tener sentido». Poco sorprende que a un batallón de profesionales (aun cuando quizá se les clasifique oficialmente como estudiantes graduados o posdoctorados) muy dotados y motivados, armados con estaciones de trabajo poderosas y códigos de análisis bien afinados, les lleve dos o tres años dar cuenta de los datos reunidos en una sesión del colisionador Tevatrón.
En el CERN, pioneros de la física de los colisionadores, todo salió bien, y el diseño se validó. En enero de 1983, Rubbia anunció el W. La señal consistió en cinco sucesos claros que podían interpretarse sólo como la producción y desintegración subsecuente de un objeto W.
Un día después o así, el UA-2 anunció que tenía cuatro sucesos más. En ambos casos, los experimentadores tuvieron que abrirse paso entre un millón de colisiones que produjeron toda suerte de residuos nucleares. ¿Cómo convencer a uno mismo y a la multitud de escépticos?
La desintegración concreta del W que se presta más a ser descubierta es W+ → e+ + neutrino, o W− → e− + antineutrino. En un análisis detallado de este tipo de suceso hay que verificar 1) que la traza simple observada es en efecto la de un electrón y no otra cosa, y 2) que la energía del electrón viene a ser alrededor de la mitad de la masa del W. Cabe deducir el «momento perdido» que se lleva el neutrino invisible sumando todos los momentos vistos en el suceso y comparándolos con «cero», que es el momento del estado inicial de las partículas que chocan. Facilitó mucho el descubrimiento el feliz accidente de que los parámetros del colisionador del CERN sean tales que el W se forme casi en reposo. Para descubrir una partícula, hay que satisfacer muchas condiciones. Una importante es que todos los sucesos candidatos ofrezcan el mismo valor (dentro de los errores de medición alcanzables) de la masa del W.
A Rubbia se le concedió el honor de presentar sus resultados a la comunidad del CERN, y, lo que no es propio de él, estaba nervioso: se habían invertido ocho años de trabajo. Su charla fue espectacular. Tenía todas las bazas en la mano, y además la suficiente capacidad de dar espectáculo como para comunicarlas con una lógica apasionada (¡!). Hasta quienes odiaban a Rubbia se alegraron. Europa tenía su premio Nobel, que se concedió como era debido a Rubbia y Van der Meer en 1985.
Unos seis meses tras el éxito del W, apareció el primer indicio de la existencia del compañero neutro, el Z cero. Con carga eléctrica nula, se desintegra, entre otras posibilidades, en un e+ y un e− (o un par de muones, μ+ y μ−). ¿Por qué? Para quienes se hayan quedado dormidos durante el capítulo previo, como el Z es neutro, las cargas de sus productos de desintegración deben anularse mutuamente, así que los productos lógicos de su desintegración son las partículas de cargas opuestas. Como se pueden medir con precisión tanto los pares de electrones como los pares de muones, el Z° es una partícula más fácil de reconocer que el W. El problema es que el Z° es más pesado que el W, y se producen pocos. Con todo, a finales de 1983 quedó establecida la existencia del Z° tanto por el UA-1 como por el UA-2. Con el descubrimiento de los W y del Z° y la determinación de que sus masas eran precisamente las predichas, la teoría electrodébil —que unificaba el electromagnetismo y la interacción débil— se confirmó sólidamente.
A la altura de 1992, el UA-1, el UA-2 y la nueva criatura, el CDF, en el Tevatrón del Fermilab, habían recogido decenas de miles de W. Ahora se sabe que la masa del W es de unos 79,31 GeV. Se recogieron unos dos millones de Z° en la «fábrica de Z°» del CERN, el LEP (el Gran Anillo de Almacenamiento de Electrones y Positrones), un acelerador de unos veintisiete kilómetros de circunferencia. La masa que se le ha medido al Z° es de 91,175 GeV.
Algunos aceleradores se convirtieron en fábricas de partículas. Las primeras —en Los Álamos, Vancouver y Zurich— producían piones. Canadá está diseñando en estos momentos una fábrica de kaones. España quiere una fábrica de tau-encanto. Hay tres o cuatro propuestas de fábricas de beauty o bottom, y la fábrica de Z° del CERN estaba, en 1992, en plena producción. A un proyecto de Z° de menor calibre en el SLAC se le podría llamar más apropiadamente un desván o quizás una boutique.
¿Por qué fábricas? El proceso de producción se puede estudiar en gran detalle, y hay, en especial para las partículas de mayor masa, muchos modos de desintegración. Se quieren muestras de un montón de miles de sucesos de cada uno de ellos. En el caso del pesado Z°, hay un número enorme de modos, de los cuales se aprende mucho acerca de las fuerzas electrodébiles y débiles. También se aprende gracias a lo que no existe. Por ejemplo, si la masa del quark top es menos de la mitad de la que tiene el Z°, entonces tendremos (obligatoriamente) que Z° → top + antitop. Es decir, un Z cero puede desintegrarse, si bien raramente, en un mesón, compuesto por un quark top vinculado a un quark antitop. Es mucho más probable que el Z° se desintegre en pares de electrones o de muones o de quarks bottom, como se ha mencionado. El éxito de la teoría en la explicación de esos pares nos anima a creer que es predecible la desintegración del Z° en top/antitop. Decimos que es obligatoria a causa de la regla totalitaria de la física. Si hacemos suficientes Z, deberíamos, según las probabilidades de la teoría cuántica, ver pruebas del quark top. Pero en los millones de Z° producidos en el CERN, el Fermilab y en otras partes, nunca hemos visto esa desintegración concreta. Esto nos dice algo importante acerca del quark top. Tiene que ser más pesado que la mitad de la masa del Z°. Por esa razón no puede producirlo el Z°.
Los teóricos que siguen una senda u otra hacia la unificación han propuesto un espectro muy amplio de partículas hipotéticas. Lo usual es que el modelo especifique bien las propiedades de esas partículas, menos la masa. Que no se vean estas «exóticas» pone un límite inferior a sus masas, según la regla de que cuanto mayor es la masa más cuesta producir la partícula.
En esto hay implícito un poco de teoría. El teórico Lee dice: una colisión p/p barra producirá una partícula hipotética —llamadla leeón— si en la colisión hay la suficiente energía. Pero la probabilidad o frecuencia relativa de producción del leeón depende de su masa. Cuando más pesado sea, menos frecuentemente se producirá. El teórico se apresura a ofrecer un gráfico que relaciona el número de leeones producidos por día con la masa de la partícula. Por ejemplo: masa = 20 GeV, 1.000 leeones (marea); 30 GeV, 2 leeones; 50 GeV, una milésima de leeón. En el último caso habría que dejar funcionar el equipo mil días para conseguir un suceso, y los experimentadores suelen insistir en que haya al menos diez, pues tienen problemas adicionales con la eficiencia y los sucesos de fondo. Así que tras una sesión dada, de 150 días, digamos (una sesión de un año), en la que no se encuentran sucesos, se mira la curva, se sigue por ella hasta donde deberían haberse producido, por ejemplo, diez sucesos, que corresponden a una masa de, digamos, 40 GeV para el leeón. Una evaluación conservadora establece que podrían haberse perdido unos cinco sucesos. La curva, pues, nos dice que si la masa fuese de 40 GeV, habríamos visto una señal débil de unos cuantos sucesos. Pero no vemos nada. Conclusión: la masa es mayor que 40 GeV.
¿Qué se hace a continuación? Si el leeón o el quark top o el Higgs merecen la pena, se puede escoger entre tres estrategias. La primera, hacer sesiones más largas, pero esta es una manera costosa de mejorar. La segunda, conseguir más colisiones por segundo; es decir, aumentar la luminosidad. ¡Es un buen camino! Eso es exactamente lo que el Fermilab hace en los años noventa; el objetivo es mejorar el ritmo de colisiones unas cien veces. Mientras haya energía de sobra para las colisiones (1,8 TeV es energía de sobra), aumentar la luminosidad es útil. La tercera estrategia es aumentar la energía de la máquina, lo que incrementa la probabilidad de que se produzcan todas las partículas pesadas. Esa es la vía del Supercolisionador.
Con el descubrimiento del W y del Z, hemos identificado seis quarks, seis leptones y doce bosones gauge (partículas mensajeras). Hay alguna cosa más en el modelo estándar que todavía no hemos abordado del todo, pero antes de que nos acerquemos a este misterio, tenemos que insistir en el modelo. El escribirlo con tres generaciones por lo menos le da un patrón. Percibimos además algunos otros patrones. Las generaciones son sucesivamente más pesadas, lo que significa mucho en nuestro frío mundo de hoy, pero no cuando el mundo era joven y muy caliente. Todas las partículas del universo, cuando era muy joven, tenían unas energías enormes, miles y miles de millones de TeV, así que la pequeña diferencia entre las masas en reposo del quark top y el quark up no significarían por entonces mucho. Todos los quarks, los leptones y demás estuvieron una vez en pie de igualdad. Por alguna razón, Él los necesitaba y amaba a todos. Así que tenemos que tomárnoslos a todos en serio.
Los datos del Z° del CERN sugieren otra conclusión: es muy improbable que tengamos una cuarta o quinta generación de partículas. ¿Cómo es posible una conclusión así? ¿Cómo pudieron esos científicos que trabajan en Suiza, encandilados por las montañas de cumbres nevadas, por los lagos profundos y gélidos y los magníficos restaurantes, llegar a semejante conclusión?
El argumento es muy claro. El Z° tiene una multitud de modos de desintegración, y cada modo, cada posibilidad de desintegración, acorta su vida un poco. Si hay muchas enfermedades, enemigos y riesgos la vida humana también se acorta. Pero esta es una comparación macabra. Cada oportunidad de desintegrarse abre un canal o vía para que el Z° se sacuda este anillo mortal. La suma total de todas las vías determina la vida media. Fijémonos en que no todos los Z° tienen la misma masa. La teoría cuántica nos explica que si una partícula es inestable —no vive para siempre—, su masa ha de ser un tanto indeterminada. Las relaciones de Heisenberg nos dicen cómo afecta la vida media a la distribución de masa: vida media larga, anchura pequeña; vida media corta, anchura grande. En otras palabras, cuanto más corta es la vida media, menos determinada está la masa y más amplio es el intervalo en el que se distribuye. Los teóricos, felizmente, nos dan una fórmula para ese nexo. Es fácil medir la anchura de la distribución si se tienen muchos Z° y cien millones de francos suizos para construir un detector.
El número de los Z° producidos es cero si la suma de las energías de los e+ y los e− en la colisión es sustancialmente menor que la masa media del Z°, 91,175 GeV. El operario aumenta la energía de la máquina hasta que cada uno de los detectores registre una producción pequeña de Z°. Auméntese la energía de la máquina, y aumentará la producción. Es una repetición del experimento J/psi del SLAC, pero aquí la anchura es de unos 2,5 GeV; es decir, se halla un pico a 91,175, que se queda en cada ladera en la mitad, más o menos, a los 89,9 y 92,4 GeV. (Si os acordáis, la anchura del J/psi era mucho más pequeña: alrededor de 0,05 MeV). La curva con forma de campana nos da una anchura, que equivale de hecho a la vida media de la partícula. Cada modo de desintegración posible del Z° disminuye su vida media y aumenta la anchura en unos 0,20 GeV.
¿Qué tiene que ver todo esto con una cuarta generación? Observemos que cada una de las tres generaciones tiene un neutrino de poca (o ninguna) masa. Si hay una cuarta generación con un neutrino de poca masa, entonces el Z° tiene que incluir entre sus modos de desintegración al neutrino υx, y su antipartícula υx, de esa nueva generación. Esta posibilidad sumaría 0,17 GeV a la anchura. Por eso se estudió cuidadosamente la anchura de la distribución de masa del Z°. Y resultó que era exactamente la predicha por el modelo estándar de tres generaciones. Los datos sobre la anchura del Z° excluyen la existencia de un neutrino de poca masa de cuarta generación. Los cuatro experimentos del LEP coincidieron armoniosamente; los datos de cada uno de ellos permitían sólo tres pares de neutrinos. Una cuarta generación con la misma estructura que las otras tres, incluyendo un neutrino de masa nula o pequeña, queda excluida por los datos de producción del Zº.
Dicho sea de paso, los cosmólogos habían enunciado la misma conclusión años atrás. Ellos la basaban en la manera en que los neutrones y los protones se combinaron para formar los elementos químicos durante una fase primitiva de la expansión y enfriamiento del universo tras aquella inmensa explosión. La cantidad de hidrógeno, comparada con la de helio, depende (no lo explicaré) de cuántas especies de neutrinos hay, y los datos de las abundancias indicaban con fuerza que hay tres. Las investigaciones del LEP, pues, son importantes para nuestro conocimiento de la evolución del universo.
Bueno, aquí estamos, con un modelo estándar casi completo. Sólo falta el quark top. Y el neutrino tau, pero esto es mucho menos serio, como hemos visto. Hay que posponer la gravedad hasta que los teóricos la conozcan mejor, y, claro, falta el Higgs, la Partícula Divina.
En 1990, cuando se estaban realizando sesiones tanto en el colisionador de p barra/p del CERN como en el CDF del Fermilab, se emitió un programa NOVA de televisión titulado «La carrera hacia el quark top». EL CDF tenía la ventaja de una energía tres veces mayor, 1,8 TeV, contra 620 GeV del CERN. El CERN, gracias a un enfriamiento un poco mejor de sus bobinas de cobre, había logrado aumentar la energía de sus haces de 270 GeV a 310 GeV, exprimiendo hasta la última pizca de energía que se pudiese sacar para ser más competitivos. Pero de todas formas un factor de tres duele. La ventaja del CERN estribaba en nueve años de práctica, desarrollo de los programas de ordenador y experiencia en el análisis de datos. Además, habían reconstruido la fuente de los antiprotones, basándose en algunas de las ideas del Fermilab, y su ritmo de colisiones era un poco mejor que el nuestro. En 1989-1990 se retiró el detector UA-1. Rubbia era entonces director general del CERN y tenía puesta la vista en el futuro del laboratorio, y se le dio el encargo de encontrar el top al UA-2. Un objetivo secundario era medir la masa del W con mayor precisión; era un parámetro crucial del modelo estándar.
En el momento en que se emitió el NOVA, ninguno de los grupos había hallado pruebas de la existencia del top. La verdad era que, cuando el programa salió al aire, la «carrera» había ya casi terminado porque el CERN estaba a punto de tirar la toalla. Cada grupo había analizado la ausencia de señal basándose en la masa desconocida del quark top. Como hemos visto, el que no se encuentre una partícula nos dice algo de su masa. Los teóricos lo sabían todo acerca de la producción del top y sobre ciertos canales de desintegración, todo menos la masa. La probabilidad de la producción depende críticamente de la masa desconocida. El Fermilab y el CERN impusieron los mismos límites: la masa del quark top era mayor que 60 GeV.
El CDF del Fermilab siguió funcionando, y poco a poco la energía de la máquina fue rindiendo sus frutos. Cuando se cerró la sesión del acelerador, el CDF había estado funcionando durante once meses y visto más de 100.000 millones (10¹¹) de colisiones, pero ni un top. El análisis dio un límite de 91 GeV para la masa; el top, pues, era por lo menos dieciocho veces más pesado que el quark bottom. Este resultado sorprendente perturbó a muchos teóricos que trabajaban en las teorías unificadas, en el patrón electrodébil sobre todo. En esos modelos el quark top debería tener una masa mucho menor, y esto hizo que algunos teóricos viesen el top con especial interés. El concepto de masa está unido de cierta forma al Higgs. La pesadez del top, ¿es una pista singular? Hasta que no encontremos el top, midamos su masa y lo sometamos en general a un tercer grado experimental, no lo sabremos.
Los teóricos volvieron a sus cálculos. El modelo estándar estaba en realidad intacto todavía. Podría dar cabida a un quark top que pesase hasta 250 GeV, calcularon los teóricos, pero si fuese más pesado, el modelo estándar tendría un problema fundamental. Se reforzó la determinación de los experimentadores de perseguir el quark top. Pero con una masa mayor que 91 GeV, el CERN desistió. La energía de las máquinas de e+ e− es demasiado pequeña, y por lo tanto son inútiles; del inventario mundial, sólo el Tevatrón del Fermilab puede producir el top. Hacen falta al menos de cinco a cincuenta veces el número actual de colisiones. Ese es el reto para los años noventa.
Tengo una diapositiva favorita que muestra una deidad, con halo, que viste una túnica blanca. Está mirando una «Máquina del Universo»; tiene veinte palancas, diseñada cada una para que se la mueva hasta algún número, y un pulsador en el que pone: «Para crear el universo, apriétese». (Saqué la idea del cartel que escribió un alumno en el secador de manos del cuarto de baño: «Para conseguir un mensaje del decano, apriétese»). La idea es que hay que especificar unos veinte números para emprender la creación del universo. ¿Qué números son (o parámetros, como se les llama en el mundo de la física)? Bueno, nos hacen falta doce para especificar las masas de los quarks y los leptones. Nos hacen falta tres para especificar las intensidades de las fuerzas. (La cuarta, la gravedad, no es en realidad parte del modelo estándar, no, al menos, por ahora). Nos hacen falta unos cuantos para mostrar cómo se relaciona cada fuerza con las otras. Y otro para mostrar cómo aparece la violación de la simetría CP, y uno para la masa de la partícula de Higgs y algunos más para otras cosas necesarias.
Si tenemos esos números básicos, los demás parámetros se derivan de ellos; por ejemplo, el 2 de la ley de la inversa del cuadrado, la masa del protón, el tamaño del átomo de hidrógeno, la estructura del H2O y la doble hélice (el ADN), la temperatura de congelación del agua y el PIB de Albania en 1995. No tengo ni idea de cómo se puede obtener casi ninguno de esos números derivados, pero como tenemos esos ordenadores tan enormes…
El ansia por la simplicidad hace que seamos muy sarcásticos con que haya que especificar veinte parámetros. No es esa la forma en que ningún Dios que se respete a sí mismo organizaría una máquina para crear universos. Un parámetro, o dos, quizá. Una manera alternativa de decir esto es que nuestra experiencia con el mundo natural nos hace esperar una organización más elegante. Así que este, como ya hemos lamentado, es el verdadero problema del modelo estándar. Claro está, nos queda aún una cantidad enorme de trabajo por hacer para determinar con exactitud esos parámetros. El problema es estético: seis quarks, seis leptones y doce partículas gauge que llevan las fuerzas, y los quarks de tres colores distintos, y además las antipartículas. Y la gravedad que espera tras la puerta. ¿Dónde está Tales, ahora que nos hace falta?
¿Por qué dejamos fuera la gravedad? Porque nadie ha sido capaz hasta ahora de hacer que la gravedad —la teoría de la relatividad general— cuadre con la teoría cuántica. Esta disciplina, la gravedad cuántica, es una de las fronteras teóricas de los años noventa. Para describir el universo en su gran escala actual, no necesitamos la teoría cuántica. Pero érase una vez, el universo entero no abultaba más que un átomo; en realidad, era mucho más pequeño. La fuerza extraordinariamente débil de la gravedad creció por la enorme energía de las partículas con las que se harían todos los planetas, las estrellas, las galaxias con sus miles de millones de estrellas; toda esa masa estaba comprendida en la punta de una aguja, su tamaño era minúsculo comparado con el de un átomo. Deben aplicarse ahí las reglas de la mecánica cuántica, a ese torbellino fundamentalmente gravitatorio, ¡y no sabemos cómo se hace! Entre los teóricos, el matrimonio de la relatividad general y la teoría cuántica es el problema central de la física contemporánea. A los esfuerzos teóricos que se realizan con ese propósito se les llama «supergravedad», «supersimetría», «supercuerdas» o «teoría de todo».
Ahí tenemos unas matemáticas exóticas que ponen de punta hasta las cejas de algunos de los mejores matemáticos del mundo. Hablan de diez dimensiones: nueve espaciales, una temporal. Vivimos en cuatro: tres espaciales (este-oeste, norte-sur y arriba-abajo) y una temporal. No nos es posible intuir más que tres dimensiones espaciales. «No hay problema». Las seis dimensiones superfluas se han «compactado», se han enrollado hasta tener un tamaño inimaginablemente pequeño y no son perceptibles en el mundo que conocemos.
Los teóricos tienen hoy un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primerísimos tiempos, una teoría carente de parámetros. Todo debe salir de la ecuación básica; todos los parámetros deben salir de la teoría. El problema es que la única teoría candidata no tiene conexión con el mundo de la observación, o no la tiene todavía, en todo caso. Es aplicable sólo durante un breve instante, en el dominio imaginario que los expertos llaman la «masa de Planck», donde todas las partículas del universo tienen energías mil billones de veces la energía del Supercolisionador. Esta gran gloria duró una billonésima de una billonésima de una billonésima de segundo. Poco después, la teoría se confunde: demasiadas posibilidades, la falta de un camino claro que indique que nosotros, las personas, y los planetas y las galaxias somos, en efecto, una predicción suya.
A mediados de los años ochenta, la teoría de todo atrajo enormemente a los físicos jóvenes que se inclinaban a la teoría. A pesar del riesgo de invertir largos años y obtener unos beneficios pequeños, siguieron a los líderes (como esos roedores que siguen a otros y se ahogan todos, dirían algunos) hacia la masa de Planck. Los que se quedaban en el Fermilab y el CERN no recibían tarjetas postales ni faxes. Pero empezó a cundir la desilusión. Algunos de los reclutas estelares de la teoría de todo abandonaron, y enseguida empezaron a llegar autobuses desde la masa de Planck con teóricos frustrados que buscaban algo real que calcular. No es que haya terminado del todo la aventura, pero ahora avanza a un paso más tranquilo, mientras se prueban caminos más tradicionales hacia la unificación.
Estos caminos más populares hacia un principio completo, que todo lo abarque, llevan nombres resultones: gran unificación, modelos constituyentes, supersimetría, technicolor, por citar unos pocos. Todos comparten un problema: ¡no hay datos! Estas teorías hacen un rico potaje de predicciones. La supersimetría, por ejemplo, afectuosamente abreviada «Susy», seguramente la teoría más popular, si votasen los teóricos (y no lo hacen), predice nada menos que una duplicación del número de partículas. Como he explicado, los quarks y los leptones, colectivamente llamados fermiones, tienen todos media unidad de espín, mientras que las partículas mensajeras, llamadas colectivamente bosones, tienen todas una unidad entera. Susy repara esta asimetría añadiendo un bosón que acompañe a cada fermión y un fermión que acompañe a cada bosón. La nomenclatura es terrorífica. El compañero que Susy le da al electrón se llama «selectrón» y los compañeros de todos los leptones se llaman colectivamente «sleptones». Los compañeros de los quarks son los «squarks». A los compañeros del espín un medio de los bosones de espín uno se les da un sufijo, «ino», así que a los gluones se les juntan los «gluinos», y los fotones se asocian a los «fotinos», y tenemos los «winos» (compañeros del W) y «zinos». La listeza no hace una teoría, pero ésta es popular.
La búsqueda de los squarks y los winos seguirá a medida que el Tevatrón vaya aumentando su energía a lo largo de los años noventa y se conecten las máquinas del año 2000. El Supercolisionador que se construye en Texas permitirá que se explore el «dominio de masas» hasta unos 2 TeV. La definición del dominio de masas es muy vaga y depende de los detalles de la reacción que forma una partícula nueva. Con todo, una señal del poder del Supercolisionador es que si no se encuentran partículas Susy con esa máquina, la mayoría de los protagonistas de la teoría Susy coinciden en que abandonarán la teoría en una ceremonia pública durante la que romperán sus lapiceros.
Pero el SSC tiene un objetivo más inmediato, una presa que le urge más que los squarks y sleptones. En cuanto resumen manejable de todo lo que sabemos, el modelo estándar sufre dos defectos de mucho calibre, uno estético, el otro concreto. Nuestro sentido estético nos dice que hay demasiadas partículas, demasiadas fuerzas. Y lo que es peor, esas muchas partículas se distinguen por las masas que se les asignan, aparentemente al azar, a los quarks y a los leptones. Hasta las fuerzas difieren en muy buena medida a causa de las masas de las partículas mensajeras. El problema concreto es de incoherencia. Cuando se les pide a las teorías de los campos de fuerzas, que tan impresionante acuerdo guardan con todos los datos, que predigan los resultados de experimentos que se efectúen a muy altas energías, vomitan absurdos físicos. Cabe iluminar, y puede que resolver, los dos problemas gracias a un objeto, y una fuerza, que deben añadirse con mucho tiento al modelo estándar. El objeto y la fuerza llevan el mismo nombre: Higgs.
Todos los objetos visibles, amigo, no son sino como máscaras de cartón. Pero en cada hecho… algo desconocido, pero que con todo razona, deja ver los rasgos de su rostro por detrás de la máscara, que no razona. ¡Si el hombre quiere golpear, que su golpe atraviese la máscara!
CAPITÁN AHAB
Una de las mejores novelas de la literatura norteamericana es Moby Dick, de Herman Melville. También es de las más frustrantes, por lo menos para el capitán. Durante cientos de páginas oímos hablar del empeño de Ahab por hallar y arponear un enorme mamífero blanco de los océanos llamado Moby Dick. Ahab está quemado. Esa ballena le ha comido una pierna, y quiere venganza. Algunos críticos han sugerido que la ballena le comió un poco más que la pierna, lo que explicaría más adecuadamente el pique del capitán. Ahab le explica a su primer oficial, Starbuck, que Moby Dick es más que una ballena. Es una máscara de cartón; representa una fuerza más honda en la naturaleza a la que Ahab debe enfrentarse. Así que a lo largo de cientos de páginas Ahab y sus hombres van de acá para allá, furiosamente, por el océano, pasando aventuras y desventuras, matando montones de ballenas más pequeñas, de diferentes masas. Al final, por allá resopla: la gran ballena blanca. Y entonces, en una rápida sucesión, la ballena ahoga a Ahab, mata a los demás arponeros y por si las moscas hunde el barco. Fin de la historia. Pues vaya. Quizá le habría hecho falta a Ahab un arpón mayor, que las restricciones presupuestarias del siglo XIX no hacían posible. Que no nos pase a nosotros. La Partícula Moby está a tiro de piedra.
Tenemos que hacer esta pregunta acerca de nuestro modelo estándar: ¿es tan sólo una máscara de cartón? ¿Cómo es posible que una teoría concuerde con todos los datos a bajas energías y prediga cosas sin sentido a altas energías? La respuesta es dar a entender que la teoría deja algo fuera, algún fenómeno nuevo que, cuando se instale en la teoría, contribuirá insignificantemente a niveles de energía, digamos, como el del Fermilab, pero lo hará de forma rotunda en el Supercolisionador o a energías mayores. Cuando una teoría no incluye esos términos (porque no los conocemos), nos salen resultados matemáticos incoherentes a esas energías grandes.
Es un poco como lo que pasa con la teoría newtoniana, que funciona con mucho éxito para los fenómenos ordinarios pero predice que podemos acelerar un objeto hasta una velocidad infinita; esta consecuencia inverosímil queda totalmente contradicha cuando se emplea la teoría de la relatividad especial de Einstein. El efecto de la teoría de la relatividad a las velocidades de las balas y los cohetes es infinitesimalmente minúsculo. Pero a velocidades que estén cerca de la velocidad de la luz, aparece un nuevo efecto: las masas de los objetos que se aceleran van haciéndose mayores, y las velocidades infinitas se vuelven imposibles. Lo que pasa es que la relatividad especial se funde con los resultados newtonianos a velocidades que son pequeñas comparadas con la velocidad de la luz. El punto débil de este ejemplo es que la idea de una velocidad infinita podría quizá haber inquietado a los newtonianos, pero no era en absoluto tan traumática como lo que le pasa al modelo estándar a grandes energías. Volveremos a esto más adelante.
He insinuado la función de la partícula de Higgs como dadora de masa a las partículas que no la tienen, disfrazando así la verdadera simetría del mundo. Es una idea nueva y extraña. Hasta aquí, como hemos visto en nuestra historia-mito, se conseguía la simplicidad hallando subestructuras: la idea democritiana del atomos. Y así fuimos de las moléculas a los átomos químicos, a los núcleos, a los protones y a los neutrones (y sus numerosos parientes griegos), y a los quarks. La historia le haría a uno esperar que ahora revelaríamos a la gentecilla que hay dentro del quark, y es cierto que todavía puede que eso ocurra. Pero la verdad es que no creemos que sea esa la manera en que vendrá la tan esperada teoría completa del mundo. Quizá se parezca más al calidoscopio al que me referí antes, donde unos cuantos espejos divisores convierten unos pocos pedazos de cristal coloreado en una miríada de diseños aparentemente complejos. El propósito final del Higgs (esto no es ciencia, es filosofía) podría ser crear un mundo más divertido, más complejo, como se daba a entender en la parábola con la que hemos empezado este capítulo.
La idea nueva es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que cuando miramos las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas, influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que ya hemos hablado, del campo gravitatorio o del electromagnético. Por ejemplo, si llevas un bloque de plomo a la punta de la torre Eiffel, el bloque adquirirá energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra. Como E = mc², ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el Tevatrón) o en virtud de su energía potencial en un campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separáis el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.
Pero la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos más familiares. La masa tomada del Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas. Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.
La influencia del Higgs en las masas de los quarks y de los leptones le recuerda a uno el descubrimiento por Pieter Zeeman, en 1896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel del Higgs) rompe la simetría del espacio de la que el electrón disfrutaba. Por ejemplo, un nivel de energía, afectado por el imán, se divide en tres; el nivel A gana energía del campo, el nivel B la pierde y el nivel C no cambia en absoluto. Por supuesto, ahora sabemos por completo cómo pasa todo esto. Es simple electromagnetismo cuántico.
Hasta ahora no tenemos ni idea de qué reglas controlan los incrementos de masa generados por el Higgs. Pero el problema es irritante: ¿por qué sólo esas masas —las masas de los W+, W− y Z°, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones— que no forman ningún patrón obvio? Las masas van de la del electrón, 0,0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea —el Higgs— se empleó con mucho éxito para formular la teoría electrodébil. Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnética y débil. En la unidad hay cuatro partículas mensajeras sin masa —los W+, W−, Z° y el fotón— que llevan la fuerza electrodébil. Además, está el campo de Higgs, y, presto, los W y Z chupan la esencia del Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa. Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los teóricos nos recuerdan que Hooft y Veltman dejaron sentado que la teoría entera está libre de infinitos.
Me demoro en esta cuestión de la masa en parte porque ha estado conmigo durante toda mi vida profesional. En los años cuarenta el problema parecía bien enfocado. Teníamos dos partículas que servían de ejemplo del problema de las masas: el electrón y el muón. Parecía que eran iguales en todos los aspectos, sólo que el muón pesaba doscientas veces más que su primo poca cosa. Que fueran leptones, insensibles a la interacción fuerte, hacía más intrigante el asunto. Me obsesioné con el problema e hice del muón mi objeto favorito de estudio. El propósito era intentar dar con alguna diferencia, que no fuera la masa, entre los comportamientos del muón y del electrón que sirviera de indicio de cuál era el mecanismo de las diferencias de masas.
Los núcleos captan a veces un electrón, y se producen un neutrino y un núcleo que retrocede. ¿Puede el muón hacer eso? Medimos el proceso de captura de muones y, ¡bingo, el mismo proceso! Un haz de electrones de alta energía dispersa a los protones. (Esta reacción se estudió en Stanford). Medimos la misma reacción en Brookhaven con muones. Una pequeña diferencia en los ritmos nos tuvo encandilados durante años, pero no salió nada de ella. Hasta descubrimos que el electrón y el muón tienen neutrinos compañeros distintos. Y ya hemos comentado el experimento g menos 2 superpreciso, en el que el magnetismo del muón se midió y comparó con el del electrón. Excepto por la masa extra, eran lo mismo.
Todos los esfuerzos por hallar una pista de cuál era el origen de la masa fallaron. Feynman escribió su famosa pregunta: «¿Por qué pesa el muón?». Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa. Una voz estentórea dice: «¡Higgs!». Durante cincuenta años o así nos hemos roto la cabeza con el origen de la masa, y ahora el campo de Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmaniana podría ser: ¿cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la materia?
La variación de la masa con el estado de movimiento, el cambio de la masa con la configuración del sistema y el que algunas partículas —el fotón seguramente y los neutrinos posiblemente— tengan masa en reposo nula son tres hechos que ponen en entredicho que el concepto de masa sea un atributo fundamental de la materia. Tenemos que recordar el cálculo de la masa que daba infinito y nunca resolvimos; sólo nos deshicimos de él «renormalizándolo». Ese es el trasfondo con el que hemos de encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas. Hace que nuestra historia del Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno. La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.
¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espín de media unidad). ¿Cuál es el pelaje del Higgs? Es un bosón de espín cero. El espín supone una direccionalidad en el espacio, pero el campo de Higgs da masa a los objetos dondequiera que estén y sin direccionalidad. Al Higgs se le llama a veces «bosón escalar [sin dirección]» por esa razón.
Por mucho que nos intrigue la capacidad que este nuevo campo tiene de dotar de masa, uno de mis teóricos favoritos, Tini Veltman, pone este cometido del Higgs muy por debajo de su principal obligación, nada menos que lograr que nuestro modelo estándar sea coherente. Sin el Higgs, el modelo no pasa una simple prueba de coherencia.
Lo que quiero decir es lo siguiente. Hemos hablado mucho de colisiones. Dirijamos cien partículas hacia un blanco específico, una pieza de hierro de unos seis centímetros cuadrados de área, digamos. Un teórico de modestas habilidades puede calcular la probabilidad (recordad, la teoría cuántica nos permite predecir sólo la probabilidad) de que sean dispersadas. Por ejemplo, puede que la teoría prediga que de las cien partículas que lanzamos al blanco sólo se dispersarán diez partículas, un 10 por 100. Ahora bien, muchas teorías predicen que la probabilidad de la dispersión depende de la energía del haz que usemos. A bajas energías, todas las teorías que conocemos de las fuerzas —la fuerte, la débil y la electromagnética— predicen probabilidades que concuerdan con los experimentos reales. Sin embargo, se sabe que en el caso de la interacción débil la probabilidad crece con la energía. Por ejemplo, a una energía media la probabilidad de dispersión puede llegar a un 40 por 100. Si la teoría predice que la probabilidad de dispersión es mayor que el 100 por 100, está claro que la teoría deja de ser válida. Algo está mal, pues una probabilidad de más del 100 por 100 no tiene sentido. Quiere decir, literalmente, que se dispersan más partículas que las que había en el haz al principio. Cuando pasa esto, decimos que la teoría viola la unitariedad (sobrepasa la probabilidad uno).
En nuestra historia, el problema era que la teoría de la interacción débil concordaba bien con los datos experimentales a bajas energías, pero predecía cosas sin sentido cuando la energía era grande. Se descubrió esta crisis cuando la energía a la que se predecía el desastre estaba más allá del alcance de los aceleradores existentes. Pero el fallo de la teoría indicaba que se estaba dejando algo fuera, algún proceso nuevo, alguna partícula nueva quizás, que, si los conociésemos, tendrían el efecto de impedir el aumento de la probabilidad hasta valores absurdos. La interacción débil, recordaréis, fue inventada por Fermi para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV. Una de las razones que motivaron el experimento de los dos neutrinos era comprobar la teoría a energías mayores, ya que las predicciones mantenían que se produciría una crisis de la unitariedad cerca de unos 300 GeV. Nuestro experimento, realizado a unos pocos GeV, confirmó que la teoría se encaminaba a una crisis. Esta resultó ser una indicación de que los teóricos habían dejado fuera una partícula W cuya masa era de unos 100 GeV. La teoría original de Fermi, que no incluía los W, era equivalente matemáticamente al uso de un vehículo de la fuerza con una masa infinita, y 100 GeV es una energía tan sumamente grande en comparación con los experimentos primitivos (por debajo de 100 MeV) que la teoría vieja funcionaba bien. Pero cuando le preguntábamos a la teoría qué harían los neutrinos a los 100 GeV, había que incluir los W de 100 GeV para evitar una crisis de la unitariedad; con todo, hacía falta algo más.
Bueno, se ha hecho este repaso simplemente para explicar que nuestro modelo estándar sufre una enfermedad de la unitariedad en su forma más virulenta. El desastre golpea ahora a una energía de 1 TeV. El objeto que evitaría el desastre si… si existiese es una partícula neutra pesada con propiedades especiales a la que llamamos —os lo habréis imaginado— partícula de Higgs. (Antes nos referimos al campo de Higgs, pero debéis recordar que los cuantos de un campo son un conjunto de partículas). Podría ser el mismísimo objeto que crea la diversidad de las masas o podría ser un objeto similar. Podría haber una sola partícula de Higgs o una familia de partículas de Higgs.
Hay que responder montones de preguntas. ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o sólo un incremento de las masas? ¿Y cómo podemos saber más al respecto? Como es Su partícula, nos cabe esperar que la veremos, si llevamos una vida ejemplar, cuando ascendamos a Su reino. O podemos gastarnos ocho mil millones de dólares y construirnos un Supercolisionador en Waxahachie, Texas, diseñado para producir la partícula de Higgs.
También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs. Acerca de esto, diremos más en el capítulo 9.
El campo de Higgs, tal y como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Éstas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puro y de resplandeciente simetría es demasiado caliente para el Higgs. Pero cuando la temperatura cae bajo los 1015 grados Kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas. Así, por ejemplo, antes del Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada. El universo se expande y se enfría, y entonces viene el Higgs —que engorda los W y Z, y por alguna razón ignora al fotón— y de ello resulta que la simetría electrodébil se rompe. Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W−, Z°, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas el campo de Higgs fuera una especie de aceite pesado a través del que se moviesen con dificultad y que les hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.
Debería, seguramente, repasar el origen de la idea de Higgs, pues he coqueteado un poco antes de descubrir el pastel. Recibe también la denominación de simetría oculta o «ruptura espontánea de la simetría». Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas. La utilizaron los teóricos Steven Weinberg y Abdus Salam, que trabajaban por separado, para comprender cómo se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con su fotón carente de masa y la interacción débil con sus W+, W− y Z° de masa grande. Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glashow, quien, tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martinus Veltman y Gerard ’t Hooft. Y hay otros a los que habría que mencionar, pero así es la vida. Además, ¿cuántos teóricos hacen falta para encender una bombilla?
Otra manera de mirar el Higgs es desde el punto de vista de la simetría. A altas temperaturas la simetría se manifiesta, una simplicidad pura, regia. A temperaturas más bajas, se rompe. Es el momento de algunas metáforas más.
Pensad en un imán. Un imán es un imán porque, a bajas temperaturas, sus imanes atómicos están alineados. Un imán tiene una dirección especial, su eje norte-sur. Ha perdido; pues, la simetría de un pedazo de hierro no magnético donde todas las direcciones espaciales son equivalentes. Podemos «arreglar» el imán. Al elevar la temperatura, pasamos de un hierro magnético a uno que no lo es. El calor genera una agitación molecular que acaba por destruir la alineación, y tenemos una simetría más pura. Otra metáfora frecuente es la del sombrero mexicano: una copa simétrica rodeada por unas alas simétricas vueltas hacia arriba. Se deja una canica en la parte más alta de la copa. Hay una simetría rotacional perfecta, pero no estabilidad. Cuando la canica cae a una posición más estable (de menos energía), en alguna parte del ala, se destruye la simetría aun cuando la estructura básica sea simétrica.
En otra metáfora nos imaginamos una esfera perfecta llena de vapor de agua a una temperatura muy alta. La simetría es perfecta. Si dejamos que el sistema se enfríe, acabaremos por tener un depósito de agua en el que flotará un poco de hielo, con un vapor de agua residual por encima. La simetría se ha destruido por completo por el simple acto de enfriar, lo que en esta metáfora le permite al campo gravitatorio actuar. Pero puede volverse al paraíso con calentar de nuevo el sistema.
Por tanto: antes del Higgs, simetría y aburrimiento; tras el Higgs, complejidad y pasión. La próxima vez que miréis al cielo estrellado deberíais ser conscientes de que todo el espacio está lleno de ese misterioso influjo del Higgs, responsable, eso dice la teoría, de la complejidad del mundo que conocemos y amamos.
Imaginaos ahora las fórmulas (¡ajj!) que dan las predicciones y posdicciones correctas de las propiedades de las partículas y las fuerzas que medimos en el Fermilab y en nuestros laboratorios de los aceleradores en los años noventa. Cuando les metemos reacciones que se efectúan a energías mucho mayores, las fórmulas arrojan resultados sin sentido. ¡Ajá!, pero si incluimos el campo de Higgs, modificamos la teoría y nos sale una teoría coherente incluso a energías de 1 TeV. Higgs salva los muebles, salva al modelo estándar con todas sus virtudes. ¿Prueba ello que sea correcto? En absoluto. Es sólo lo mejor que los teóricos son capaces de hacer. A lo mejor Él es más listo todavía.
Volvamos a los días de Maxwell. A los físicos les parecía que necesitaban un medio que impregnase todo el espacio y a través del cual la luz y otras ondas electromagnéticas pudieran viajar. Lo llamaban éter y le dieron unas propiedades tales que pudiese hacer su trabajo. El éter daba, además, un sistema coordenado absoluto que permitía la medición de la velocidad de la luz. El destello de perspicacia de Einstein mostró que el éter era una carga innecesaria que se le imponía al espacio. Aquí se las ve uno con un concepto venerable, que no es otro que el «vacío» inventado (o descubierto) por Demócrito. Hoy el vacío, o más precisamente, el «estado vacío», está aquí y allá.
El estado vacío consiste en una región del universo de la que se ha retirado toda la materia y donde no existen energía ni momento. Es «nada en absoluto». James Bjorken, al hablar de ese estado, dijo que le tentaba hacer para la física de partículas lo que John Cage hizo para la música: cuatro minutos y veintidós segundos de… nada. Sólo el miedo al presidente del congreso le disuadía. Bjorken, experto como es en las propiedades del estado vacío, no se puede comparar con Hooft, que de nada en absoluto entiende mucho más.
La parte triste de la historia es que los teóricos del siglo XX han contaminado hasta tal punto (¡esperad a que se entere el Sierra Club!) el carácter absoluto original del estado vacío (en cuanto concepto), que es muchísimo más complicado que el arrumbado éter del siglo XIX. Al éter lo reemplaza —además de todas las fantasmales partículas virtuales— el campo de Higgs, cuyas dimensiones completas no conocemos todavía. Para cumplir su cometido debe existir, y los experimentos han de descubrir al menos una partícula de Higgs, eléctricamente neutra. Podría ser sólo la punta del iceberg: a lo mejor hace falta un zoo de cuantos bosónicos de Higgs para describir del todo el nuevo éter. Está claro que hay nuevas fuerzas y nuevos procesos. Podemos resumir lo poco que sabemos: por lo menos una de las partículas que representan el éter de Higgs ha de tener espín cero, tiene que estar íntima y misteriosamente unida a la masa y debe manifestarse a temperaturas equivalentes a una energía de menos de 1 TeV. Hay controversia además acerca de la estructura del Higgs. Una escuela dice que es una partícula fundamental. Otra idea es que está compuesto por nuevos objetos de tipo quark, que podrían finalmente ser vistos en el laboratorio. A un tercer bando le tiene intrigado la enorme masa del quark top y cree que el Higgs es un estado ligado de un top y un antitop. Sólo los datos lo dirán. Mientras, es un milagro que podamos siquiera ver las estrellas.
El nuevo éter es, pues, un sistema de referencia para la energía, en este caso potencial. Y el Higgs solo no explica los demás residuos y basura teórica que se arroja al estado vacío. Las teorías gauge depositan lo que requieren, los cosmólogos explotan la «falsa» energía del vacío y en la evolución del universo el vacío puede estirarse y expandirse.
Uno reza por un nuevo Einstein que, en un destello de perspicacia, nos devuelva nuestra hermosa nada.
Higgs, pues, es grande. ¿Por qué, entonces, no se le ha adoptado universalmente? Peter Higgs, que le prestó su nombre al concepto (no a sabiendas), trabaja en otras cosas. Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia. Glashow es menos amable y lo llama retrete donde echamos las incoherencias de nuestras teorías actuales. Y la otra objeción global es que no hay ni una pizca de una prueba experimental.
¿Cómo se prueba la existencia de este campo? El Higgs, como la QED, la QCD o la interacción débil, tiene su propia partícula mensajera, el bosón de Higgs. ¿Cómo se prueba que el Higgs existe? Hállese, simplemente, la partícula. El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe «pesar» menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.
El campo de Higgs, el modelo estándar y nuestra idea de cómo hizo Dios el universo dependen de que se encuentre el bosón de Higgs. No hay un acelerador en la Tierra, por desgracia, que tenga la energía para crear una partícula que pese nada menos que 1 TeV.
Pero podéis construir uno.
En 1981 estábamos en el Fermilab muy metidos en la construcción del Tevatrón y el colisionador p-barra/p. Por supuesto, le prestábamos cierta atención a lo que pasaba en el mundo y especialmente a la búsqueda del W por el CERN. A finales de la primavera de ese año íbamos estando seguros de que los imanes superconductores funcionarían y se podrían producir en masa con las estrictas especificaciones requeridas. Estábamos convencidos, o al menos convencidos al 90 por 100, de que se podría alcanzar la escala de masas de 1 TeV, la terra incognita de la física de partículas, a un precio hasta cierto punto modesto.
Tenía sentido, pues, ponerse a pensar en la «máquina siguiente» (la que seguiría al Tevatrón), un anillo aún mayor de imanes superconductores. Pero en 1981 el futuro de la investigación de las partículas en este país estaba hipotecado por la lucha por la supervivencia de una máquina del laboratorio de Brookhaven. Se trataba del proyecto Isabelle, un colisionador protón-protón de energía modesta que debería haber estado funcionando en 1980 pero se había retrasado por problemas técnicos. Y mientras tanto la frontera de la física se había movido.
En la reunión anual de los usuarios del Fermilab de mayo de 1981, tras informar como era debido del Estado del Laboratorio, me aventuré a conjeturar cuál sería el futuro de la especialidad, sobre todo en «la frontera de energía a 1 TeV». Destaqué que Carlo Rubbia, por entonces muy influyente ya en el CERN, pronto «pavimentaría el túnel del LEY con imanes superconductores». El anillo LEP, de unos veintisiete kilómetros de circunferencia, contenía imanes convencionales para su colisionador de e+ e−. El LEP necesitaba ese radio enorme para reducir la pérdida de energía de los electrones. Éstos radian energía cuando se los obliga con los imanes a describir una órbita circular. (Cuanto menor sea el radio, recordad, mayor será la radiación). La máquina LEP del CERN, pues, usaba campos débiles y un gran radio. Esto la hacía además ideal para acelerar protones, que a causa de su masa mucho mayor no radian demasiada energía. Los diseñadores del LEP, con su amplitud de miras, tenían seguramente en mente que esta fuese una utilización posterior del gran túnel. Una máquina así con imanes superconductores podía fácilmente llegar a unos 5 TeV en cada anillo, o 10 TeV en la colisión. Y todo lo que los Estados Unidos tenían que ofrecer en competencia más allá del Tevatrón a 2 TeV era la doliente Isabelle, un colisionador de 400 GeV (0,8 TeV en total), si bien con un ritmo de colisiones muy alto.
En el verano de 1982 daba la impresión de que tanto el programa de imanes superconductores del Fermilab como el colisionador de protones-antiprotones del CERN iban a tener éxito. Cuando los físicos de altas energías estadounidenses se reunieron en agosto en Snowmass, Colorado, para examinar la situación y el futuro de la especialidad, hice mi movimiento. En una charla titulada «La máquina en el desierto», propuse que la comunidad pensase seriamente en adoptar como su preocupación número uno la construcción de un nuevo y gigantesco acelerador basado en la «probada» técnica de los superimanes e irse internando en el dominio de masas de 1 TeV. Recordad que para producir unas partículas que podrían tener una masa de 1 TeV los quarks que participasen en la colisión habrían de contribuir por lo menos con esa cantidad de energía. Los protones, que llevan dentro de sí a los quarks y los gluones, habrían de tener energías mucho mayores. En 1982 calculaba que la energía tendría que ser de 10 TeV por haz. Hice una primera evaluación del costo y cimenté sólidamente mi caso en la premisa de que la llamada del Higgs era demasiado atractiva para pasarla por alto.
Hubo en Snowmass un debate moderadamente vivo sobre el Desertrón, como se le llamó al principio. El nombre se basaba en la idea de que una máquina tan enorme sólo se podría construir en un lugar despoblado, cuyo suelo no tuviese valor y desprovisto de colinas y valles. La parte errónea de la idea era que yo, un chico de la ciudad de Nueva York, educado como quien dice en el metro, había olvidado por completo el poder de la construcción de túneles en profundidad. La historia lo demostraba una y otra vez. La máquina alemana HERA discurre bajo la densamente poblada ciudad de Hamburgo. El túnel del LEP en el CERN está excavado bajo las montañas Jura.
Intenté forjar una coalición de todos los laboratorios de Norteamérica que respaldase mi idea. El SLAC siempre había puesto sus miras en la aceleración de electrones; Brookhaven luchaba por mantener viva a Isabelle; y un grupo vivaz y con mucho talento de Cornell pretendía mejorar su máquina de electrones hasta un nivel que llamaban CESR II. Yo denominé a mi laboratorio del Desertrón «Slermihaven II» para representar la unión de todos esos laboratorios fieramente competidores en la nueva empresa.
No quiero entrar en la política de la ciencia, pero tras un año repleto de traumas, la comunidad estadounidense de la física de partículas recomendó formalmente que se abandonase a Isabelle (cuya nueva denominación era CBA, de Colliding Beam Accelerator, Acelerador de Haces que Chocan) en favor del Desertrón, al que ahora se llamaba Supercolisionador Superconductor y habría de tener 20 TeV en cada haz. Al mismo tiempo —julio de 1983— el nuevo acelerador del Fermilab salió en las primeras páginas por su éxito de haber acelerado los protones hasta el nuevo récord de 512 GeV. A éste pronto le siguieron otros éxitos, y alrededor de un año después el Tevatrón alcanzó los 900 GeV.
En 1986, la propuesta del SSC estaba lista para ser sometida a la aprobación del presidente Reagan. Como director del Fermilab, un secretario ayudante del departamento de energía me preguntó si podríamos hacer un vídeo corto para el presidente. Pensaba que una exposición de diez minutos sobre la física de altas energías sería útil cuando se discutiese la propuesta en una reunión del gabinete. ¿Cómo le enseñas a un presidente física de altas energías en diez minutos? Y lo más importante, ¿cómo se la enseñas a este presidente? Tras una considerable agonía, se nos ocurrió la idea de que unos chicos de bachillerato visitasen el laboratorio, les diésemos una vuelta por la maquinaria, hicieran un montón de preguntas y recibiesen respuestas pensadas para ellos. El presidente lo vería y lo oiría todo y quizá se hiciese una idea sobre la física de altas energías. Así que invitamos a los chicos de un instituto cercano. Aleccionamos a unos pocos una pizca tan sólo y a los demás les dejamos que fuesen espontáneos. Filmamos unos treinta minutos y cortamos hasta quedarnos con los catorce minutos mejores. Nuestro contacto de Washington nos advirtió: ¡no más de diez minutos! Algo sobre el tiempo que se mantiene la atención. Así que cortamos más y le mandamos diez transparentes minutos de física de altas energías para estudiantes de segundo de bachillerato. En unos pocos días nos llegó la reacción. «¡Complicadísimo! Frío, frío».
¿Qué hacer? Rehicimos la banda sonora; borramos las preguntas de los chicos. Algunas de ellas, al fin y al cabo, eran bastante duras. Un experto en poner voces de fondo hacía ahora el tipo de preguntas que deberían haber hecho los chicos (escritas por mí) y daba las respuestas; la acción seguía siendo la misma: los guías científicos señalaban, los chicos se quedaban con la boca abierta. Esta vez nos salió claro como el cristal y de lo más simple. Lo probamos con gente sin formación técnica y lo enviamos. Nuestro tipo del departamento de energía se estaba impacientando.
De nuevo, no es que se quedase muy impresionado precisamente. «Bueno, está mejor, pero todavía es demasiado complicado».
Empecé a ponerme un poco nervioso. No sólo andaba el SSC en peligro; también mi puesto de trabajo estaba en la estacada. Esa noche me levanté a las tres de la madrugada con una idea brillante. El siguiente vídeo sería así: un Mercedes se para en la entrada del laboratorio y un distinguido caballero de unos cincuenta y cinco años o así sale de él. La voz de fondo dice: «Conozcan al juez Sylvester Matthews, del tribunal del decimocuarto distrito federal, que visita un gran laboratorio de investigación gubernamental». El «juez» explica a sus anfitriones, tres físicos jóvenes y guapos (uno de ellos, una mujer), que se ha trasladado cerca y cada día pasa con el coche ante el laboratorio de camino al tribunal. Ha leído acerca de nuestro trabajo en el Chicago Tribune, sabe que tratamos con «átomos» y «voltios» y, como nunca ha estudiado física, siente curiosidad acerca de lo que hacemos. Entra en el edificio y agradece a los físicos que le dediquen su tiempo esa mañana.
Mi idea era que el presidente se identificaría con un profano inteligente que tiene la suficiente seguridad en sí mismo para decir que no entiende algo. En los ocho minutos y medio siguientes, el juez interrumpe a menudo a los físicos e insiste en que vayan más despacio y le aclaren este punto o aquel. A los nueve minutos y pico, el juez se sube el puño de la camisa, mira el Rolex y les da amablemente las gracias a los jóvenes científicos. Entonces, con una sonrisa tímida, dice: «Ya sabéis que en realidad no he entendido la mayor parte de las cosas que me habéis dicho, pero he podido hacerme una idea de vuestro entusiasmo, de la grandeza de la empresa. Me trae a la mente, en cierta forma, lo que debió de ser explorar el Oeste…, el hombre solitario a caballo en una tierra vasta, aún no explorada…». (Sí, yo escribí eso).
Cuando el vídeo llegó a Washington, el secretario ayudante estaba en éxtasis. «¡Lo habéis conseguido! Es tremendo. ¡Justo era eso! Se proyectará en Camp David durante el fin de semana».
Aliviadísimo, me fui a la cama sonriendo, pero a las cuatro de la mañana me desperté con un sudor frío. Algo iba mal. Entonces me di cuenta. No le había dicho al secretario ayudante que el «juez» era un actor, contratado en la Oficina de Actores de Chicago. En ese momento, al presidente le estaba costando elegir a alguien para el Tribunal Supremo cuyo nombramiento tuviera posibilidades de ser confirmado. Supón que él… Me pasé sudando y dando vueltas en la cama hasta que en Washington fueron las ocho de la mañana. Lo logré a la tercera llamada.
—Esto, en cuanto a ese vídeo…
—Ya le dije que era soberbio.
—Pero tengo que decirle…
—Es bueno, no se preocupe. Va de camino a Camp David.
—¡Espere! —chillé—. El juez. No es de verdad. Es un actor, y a lo mejor el presidente quiere hablar con él, entrevistarle. Se le ve tan inteligente. Suponga que él… [Una larga pausa]
—¿El Tribunal Supremo?
—Eso.
—[Pausa, y luego risitas] Mire, si le digo al presidente que es un actor, seguro que lo nombra para el Tribunal Supremo.
No mucho después, el presidente aprobó el SSC. Según una columna de George Will, la discusión sobre la propuesta fue breve. Durante la reunión del gabinete el presidente escuchó a sus secretarios, que estaban divididos más o menos a partes iguales en lo tocante a los méritos del SSC; cuando terminaron citó a un quarterback muy conocido: «Lánzala al fondo». Y todos supusieron que con eso quería decir: «¡Hagámoslo!». El Supercolisionador se había convertido en un proyecto nacional.
A lo largo del año siguiente, se emprendió una intensa búsqueda del emplazamiento del SSC en la que participaron comunidades de toda la nación y de Canadá. Había algo en el proyecto que parecía excitar a la gente. Imaginad una máquina gracias a la cual el alcalde de Waxahachie, Texas, podía levantarse en público y concluir un ardiente discurso así: «¡Y esta nación debe ser la primera que encuentre el bosón escalar de Higgs!». Hasta en «Dallas» salió el Supercolisionador en una trama secundaria, en la que J. R. Ewing y otros intentaban comprar tierras alrededor del emplazamiento del SSC.
Cuando me referí al comentario del alcalde en la Conferencia Nacional de Gobernadores, en una de los varios millones de charlas que di vendiendo el SSC, me interrumpió el gobernador de Texas. Corrigió mi pronunciación de Waxahachie. Por lo visto, me había desviado más de lo que el texano difiere normalmente del neoyorquino. No pude resistirme. «Señor, la verdad es que lo he intentado», le aseguré al gobernador. «Fui allí, paré en un restaurante y le pedí a la camarera que me dijera dónde estaba, clara e inequívocamente. “B-U-R-G-E-R-K-I-N-G”, pronunció». Casi todos los gobernadores se rieron. El texano no.
El año 1987 fue el de los tres súper. Primero, la supernova que centelleó en la Gran Nube de Magallanes hará unos 160.000 años y cuya señal por fin llegó a nuestro planeta; fue la primera vez que se detectaron neutrinos procedentes de fuera del sistema solar. Luego vino el descubrimiento de la superconductividad de alta temperatura, que apasionó al mundo por sus posibles beneficios técnicos. Enseguida hubo esperanzas de que tuviéramos pronto superconductores a temperatura ambiente. Se soñó con costes de la energía reducidos, trenes levitantes, una miríada de prodigios modernos y, para la ciencia, unos costes de construcción del SSC muy reducidos. Ahora está claro que fuimos demasiado optimistas. En 1993, los superconductores de alta temperatura son todavía una frontera viva de la investigación y para un conocimiento más profundo de la naturaleza del material, pero las aplicaciones comerciales y prácticas están todavía muy lejos.
El tercer súper del año fue la búsqueda del emplazamiento del Supercolisionador. El Fermilab fue uno de los solicitantes, más que nada porque se podía usar el Tevatrón como inyector del anillo principal del SSC, una pista oval con una circunferencia de unos ochenta y cinco kilómetros. Pero tras ponderar todas las circunstancias, el comité de selección del departamento de energía escogió el emplazamiento de Waxahachie. Se anunció la decisión en octubre de 1988, unas pocas semanas después de que yo entretuviera a una enorme reunión del personal del Fermilab con mis bromas del Nobel. Ahora teníamos una reunión muy diferente; la sombría plantilla se reunía para oír la nueva y preguntarse por el futuro del laboratorio.
En 1993 el SSC se está construyendo, y la fecha probable de conclusión de las obras es el año 2000, un año o dos más o menos. El Fermilab está mejorando poderosamente sus instalaciones para incrementar el número de colisiones p-barra/p, aumentar sus oportunidades de dar con el top y explorar los niveles inferiores de la gran montaña que ha de escalar —para eso ha sido diseñado— el SSC.
Por supuesto, los europeos no se han dormido en los laureles. Tras un periodo de debate vigoroso, estudio, informes de diseño y reuniones de comités, Carlo Rubbia, como director general del CERN, decidió que «pavimentaría el túnel del LEP con imanes superconductores». La energía de un acelerador, recordaréis, está determinada por la combinación del diámetro de su anillo y la intensidad de sus imanes. Limitados por la circunferencia de veintisiete kilómetros del túnel, los diseñadores del CERN estaban forzados a vérselas y deseárselas para conseguir el campo magnético más elevado que pudieran imaginar técnicamente. De 10 teslas era, alrededor de un 60 por 100 más intenso que los imanes del SSC y dos veces y media más que los del Tevatrón. Afrontar este reto formidable requerirá un nivel inédito de depuración en la técnica de los superconductores. Si tienen éxito, le darán a la máquina europea propuesta una energía de 17 TeV; la del SSC es de 40 TeV.
La inversión total en recursos financieros y humanos, si se llegan realmente a construir estas máquinas nuevas, es enorme. Y las apuestas, muy altas. ¿Qué pasa si la idea del Higgs resulta equivocada? Aunque fuese así, el impulso que mueve a hacer observaciones «en el dominio de masas de 1 TeV» sería igual de intenso; nuestro modelo estándar tendría que ser modificado o arrumbado. Es como Colón partiendo hacia las Indias Orientales. Si no llega a ellas, pensaban los verdaderos creyentes, encontraremos alguna otra cosa, quizás aún más interesante.