7 - Á-tomo

Ayer, tres científicos ganaron el premio Nobel por haber hallado el objeto más pequeño del universo. Resultó que era el filete de Denny’s.

JAY LENO

Los años cincuenta y sesenta fueron años grandes para la ciencia en los Estados Unidos. Comparados con los mucho más duros años noventa, en los cincuenta parecía que cualquiera que tuviese una buena idea, y mucha determinación, podía conseguir los fondos necesarios para realizarla. Quizá este sea un criterio de salud científica tan bueno como el mejor. La nación aún saca provecho de la ciencia que se hizo en aquellos decenios.

El diluvio de estructuras subnucleares que desencadenó el acelerador de partículas fue tan sorprendente como los objetos celestes que descubrió el telescopio de Galileo. Al igual que ocurrió con la revolución galileana, la humanidad adquirió unos conocimientos nuevos e insospechados acerca del mundo. Que en este caso se refiriesen al espacio interior en vez de al exterior no los hacía menos profundos. El descubrimiento de los microbios y del universo biológico invisible por Pasteur es un acontecimiento similar. Ya ni siquiera se subrayaba la peculiar suposición de nuestro héroe Demócrito («¿Suposición?», le oigo chillar. «¿Suposición?»). Que había una partícula tan pequeña que se le escapaba al ojo humano no se discutía ya más. Estaba claro que la búsqueda de la menor de las partículas requería que se expandiese la capacidad del ojo humano: lupas, microscopios y ahora aceleradores de partículas que ampliaban lo más pequeño en pos del verdadero á-tomo. Y vimos hadrones, montones de hadrones, estas partículas nombradas con letras griegas que se creaban en las intensas colisiones que producían los haces de los aceleradores.

No hace falta decir que la proliferación de los hadrones era un puro placer. Contribuía al pleno empleo y extendía la riqueza hasta el punto de que el club de los descubridores de partículas se convirtió en un club abierto. ¿Quieres encontrar un hadrón del todo nuevo? Espera sólo a la siguiente sesión de acelerador. En un congreso sobre la historia de la física que se celebro en el Fermilab en 1986, Paul Dirac recordó lo difícil que le fue aceptar las consecuencias de su ecuación: la existencia de una partícula nueva, el positrón, que Carl Anderson descubrió unos pocos años después. En 1927 iba contra la moral física pensar tan radicalmente. Cuando Victor Weisskopf, que estaba entre el público, señaló que Einstein había hecho cábalas en 1922 acerca de la existencia de un electrón positivo, Dirac movió la mano despectivamente: «Tenía suerte». En 1930, Wolfgang Pauli lo pasó muy mal antes de predecir la existencia del neutrino. Al final, la aceptó reticentemente y sólo por evitar un mal mayor, ya que estaba en la estacada nada menos que el principio de conservación de la energía. O existía el neutrino o la conservación de la energía se iba al garete. Este conservadurismo en lo que se refería a la introducción de partículas nuevas no duró. Como dijo el profesor Bob Dylan, los tiempos estaban cambiando. El pionero de este cambio de filosofía fue el teórico Hideki Yukawa, quien puso en marcha el proceso de proponer libremente nuevas partículas para explicar fenómenos nuevos.

En los años cincuenta y a principios de los sesenta los teóricos estaban muy ocupados clasificando los cientos de hadrones, buscando patrones y significados en esta nueva capa de la materia y acosando a sus colegas experimentadores para que les diesen más datos. Esos cientos de hadrones eran apasionantes, pero también un quebradero de cabeza. ¿Adónde había ido a parar la simplicidad que habíamos estado buscando desde los días de Tales, Empédocles y Demócrito? Había un zoo imposible de manejar lleno de entes de ese tipo, y empezábamos a temer que sus legiones fuesen infinitas.

En este capítulo veremos cómo se realizó al final el sueño de Demócrito, Boscovich y demás. Será la crónica de la construcción del modelo estándar, que contiene todas las partículas elementales que hacen falta para formar toda la materia del universo, pasado o presente, más las fuerzas que actúan sobre ellas. En cierta manera es más complejo que el modelo de Demócrito, donde cada forma de materia tenía su propio á-tomo indivisible y los átomos se unían a causa de sus formas complementarias. En el modelo estándar, las partículas de la materia se unen unas a otras por medio de tres fuerzas diferentes, cuyos vehículos son unas cuantas partículas más todavía. Todas ellas interaccionan mediante un intrincado tipo de danza, que cabe describir matemáticamente pero no visualizar. Sin embargo, en cierto modo el modelo estándar es más simple de lo que jamás hubiera podido imaginar Demócrito. No necesitamos un á-tomo para el queso feta que sea propio de éste, otro para los meniscos de las rodillas, otro para el brócoli. Sólo hay un número pequeño de átomos. Combinadlos de varias formas, y os saldrá lo que sea. Ya nos hemos topado con tres de esas partículas elementales, el electrón, el muón y el neutrino. Pronto veremos las demás y cómo casan las unas con las otras.

Este es un capítulo triunfal, pues en él llegamos al final del camino en nuestra persecución de un ladrillo básico. En los años cincuenta y a principios de los sesenta, sin embargo, no nos sentíamos tan optimistas por lo que se refería a la resolución final del problema planteado por Demócrito. A causa del quebradero de cabeza de los cien hadrones, la perspectiva de que se identificasen unas pocas partículas elementales parecía harto oscura. Los físicos progresaban mucho más en la descripción de las fuerzas de la naturaleza. Se identificaron cuatro claramente: la gravedad, la fuerza electromagnética y las interacciones fuerte y débil. La gravedad era el dominio de la astrofísica, pues era demasiado débil para investigarla en los laboratorios de los aceleradores. Esta omisión no nos dejaría tranquilos más tarde. Pero estábamos poniendo las otras tres fuerzas bajo control.

La fuerza eléctrica

Los años cuarenta habían visto el triunfo de una teoría cuántica de la fuerza electromagnética. En 1927 Paul Dirac combinó con éxito en su teoría del electrón las teorías cuántica y de la relatividad. Sin embargo, el matrimonio de la teoría cuántica y del electromagnetismo fue tormentoso, lleno de problemas pertinaces.

A la lucha por unir las dos teorías se la conoce informalmente como la Guerra contra los Infinitos, y a mediados de los años cuarenta enfrentaba, por un lado, al infinito, y, por el otro, a muchas de las luminarias más brillantes de la física: Pauli, Weisskopf, Heisenberg, Hans Bethe y Dirac, así como algunas nuevas estrellas en ascenso: Richard Feynman, de Cornell, Julian Schwinger, de Harvard, Freeman Dyson, de Princeton, y Sin-itiro Tomonaga, en Japón. Salían infinitos por lo siguiente: dicho sencillamente, cuando se calcula el valor de ciertas propiedades del electrón, la respuesta, según las nuevas teorías cuánticas relativistas, era «infinito». No grande: infinito.

Una manera de visualizar la magnitud matemática a la que se llama infinito consiste en pensar en el número total de los enteros que hay, y sumarle uno más. Siempre hay uno más. Otra forma, que es más probable que aparezca en los cálculos de esos teóricos, brillantes pero tan infelices, es evaluar una fracción cuyo denominador se vuelve cero. Casi todas las calculadoras de bolsillo os informarán educadamente —por lo general con una serie de EEEEE— de que habéis hecho alguna tontería. Las calculadoras más antiguas, que funcionaban mecánicamente, caían en una cacofonía de mecanismos dando vueltas que solía terminar en una densa nube de humo. Los teóricos veían los infinitos como el signo de que algo estaba profundamente equivocado en la manera en que se había consumado el matrimonio entre el electromagnetismo y la teoría cuántica, metáfora que no deberíamos llevar más adelante, por mucho que nos tiente. En cualquier caso, Feynman, Schwinger y Tomonaga, trabajando por separado, lograron una cierta victoria a finales de los años cuarenta. Por fin superaron la incapacidad de calcular las propiedades de las partículas cargadas, como el electrón.

Uno de los principales estímulos para este gran progreso teórico vino de un experimento que efectuó en Columbia uno de mis profesores, Willis Lamb. En los primeros años de la posguerra, Lamb daba la mayor parte de los cursos avanzados y trabajaba en la teoría electromagnética. Y diseñó y realizó, mediante las técnicas de radar que en tiempo de guerra se desarrollaban en Columbia, un experimento brillantemente preciso sobre las propiedades de ciertos niveles seleccionados de energía del átomo de hidrógeno. Los datos de Lamb habrían de servir para contrastar algunas de las partes más sutiles de la teoría cuántica electromagnética de nuevo cuño que su experimento motivó. Me saltaré los detalles del experimento de Lamb, pero quiero recalcar que un experimento fue el germen de la apasionante creación de una teoría operativa de la fuerza eléctrica.

El fruto fue lo que los teóricos llamaron «electrodinámica cuántica renormalizada». Gracias a la electrodinámica cuántica, o QED (de Quantum Electrodynamics), los teóricos pudieron calcular las propiedades del electrón, o de su hermano más pesado el muón, con diez cifras decimales.

QED era una teoría de campos, y por lo tanto nos dio una imagen física de cómo se transmite una fuerza entre dos partículas de materia, entre, por ejemplo, dos electrones. A Newton le causaba problemas la idea de la acción a distancia, y se los causaba a Maxwell. ¿Cuál es el mecanismo? Uno de esos antiguos tan listos, un colega de Demócrito, sin duda, descubrió la influencia de la Luna en las mareas de la Tierra, y no paró de darle vueltas a cómo podía manifestarse esa influencia a través del vació interpuesto. En la QED, el campo está cuantizado, es decir, se divide en cuantos (más partículas). Pero no son partículas de materia. Son las partículas del campo. Transmiten la fuerza al viajar, a la velocidad de la luz, entre las dos partículas de materia que interactúan. Son partículas mensajeras, a las que en la QED se llama fotones. Otras fuerzas tienen sus propios, diferentes, mensajeros. Las partículas mensajeras son la manera que tenemos de visualizar las fuerzas.

Partículas virtuales

Antes de que sigamos adelante, debería explicar que hay dos manifestaciones de las partículas: la real y la virtual. Las partículas reales pueden viajar del punto A al punto B. Conservan la energía. Hacen que suenen los contadores Geiger. Como he mencionado en el capítulo 6, las partículas virtuales no hacen esas cosas. Las partículas mensajeras —las portadoras de la fuerza— pueden ser partículas reales, pero lo más frecuente es que aparezcan en la teoría en la forma de partículas virtuales, así que las dos denominaciones son a menudo sinónimas. Son las partículas virtuales las que transportan el mensaje de la fuerza de partícula a partícula. Si hay una gran cantidad de energía, un electrón puede emitir un fotón real, que hace que un contador Geiger real emita un sonido real. Una partícula virtual es una construcción lógica que tiene su origen en la permisividad de la física cuántica. Según las reglas cuánticas, se pueden crear partículas si se toma prestada la necesaria energía. La duración del préstamo está gobernada por las reglas de Heisenberg, que dictan que el producto de la energía prestada y la duración del préstamo tiene que ser mayor que la constante de Planck dividida por dos veces pi. La ecuación tiene este aspecto: ΔEΔt es mayor que h / 2π. Esto quiere decir que cuanto mayor sea la cantidad de energía que se toma prestada, más breve es el tiempo que puede existir la partícula virtual para disfrutar de ella.

Desde este punto de vista, el llamado espacio vacío puede estar barrido por los siguientes objetos fantasmagóricos: fotones virtuales, electrones y positrones virtuales, quarks y antiquarks, incluso (con, ¡oh dios!, qué probabilidad tan pequeña) pelotas y antipelotas de golf virtuales. En este vacío revuelto, dinámico, las propiedades de una partícula real se modifican. Por fortuna para la cordura y el progreso, las modificaciones son muy pequeñas. Pequeñas, pero mensurables, y una vez que esto fue conocido, la vida se volvió una lucha entre unas mediciones cada vez más precisas y unos cálculos teóricos cada vez más pacientes y concluyentes. Pensad, por ejemplo, en un electrón real. Alrededor del electrón, a causa de su propia existencia, hay una nube de fotones virtuales transitorios que notifican a todas partes que está presente un electrón, y que además influyen en las propiedades de éste. Aún más, un fotón virtual se puede disolver, muy transitoriamente, en un par e+ e (un positrón y un electrón). En menos que canta un gallo, el par se devuelve en forma de un fotón, pero incluso esta evanescente transformación influye en las propiedades de nuestro electrón.

En el capítulo 5 escribí el valor g del electrón según los cálculos teóricos basados en la QED y según unos inspirados experimentos. Como quizá recordéis, las dos cifras concuerdan hasta el undécimo decimal. El mismo éxito se tuvo con el valor g del muón. Como el muón es más pesado que el electrón, con él cabe contrastar aún más incisivamente la noción de las partículas mensajeras; las del muón pueden tener una energía mayor y hacer más daño. El efecto es que el campo influye en las propiedades del muón con una intensidad aún mayor. Es un asunto muy abstracto, pero el acuerdo entre la teoría y el experimento es sensacional e indica el poder de la teoría.

El magnetismo personal del muón

En cuanto al experimento verificador… En mi primer año sabático (1958-1959), fui al CERN de Ginebra gracias a unas becas para profesores Ford y Guggenheim que completaban mi medio salario. El CERN había sido creado por un consorcio de doce naciones europeas; su finalidad era construir y compartir las costosas instalaciones que se requieren para hacer física de altas energías. Fundado a finales de los años cuarenta, cuando los escombros de la guerra aún humeaban, esta colaboración entre quienes antes habían sido enemigos militares se convirtió en un modelo para la cooperación científica internacional. Allí mi viejo patrocinador y amigo, Gilberto Bernardini, era director de investigación. La razón principal para ir allá era disfrutar de Europa, aprender a esquiar y enredar un poco en ese nuevo laboratorio acurrucado en la frontera franco-suiza, justo a las afueras de Ginebra. A lo largo de los veinte años siguientes pasaría unos cuatro años investigando en esa magnífica instalación multilingüe. Aunque el francés, el inglés, el italiano y el alemán eran habituales, el lenguaje oficial del CERN era un mal Fortran. Los gruñidos y el lenguaje de los signos también valían. Comparaba el CERN y el Fermilab así: «El CERN es un laboratorio culinariamente esplendoroso y arquitectónicamente desastroso, y el Fermilab es al revés». Convencí luego a Bob Wilson para que contratase a Gabriel Tortella, el legendario cocinero y jefe de la cafetería del CERN, como asesor del Fermilab. El CERN y el Fermilab son unos competidores cooperativos, como nos gusta decir, cada uno ama odiar al otro.

En el CERN, con la ayuda de Gilberto, organicé un experimento «g menos 2», diseñado para medir el factor g del muón con una precisión abrumadora. Me basé en unos trucos. Uno de ellos era posible gracias a que los muones salen de la desintegración de los piones polarizados; es decir, la gran mayoría tiene espines que apuntan en la misma dirección con respecto a su movimiento. Otro truco inteligente está implícito en el título del experimento: «G menos dos» o «G moins deux», como dicen los franceses. El valor g guarda relación con la intensidad del pequeño imán integrado en las propiedades de las partículas cargadas que tienen espín, como el muón o el electrón.

La «tosca» teoría de Dirac, recordad, predecía que el valor de g tenía que ser exactamente 2,0. Sin embargo, a medida que la QED evolucionó, se vio que el 2 de Dirac necesitaba unos ajustes minúsculos pero importantes. Esos términos pequeños aparecen porque el muón o el electrón «siente» las pulsaciones cuánticas del campo a su alrededor. Recordad que una partícula cargada puede emitir un fotón mensajero. Este fotón, como veremos, puede disolverse virtualmente en un par de partículas de cargas opuestas —sólo pasajeramente— y restaurarse a sí mismo antes de que nadie pueda verlo. Del electrón, aislado en su vacío, tira el positrón virtual transitorio; el electrón virtual le empuja; el campo magnético virtual le tuerce. Estos y otros procesos, aún más sutiles, que tienen lugar en el hervidero de los acontecimientos virtuales conectan el electrón, debilísimamente, con todas las partículas cargadas que existen. El efecto es una modificación de las propiedades del electrón. En la caprichosa lengua de la física teórica, el electrón «desnudo» es un objeto imaginario aislado de las influencias del campo, mientras que el electrón «vestido» lleva la impronta del universo, pero enterrada en las modificaciones extremadamente pequeñas de sus propiedades desnudas.

En el capítulo 5 he descrito el factor g del electrón. A los teóricos les interesaba aún más el muón; como su masa es doscientas veces mayor, el muón puede emitir fotones virtuales, que van más lejos en lo que se refiere a procesos exóticos. El resultado del trabajo de muchos años de un teórico fue el factor g del muón:

g = 2(1,001165918)

Este resultado (en 1987) fue la culminación de una larga secuencia de cálculos basada en las nuevas formulaciones de la QED debidas a Feynman y los otros. Los términos que se suman para dar el 0,001.165.918 reciben el nombre de correcciones radiactivas. Una vez, en Columbia, asistíamos a una disertación del teórico Abraham Pais sobre las correcciones radiactivas cuando un bedel entró en la sala con una llave inglesa. Pais se inclinó para preguntarle al hombre que quería. «Bram —exclamó alguien del público— creo que ha venido a corregir el radiador».

¿Cómo comparamos la teoría con el experimento? El truco consistía en hallar una manera de medir la diferencia del valor g del muón con respecto a 2,0. Al encontrar una manera de hacer esto, medimos la corrección (0,001.165.918) directamente en vez de en la forma de una adición minúscula a un número grande. Imaginad que intentáis pesar un penique pesando primero a una persona que lleva el penique, pesando después a esa misma persona sin el penique y sustrayendo el segundo peso del primero. Es mejor pesar el penique directamente. Suponed que atrapamos un muón en una órbita dentro de un campo magnético. La carga en órbita es también un «imán» con un valor g, del que la teoría de Maxwell dice que es exactamente 2, mientras que el imán asociado al espín tiene ese exceso minúsculo sobre 2. El muón, pues, tiene dos «imanes» diferentes: uno interno (su espín) y el otro externo (su órbita). Al medir el imán del espín mientras el muón está en su configuración orbital, el 2,0 se sustrae, gracias a lo cual podemos medir directamente la desviación de 2 en el muón, no importa lo pequeña que sea.

Pintad una flechita (el eje del espín del muón) que se mueve en un gran círculo tangente a éste. Eso es lo que ocurriría si g = 2,000 exactamente. No importa cuántas órbitas describa la partícula, la flechita del espín siempre será tangente a la órbita. Sin embargo, si hay una diferencia, por pequeña que sea, entre el valor verdadero de g y 2, la flecha se apartará de la tangencia en una fracción, quizá, de grado por cada órbita. Tras, digamos, 250 órbitas, la flecha (el eje del espín) podría apuntar hacia el centro de la órbita, como un radio. El movimiento orbital sigue, y en 1.000 órbitas la flecha dará una vuelta entera (360 grados) con respecto a su dirección inicial tangente. Gracias a la violación de la paridad, podemos (triunfalmente) detectar la dirección de la flecha (el espín del muón) observando la dirección en que salen los electrones cuando el muón se desintegra… Un ángulo cualquiera entre el eje del espín y una línea tangente a la órbita representa una diferencia entre g y 2. Una medición precisa de este ángulo ofrece una medición precisa de la diferencia. ¿Lo veis? ¿No? ¡Bueno, pues creéoslo!

El experimento propuesto era complicado y ambicioso, pero en 1958 era fácil juntar a unos cuantos físicos jóvenes muy brillantes que echasen una mano. Volví a los Estados Unidos a mediados de 1959 y fui visitando el experimento europeo periódicamente. Atravesó varias fases; cada una sugería la siguiente, y no terminó en realidad hasta 1978, cuando se publicó el valor g del muón obtenido por el CERN, todo un triunfo de la inteligencia y de la determinación experimentales (sitzfleisch, lo llaman los alemanes). El valor g del electrón era más preciso, pero no olvidéis que los electrones son eternos y los muones están en el universo sólo dos millonésimas de segundo. ¿El resultado?

g = 2(1,001.165.923 ± 0,000.000.080)

El error de ocho partes en cien millones cubre claramente la predicción teórica. Todo esto se dice para que se entienda que la QED es una gran teoría; en parte, es la razón de que se considere a Feynman, Schwinger y Tomonaga grandes físicos. Tiene bolsas de misterio, una de las cuales es notable y tiene que ver con nuestro tema. Guarda relación con esos infinitos de los que hablábamos —la masa del electrón, por ejemplo—. Los primeros cálculos que se efectuaron con la teoría cuántica de campos arrojaron como resultado un electrón puntual infinitamente pesado. Como si Santa Claus, al construir los electrones para el mundo, tuviera que comprimir una cierta cantidad de carga negativa en un volumen muy pequeño. ¡Eso cuesta trabajo! El esfuerzo debería salir a relucir con una masa enorme, pero el electrón, que pesa 0,511 MeV, o unos 10−30 kilogramos, es un peso mosca, la menor masa de todas las partículas que claramente tienen alguna.

Feynman y sus colegas propusieron que, en cuanto veamos aparecer ese infinito tan temido, lo esquivemos en la práctica poniendo la masa conocida del electrón. En el mundo real uno lo llamaría a esto tomadura de pelo. En el mundo de la teoría, la palabra es «renormalización», método matemático coherente para evitar los embarazosos infinitos que una teoría real nunca tendría. No os preocupéis. Funcionó, y gracias a ello se realizaron los cálculos superprecisos de los que hemos hablado. Por lo tanto, el problema de la masa fue esquivado —pero no resuelto— y dejado detrás, como una bomba, con su tranquilo tic-tac, que ha de activar la Partícula Divina.

La interacción débil

Uno de los misterios que incordiaron a Rutherford y a otros fue la radiactividad. ¿Cómo es posible que los núcleos y las partículas se desintegren cuando les apetezca en otras partículas? El físico que elucidó esta cuestión por primera vez con una teoría explícita fue Enrico Fermi, en los años treinta.

Hay miles de historias sobre la brillantez de Fermi. A punto de realizarse la primera prueba de la bomba nuclear en Alamogordo, Nuevo México, Fermi estaba estirado en el suelo a unos quince kilómetros de la torre de la bomba. Cuando estalló la bomba, se puso de pie y fue tirando unos trocitos de papel al suelo. Los trozos caían a sus pies en el aire tranquilo, pero unos cuantos segundos después llegó la onda de choque y los golpeó arrastrándolos unos pocos centímetros. Fermi calculó la energía de la explosión a partir del desplazamiento de los pedazos de papel, y su resultado obtenido sobre la marcha coincidió mucho con la medición oficial, cuyo cálculo llevó varios días. (Un amigo suyo, el físico italiano Emilio Segré, señalaba, sin embargo, que Fermi era humano. Le costaba entender la cuenta de gastos de su Universidad de Chicago).

Como a muchos físicos, a Fermi le encantaba realizar juegos matemáticos. Alan Wattenberg cuenta que una vez estaba comiendo con un grupo de físicos; se fijó en la suciedad de las ventanas, y los retó a que descubriesen qué espesor debería tener la suciedad antes de que se desprendiese del cristal por su propio peso. Fermi les ayudó a todos a sacar adelante el ejercicio, para el que había que partir de algunas constantes fundamentales de la naturaleza, aplicar la interacción electromagnética y calcular las atracciones dieléctricas que mantienen unos aislantes unidos a los otros. Un día, en Los Álamos, durante el proyecto Manhattan, un físico atropelló a un coyote con su coche. Fermi dijo que era posible calcular el número total de coyotes en el desierto siguiendo las interacciones vehículo-coyote. Eran, decía, justo como las colisiones de las partículas. Unos pocos sucesos raros ofrecían indicios acerca de la población total de esas partículas.

Bueno, era muy listo, y se le ha reconocido bien. Nadie hay, que yo sepa, cuyo nombre haya sido puesto a más cosas. Veamos…, el Fermilab, el Instituto Enrico Fermi, los fermiones (todos los quarks y leptones) y la estadística de Fermi (no importa). El fermi es una unidad de tamaño igual a 10−13 centímetros. Mi fantasía final es dejar detrás de mí algo que lleve mi nombre. Le rogué a mi colega de Columbia T. D. Lee que propusiera una partícula nueva, a la que, cuando se la descubriera, se le llamase «lee-on». No sirvió de nada.

Pero además del primer reactor nuclear, bajo el estadio de fútbol norteamericano de la Universidad de Chicago, y de los estudios aurorales sobre los zorros espachurrados, Fermi hizo una contribución más básica al conocimiento del universo. Fermi describió una nueva fuerza en la naturaleza, la interacción débil.

Volvamos sobre nuestros pasos rápidamente, hasta Becquerel y Rutherford. Recordad que Becquerel descubrió de chiripa la radiactividad en 1896, cuando guardó un poco de uranio en un cajón donde tenía su papel fotográfico; éste se ennegreció, y al final encontró la causa en unos rayos invisibles que salían del uranio. Tras el descubrimiento de la radiactividad y la elucidación por Rutherford de las radiaciones alfa, beta y gamma, muchos físicos de todo el mundo se concentraron en las partículas beta, de las que pronto se supo que eran electrones.

¿De dónde venían esos electrones? Los físicos descubrieron muy deprisa que el núcleo emitía el electrón cuando experimentaba un cambio espontáneo de estado. En los años treinta los investigadores determinaron que los núcleos estaban formados por protones y neutrones, y asociaron la radiactividad del núcleo a la inestabilidad de sus constituyentes, los protones y los neutrones. Claro está, no todos los núcleos son radiactivos. La conservación de la energía y la interacción débil desempeñan papeles importantes en la desintegración de un protón o un neutrón dentro de un núcleo y en la facilidad con que lo hagan.

A finales de los años veinte se hicieron unas cuidadosas mediciones de los núcleos radiactivos, antes y después. Se mide la masa del núcleo inicial, la del núcleo final y la energía y la masa del electrón emitido (recordad que E = mc²). Y así se hizo un importante descubrimiento: la suma no salía. Se perdía energía. Había más en la entrada que en la salida. Wolfgang Pauli hizo su (entonces) atrevida sugerencia de que un pequeño objeto neutro se llevaba la energía.

En 1933 Enrico Fermi juntó todas las partes. Los electrones salían del núcleo, pero no directamente. Lo que pasa es que el neutrón del núcleo se desintegra en un protón, un electrón y el pequeño objeto neutro que Pauli había inventado. Fermi lo llamó el neutrino, que quería decir «el pequeño neutro». De esta reacción en el núcleo es responsable, decía Fermi, una fuerza, y la llamó interacción débil. Y lo es muchísimo si se la compara con la interacción nuclear fuerte y el electromagnetismo. Por ejemplo, a baja energía la intensidad de la interacción débil es alrededor de una milésima de la intensidad del electromagnetismo.

El neutrino, como no tiene carga y apenas masa, no podía detectarse directamente en los años treinta; hoy sólo puede detectárselo con mucho esfuerzo. Aunque la existencia del neutrino no se probó experimentalmente hasta los años cincuenta, casi todos los físicos aceptaron que su existencia era un hecho porque tenía que existir para que la contabilidad cuadrase. En las reacciones de hoy en los aceleradores, que son más exóticas y en las que intervienen los quarks y otras cosas extrañas, seguimos presuponiendo que toda energía que falte se escapa de la colisión en forma de neutrinos indetectables. Este artero ladronzuelo parece dejar su firma invisible por todo el universo.

Pero volvamos a la interacción débil. La desintegración que descubrió Fermi —el neutrón se convierte en un protón, un electrón y un neutrino (en realidad, un antineutrino)— les sucede rutinariamente a los neutrones libres. Cuando el neutrón está aprisionado en el núcleo, sin embargo, sólo puede ocurrir en circunstancias especiales. Por el contrario, el protón, en cuanto partícula libre, no puede desintegrarse (que sepamos). Dentro del abarrotado núcleo, en cambio, el protón ligado puede dar lugar a un neutrón, un positrón y un neutrino. La razón de que el neutrón libre sufra la desintegración débil es la mera conservación de la energía. El neutrón es más pesado que el protón, y cuando un neutrón libre se convierte en un protón hay suficiente masa en reposo adicional para crear el electrón y el antineutrino y despedirlos con un poco de energía. Un protón libre se queda muy corto de masa para hacer eso. Pero dentro del núcleo la presencia de los demás cacharros altera de hecho la masa de una partícula ligada. Si los protones y los neutrones de dentro pueden, mediante su desintegración, aumentar la estabilidad y reducir la masa del núcleo en el que se apiñan, lo hacen. Sin embargo, si el núcleo está ya en su estado de menor masa-energía, es estable y no pasa nada. Resulta que todos los hadrones —los protones, los neutrones y sus cientos de primos— se ven inducidos a desintegrarse por medio de la interacción débil, y el protón libre parece ser la única excepción.

La teoría de la interacción débil se generalizó gradualmente y, enfrentándose sin cesar a nuevos datos, se convirtió en una teoría cuántica de campos de la interacción débil. Salió una nueva generación de teóricos, casi todos de las universidades norteamericanas, que contribuyó a moldear la teoría: Feynman, Gell-Mann, Lee, Yang, Schwinger, Robert Marshak y muchos otros. (Sigo teniendo una pesadilla en la que todos los teóricos que no he citado se reúnen en un suburbio de Teherán y ofrecen la recompensa de una admisión inmediata en el cielo de los teóricos a cualquiera que instantánea y totalmente renormalice a Lederman).

La simetría ligeramente rota, o por qué estamos aquí

Una propiedad crucial de la interacción débil es la violación de la paridad. Las demás fuerzas respetan esa simetría; que una fuerza la violara fue una conmoción. Los mismos experimentos que demostraron la violación de P (la paridad) habían demostrado que otra simetría profunda, la que compara el mundo y el antimundo, fallaba también. Esta segunda simetría recibía el nombre de C, de conjugación de carga. La simetría C también fallaba sólo con la interacción débil. Antes de que se demostrase la violación de C se pensaba que un mundo en el que todos los objetos estuviesen hechos de antimateria obedecería las mismas leyes de la física que el viejo mundo regular hecho de materia. No, dijeron los datos. La interacción débil no respeta esa simetría.

¿Qué tenían que hacer los teóricos? Se retiraron rápidamente a una nueva simetría: la simetría CP. Esta dice que dos sistemas físicos son esencia idénticos si uno está relacionado con el otro mediante, a la vez, la reflexión de todos los objetos en un espejo (P) y la transformación de todas las partículas en antipartículas (C). La simetría CP, decían los teóricos, es una simetría mucho más profunda. Aunque la naturaleza no respeta C y P por separado, la simetría simultánea CP debe persistir. Y lo hizo hasta 1964, cuando Val Fitch y James Cronin, dos experimentadores de Princeton que estudiaban los kaones neutros (una partícula que había descubierto mi grupo en unos experimentos realizados en Brookhaven entre 1956 y 1958), obtuvieron datos claros y convincentes que mostraban que la simetría CP no era perfecta.

¿Que no era perfecta? Los teóricos guardaron un torvo silencio, pero el artista que hay en todos nosotros se alegró. A los artistas y a los arquitectos les encanta pincharnos con lienzos o estructuras arquitectónicas que son casi, pero no exactamente, simétricas. Las torres asimétricas de la, por lo demás, simétrica catedral de Chartres son un buen ejemplo. El efecto de la violación de CP era pequeño —unos pocos sucesos por millar— pero claro, y los teóricos volvieron a la casilla número uno.

Cito la violación de CP por tres razones. En primer lugar, es un buen ejemplo de lo que, en las otras fuerzas, vino a considerarse una «simetría ligeramente rota». Si creemos en la simetría intrínseca de la naturaleza, algo, algún agente físico, debe intervenir para romper esa simetría. Un agente que esté íntimamente emparentado con la simetría no la destruye en realidad, sólo la oculta para que la naturaleza parezca ser asimétrica. La Partícula Divina disfraza así la simetría. Volveremos a ello en el capítulo 8. La segunda razón para mencionar la violación de CP es que, desde el punto de vista de los años noventa, se trata de una de las necesidades más perentorias que tiene la resolución de los problemas de nuestro modelo estándar.

La razón final, la que llamó la respetuosa atención de la Real Academia Sueca de la Ciencia hacia el experimento de Fitch y Cronin, es que la aplicación de la violación de CP a los modelos cosmológicos de la evolución del universo explicó un problema que había atormentado a los astrofísicos desde hacía cincuenta años. Antes de 1957, un gran número de experimentos indicaba que había una simetría perfecta entre la materia y la antimateria. Si la materia y la antimateria eran tan simétricas, ¿por qué nuestro planeta, nuestro sistema solar, nuestra galaxia y, según todos los indicios, todas las galaxias carecen de antimateria? ¿Y cómo pudo un experimento realizado en Long Island en 1965 explicar todo eso?

Los modelos indicaban que a medida que el universo se enfrió tras el big bang, toda la materia y toda la antimateria se aniquilaron y dejaron una radiación, pura en esencia y al final demasiado fría —con una energía demasiado baja— para crear materia. ¡Pero materia es lo que somos nosotros! ¿Por qué estamos aquí? El experimento de Fitch y Cronin muestra la salida. La simetría no es perfecta. El resultado de la simetría CP ligeramente rota es un pequeño exceso de materia con respecto a la antimateria (por cada cien millones de pares de quark y antiquark hay un quark extra), y ese ínfimo excedente explica toda la materia que hay en el universo que hoy observamos, incluyéndonos a nosotros mismos. Gracias, Fitch; gracias, Cronin. Unos tipos estupendos.

El pequeño neutro, atrapado

Buena parte de la información detallada sobre la interacción débil nos la proporcionaron los haces de neutrinos, y esta es otra historia. La hipótesis de Pauli de 1930 —que existía una pequeña partícula neutra que sólo es sensible a la fuerza débil— se comprobó de muchas maneras de 1930 a 1960. Las mediciones precisas de un número cada vez mayor de núcleos y partículas que se desintegraban débilmente tendían a confirmar la hipótesis de que una cosita neutra escapaba de la reacción y se llevaba energía y momento. Era una forma conveniente de entender las reacciones de desintegración, pero ¿cabía detectar de verdad los neutrinos?

No era una tarea fácil. Los neutrinos flotan a través de vastos espesores de materia indemnes porque sólo obedecen a la interacción débil, cuyo corto alcance reduce la probabilidad de una colisión enormemente. Se calculó que para garantizar una colisión de un neutrino con la materia haría falta un blanco de plomo de ¡un año luz de espesor! Un experimento muy caro. Pero si usamos un número muy grande de neutrinos, el grosor necesario para ver una colisión de vez en cuando se reduce en la medida correspondiente. A mediados de los años cincuenta, se emplearon los reactores nucleares como fuentes intensas de neutrinos (¡tanta radiactividad!), a los que se exponía un enorme depósito de dicloruro de cadmio (más barato que un año luz de plomo). Con tantos neutrinos (en realidad, antineutrinos, que es lo que, más que nada, sale de los reactores), era inevitable que alguno de ellos diese en los protones y causase una desintegración beta inversa; es decir, se liberaban un positrón y un neutrón. El positrón, en su vagabundeo, acabaría por dar con un electrón; ambos se aniquilarían y se producirían dos fotones que se moverían en sentidos opuestos y volarían hacia afuera, hacia el interior de un fluido de limpieza en seco, que destella cuando dan en él los fotones. La detección de un neutrón y de un par de fotones supuso la primera prueba experimental del neutrino, unos treinta y cinco años después de que Pauli imaginara la criatura.

En 1959, otra crisis, o dos en realidad, fustigaron el espíritu del físico. El centro de la tormenta estaba en la Universidad de Columbia, pero la crisis se compartió y apreció generosamente en todo el mundo. En ese momento, todos los datos sobre la interacción débil procedían de la desintegración natural de las partículas. No hay mayor amor que el de una partícula que da su vida por la educación de los físicos. Para estudiar la interacción débil nos limitábamos a observar las partículas, como el neutrón o el pión, que se desintegraban en otras. Las energías que intervenían las proporcionaban las masas en reposo de las partículas que se desintegraban —por lo normal de unos pocos MeV hasta unos 100 MeV o así—. Hasta los neutrinos libres que disparaban los reactores y padecían colisiones regidas por la interacción débil no aportaban más que unos pocos MeV. Cuando modificamos la teoría de la interacción débil con los resultados experimentales sobre la paridad, tuvimos una joya de teoría, bien elegante, que casaba con todos los datos disponibles, proporcionados por las miríadas de desintegraciones nucleares y por desintegraciones de los piones, los muones, las lambdas y probablemente, pero era difícil de probar, de la civilización occidental.

La ecuación explosiva

La crisis número uno tenía que ver con las matemáticas de la interacción débil. En las ecuaciones aparece la energía a la que se mide la fuerza. Según sean los datos, se introduce la energía de la masa en reposo de la partícula que se desintegra —1,65 MeV o 37,2 MeV o la que sea— y sale la respuesta correcta. Les das vueltas a los términos, los machacas, los mueles y, más pronto o más tarde, te salen las predicciones tocantes a las vidas medias, las desintegraciones, el espectro de los electrones —cosas que se pueden comparar con los experimentos—, y son buenas. Pero si uno mete, digamos, 100 GeV (mil millones de electronvoltios), la teoría se descarría. La ecuación te estalla en la cara. En la jerga de la física, a esto se le llama «la crisis de la unitariedad».

Este es el dilema. La ecuación estaba muy bien, pero a alta energía era patológica. Los números pequeños funcionaban; los grandes, no. No teníamos la verdad definitiva, sólo una verdad válida para el dominio de bajas energías. Tenía que haber alguna física nueva que modificase las ecuaciones a alta energía.

La crisis número dos era el misterio de la reacción no observada. Se podía calcular cuán a menudo se desintegraba un muón en un electrón y un fotón. Nuestra teoría de los procesos débiles decía que esa reacción debía producirse. Buscarla era un experimento favorito en Nevis, y varios nuevos doctores se pasaron quién sabe cuántas horas tras ella sin éxito. Se cita a menudo a Murray Gell-Mann, el gurú de todo lo arcano, como el autor de la llamada Regla Totalitaria de la Física: «Todo lo que no está prohibido es obligatorio». Si nuestras leyes no niegan la posibilidad de un suceso, no sólo puede ocurrir, es que ¡tiene que ocurrir! Si la desintegración del muón en un electrón y un fotón no está prohibida, ¿por qué no la vemos? ¿Qué prohibía esa desintegración mu-e-gamma? (Donde pone «gamma» entended «fotón»).

Las dos crisis eran apasionantes. Ambas ofrecían la posibilidad de una física nueva. Abundaban las cábalas teóricas, pero la sangre experimental hervía. ¿Qué hacer? Los experimentadores tenemos que medir, martillar, serrar, limar, apilar ladrillos de plomo, hacer algo. Así que lo hicimos.

Asesinato, S. A., y el experimento de los dos neutrinos

A Melvin Schwartz, profesor ayudante de Columbia, tras escuchar un detallado repaso de las dificultades existentes al teórico, de Columbia también, T. D. Lee en noviembre de 1959, se le ocurrió su GRAN IDEA. ¿Por qué no crear un haz de neutrinos dejando que un haz de piones de alta energía derive a lo largo de un espacio suficiente para que una fracción, digamos de alrededor del 10 por 100, de los piones se desintegre en un muón y un neutrino? Desaparecerían piones en vuelo; aparecerían muones y neutrinos que se repartirían la energía original de esos piones. Así que, volando por el espacio, tenemos muones y neutrinos procedentes del 10 por 100 de los piones desintegrados, más el 90 por 100 de los piones que no se han desintegrado, más un montón de residuos nucleares originados en el blanco que produjeron los piones. Ahora, decía Schwartz, dirijámoslo todo a un muro grande y grueso de acero, de —como al final fue— doce metros de grosor. El muro lo pararía todo menos los neutrinos, a los que no les costaría atravesar más de sesenta millones de kilómetros de acero. Al otro lado del muro nos quedaría un haz puro de neutrinos, y como el neutrino obedece sólo a la interacción débil, tendríamos a mano una forma de estudiar tanto el neutrino como la interacción débil mediante las colisiones de neutrinos.

Este montaje encaraba tanto la crisis número uno como la número dos. La idea de Mel era que gracias a este haz de neutrinos podríamos estudiar la interacción débil a energías de miles de millones de electronvoltios en vez de a energías de sólo millones de electronvoltios. Nos permitiría ver la interacción débil a altas energías. Quizá nos proporcionase también algunas ideas acerca de por qué no vemos la desintegración de los muones en electrones y fotones, suponiendo que los neutrinos tenían algo que ver.

Como ocurre a menudo en la ciencia, un físico soviético, Bruno Pontecorvo, publicó una idea prácticamente equivalente casi a la vez. Si el nombre parece más italiano que ruso es porque Bruno es un italiano que se pasó a Moscú en los años cincuenta por razones ideológicas. Su física, sus ideas y su imaginación eran, no obstante, sobresalientes. La tragedia de Bruno fue la de quien intenta sacar adelante sus imaginativas ideas dentro de un sistema de burocracia idiotizante. Los congresos internacionales son el lugar donde se exhibe la tradicional cálida amistad de los científicos. En un congreso así que se celebró en Moscú le pregunté a un amigo: «Yevgeny, dime, ¿quién entre vosotros, los físicos rusos, es realmente comunista?». Miró por la sala y señaló a Pontecorvo. Pero eso fue en 1960.

Cuando volví a Columbia de un placentero año sabático en el CERN a finales de 1959, oí las discusiones acerca de las crisis de la interacción débil, incluida la ultra de Schwartz. Schwartz había llegado por alguna razón a creer que no había un acelerador lo bastante potente para generar un haz de neutrinos suficientemente intenso, pero yo no estaba de acuerdo. El AGS (de Sincrotón de Gradiente Alterno) de 30 GeV estaba a punto de concluirse en Brookhaven. Hice los números y me convencí, y luego convencí a Schwartz, de que el experimento era factible. Diseñamos lo que, para 1960, era un experimento enorme. Jack Steinberger, compañero de Columbia, se nos unió, y con estudiantes y posdoctorados formamos un grupo de siete. A Jack, Mel y a mí se nos conocía por nuestras maneras gentiles y amables. Una vez, mientras caminábamos por el suelo del acelerador de Brookhaven, oía un físico que estaba con un grupo exclamar: «¡Ahí va Asesinato, S. A.!».

Para bloquear todas las partículas menos los neutrinos, hicimos una gruesa pared alrededor del pesado detector, y con ese fin empleamos miles de toneladas de acero que se sacaron de barcos en desuso. Una vez cometí el error de decirle a un periodista que habíamos desguazado el acorazado Missouri para hacer el muro. Debí de coger mal el nombre, pues por lo visto el Missouri está todavía por ahí. Pero lo cierto era que habíamos convertido un acorazado en chatarra. También cometí el error de bromear y decir que si hubiera una guerra tendríamos que recomponer el barco; adornaron la historia, y enseguida corrió el rumor de que la armada había confiscado nuestro experimento para hacer alguna guerra (qué guerra podía ser ésa —era 1960— es aún un misterio).

Algo inventada también es mi historia del cañón. Teníamos un cañón naval de treinta centímetros con un tubo adecuado y gruesas paredes: valía como un hermoso colimador, el dispositivo que enfoca y apunta el haz de partículas. Queríamos rellenarlo de berilio, que servía de filtro, pero el tubo tenía esos profundos surcos helicoidales. Así que mandé a un estudiante huesudo a que se metiese dentro para rellenarlos con estropajo. Se tiró una hora ahí, reptó afuera todo acalorado, sudoroso e irritado, y dijo: «¡Me largo!». «No puedes largarte —le grité—, ¿dónde voy a encontrar otro estudiante de tu calibre?».

Una vez estuvieron concluidos los preparativos, el acero de unos barcos caducos rodeaba un detector hecho de diez toneladas de aluminio dispuestas con tacto para que, si los neutrinos chocaban con un núcleo de aluminio, se pudieran observar los productos de la colisión. El sistema de detección que al final empleamos, una cámara de chispas, había sido inventado por un físico japonés, Shuji Fukui. Aprendimos mucho hablando con Jim Cronin, de Princeton, que dominaba la nueva técnica. Schwartz ganó el consiguiente concurso al mejor diseño cuya escala se pudiese aumentar de unos cuantos kilos a diez toneladas. En esta cámara de chispas se espaciaban alrededor de un centímetro unas placas de aluminio de más de dos centímetros de grosor, primorosamente trabajadas, y entre las placas adyacentes se aplicaba una diferencia de voltaje enorme. Si pasaba una partícula cargada por el pasillo, una chispa, que se podía fotografiar, seguía su trayectoria. ¡Qué fácil es decirlo! Este método no carecía de problemas técnicos. ¡Pero los resultados! Zas: el camino de la partícula subnuclear se hace visible en la luz rojoanaranjada del encendido gas de neón. Era un aparato precioso.

Construimos modelos de la cámara de chispas y, para saber sus características, los pusimos en haces de electrones y piones. Casi todas las cámaras de por entonces medían unos nueve decímetros cuadrados y tenían de diez a veinte placas. El diseño que habíamos preparado tenía cien placas, cada una de cerca de cuarenta decímetros cuadrados y con un grosor del orden de un par de centímetros, esperando a que los neutrinos chocasen. Siete trabajamos de día y de noche, y a otras horas también, para ensamblar el aparato y su electrónica, e inventamos todo tipo de dispositivos: huecos de chispas hemisféricos, aparatos de encolado automáticos, circuitos. Nos ayudaron algunos ingenieros y técnicos.

Empezamos las sesiones definitivas a finales de 1960, y de inmediato nos vimos infestados por el «ruido» de fondo creado por los neutrones y otros residuos del blanco que culebreaban alrededor de nuestros formidables doce metros de acero, fastidiaban en las cámaras de chispas y sesgaban los resultados. Con que se colase sólo una partícula en mil millones, ya había problemas. Sabed, como cultura general, que uno entre mil millones es la definición legal de milagro. Durante semanas nos las vimos y deseamos taponando grietas por las que pudieran colarse los neutrones. Buscamos diligentemente conducciones eléctricas bajo el suelo. (Mel Schwartz, explorando, se topó con una, se quedó pegado y tuvieron que tirar de él varios técnicos fuertes). Cada resquicio fue taponado con bloques de acero roñoso del ex acorazado. En cierto momento, el director del flamante nuevo acelerador de Brookhaven marcó las distancias: «Pondréis esos sucios bloques cerca de mi nueva máquina por encima de mi cadáver», tronó. No aceptamos su oferta; habría quedado un bulto invisible dentro del blindaje. Pactamos, pues, sólo un poco. A finales de noviembre el fondo se había reducido a unas proporciones manejables.

Esto es lo que hacíamos.

Los protones que salían del AGS se estrellaban en un blanco y se producían unos tres piones por colisión. Producíamos unas 10¹¹ (cien mil millones) colisiones por segundo. Se generaba también una variedad de neutrones, protones, ocasionalmente antiprotones y otros residuos. Los residuos que se encaminaban hacia nosotros cruzaban un espacio de unos quince metros antes de estrellarse en el impenetrable muro de acero. En esa distancia se desintegraba alrededor de un 10 por 100 de los piones; teníamos, pues, unas cuantas decenas de miles de millones de neutrinos. El número de los que se dirigían en la dirección correcta, hacia el muro de acero de doce metros de espesor, era mucho menor. Al otro lado del muro, a unos treinta centímetros, esperaba nuestro detector, la cámara de chispas. Calculamos que, si teníamos suerte, veríamos en la cámara de chispas hecha de aluminio una colisión de neutrino ¡por semana! En esa semana el blanco habría proyectado unos 500.000 billones (5 × 1017) de partículas en nuestra dirección general. Por esa razón teníamos que reducir el fondo tan rigurosamente.

Esperábamos dos tipos de colisiones de neutrinos: 1) un neutrino da en un núcleo de aluminio, y se producen un muón y un núcleo excitado, o 2) un neutrino da en un núcleo, y se producen un electrón y un núcleo excitado. Olvidaos de los núcleos. Lo importante es que esperábamos que de la colisión saliera un mismo número de muones y de electrones, acompañados de vez en cuando por piones y otros residuos del núcleo excitado.

La virtud triunfó, y en ocho meses de exposición observamos cincuenta y seis colisiones de neutrinos, de las que quizá cinco fuesen espurias. Suena fácil, pero nunca, nunca olvidaré el primer suceso de neutrino. Habíamos revelado un rollo de película, el resultado de una semana de toma de datos. La mayoría de las fotos estaban vacías o exhibían trazas de rayos cósmicos obvias. Pero, de pronto, ahí estaba: una espectacular colisión, con una traza de muón muy, muy larga alejándose. Este primer suceso fue el momento de un mini-Eureka, el destello de la certidumbre, tras tanto esfuerzo, de que el experimento iba a salir bien.

Nuestra primera tarea fue probar que se trataba realmente de sucesos neutrínicos pues este era el primer experimento de ese tipo que se hubiese efectuado jamás. Reunimos toda nuestra experiencia y por turnos fuimos haciendo de abogado del diablo, intentando descubrir fallos en nuestras propias conclusiones. Pero los datos eran realmente sólidos como una roca, y el momento, el de hacerlos públicos. Nos sentíamos lo bastante seguros para presentar nuestros datos a los colegas. Tendríais que haber oído la charla que Schwartz dio en el abarrotado auditorio de Brookhaven. Como un abogado, descartó, una a una, todas las posibles alternativas. En el público hubo sonrisas y lágrimas. Se tuvo que ayudar a la madre de Mel, presa de un llanto incontenible.

El experimento tuvo tres consecuencias (siempre tres) de orden mayor. Recordad que Pauli propuso la existencia del neutrino para explicar la pérdida de energía en la desintegración beta, en la que un electrón es expulsado del núcleo. Los neutrinos de Pauli estaban siempre asociados a los electrones. En casi todos nuestros sucesos, sin embargo, el producto de la colisión del neutrino era un muón. Nuestros neutrinos se negaban a producir electrones. ¿Por qué?

Tuvimos que concluir que los neutrinos que usábamos tenían una nueva propiedad específica, la «muonidad». Como esos neutrinos nacieron con un muón en la desintegración de los piones, de alguna forma llevaban impreso «muón».

Para probar esto a un público que llevaba el escepticismo en los genes, teníamos que saber y mostrar que nuestro aparato no era propenso a ver muones, y que no era —por un diseño estúpido— incapaz de detectar los electrones. El problema del telescopio de Galileo una y otra vez. Por fortuna, pudimos demostrarles a nuestros críticos que habíamos dotado a nuestro equipo con la capacidad de detectar electrones y que, en efecto, lo habíamos verificado con haces de electrones de comprobación.

La radiación cósmica, que al nivel del mar está compuesta por muones, aportaba otro efecto de fondo. Un muón de rayo cósmico que entrara por la parte de atrás de nuestro detector y se parase en medio podría ser confundido por físicos de menos fuste con un muón generado por los neutrinos que saliesen, que era lo que buscábamos. Para evitarlo habíamos instalado un «bloque», pero ¿cómo podíamos estar seguros de que había funcionado?

El secreto consistía en dejar el detector funcionando mientras la máquina estaba apagada, lo que ocurría la mitad del tiempo, más o menos. Cuando el acelerador estaba inactivo, todos los muones que apareciesen serían rayos cósmicos no invitados. Pero no salió ninguno; los rayos cósmicos no podían atravesar nuestro bloque. Menciono todos estos detalles técnicos para enseñaros que la experimentación no es tan fácil y que la interpretación de un experimento es una cuestión sutil. Heisenberg le comentó una vez a un colega ante la entrada de una piscina: «Toda esa gente entra y sale muy bien vestida. ¿De ello sacas la conclusión de que nadan vestidos?».

La conclusión que nosotros —y casi todos los demás— sacamos del experimento era que hay (por lo menos) dos neutrinos en la naturaleza, uno asociado a los electrones (el corriente y moliente de Pauli) y otro asociado a los muones. Llamadlos, pues, neutrinos electrónicos (corrientes) y neutrinos muónicos, el tipo que produjimos en nuestro experimento. A esta distinción se le llama ahora «sabor», en la caprichosa jerigonza del modelo estándar, y la gente empezó a hacer una pequeña tabla:

neutrino electrónico neutrino muónico
electrón Muón

o en la notación abreviada de la física:

υe υμ
e μ

El electrón está puesto debajo de su primo, el neutrino electrónico (indicado por el subíndice), y el muón debajo del suyo, el neutrino muónico. Recordad que antes de este experimento conocíamos tres leptones —e, υ y μ— que no estaban sujetos a la interacción fuerte. Ahora había cuatro: e, υe y υμ. El experimento se quedó para siempre con el nombre de experimento de los dos neutrinos; los ignorantes creen que son una pareja de bailarines italianos. Pasado el tiempo, con este broche se cerraría el manto del modelo estándar. Observad que tenemos dos «familias» de leptones, partículas puntuales, dispuestas verticalmente. El electrón y el neutrino electrónico forman la primera familia, que está por doquiera en nuestro universo. La segunda familia la forman el muón y el neutrino muónico. No se encuentran hoy los muones fácilmente en el universo, sino que hay que hacerlos en los aceleradores o en otras colisiones de alta energía, como las producidas por los rayos cósmicos. Cuando el universo era joven y caliente, estas partículas eran abundantes. Cuando el muón, hermano pesado del electrón, fue descubierto, I. I. Rabi preguntó: «¿Quién ha pedido eso?». El experimento de los dos neutrinos proporcionó una de las primeras pistas de cuál era la respuesta.

¡Ah, sí! Que hubiera dos neutrinos diferentes resolvía el problema de la crisis de la reacción mu-e-gamma perdida. Recuerdo: un muón debería desintegrarse en un electrón y un fotón, pero nadie había podido detectar esta reacción, aunque muchos lo intentaron. Debería haber una secuencia de procesos: un muón se desintegraría primero en un electrón y dos neutrinos, un neutrino regular y un antineutrino. Estos dos neutrinos, al ser materia y antimateria, se aniquilarían y producirían el fotón. Pero nadie había visto esos fotones. Ahora la razón era obvia. Estaba claro que el muón positivo se desintegra siempre en un positrón y dos neutrinos, pero éstos eran un neutrino electrónico y un neutrino antimuónico. Estos neutrinos no se aniquilan mutuamente porque son de familias diferentes. Siguen siendo neutrinos, y no se produce ningún fotón, y por lo tanto no hay reacción mu-e-gamma.

La segunda consecuencia del experimento de Asesinato, S. A., fue la creación de una nueva herramienta para la física: los haces calientes y fríos de neutrinos. Aparecieron, a su tiempo, en el CERN, el Fermilab, Brookhaven y Serpuhkov (URSS). Recordad que antes del experimento del AGS no estábamos totalmente seguros de que existiesen los neutrinos. Ahora teníamos haces suyos de encargo.

Algunos os habréis dado cuenta de que estoy esquivando un tema. ¿Qué pasaba con la crisis número uno, el que nuestra ecuación de la interacción débil no valga a altas energías? En realidad, nuestro experimento de 1961 demostró que el ritmo de las colisiones aumentaba con la energía. En los años ochenta, los laboratorios de aceleradores mencionados más arriba —con haces más intensos a energías mayores y detectores que pesaban cientos de toneladas— recogieron millones de sucesos neutrínicos a un ritmo de varios por minuto (mucho mejor que nuestro rendimiento en 1961 de uno o dos a la semana). Aun así, la crisis de la interacción débil a grandes energías no estaba resuelta, pero sí se había iluminado mucho. El ritmo de las colisiones de los neutrinos aumentaba con la energía, como la teoría de baja energía predecía. Sin embargo, el miedo de que el ritmo de colisiones se volviese imposiblemente grande se alivió con el descubrimiento de la partícula W en 1982. Era una de las partes de la física nueva que modificó la teoría, y condujo a un comportamiento más gentil y amable. De esta forma se pospuso la crisis, a la que, sí, volveremos.

La deuda brasileña, las minifaldas y viceversa

La tercera consecuencia del experimento fue que Schwartz, Steinberger y Lederman recibieron el premio Nobel de física, pero no fue sino en 1988, unos veintisiete años después de que se hubiera hecho la investigación. En algún sitio oí hablar de un periodista que entrevistaba al hijo, joven, de un recién laureado: «¿Te gustaría ganar un premio Nobel como tu padre?». «¡No!», dijo el joven. «¿No? ¿Por qué no?». «Quiero ganarlo solo».

El premio. Hago unos comentarios. El Nobel sobrecoge a casi todos los que nos dedicamos a esto, quizá por el brillo de los premiados, desde el primero, Roentgen (1901), y entre los que están muchos de nuestros héroes, Rutherford, Einstein, Bohr, Heisenberg. El premio le da a un colega que lo gane cierta aura. Hasta cuando es vuestro mejor amigo, uno con en el que habéis hecho pis entre los árboles, quien lo gana, lo veis luego, en cierto sentido, de otra manera.

Yo sabía que me habían nominado varias veces. Supongo que podría haber recibido el premio por el «kaón neutro de larga vida»; lo descubrí en 1956, y podrían haberme dado el premio porque era un objeto muy inusual, que hoy sirve para estudiar la simetría fundamental CP. Me lo podrían haber dado por las investigaciones sobre la paridad con el proceso pión-muón (con W. S. Wu), pero Estocolmo prefirió honrar a los teóricos que las inspiraron. La verdad es que fue una decisión razonable. Además, el descubrimiento secundario de los muones polarizados y de su desintegración asimétrica ha tenido numerosas aplicaciones en el estudio de la materia condensada y de las físicas atómica y molecular, tantas, que se celebran regularmente congresos internacionales sobre el tema.

A medida que pasaban los años, octubre fue siempre un mes de nervios, y cuando se anunciaban los nombres de los ganadores del Nobel, solía llamarme uno u otro de mis queridos retoños con un «¿Qué ha…?». De hecho, hay muchos físicos —y estoy seguro de que lo mismo pasa con los candidatos en química y medicina, y a los premios que no son científicos— que no tendrán el premio pero cuyos méritos son iguales a los de quienes sí lo han recibido. ¿Por qué? No lo sé.

En parte se debe a la suerte, a las circunstancias, a la voluntad de Alá.

Pero yo he tenido suerte y no me ha faltado nunca el reconocimiento. Por hacer lo que amo hacer, se me hizo profesor titular de la Universidad de Columbia en 1958 con un sueldo razonable. (Ser profesor de una universidad norteamericana es el mejor trabajo de la civilización occidental. Puedes hacer todo lo que quieras hacer, ¡hasta enseñar!). Mi actividad investigadora fue vigorosa, con la ayuda de cincuenta y dos graduados, a lo largo de los años 1956-1979 (en este último me nombraron director del Fermilab). Casi siempre, los premios han llegado cuando yo estaba demasiado ocupado para preverlos: ser elegido miembro de la Academia Nacional de la Ciencia (1964), la Medalla de la Ciencia otorgada por el presidente (me la dio Lyndon Johnson en 1965), y varias medallas y citaciones más. En 1983 Martin Perl y yo compartimos el premio Wolf, concedido por el Estado de Israel, por haber descubierto la tercera generación de quarks y leptones (el quark b y el leptón tau). También llegaron los grados honorarios, pero este era un «mercado en el que manda el que vende»: cientos de universidades buscan cada año cuatro o cinco personas a las que honrar. Con todo eso, uno adquiere un poco de seguridad y una actitud calmosa respecto al Nobel.

Cuando por fin llegó el anuncio, en forma de una llamada de teléfono a las seis de la mañana del 10 de octubre de 1988, liberé un torrente oculto de alegría incontrolada. Mi esposa, Ellen, y yo, tras acusar recibo de la noticia con respeto, nos pusimos a reír histéricamente hasta que el teléfono empezó a sonar y nuestras vidas a cambiar. Cuando un periodista del New York Times me preguntó qué iba a hacer con el dinero del premio, le dije que no podía decidirme entre comprar una cuadra de caballos de carreras o un castillo en España —que, en inglés, es como un castillo en el aire—, y él lo publicó tal cual. Como os lo cuento: un corredor de fincas me llamó a la semana siguiente, para hablarme de un castillo en España con unas condiciones muy buenas.

Ganar el premio Nobel cuando uno está ya en una posición bastante prominente tiene unos efectos secundarios interesantes. Yo era el director del Fermilab, que tiene 2.200 empleados, y a la plantilla le encantó la publicidad; para ellos fue una especie de regalo de Navidad adelantado. Hubo que repetir una reunión del laboratorio entero varias veces para que todo el mundo pudiese escuchar al jefe, que ya era muy divertido, pero a quien de pronto se le consideró el igual de Johnny Carson (y a quien tomaban ahora en serio personas importantes de verdad). El Sun-Times de Chicago me puso los pelos de punta con el titular EL NOBEL CAE EN CASA, y el New York Times puso una foto mía sacando la lengua en la primera página, ¡y por encima de donde se dobla!

Todo esto pasa, pero lo que no pasó fue la veneración que el público siente ante el título. En recepciones por toda la ciudad se me presentaba como el ganador del premio Nobel de la paz de física. Y cuando quise hacer algo bastante espectacular, quizás temerario, ayudar a las escuelas públicas de Chicago, el agua bendita del Nobel funcionó. La gente escuchaba, las puertas se abrían y de pronto tuve un programa para mejorar la educación científica en las escuelas urbanas. El premio es un vale increíble que le permite a uno efectuar actividades sociales redentoras. La otra cara de la moneda es que, no importa en qué ganes el premio, te conviertes en el acto en un experto en todo. ¿La deuda brasileña? Claro. ¿La seguridad social? Vale. «Dígame, profesor Lederman, ¿qué largo debe tener la ropa de las mujeres?». «¡Tan corta como sea posible!», responde el laureado rebosante de lujuria. Pero lo que yo quise fue servirme sin vergüenza del premio para ayudar a que la educación científica avanzase en los Estados Unidos. Para esta tarea, bien vendría un segundo premio.

La interacción fuerte

Eran considerables los triunfos conseguidos en la lucha por desentrañar las complejidades de la interacción débil. Pero todavía estaban por ahí esos cientos de hadrones fastidiándonos, una plétora de partículas, todas sujetas a la interacción fuerte, la que mantiene unido el núcleo. Esas partículas tenían una serie de propiedades: carga, masa y espín son algunas que hemos mencionado.

Los piones, por ejemplo. Hay tres clases diferentes de piones de masas poco diferentes, que, tras haber sido estudiadas en una variedad de colisiones, fueron puestas juntas en una familia, la de, qué raro, los piones. Sus cargas eléctricas son más uno, menos uno y cero (neutro). Resultó que todos los hadrones se agrupaban en cúmulos familiares. Los kaones se alinean como sigue: K+, K, K°, K°. (Los signos, +, − y 0, indican la carga eléctrica, mientras que la barra sobre el segundo kaón neutro indica que es una antipartícula). La familia sigma tiene este aspecto: Σ+, Σ, y Σ°. Un grupo que os será más conocido es la familia de los nucleones: el neutrón y el protón, componentes del núcleo atómico.

Las familias están formadas por partículas de masa y comportamiento similares en las colisiones fuertes. Para expresar la idea más específicamente se inventó la denominación de «espín isotópico», o isoespín. El isoespín es útil porque nos permite considerar el concepto de «nucleón» como el de un objeto simple que aparece en dos estados de isoespín: neutrón o protón. Similarmente, el «pión» aparece en tres estados de isoespín: π+, π, π°. Otra propiedad útil del isoespín es que es una magnitud que se conserva en las colisiones fuertes, como la carga. La colisión violenta de un protón y un antiprotón puede que produzca cuarenta y siete piones, ocho bariones y otras cosas, pero el número del espín isotópico total se mantendrá constante.

La cuestión era que los físicos intentaban poner un poco de orden en esos hadrones clasificándolos conforme a tantas propiedades como pudiesen encontrar. Por eso hay montones de propiedades de nombres caprichosos: el número de extrañeza, el bariónico, el hiperiónico y así sucesivamente. ¿Por qué número? Porque todas esas son propiedades cuánticas, y por lo tanto números cuánticos. Y los números cuánticos obedecen a los principios de conservación. De esta forma, los teóricos o los experimentadores sin experimento podían jugar con los hadrones, organizarlos e, inspirados quizá por los biólogos, clasificarlos en estructuras de familia mayores. A los teóricos les guiaban las reglas de la simetría matemática, de acuerdo con la creencia de que las ecuaciones fundamentales deberían respetar esas simetrías profundas.

En 1961, el teórico del Cal Tech Murray Gell-Mann concibió una organización que tuvo un éxito especial; le dio el nombre de Camino de las Ocho Vías, según la enseñanza de Buda: «Este es el noble Camino de las Ocho Vías: a saber, ideas rectas, intenciones rectas, palabras rectas…». Gell-Mann dispuso las correlaciones entre los hadrones, casi mágicamente, en grupos coherentes de ocho y diez partículas. La alusión al budismo era una alegría caprichosa más, tan común en la física, pero más de un místico se apoderó del nombre como prueba de que el orden verdadero del mundo guarda relación con el misticismo oriental.

Me vi en un apuro cuando, a finales de los años setenta, se me pidió que escribiese una pequeña autobiografía para el boletín de comunicaciones breves del Fermilab con ocasión del descubrimiento del quark bottom. Como no esperaba que la leyese alguien más que mis compañeros de Batavia, la titulé «Autobiografía no autorizada», de Leon Lederman. Para mi horror, el boletín del CERN y luego Science, la revista oficial de la Asociación Norteamericana para el Avance de la Ciencia, leída por cientos de miles de científicos de los Estados Unidos, se hicieron con el artículo y lo publicaron también. En él se leía esto: «Su [de Lederman] periodo de mayor creatividad vino en 1956, cuando escuchó una disertación de Gell-Mann sobre la posible existencia de los mesones K neutros. Tomó dos decisiones: la primera, ponerle un guión a su nombre…».

En cualquier caso, se llame como se llame, un teórico lucirá lo mismo, y el Camino de las Ocho Vías generó tablas de las partículas hadrónicas que recordaban a la tabla periódica de los elementos de Mendeleev, si bien, y así se reconocía, más arcanas. ¿Os acordáis de la tabla de Mendeleev con sus columnas de elementos con propiedades físicas similares? Su periodicidad fue una pista de la existencia de una organización interna, de la estructura de capas de electrones, aun antes de que se los conociese. Había algo dentro de los átomos que se repetía, que hacía un patrón a medida que el tamaño de los átomos aumentaba. Mirando hacia atrás y entendido ya el átomo, debería haber sido obvio.

El grito del quark

El patrón de los hadrones, dispuesto conforme a una serie de números cuánticos, también pedía a gritos una subestructura. No es, sin embargo, fácil oír lo que nos gritan los entes subnucleares. Dos físicos de oído fino lo lograron, y escribieron sobre ello. Gell-Mann propuso la existencia de lo que él llamó estructuras matemáticas. En 1964 propuso que los patrones de los hadrones organizados se podrían explicar si existiesen tres «construcciones lógicas». Las llamó «quarks». Se supone comúnmente que sacó la palabra de la diabólica novela de James Joyce Finnegans Wake («Three quarks for Muster Mark!»). George Zweig, colega de Gell-Mann, tuvo una idea idéntica mientras trabajaba en el CERN; llamó a las tres cosas «ases».

Probablemente, nunca sabremos de forma precisa cómo surgió esta idea germinal. Yo sé una versión porque estuve allí: en la Universidad de Columbia, en 1963. Gell-Mann daba un seminario sobre su simetría de las Ocho Vías cuando un teórico de Columbia, Robert Serber, señaló que una base de su organización «óctuple» supondría tres subunidades. Gell-Mann estaba de acuerdo, pero si esas subunidades fuesen partículas tendrían la propiedad inaudita de poseer tercios de cargas eléctricas enteras: 1/3, 2/3, −1/3…

En el mundo de las partículas, todas las cargas eléctricas se miden a partir de la carga del electrón. Todos los electrones tienen exactamente 1,602193 × 10−19 culombios. No importa qué son los culombios. Sabed sólo que usamos esa complicada cifra como unidad de carga y la llamamos 1 porque es la carga del electrón. Por suerte, la carga del protón también es 1,000, y lo son la del pión cargado, la del muón (aquí la precisión es mucho mayor), etcétera. En la naturaleza sólo hay cargas enteras: 0, 1, 2… Se entiende que todos los enteros son múltiplos del número de culombios dados arriba. Las cargas tienen, además, dos modos: más y menos. No sabemos por qué. Es así. Cabe imaginar un mundo en el que el electrón pudiese perder, en un choque que lo arañase o en una partida de póquer, el 12 por 100 de su carga eléctrica. No puede ocurrir en este mundo. El electrón, el protón, el pi más y demás tienen siempre cargas de 1,000.

Así que cuando Serber sacó la idea de las partículas con cargas de tercios de enteros… olvídala. Nunca se había visto algo así, y el hecho, no poco curioso, de que todas las cargas sean un múltiplo entero de una sola carga estándar invariable había llegado, con el tiempo, a incorporarse a la intuición de los físicos. Hasta se usó esta «cuantización» de la carga eléctrica para buscar alguna simetría más profunda que la explicase. Sin embargo, Gell-Mann recapacitó y propuso la hipótesis de los quarks, pero a la vez emborronó la cuestión, o al menos así nos lo pareció a algunos, al sugerir que los quarks no son reales, sino construcciones matemáticas útiles.

Los tres quarks nacidos en 1964 se llaman hoy up («arriba»), down («abajo») y «extraño», o u, d y s. Hay, por supuesto, tres antiquarks: u, d y s. Había que escoger las propiedades de los quarks con delicadeza para que con ellos se pudieran construir todos los hadrones conocidos. Al quark u se le da una carga de +2/3; la del quark d es −1/3, como la del s. Los antiquarks tienen las mismas cargas pero de signo opuesto. Se seleccionaron otros números cuánticos de manera que también su suma fuese la correcta. Por ejemplo, el protón está formado por tres quarks —uud—, de cargas +2/3, +2/3 y −1/3, que suman +1, que pega con lo que sabemos del protón. El neutrón es la combinación udd, con cargas +2/3, −1/3, −1/3, lo que suma 0, y tiene sentido porque el neutrón es neutro, su carga es cero.

Todos los hadrones están formados por quarks, a veces tres y a veces dos, según el modelo de quarks. Hay dos clases de hadrones: los bariones y los mesones. Los bariones, que son parientes de los protones y los neutrones, están hechos con tres quarks. Los mesones, entre los que están los piones y los kaones, constan de dos quarks, pero ha de tratarse de un quark combinado con un antiquark. Un ejemplo es el pión positivo (π+), que es ud. La carga es +2/3 +1/3, que es igual a 1. (Obsérvese que el d barra, el quark antidown, tiene una carga de +1/3).

Al urdir esta primera hipótesis, los números cuánticos de los quarks, y propiedades como el espín, la carga, el isoespín y otras, se fijaron de manera que se explicasen sólo unos pocos de los bariones (el protón, el neutrón, la lambda y algunos más) y los mesones. Se vio entonces que esos números y otras combinaciones pertinentes casaban con los cientos de hadrones que se conocían, sin excepciones. ¡Funcionaba siempre! Y todas las propiedades de un compuesto —un protón, por ejemplo— quedaban subsumidas en las de los quarks constituyentes, moderadas por el hecho de que interaccionan íntimamente entre sí. Por lo menos, esa es la idea y la tarea de generaciones de teóricos y generaciones de ordenadores, dado, por supuesto, que se les proporcionen los datos.

Las combinaciones de quarks suscitan una cuestión interesante. Es un rasgo humano el de comportarse de forma diferente cuando se está en compañía. Pero, como veremos, los quarks nunca están solos, así que sus propiedades sin modificar sólo pueden deducirse de la variedad de condiciones en las que los observamos. En cualquier caso, he aquí algunas combinaciones típicas de quarks y los hadrones que producen:

Bariones Mesones
uud protón ud pión positivo
udd neutrón du pión negativo
uds lambda uu + dd pión neutro
uud sigma más us kaón positivo
dds sigma menos su kaón negativo
uds sigma cero ds kaón neutro
dss xi menos ds antikaón neutro
udd xi cero

Los físicos se vanagloriaron de este éxito espectacular de reducir cientos de objetos que parecían básicos a compuestos de sólo tres variedades de quarks. (La palabra «ases» cayó en desuso; nadie puede competir con Gell-Mann en lo que se refiere a poner nombres). La prueba de una buena teoría es si puede predecir, y la hipótesis de los quarks, cauta o no, tuvo un éxito brillante. Por ejemplo, la combinación de tres quarks extraños, sss, no estaba en el registro de partículas descubiertas, pero ello no nos privó de darle un nombre: omega menos (Ω). Como las partículas que contenían el quark extraño tenían propiedades establecidas, las propiedades de un hadrón con tres quarks extraños, sss, también eran predecibles. La omega menos era una partícula muy extraña, y su huella, espectacular. En 1964 se la descubrió en la cámara de burbujas de Brookhaven y era exactamente como el doctor Gell-Mann había predicho.

No se zanjaron todos los problemas, ni de largo. Montones de preguntas; de aperitivo: ¿cómo se mantienen juntos los quarks? Esa interacción fuerte sería el objeto de miles de artículos teóricos y experimentales a lo largo de los treinta años siguientes. Con el trabalenguas «cromodinámica cuántica» por título, se propondría una nueva cepa de partículas mensajeras, los gluones, la argamasa (¡!) que mantiene unidos a los quarks. Todo a su tiempo.

Leyes de conservación

En la física clásica hay tres grandes leyes de conservación: de la energía, del momento lineal y del momento angular. Se ha mostrado que están profundamente relacionadas con los conceptos de espacio y de tiempo, como veremos en el capítulo 8. La teoría cuántica introdujo un gran número de magnitudes adicionales que se conservan; es decir, que no cambian durante una serie de procesos subnucleares, nucleares y atómicos. Los ejemplos son la carga eléctrica, la paridad y un enjambre de nuevas propiedades: el isoespín, la extrañeza, el número bariónico, el número leptónico. Ya sabemos que las fuerzas de la naturaleza difieren en el respeto que les tienen a diferentes leyes de conservación; por ejemplo, las interacciones fuerte y electromagnética respetan la paridad, pero no lo hace la interacción débil.

Para probar una ley de conservación se examina un número enorme de reacciones en las que pueda determinarse antes y después de la reacción una propiedad concreta, la carga eléctrica, por ejemplo. Recordemos que la conservación de la energía y la del momento se establecieron tan firmemente que, cuando pareció que ciertos procesos las violaban, se presupuso la existencia del neutrino a modo de mecanismo que las rescatase, y se acertó. Otros indicios de la existencia de una ley de conservación guardan relación con que ciertas reacciones no tengan lugar. Por ejemplo, un electrón no se desintegra en dos neutrinos porque ello violaría la conservación de la carga. Otro ejemplo es la desintegración del protón. Recordad que no se produce. A los protones se les asigna un número bariónico que, en última instancia, deriva de su estructura de trío de quarks. Así, los protones, los neutrones, los lambdas, los sigmas y demás —todos los tríos de quarks— tienen un número bariónico que es +1. Las antipartículas correspondientes tienen por número bariónico −1. Todos los mesones, los vehículos de la fuerza, y los leptones tienen un número bariónico 0. Si el número bariónico se conserva estrictamente, el barión más ligero, el protón, no podrá desintegrarse nunca, pues todos los candidatos a productos de la reacción más ligeros que él tienen un número bariónico 0. Por supuesto, una colisión de un protón y un antiprotón tiene un número bariónico total 0 y puede producir lo que sea. De esta forma, el número bariónico «explica» que el protón sea estable. El neutrón, que se desintegra en un protón, un electrón y un antineutrino, y el protón dentro del núcleo, que puede desintegrarse en un neutrón, un positrón y un neutrino, conservan el número bariónico.

Apiadaos del tipo que viva para siempre. El protón no puede desintegrarse en piones porque se violaría la conservación del número bariónico. No puede desintegrarse en un neutrón, un positrón y un neutrino a causa de la conservación de la energía. No puede desintegrarse en neutrinos o fotones a causa de la conservación de la carga. Hay más leyes de conservación, y nos parece que son ellas las que conforman el mundo. Como debería ser obvio, si el protón se desintegrase, amenazaría nuestra existencia. Claro está, eso depende de la vida media del protón. Como el universo tiene unos quince mil millones de años o así, una vida media mucho mayor no afectaría demasiado al destino de la República.

Sin embargo, unas teorías de campo unificadas nuevas predijeron que el número bariónico no se conserva de forma estricta. Esta predicción ha dado lugar a unos esfuerzos impresionantes por detectar la desintegración del protón, hasta ahora sin éxito. Pero esto ilustra la existencia de leyes de conservación aproximadas. La paridad era un ejemplo. La extrañeza se ideó para entender por qué ciertos bariones vivían mucho más de lo que deberían, dados todos los estados finales posibles en los que podían desintegrarse. Supimos luego que la extrañeza de una partícula —un lambda o un kaón, por ejemplo— significa que hay un quark s. Pero el lambda y el kaón se desintegran, y el quark s se convierte en un quark d más ligero en el proceso. No obstante, en éste interviene la interacción débil. La fuerte no desempeña ningún papel en un proceso s → d; en otras palabras, la interacción fuerte conserva la extrañeza. Como la interacción débil es débil, la desintegración de los lambdas, los kaones y los miembros de su familia es lenta, y la vida media es larga: 10−10 segundos, en vez de un proceso permitido que normalmente dura 10−23 segundos.

La multitud de asideros experimentales en las leyes de conservación son una suerte, pues una importante demostración matemática mostró que las leyes de conservación están relacionadas con simetrías que la naturaleza respeta. (Y simetría, de Tales a Sheldon Glashow, es como se llama el juego). Descubrió esta conexión Emmy Noether, una matemática, alrededor de 1920.

Pero volvamos a nuestra historia.

Bolas de niobio

A pesar del omega menos y de otros éxitos, nadie había visto nunca un quark. Hablo aquí a la manera de un físico, no como la señora del público. Zweig proclamó desde el principio que los ases/quarks eran entes reales. Pero cuando John Peoples, el actual director del Fermilab, era un joven experimentador en busca de los quarks, Gell-Mann le dijo que no se ocupara de ellos, que los quarks no eran más que un «elemento de cálculo».

Decirle esto a un experimentador es como arrojarle un guante. Por todas partes se emprendieron búsquedas de los quarks. Ni que decir tiene que en cuanto pones un cartel de «se busca» aparecen falsas pistas. La gente buscaba en los rayos cósmicos, en los sedimentos profundos de los océanos, en el vino viejo y bueno («Eshto, no hay qua… quarks aquí, ¡hip!») una graciosa carga eléctrica atrapada en la materia.

Se emplearon todos los aceleradores con la intención de arrancar los quarks de sus prisiones. Habría sido bastante fácil hallar una carga de 1/3 o 2/3, pero aun así casi todas las búsquedas terminaban con las manos vacías. Un experimentador de la Universidad de Stanford, por medio de unas minúsculas bolas hechas con gran precisión de niobio puro, informó que había atrapado un quark. Al no poder ser repetido, el experimento fue muriéndose, y los estudiantes poco respetuosos llevaban camisetas donde ponía: «Has de tener unas bolas de niobio si quieres atrapar quarks».

Los quarks eran fantasmagóricos; el fracaso en hallarlos libres y la ambivalencia de la idea original retrasó su aceptación hasta finales de los años sesenta, cuando una clase distinta de experimentos exigió que hubiera quarks, o al menos cosas similares a los quarks. Los quarks se concibieron para explicar la existencia y la clasificación de un número enorme de hadrones. Pero si el protón tenía tres quarks, ¿por qué no se manifestaban? Bueno, lo hemos soltado ya antes. Se los puede «ver». Rutherford otra vez.

Vuelve «Rutherford»

En 1967 se emprendió una serie de experimentos de dispersión mediante los nuevos haces de electrones del SLAC. El objetivo era estudiar más incisivamente la estructura del protón. Entra el electrón de gran energía, golpea un protón en un blanco de hidrógeno y sale un electrón de energía mucho menor, pero en una dirección que forma un ángulo grande con respecto a su camino original. La estructura puntual dentro del protón actúa, en cierto sentido, como el núcleo con las partículas alfa de Rutherford. Pero el problema era aquí más sutil.

Al equipo de Stanford, dirigido por el físico del SLAC Richard Taylor, canadiense, y dos físicos del MIT, Jerome Friedman y Henry Kendall, le ayudó enormemente que metiesen las narices Richard Feynman y James Bjorken. Feynman había prestado su energía y su imaginación a las interacciones fuertes y en particular a «¿qué hay dentro del protón?». Visitaba con frecuencia Stanford desde su base en el Cal Tech, en Pasadena. Bjorken (todos le llaman «Bj»), teórico de Stanford, estaba interesadísimo en el proceso experimental y en las reglas que regían unos datos aparentemente incompletos. Esas reglas, razonaba Bjorken, serían indicadoras de las leyes básicas (dentro de la caja negra) que controlaban la estructura de los hadrones.

Aquí tenemos que volver con nuestros viejos y buenos amigos Demócrito y Boscovich, pues ambos echaron luz sobre el asunto. La prueba que Demócrito imponía para determinar si algo era un á-tomo era que fuese indivisible. En el modelo de los quarks, el protón es, en realidad, un aglomerado pegajoso de tres quarks que se mueven rápidamente. Pero como esos quarks están siempre inextricablemente encadenados los unos a los otros, experimentalmente el protón aparece indivisible.

Boscovich añadió una segunda prueba. Una partícula elemental, o un «á-tomo», tiene que ser puntual. Esta prueba no la pasaba, sin lugar a dudas, el protón. El equipo del MIT y el SLAC, con la asesoría de Feynman y Bj, cayó en la cuenta de que en este caso el criterio operativo era el de los «puntos» y no el de la indivisibilidad. La traducción de sus datos a un modelo de constituyentes puntuales requería una sutileza mucho mayor que en el experimento de Rutherford. Por eso era tan conveniente tener a dos de los mejores teóricos del mundo en el equipo. El resultado fue que los datos indicaron, en efecto, la presencia de objetos puntuales en movimiento dentro del protón. En 1990 Taylor, Friedman y Kendall recogieron su premio Nobel por haber establecido la realidad de los quarks. (Estos eran los científicos a los que se refería Jay Leno [un humorista estadounidense] al principio de este capítulo).

Una buena pregunta: ¿cómo pudieron ver estos tipos los quarks si los quarks nunca están libres? Pensad en una caja sellada con tres bolas de acero dentro. Agitadla, inclinadla de varias formas, escuchad y concluid: tres bolas. El punto más sutil es que los quarks se detectan siempre en la proximidad de otros quarks, que podrían cambiar sus propiedades. Hay que vérselas con este factor pero… piano, piano. La teoría de los quarks hizo muchos conversos, especialmente a medida que los teóricos que escrutaban los datos fueron imbuyendo a los quarks una realidad creciente, conociendo mejor sus propiedades y convirtiendo la incapacidad de ver quarks libres en una virtud.

La palabra de moda era «confinamiento». Los quarks están confinados permanentemente porque la energía requerida para separarlos aumenta a medida que la distancia entre ellos crece. Entonces, cuando se intenta con suficiente empeño, la energía se vuelve lo bastante grande para crear un par quark-antiquark, y ya tenemos cuatro quarks, o dos mesones. Es como intentar conseguir un cabo de cuerda. Se corta y, ¡ay!, dos cuerdas.

La lectura de la estructura de quarks a partir de los experimentos de dispersión de electrones se pareció mucho a un monopolio de la Costa Oeste. Pero debo señalar que, al mismo tiempo, mi grupo obtuvo unos datos muy similares en Brookhaven. A veces hago la broma de que si Bjorken hubiese sido un teórico de la Costa Este, yo habría descubierto los quarks.

El contraste entre los dos experimentos del SLAC y de Brookhaven demostró que hay más de una forma de pelar un quark. En los dos experimentos la partícula blanco era un protón. Pero Taylor, Friedman y Kendall usaban electrones como sondas, y nosotros protones. En el SLAC enviaban los electrones hacia el interior de la «caja negra de la región de colisión» y medían los electrones que salían. También salían muchas otras cosas, como protones y piones, pero se las ignoraba.

En Brookhaven hacíamos que los protones chocasen con una pieza de uranio (en busca de los protones que había allí) y nos concentrábamos en los pares de muones que salían, que medíamos cuidadosamente. (Para los que no hayáis prestado atención, tanto los electrones como los muones son leptones con propiedades idénticas, sólo que el muón es doscientas veces más pesado).

Dije antes que el experimento del SLAC era parecido al experimento de dispersión de Rutherford que descubrió el núcleo. Pero Rutherford hacía simplemente que las partículas alfa rebotasen en el núcleo y medía los ángulos. En el SLAC el proceso era más complicado. En el lenguaje del teórico y en la imagen mental que suscitan las matemáticas, el electrón entrante en la máquina del SLAC envía un fotón mensajero dentro de una caja negra. Si el fotón tiene las propiedades correctas, uno de los quarks puede absorberlo. Cuando el electrón arroja un fotón mensajero con éxito (uno que es comido), el electrón altera su energía y movimiento. Deja entonces el área de la caja negra, sale y él mismo es medido. En otras palabras, la energía del electrón saliente nos dice algo del fotón mensajero que arrojó, y, lo que es más importante, de lo que lo comió. El patrón de los fotones mensajeros podía interpretarse sólo como el resultado de su absorción por una subestructura puntual en el protón.

En el experimento del dimuón (así llamado porque produce dos muones) del Brookhaven, enviamos protones de alta energía dentro de la región de la caja negra. La energía del protón estimula que la caja negra emita un fotón mensajero. Este, antes de dejar la caja, se convierte en un muón y en su antimuón; estas dos partículas dejan la caja y se las mide. Esto nos dice algo acerca de las propiedades del fotón mensajero, como en el experimento del SLAC. Pero el experimento del par de muones no se comprendió teóricamente hasta 1972 y, en realidad, hicieron falta muchas otras demostraciones matemáticas sutiles antes de que se le diese una interpretación inequívoca.

La dieron Sidney Drell y su alumno Tung Mo Yun, de Stanford, lo que no sorprende; allí llevaban los quarks en la sangre. Su conclusión: el fotón que genera nuestro par de muones se genera cuando un quark del protón incidente choca con y aniquila un antiquark del blanco (o al revés). Se le llama usualmente el experimento Drell-Yan, aunque lo concebimos nosotros y Drell «sólo» dio con el modelo correcto.

Cuando Richard Feynman llamó a mi experimento del dimuón el «experimento de Drell-Yan» en un libro —seguramente estaba bromeando—, telefoneé a Drell y le dije que llamase a todos los que hubiesen comprado el libro y les pidiese que tachasen Drell y Yan en la página 47 y escribiesen Lederman. No me atreví a incordiar a Feynman. Drell accedió gustosamente, y la justicia triunfó. Desde esos días, se han efectuado experimentos de Drell, Yan y Lederman en todos los laboratorios, y han dado pruebas complementarias y confirmatorias de la manera detallada en que los quarks hacen protones y mesones. Aun así, los estudios del SLAC/Drell-Yan-Lederman no convirtieron a todos los físicos en creyentes en los quarks. Quedaba cierto escepticismo. En Brookhaven tuvimos una pista justo ante nuestros ojos que habría respondido a los escépticos si hubiésemos sabido lo que significaba.

En nuestro experimento de 1968, el primero de su tipo, examinamos la disminución regular de la producción de pares de muones a medida que aumentaba la masa de los fotones mensajeros. Un fotón mensajero puede tener una masa transitoria de un valor cualquiera, pero cuanto mayor sea, menos vivirá y más costará generarlo. Otra vez Heisenberg. Recordad: cuanto mayor sea la masa, menor será la región del espacio que se explora, así que veremos menos y menos sucesos (números de pares de muones) a medida que crezca la energía. Lo representamos en un gráfico. A lo largo de la parte inferior del gráfico, el eje x, mostramos masas cada vez mayores. En el eje y vertical, números de pares de muones. Así que deberíamos obtener un gráfico que se pareciese a este:

Imagen

Deberíamos haber visto una línea que descendiese regularmente, lo que habría indicado que los pares de muones disminuyen sin cesar a medida que la energía de los fotones que salen de la caja negra aumenta. Pero en vez de eso obtuvimos algo parecido a:

Imagen

Al nivel de una masa de unos 3 GeV, una «joroba», ahora llamada la joroba de Lederman, interrumpía esa disminución regular. Una joroba o chichón en un gráfico indica un suceso inesperado, algo que no se puede explicar sólo con los fotones mensajeros, algo que está sobre los sucesos de Drell-Yan. No comunicamos que esta joroba fuese una nueva partícula. Fue el primer descubrimiento que, claramente, se nos escapó y que podría haber establecido de una vez por todas la realidad de la hipótesis de los quarks.

Dicho sea de paso, nuestros lamentos por haber dejado escapar el descubrimiento de estructuras puntuales en el protón, descubrimiento que por decreto sueco recayó en Friedman, Kendall y Taylor, son lamentos de pega. Hasta Bjorken podría no haber penetrado en 1968 en las sutilezas que rodean el relacionar los dimuones de Brookhaven con los quarks. El experimento del dimuón es, echando la vista atrás, mi favorito. La idea fue original e imaginativa. Desde un punto de vista técnico era infantilmente simple, tanto, que se me escapó el descubrimiento de la década. Los datos tenían tres componentes: la prueba de Drell-Yan de las estructuras puntuales, la prueba del concepto de «color» en sus porcentajes absolutos (se comentará luego) y el descubrimiento del J/psi (ahora mismo lo haremos), cada uno de ellos con categoría de Nobel. ¡La Real Academia Sueca se podría haber ahorrado al menos dos premios si lo hubiésemos hecho bien!

La Revolución de Noviembre

Dos experimentos que comenzaron en 1972 y 1973 y que cambiarían la física. Uno se efectuó en Brookhaven, un viejo campo del ejército entre pinos enanos y arena, a sólo unos diez minutos de unas de las más bellas playas del mundo, en la costa sur de Long Island, adonde van a parar las grandes olas atlánticas que vienen directamente de París. El otro sitio fue el SLAC, en las colinas pardas sobre el campus de estilo español de la Universidad de Stanford. Los dos experimentos fueron excursiones de pesca. Ni uno ni otro tenían un motivo claro que los guiase, pero ambos atronarían juntos al mundo en noviembre de 1974. Los acontecimientos de finales de 1974 han quedado en la historia de la física con el nombre de Revolución de Noviembre. Se habla de ellos junto al fuego dondequiera que unos físicos se reúnan a hablar de los viejos tiempos y de los grandes héroes y se beba un poco de Perrier. La prehistoria es la idea casi religiosa de los teóricos de que la naturaleza tiene que ser hermosa, simétrica.

Hemos de decir antes que nada que la hipótesis de los quarks no amenaza la categoría de partícula elemental, de á-tomo, del electrón. Ahora había dos clases de á-tomos puntuales: los quarks y los leptones. El electrón, como el muón y el neutrino, es un leptón. Eso habría estado muy bien, pero Schwartz, Steinberger y Lederman habían liado la simetría con el experimento de los dos neutrinos. Ahora teníamos cuatro leptones (el electrón, el neutrino electrónico, el muón y el neutrino muónico) y sólo tres quarks (el up, el down y el extraño). Una tabla de 1972 se podría haber parecido a esta en la notación física abreviada:

quarks u d s
leptones e Μ
νe νμ

¡Ajj! Bueno, no habríais hecho una tabla como esa porque no habría tenido mucho sentido. Los leptones hacen, dos a dos, un buen patrón, pero el sector de los quarks era en comparación feo, con su terna, cuando los teóricos se habían desilusionado ya con el número 3.

Los teóricos Sheldon Glashow y Bjorken habían observado más o menos (en 1964) que sería sencillamente encantador si hubiera un cuarto quark. Ello restauraría la simetría entre los quarks y los leptones, que había destruido nuestro descubrimiento del neutrino muónico, el cuarto leptón. En 1970 una razón teórica más convincente para sospechar que existía un cuarto quark apareció en un complicado pero hermoso argumento de Glashow y sus colaboradores, que convirtió a Glashow en un apasionado defensor de los quarks. Shelly, como le llaman sus admiradores y sus enemigos, ha escrito unos cuantos libros que demuestran lo apasionado que puede llegar a ser. Shelly, uno de los principales arquitectos de nuestro modelo estándar, es muy apreciado por sus historias, sus puros y sus comentarios críticos sobre las tendencias teóricas al uso.

Glashow se convirtió en un activo propagandista de la invención teórica de un cuarto quark, al que, ni que decir tiene, llamó encanto. Viajó de seminario en cursillo y de cursillo en congreso insistiendo en que los experimentadores buscasen un quark encantado. Su idea era que este nuevo quark y una nueva simetría en la que los quarks también estuviesen agrupados en pares —up/down y encanto/extraño— curaría muchos rasgos patológicos (doctor, ahí es donde duele) de la teoría de la interacción débil. Servirían, por ejemplo, para anular ciertas reacciones que no se habían visto pero que sí se habían predicho. Poco a poco se fue haciendo con partidarios, al menos entre los teóricos. En el verano de 1974 escribieron un artículo de repaso, «La búsqueda del encanto», los teóricos Mary Gaillard (una de las trágicamente pocas mujeres que hay en la física y uno de los teóricos más destacados, del sexo que sean), Ben Lee y Jon Rosner, un artículo germinal que fue especialmente instructivo para los experimentadores; les señalaba que cabría producir ese quark, llamadlo c, y su antipartícula c, o c-barra, en la caja negra de la colisión y que saliese en la forma de un mesón neutro en el que c y c estarían ligados. Hasta proponían que los viejos datos de los pares de muones que mi grupo había tomado en Brookhaven podrían ser una prueba de la desintegración de un cc en dos muones, y que esa podría ser la interpretación de la joroba de Lederman que había cerca de los 3 GeV. Es decir, 3 GeV era presuntamente la masa del tal cc.

A la caza del chichón

Pero todavía eran sólo palabras de teóricos. Otras historias que se han publicado de la Revolución de Noviembre han dado a entender que los experimentadores que tomaron parte en ella sudaron la gota gorda por verificar las ideas de los teóricos. Fantasías. Fueron de pesca. En el caso de los físicos de Brookhaven, fueron «a la caza del chichón», en busca de marcas en los datos que indicasen alguna física nueva, algo que tumbase a la carta ganadora, no que la respetase.

En los días en que Glashow, Gaillard y otros hablaban del encanto, la física experimental tenía sus propios problemas. Por entonces se reconocía abiertamente la competición entre los colisionadores de electrones y positrones (e, e+) y los aceleradores de protones. «Los de los leptones» y «los de los hadrones» mantenían un encendido debate. Los electrones no habían hecho gran cosa. Pero ¡tendríais que haber oído la propaganda! Como se piensa que los electrones son puntos sin estructura, ofrecen un estado inicial limpio: un e (electrón) y un e+ (positrón, la antipartícula del electrón) se encaminan uno hacia el otro en el dominio de colisión de la caja negra. Limpio, simple. El paso inicial, resaltaba el modelo, es aquí la generación, por el choque de la partícula y la antipartícula, de un fotón mensajero de energía igual a la suma de las dos partículas.

Ahora bien, la existencia del fotón mensajero es breve, y acaba materializándose en pares de partículas con una masa, una energía, un espín y otros números cuánticos, impuestos por las leyes de la conservación, apropiados. Esos pares salen de la caja negra y lo que solemos ver es:

  1. Otro par e+ e
  2. Un par muón-antimuón.
  3. Hadrones en una gran variedad de combinaciones, pero constreñidos por las condiciones iniciales: la energía y las propiedades cuánticas del fotón mensajero.

La variedad de posibles estados finales, derivados todos de un estado inicial simple, habla del poder de esta técnica. Comparad lo anterior con la colisión de dos protones. Cada protón tiene tres quarks, que ejercen interacciones fuertes entre sí. Esto significa que intercambian rápidamente gluones, las partículas mensajeras de la interacción fuerte (nos toparemos con ellos más adelante en este mismo capítulo). Por si nuestro poco agraciado protón no fuese ya lo bastante complejo, resulta que un gluón, en su camino, digamos, de un quark up hacia un quark down, puede olvidar momentáneamente su misión y materializarse (como los fotones mensajeros) en cualquier quark y su antiquark, s y s (s-barra), por ejemplo. La aparición del ss es muy fugaz, pues el gluón tiene que volver a tiempo para que se lo absorba, pero mientras tanto se produce un objeto complicado.

Los físicos apegados a los aceleradores de electrones llamaban jocosamente a los protones «cubos de basura», y describían las colisiones de protones contra protones o antiprotones, no sin cierta justicia, como choques de dos cubos de basura, de los que saltaban cáscaras de huevos, pieles de plátanos, posos de café y billetes de apuestas rotos.

En 1973-1974, el colisionador de electrones y positrones de Stanford (e, e+), el SPEAR, empezó a tomar datos y llegó a un resultado inexplicable. Parecía que la fracción de las colisiones que daban hadrones era mayor de lo calculado teóricamente. La historia es complicada y, hasta octubre de 1974, no demasiado interesante. Los físicos del SLAC, dirigidos por Burton Richter, quien, en la venerada tradición de los jefes de grupos, estaba fuera en ese momento, fueron acercándose a unos curiosos efectos que se producían cuando la suma de las energías de las dos partículas que chocaban andaba en las proximidades de 3 GeV, cifra sugerente, como recordaréis.

Al asunto le puso más salsa el que a más de cuatro mil kilómetros al este de Brookhaven un grupo del MIT estuviera repitiendo nuestro experimento del dimuón de 1967. Samuel C. C. Ting estaba al cargo. Ting, de quien se rumorea que ha sido el jefe de todos los Boy Scouts de Taiwan, obtuvo su doctorado en Michigan, pasó un periodo posdoctoral en el CERN y, a principios de los años sesenta, se unió a mi grupo como profesor ayudante de Columbia, donde sus aristas menos afiladas se hicieron más cortantes.

Ting, experimentador meticuloso, incansable, preciso, organizado, trabajó conmigo en Columbia durante unos cuantos años, pasó otros, y buenos, en el laboratorio DESY cercano a Hamburgo, Alemania, y se marchó luego al MIT, como profesor. Se convirtió enseguida en una fuerza (¿la quinta?, ¿la sexta?) con la que había que contar en la física de partículas. Mi carta de recomendación exageró deliberadamente algunos de sus puntos débiles —una treta corriente para conseguir que se contrate a alguien—, pero lo hice para concluir esto: «Ting, un gran físico chino, picante y agrio». La verdad es que Ting me perturbaba, lo que se remonta a que mi padre llevaba una pequeña lavandería y de niño oí muchas historias sobre la competencia china al otro lado de la calle. Desde entonces, todos los físicos chinos me han puesto nervioso.

Cuando trabajó con la máquina de electrones del laboratorio DESY, se convirtió en un experto en analizar los pares e+ e que salían de las colisiones de electrones, así que decidió que la detección de pares de electrones era la mejor forma de hacer el Drell-Yan, esto… quiero decir el experimento dileptónico de Ting. Así que ahí estaba él en 1974, en Brookhaven, y, al contrario que sus análogos del SLAC, que hacían chocar electrones y positrones, utilizó protones de gran energía, dirigidos hacia un blanco estacionario, y buscó los pares e+ e que salían de la caja negra con el último grito en instrumentación: un detector muchísimo más preciso que el burdo instrumento que habíamos ensamblado siete años antes. Con cámaras de hilos de Charpak pudo determinar con precisión la masa del fotón mensajero o lo que quiera que diese lugar al observado par de electrón y positrón.

Como tanto los muones como los electrones son leptones, qué par se elija detectar es cosa de gusto. Ting iba a la caza del chichón, de pesca de algún fenómeno nuevo, no a verificar alguna hipótesis nueva. «Me hace feliz comer comida china con los teóricos —se dice que una vez dijo Ting—, pero pasarse la vida haciendo lo que te cuentan es una pérdida de tiempo». ¡Qué apropiado que el descubridor de un quark llamado encanto tuviera esa personalidad!

Los experimentos de Brookhaven y del SLAC estaban destinados a hacer el mismo descubrimiento, pero hasta el 10 de noviembre de 1974 ninguno de los grupos sabía mucho de los progresos del otro. ¿Qué conexión hay entre los dos experimentos? En el experimento del SLAC, un electrón choca contra un positrón y, como primer paso, se crea un fotón virtual. El experimento de Brookhaven tiene un estado inicial que es un barullo perversamente complicado, pero sólo mira los fotones virtuales en el caso de que salgan y se disuelvan en un par e+ e. Ambos experimentos se las ven entonces con el fotón mensajero, que puede tener cualquier masa/energía transitoria; depende de la fuerza de la colisión. El modelo, bien comprobado, de lo que sucede en la colisión del SLAC dice que se crea un fotón mensajero que puede disolverse en hadrones, en tres piones, por ejemplo, o en un pión y dos kaones, o en un protón, un antiprotón y dos piones, o en un par de muones y electrones, etc. Hay muchas posibilidades compatibles con la energía entrante, el momento, el espín y otros factores.

Así que si existe algo nuevo cuya masa sea menor que la suma de las energías de los dos haces que chocan, también se podrá producir en la colisión. De hecho, si la «cosa» nueva tiene los mismos, populares números cuánticos que el fotón, podrá dominar la reacción cuando la suma de las dos energías sea precisamente igual a la masa de esa cosa nueva. Se me ha dicho que, con la nota y la intensidad adecuadas, la voz de un tenor puede romper un cristal. Las nuevas partículas nacen de una manera parecida.

En la versión de Brookhaven el acelerador envía protones a un blanco fijo, en este caso una pequeña pieza de berilio. Cuando los protones, relativamente grandes, golpean los también relativamente grandes núcleos de berilio, puede suceder, y sucede, todo tipo de cosas. Un quark golpea un quark. Un quark golpea un antiquark. Un quark golpea un gluón. No importa cuál sea la energía del acelerador, habrá colisiones de una energía mucho menor, porque los quarks constituyentes comparten la energía total del protón. Por lo tanto, los pares de leptones que Ting medía para interpretar su experimento salían de la máquina más o menos aleatoriamente. La ventaja de un estado inicial tan complejo es que se tiene cierta probabilidad de producir todo lo que se pueda producir con esa energía. Tanto es lo que sucede cuando chocan dos cubos de basura. La desventaja es que hay que encontrar la «cosa» nueva entre una gran pila de desechos. Para probar la existencia de una partícula nueva se necesitan muchas sesiones; si no, no se manifestará con solidez. Y hace falta un buen detector. Por suerte, Ting tenía uno que era una belleza.

La máquina SPEAR del SLAC actuaba de forma opuesta. En ella chocaban los electrones con los positrones. Simple. Partículas puntuales, materia y antimateria, que chocan y se aniquilan. La materia se convierte en pura luz, en un fotón mensajero. Este paquete de energía, a su vez, vuelve a condensarse en materia. Si cada haz es, digamos, de 1,5525 GeV, consigues el doble, una colisión de 3,105 GeV, cada vez. Y si existe una partícula nueva de esa masa, podrás producirla en vez de un fotón. Estarás forzado casi a lograr el descubrimiento; eso es todo lo que la máquina puede hacer. Las colisiones que produce tienen una energía predeterminada. Para pasar a otra energía, los científicos tienen que modificar los imanes y hacer otros ajustes. Los físicos de Stanford podían sintonizar finamente la energía de la máquina con una precisión que iba mucho más allá de lo que se había previsto en el diseño, un logro técnico muy notable. Francamente, no creía que se pudiera hacer. La desventaja de las máquinas del tipo de la SPEAR es que se debe barrer el dominio de energía, muy despacio, a saltos pequeñísimos. Por otra parte, cuando se atina con la energía correcta —o si se ha tenido de alguna forma un soplo de cuál es, lo que más tarde daría que hablar—, podrás descubrir una partícula nueva en un día o dos.

Volvamos por un momento a Brookhaven. En 1967-1968, cuando observamos la curiosa joroba dimuónica, nuestros datos iban de l GeV a 6 GeV, y el número de pares de muones a 6 GeV era sólo una millonésima del que era a 1 GeV. A 3 GeV había una abrupta nivelación del número de pares de muones producidos, y por encima aproximadamente de 3,5 GeV la caída se reanudaba. En otras palabras, había un rellano, una joroba de 3 a 3,5 GeV. En 1969, cuando íbamos estando listos para publicar los datos, los siete autores discutimos acerca de cómo describir la joroba. ¿Era una partícula nueva cuyo efecto desperdigaba un detector muy distorsionador? ¿Era un proceso nuevo que generaba fotones mensajeros con un rendimiento diferente? Nadie sabía, en 1969, cómo se producían los pares de muones. Decidí que los datos no eran lo bastante buenos para proclamar un descubrimiento.

Bueno, en el espectacular enfrentamiento del 11 de noviembre de 1974, resultó que tanto el grupo del SLAC como el de Brookhaven tenían datos claros de un incremento a 3,105 GeV. En el SLAC, cuando se sintonizó la máquina a esa energía (¡una hazaña que no era precisamente mediocre!), los contadores que registraban las colisiones se volvieron locos; su cuenta se centuplicó, y al sintonizar el acelerador a 3,100 o 3,120 cayó otra vez al valor base. Lo abrupta que era la resonancia fue la razón de que se tardase tanto en encontrarla; el grupo había pasado antes por ese territorio y se le había escapado el incremento. En los datos de Ting en Brookhaven, los pares salientes de leptones, medidos con precisión, mostraban un brusco chichón centrado alrededor de 3,10 GeV. También él concluyó que el chichón sólo podía significar una cosa: que había descubierto un estado nuevo de la materia.

El problema de la prioridad científica en el descubrimiento de Brookhaven y el SLAC dio lugar a una discusión muy espinosa. ¿Quién lo hizo primero? Corrieron las acusaciones y los rumores. Una de las acusaciones era que los científicos del SLAC, conocedores de los resultados preliminares de Ting, sabían dónde mirar. La réplica fue la acusación de que el chichón inicial de Ting no era concluyente y se le maquilló en las horas pasadas entre el descubrimiento del SLAC y el anuncio de Ting. Los del SLAC llamaron al nuevo objeto Ψ; (psi). Ting lo llamó J. Hoy se le llama comúnmente el J/Ψ; o J/psi. Se habían devuelto la paz y la armonía a la comunidad. Más o menos.

¿A qué vino tanto jaleo? (y algunas uvas verdes)

Muy interesante todo, pero ¿por qué se armó un jaleo tan tremendo? La voz del anuncio conjunto del 11 de noviembre corrió inmediatamente por todo el mundo. Un científico del CERN recordaba: «Fue indescriptible. Todo el mundo hablaba de eso por los pasillos». EL New York Times del domingo sacó el descubrimiento en la primera página: SE HALLA UN NUEVO Y SORPRENDENTE TIPO DE PARTÍCULA. Science: DOS PARTÍCULAS NUEVAS DELEITAN Y DESCONCIERTAN A LOS FÍSICOS. Y el decano de los escritores científicos, Walter Sullivan, escribió más tarde en el New York Times: «Pocas veces, o ninguna, se habrá causado antes tanto revuelo en la física… y el final no se vislumbra». Tan sólo dos años después, Ting y Richter compartieron el premio Nobel de 1976 por el J/psi.

Me llegaron las noticias mientras trabajaba duramente en un experimento del Fermilab que llevaba la exótica denominación de E-70. ¿Puedo ahora, escribiendo en mi estudio diecisiete años después, recordar mis sentimientos? Como científico, como físico de partículas, me entusiasmó semejante logro, una alegría que, claro está, se teñía de envidia y una pizca de odio asesino a los descubridores. Esa es la reacción normal. Pero yo había estado ahí. ¡Ting había hecho mi experimento! Es verdad, en 1967-1968 no se disponía de cámaras del tipo de las que habían hecho que el experimento de Ting fuese tan preciso. Con todo, el viejo experimento de Brookhaven tenía los ingredientes de dos premios Nobel; si hubiésemos tenido un detector más capaz y si Bjorken hubiese estado en Columbia y si hubiésemos sido un poco más inteligentes… Y si mi abuela hubiese tenido ruedas —como les tomábamos el pelo a los que no hacían más que decir «si, si, si…»— habría sido un trolebús.

Bueno, sólo puedo echarme la culpa a mí mismo. Tras detectar en 1967 el misterioso chichón, había decidido que seguiría estudiando la física de los dileptones con las nuevas máquinas de gran energía que se avecinaban. El CERN tenía programada la inauguración en 1971 de un colisionador de protones contra protones, el ISR, cuya energía efectiva era veinte veces la de Brookhaven. Abandonando el pájaro en mano de Brookhaven, remití una propuesta al CERN. Cuando ese experimento empezó a tomar datos en 1972, fui otra vez incapaz de ver el J/psi, esta vez por culpa de un feroz fondo de inesperados piones y de nuestro superferolítico detector de partículas de cristal de plomo, que, sin que lo supiéramos, estaba siendo irradiado por la nueva máquina. Ese fondo resultó ser en sí mismo un descubrimiento: detectamos hadrones de gran momento transversal, otro tipo de dato que apuntaba a la estructura de quarks dentro de los protones.

Mientras tanto, en 1971 también, el Fermilab iba estando listo para poner en marcha una máquina de 200 GeV. Aposté también a esta nueva máquina. El experimento del Fermilab empezó a principios de 1973, y mi excusa era… bueno, la verdad es que no llegamos a hacer lo que nos habíamos propuesto hacer porque nos distrajeron los curiosos datos que varios grupos habían visto en el novísimo entorno del Fermilab. Al final resultó que no eran más que cantos de sirena, o de unas tristes ranas, y cuando volvimos a los dileptones, la Revolución de Noviembre ya había entrado en los libros de historia. Así que no sólo se me escapó el J en Brookhaven, sino que se me escapó en las dos máquinas nuevas, un récord de torpeza en la física de partículas.

No he respondido todavía la pregunta: ¿qué era lo extraordinario? El J/psi era un hadrón. Pero habíamos descubierto cientos de hadrones, así que ¿por qué se perdía la compostura por uno más, aunque tuviera un nombre tan fantasioso como J/psi? La razón tiene que ver con su masa, con lo grande —es tres veces más pesado que el protón— y «abrupta» que es, menos de 0,05 MeV.

¿Abrupta? Lo que quiere decir es lo siguiente. Una partícula inestable no puede tener una masa inequívoca, bien definida. Las relaciones de incertidumbre de Heisenberg explican por qué. Cuanto menor sea la vida media, más ancha será la distribución de masas. Es una conexión cuántica. Lo que queremos decir cuando hablamos de una distribución de masas es que cualquier serie de mediciones arrojará masas diferentes, distribuidas conforme a una curva de probabilidad con forma de campana. Al pico de esa curva, por ejemplo 3,105 GeV, se le denomina masa de la partícula, pero la dispersión de los valores de la masa es de hecho una medida de la vida media de la partícula. Como la incertidumbre se refleja en la medición, podremos entender esto si nos damos cuenta de que, en el caso de una partícula estable, tenemos un tiempo infinito para medir su masa y, por lo tanto, la dispersión es infinitamente estrecha. La masa de una partícula que viva muy poco no se puede determinar con precisión (ni siquiera en principio), y el resultado experimental, aun con un aparato finísimo, es una amplia dispersión de las mediciones de la masa. Como ejemplo, una partícula típica de la interacción fuerte se desintegra en 10−23 segundos y la dispersión de su masa es de unos 100 MeV.

Un recordatorio más. Dijimos que todas las partículas hadrónicas son inestables, menos el protón libre. Cuanto mayor sea la masa de un hadrón (o de cualquier partícula), menor es su vida media porque hay más cosas en las que puede desintegrarse. Así que habíamos hallado un J/psi con una masa enorme (en 1974 era la partícula más pesada que se hubiese encontrado), pero la conmoción la producía que la distribución observada de la masa fuese sumamente abrupta, más de mil veces más estrecha que la de una partícula típica de la interacción fuerte. Tenía, pues, una vida media larga. Algo impedía que se desintegrase.

El encanto desnudo

¿Qué inhibe su desintegración?

Los teóricos levantaron todos la mano: actúan un número cuántico nuevo o, equivalentemente, una nueva ley de conservación. ¿Qué tipo de conservación? ¿Qué cosa nueva se conservaba? ¡Ah!, esta vez, por un tiempo, no hubo dos respuestas iguales.

Seguían saliendo datos, pero ahora sólo de las máquinas de e+ e. A SPEAR acabaron por unírsele un colisionador en Italia, ADONE, y luego DORIS, en Alemania. Apareció otro chichón a 3,7 MeV. Llamadlo Ψ (psi prima), sin que haga falta mencionar la J, porque éste era hijo por entero de Stanford. (Ting y compañía habían abandonado la partida; su acelerador apenas si había sido capaz de descubrir la partícula y no lo era de llevar más adelante su examen). Pero a pesar de los esfuerzos febriles, los intentos de explicar lo sorprendentemente abrupto que era J/psi se toparon al principio con un muro.

Por fin una cábala empezó a tener sentido. Quizá J/psi fuese el tan esperado «átomo» ligado de c y c, el quark encanto y su antiquark. En otras palabras, quizá fuese un mesón, esa subclase de los hadrones que consisten en un quark y un antiquark. Glashow, exultante, llamó al J/psi charmonium (pues el nombre del c en inglés es charm). Resultaría que esta teoría era correcta, pero hicieron falta dos años más para que se verificase. La dificultad estribaba en que cuando c y c se combinaban, las propiedades intrínsecas del encanto se borraban. Lo que c pone, c lo quita. Todos los mesones están formados por un quark y un antiquark, pero no tienen por qué estar hechos, como el charmonium, de un quark y su propio antiquark. El pión, por ejemplo, es ud.

Seguía la búsqueda del «encanto desnudo», un mesón que consistiese en el encadenamiento de un quark encanto con, digamos, un quark antidown. Éste no anularía las cualidades de encanto de su compañero, y el encanto quedaría expuesto en toda su gloria desnuda, lo mejor después de lo imposible: un quark encanto libre. Ese mesón, un cc, fue hallado en 1976 en el colisionador de e+ e por un grupo del SLAC y de Berkeley dirigido por Gerson Goldhaber. Al mesón se le llamó (D cero), y el estudio de los D tendría ocupadas a las máquinas de electrones durante los quince años siguientes. Hoy, mesones como los cc, y ss son grano para el molino de las tesis doctorales. Una compleja espectroscopía de estados enriquece nuestro conocimiento de las propiedades de los quarks.

Ya se sabía por qué J/psi era abrupto. El encanto es un número cuántico nuevo, y las leyes de conservación de la interacción débil no permiten que un quark c se convierta en un quark de una masa menor. Para que ello ocurra hay que invocar a las interacciones débil y electromagnética, que actúan mucho más despacio: de ahí la vida media más larga y la anchura exigua.

Los últimos focos opuestos a la idea de los quarks se rindieron esta vez. La idea de los quarks había llevado a una predicción fuera de lo común, y la predicción se había verificado. Probablemente, hasta Gell-Mann debió de empezar a darles a los quarks elementos de realidad, pero el problema del confinamiento —no puede haber un quark aislado— diferencia aún a los quarks de las otras partículas de la materia. Con el encanto, la tabla periódica quedaba equilibrada otra vez:

Quarks
up (u) encanto (c)
down (d) extraño (s)
Leptones
neutrino electrónico (υe) neutrino muónico (υμ)
electrón e muón (μ)

Ahora había cuatro quarks —es decir, cuatro sabores de quarks— y cuatro leptones. Hablábamos ahora de dos generaciones, dispuestas verticalmente en la tabla de arriba, u-d-υe-e es la primera generación, y como los quarks up y down hacen protones y neutrones, la primera generación domina nuestro mundo presente. La segunda generación, c-s-υμ, se ve en el calor intenso pero fugaz de las colisiones de acelerador. No podemos ignorar estas partículas, por exóticas que puedan parecer. Exploradores intrépidos como somos, debemos luchar por hacernos una idea del papel que la naturaleza planeó para ellas.

No le he dado en realidad la debida atención a los teóricos que anticiparon que el J/psi era el charmonium y que contribuyeron a establecerlo como tal. Si el SLAC era el corazón experimental, Harvard fue el cerebro teórico. A Steven Weinberg le ayudó un enjambre de jóvenes magos; mencionaré sólo a Helen Quinn porque estuvo en el centro mismo de la euforia charmónica y está en mi equipo de modelos de rol.

La tercera generación

Hagamos una pausa y sigamos adelante. Siempre es más difícil describir hechos recientes, sobre todo cuando el que describe está implicado en ellos. No hay el suficiente filtro de tiempo para ser objetivo. Pero, de todas formas, lo intentaremos.

Eran los años setenta, y gracias a la tremenda magnificación de los nuevos aceleradores y a unos ingeniosos detectores a su altura, el progreso hacia el hallazgo del á-tomo fue muy rápido. Los experimentadores se movían en todas las direcciones, iban sabiendo más de los distintos objetos encantados, examinaban las fuerzas desde un punto de vista más microscópico, exploraban la frontera de energía, encaraban los problemas sobresalientes de la hora. Entonces, un freno retuvo el paso del progreso a medida que costaba cada vez más encontrar fondos para la investigación. Vietnam, con su sangría del espíritu y del presupuesto, más la crisis del petróleo y el malestar general produjeron un ir dándole la espalda a la investigación básica. Esto hizo aún más daño a nuestros colegas de la «ciencia pequeña». Los físicos de altas energías están protegidos en parte por la acumulación de esfuerzos y el compartimiento de las instalaciones de los grandes laboratorios.

Los teóricos, que trabajan barato (dadles un lápiz, un poco de papel y un cuarto en una facultad), florecían, estimulados por la cascada de datos. Vimos a los mismos: Lee, Yang, Feynman, Gell-Mann, Glashow, Weinberg y Bjorken, pero pronto salieron otros nombres: Martinus Veltman, Gerard ’t Hooft, Abdus Salam, Jeffrey Goldstone, Peter Higgs, entre otros.

Rocemos sólo rápidamente los aspectos experimentales más destacados, primando así injustamente las «atrevidas incursiones en lo desconocido» sobre el «lento y continuo avance de la frontera». En 1975, Martin Perl, casi en solitario y mientras mantenía un duelo, a lo d’Artagnan, con sus propios colegas-colaboradores, los convenció, y al final convenció a todos, de que en los datos del SLAC se escondía un quinto leptón llamado tau (τ), aparece, como sus primos más livianos, el electrón y el muón, con dos signos distintos: τ+ y τ.

Se estaba gestando una tercera generación. Como tanto el electrón como el muón tienen neutrinos asociados, parecía natural suponer que existía un neutrino sub tau (υτ).

Mientras, el grupo de Lederman en el Fermilab aprendió por fin cómo se hacía correctamente el experimento del dimuón, y una nueva organización, muchísimo más eficaz, del aparato abrió de par en par el dominio de masas desde el pico de masas del J/psi, a 3,1, hasta, exhaustivamente, casi, casi 25 GeV, el límite que permitía la energía de 400 GeV del Fermilab. (Recordad, hablamos aquí de blancos estacionarios, así que la energía efectiva es una fracción de la energía del haz). Y allí, a 9,4, 10,0 y 10,4 GeV había otros tres chichones, tan claros como los Tetons vistos desde la estación de esquí del Grand Targhee. La enorme masa de datos multiplicó la colección mundial de dimuones por un factor de 100. Se bautizó a la nueva partícula con el nombre de úpsilon (la última letra griega disponible, creíamos). Repetía la historia del J/psi; la cosa nueva que se conservaba era el quark beauty, o, como algunos físicos menos artistas lo llaman, el quark bottom. La interpretación del úpsilon era que se trataba de un «átomo» hecho del nuevo quark b enlazado a un quark anti-b. La pasión que despertó este descubrimiento no se acercó a la provocada por el J/psi en ninguna parte, pero una tercera generación era sin duda una noticia y suscitó una pregunta obvia: ¿cuántas más? También: ¿por qué insiste la naturaleza en las fotocopias, y cada generación reproduce la anterior?

Dejadme que dé una breve descripción del trabajo que condujo hasta el úpsilon. Nuestro grupo de físicos de Columbia, el Fermilab y Stony Brook (Long Island) tenía entre sus miembros a unos experimentadores jóvenes que eran el no va más. Habíamos construido un espectrómetro a la última con cámaras de hilos, imanes, hodoscopios de centelleo, más cámaras, más imanes. Nuestro sistema de adquisición de datos era el dernier cri, y se basaba en una electrónica diseñada por el genio de la ingeniería William Sippach. Todos habíamos trabajado en el mismo dominio de los haces del Fermilab. Conocíamos los problemas. Nos conocíamos unos a otros.

John Yoh, Steve Herb, Walter Innes y Charles Brown eran cuatro de los mejores posdoctorados que he visto. Los programas de ordenador estaban alcanzando el grado de refinamiento que hacía falta para trabajar en la frontera. Nuestro problema era que teníamos que ser sensibles a reacciones que ocurrían rarísimamente: una vez cada cien billones de colisiones. Como necesitábamos registrar muchos de esos raros sucesos dimuónicos, nos hacía falta proteger el aparato contra el enorme ritmo de producción de partículas carentes de interés. Nuestro equipo había llegado a tener un conocimiento único en lo tocante a cómo trabajar en un entorno de alta radiación de forma que los detectores siguiesen sobreviviendo. Habíamos aprendido a incorporar la redundancia para así poder suprimir sin miramientos la información falsa no importaba con cuánta inteligencia la naturaleza intentase engañarnos.

Al principio del proceso de aprendizaje, tomamos el modo dielectrónico y obtuvimos unos veinticinco pares de electrones por encima de 4 GeV. Extrañamente, doce de ellos se acumulaban alrededor de 6 GeV. ¿Un chichón? Debatimos, y decidimos que publicaríamos la posibilidad de que hubiese una partícula a 6 GeV. Seis meses después, cuando los datos ya sumaban trescientos sucesos, puf: no había un chichón a 6 GeV. Apuntamos el nombre de «úpsilon» para el falso chichón, pero cuando unos datos mejores contradijeron los anteriores, el incidente vino a conocerse como el ay-leon.

Vino entonces nuestra nueva instalación, donde habíamos invertido toda nuestra experiencia en la nueva disposición del blanco, en el blindaje, en la colocación de los imanes, en las cámaras. Empezamos a tomar datos en mayo de 1977. La era de las sesiones de un mes en las que se registraban veintisiete o trescientos sucesos había terminado; ahora entraban miles de sucesos por semana, en lo esencial carentes de fondo. No es frecuente en física que un instrumento nuevo le permita a uno explorar un dominio nuevo. El primer microscopio y el primer telescopio son ejemplos históricos de un significado mucho mayor, pero la excitación y la alegría con que se los usó por primera vez no pueden haber sido mucho más intensas que las nuestras. Tras una semana, apareció un ancho chichón cerca de 9,5 GeV, y pronto esta magnificación se hizo estadísticamente sólida. John Yoh había, en efecto, visto una acumulación cerca de 9,5 GeV en nuestra sesión de los trescientos sucesos, pero como nos habíamos quemado con los 6 GeV, se limitó a etiquetar con un «9,5» una botella de champán Mumm’s, y la guardó en nuestra nevera.

En junio nos bebimos el champán e hicimos saber la noticia (que de todas formas se había filtrado) al laboratorio. Steve Herb dio una charla a un público apiñado y emocionado. Era el mayor descubrimiento hecho por el Fermilab. Luego, ese mismo mes, escribimos la comunicación del descubrimiento de un ancho chichón a 9,5 GeV con 770 sucesos en el pico —estadísticamente seguro—. No es que no nos pasásemos inacabables horas por hombre (desgraciadamente, no teníamos colaboradoras) buscando algún funcionamiento incorrecto del detector que pudiese simular un chichón. ¿Regiones muertas del detector? ¿Una pifia en la programación? Rastreamos sin miramientos docenas de errores posibles. Comprobamos todas las medidas de seguridad incorporadas —que contrastaban la validez de los datos mediante preguntas cuyas respuestas conocíamos—. Por agosto, gracias a datos adicionales y a análisis más depurados, teníamos tres picos estrechos, la familia úpsilon: úpsilon, úpsilon prima y úpsilon doble prima. No había forma de explicar esos datos con la física conocida en 1977. Entra la belleza (¡o el fondo!).

Hubo poca resistencia a nuestra conclusión de que habíamos visto un estado ligado de un quark nuevo —llamadlo quark b— y su antipartícula gemela. El J/psi era un mesón cc. Úpsilon era un mesón bb. Como la masa del chichón úpsilon estaba cerca de los 10 GeV, el quark b había de tener una masa próxima a los 5 GeV. Era el quark más pesado que se hubiera registrado; el quark c estaba cerca de los 1,5 GeV. «Á-tomos» como cc y bb tienen un estado fundamental de menor energía y una variedad de estados excitados. Nuestros tres picos representaban el estado fundamental y dos estados excitados.

Una de las cosas divertidas relativas al úpsilon era que los experimentadores podían manejar las ecuaciones de este curioso átomo, compuesto por un quark pesado que gira alrededor de un pesado antiquark. La buena y vieja ecuación de Schrödinger funcionaba bien, y con un vistazo rápido a nuestros apuntes de la carrera les echábamos una carrera a los teóricos profesionales a ver quién calculaba antes los niveles de energía y otras propiedades que habíamos medido. Nosotros nos divertíamos…, pero ellos ganaban.

Los descubrimientos son siempre experiencias cuasisexuales, y cuando el rápido análisis «a pedales» de John Yoh dio la primera indicación de la existencia del chichón, experimenté la sensación, ya familiar (para mí), de euforia intensa pero teñida con la angustia de que «no podía ser verdad en realidad». El impulso más inmediato es el de comunicarlo, decírselo a la gente. ¿A quién? A las esposas, a los mejores amigos, a los niños, en este caso al director Bob Wilson, cuyo laboratorio necesitaba de mala manera un descubrimiento. Telefoneamos a nuestros colegas de la máquina DORIS de Alemania y les pedimos que mirasen si podían llegar a la energía necesaria para hacer úpsilones con su colisionador de e+ e. DORIS era el único otro acelerador que tenía alguna oportunidad a esa energía. En un tour de force de magia maquinal, triunfaron. ¡Más alegría! (Y algo más que un poco de alivio). Luego piensas en las recompensas. ¿Será con esto?

El descubrimiento se nos volvió traumático por un incendio que interrumpió la toma de datos tras una buena semana de trabajo. En mayo de 1977, un dispositivo que mide la corriente de nuestros imanes, suministrado sin duda por alguien que había hecho una oferta a la baja, se prendió fuego, y el fuego se extendió al cableado. Un fuego eléctrico crea gas de cloro, y cuando nuestros amigables bomberos cargaron con las mangueras y echaron agua por todas partes, crearon una atmósfera de ácido hidroclórico, que se posa en todas las tarjetas de transistores y poco a poco se las va comiendo.

El salvamento electrónico es un tipo de arte. Los amigos del CERN me habían hablado de un incendio parecido que sufrieron allí, así que les llamé para que me aconsejasen. Me dieron el nombre y unos números de teléfonos de un experto holandés del salvamento, que trabajaba para una empresa alemana y vivía en el centro de España. El fuego fue el sábado, y a las tres de la madrugada del domingo, desde mi cuarto en el Fermilab, llamé a España y di con mi hombre. Sí, vendría. Llegaría a Chicago el martes, y un avión de carga procedente de Alemania que transportaría unos productos químicos especiales, el miércoles. Pero necesitaba un visado estadounidense, que solía llevar diez días. Llamé a la embajada de los Estados Unidos en Madrid y peroré: «Energía atómica, seguridad nacional, millones de dólares en juego…». Me pusieron con un ayudante del embajador que no parecía muy impresionado hasta que me identifiqué como un profesor de Columbia. «¡Columbia! ¿Por qué no lo ha dicho? Soy de la promoción del cincuenta y seis —exclamó—, dígale a su compañero que pregunte por mí».

El martes, el señor Jesse llegó y husmeó las 900 tarjetas, cada una de las cuales llevaba unos 50 transistores (tecnología de 1975). El miércoles llegaron los productos químicos. Con los aduaneros tuvimos otro soponcio, pero el departamento de energía de los Estados Unidos nos echó una mano. El jueves teníamos ya una cadena de montaje: físicos, secretarias, esposas, amigas, todos sumergían tarjetas en la solución secreta A, luego en la B, las secaban con nitrógeno gaseoso, las cepillaban con cepillos de pelo de camello y las apilaban. Casi esperaba que se nos pidiera que acompañásemos el rito musitando un ensalmo holandés, pero no hizo falta.

Jesse era jinete y vivía en España para entrenarse con la caballería española. Cuando se enteró de que yo tenía tres caballos, se apresuró a cabalgar con mi mujer y el club hípico del Fermilab. Era un verdadero experto, y le dio consejos a todo el mundo. Enseguida, los jinetes de la pradera intercambiaban consejos sobre cambios en vuelo, pasajes, corvetas y cabriolas. Ya teníamos una caballería del Fermilab entrenada para defender el laboratorio si las fuerzas hostiles del CERN o del SLAC decidiesen atacarlo a caballo.

El viernes instalamos todas las tarjetas y las comprobamos una a una cuidadosamente. El sábado por la mañana ya estábamos otra vez en marcha, y pocos días después un análisis rápido mostraba que el chichón seguía allí. Jesse se quedó dos semanas, montando a caballo, encantando a todos y aconsejando sobre la prevención de incendios. Nunca recibimos una factura por su trabajo, pero sí pagamos los productos químicos. Y así consiguió el mundo una tercera generación de quarks y leptones.

El mismísimo nombre de bottom («fondo») sugiere que debe de haber un quark top («cima»). (O si preferís el nombre beauty [«belleza»], que hay un quark truth [«verdad»]). La nueva tabla periódica es ahora como sigue:

Primera generación Segunda generación Tercera generación
Quarks
up (u) encanto (c) top (t)
down (d) extraño (s) Bottom (b)
Leptones
neutrino electrónico (υe) neutrino muónico (υμ) neutrino tautonico (υτ)
electrón (e) muón (μ) tau (τ)

En el momento en que se escribe esto, aún está por descubrir el quark top.[3] Tampoco se ha cogido experimentalmente al neutrino tau, pero la verdad es que de su existencia no duda nadie. Se han remitido al Fermilab, a lo largo de los años, varias propuestas para un «experimento de los tres neutrinos», una versión fortalecida de nuestro experimento de los dos neutrinos, pero se han rechazado todas porque ese proyecto sería carísimo.

Obsérvese que el grupo que está abajo y a la izquierda (υe, e, υμ, μ) en nuestra tabla se estableció en el experimento de los dos neutrinos de 1962. Luego, el quark bottom y el leptón tau pusieron (casi) los toques finales al modelo a finales de los años setenta.

La tabla, cuando se le añaden las diversas fuerzas, es un resumen compacto de todos los datos que han salido de los aceleradores desde que Galileo dejó caer esferas de pesos distintos desde la casi vertical torre de Pisa. La tabla recibe el nombre de modelo estándar o, si no, cuadro o teoría estándar. (Memorizadlo).

En 1993 este modelo sigue siendo el dogma imperante de la física de partículas. Las máquinas de los años noventa, sobre todo el Tevatrón del Fermilab y el colisionador de electrones y positrones del CERN (el LEP), concentran los esfuerzos de miles de experimentadores en la búsqueda de pistas de qué hay más allá del modelo estándar. Además, las máquinas más pequeñas del DESY, Cornell, Brookhaven, el SLAC y el KEK (Tsukuba, Japón) intentan refinar nuestro conocimiento de los muchos parámetros del modelo estándar y encontrar indicios de una realidad más profunda.

Hay mucho que hacer. Una tarea es explorar los quarks. Acordaos de que en la naturaleza hay sólo dos tipos de combinaciones: 1) quark más antiquark (qq) —los mesones— y 2) tres quarks (qqq) —los bariones—. Podemos ahora jugar y componer hadrones del estilo de uu, uc, ds, db… ¡A divertirse! Y uud, ccd, ttb… Son posibles cientos de combinaciones (hay quién sabe tantas). Todas son partículas que o han sido descubiertas y apuntadas en las tablas o que están listas para que se las descubra. Midiendo la masa y las vidas medias y los modos de desintegración, se va aprendiendo más y más de la interacción fuerte de los quarks transmitida por los gluones y de las propiedades de la interacción débil. Hay mucho que hacer.

Otro momento experimental de altura es el descubrimiento de las llamadas «corrientes neutras», y es fundamental en nuestra historia de la Partícula Divina.

Revisión de la interacción débil

En los años setenta se habían reunido montañas de datos sobre la desintegración de los hadrones inestables. Esta desintegración es en realidad la manifestación de las reacciones de los quarks que hay detrás; un quark up, por ejemplo, se transforma en un quark down o viceversa. Más informativos aún eran los resultados de varios decenios de experimentos de dispersión con neutrinos. Todos juntos, los datos recalcaban que la interacción débil tenía que ser transportada por tres partículas mensajeras con masa: la W+, la W y la . Habían de tener masa porque la esfera de influencia de la interacción débil es muy pequeña, y no llega más que a unos 10−19 metros. La teoría cuántica impone una regla a bulto según la cual el alcance de una fuerza varía con el inverso de la masa de la partícula mensajera. La fuerza electromagnética llega al infinito (pero se hace más débil con la distancia), y su partícula mensajera es el fotón, de masa nula.

Pero ¿por qué hay tres vehículos de la fuerza? ¿Por qué hay tres partículas mensajeras —una de carga positiva, otra negativa, la tercera neutra— para propagar el campo que induce los cambios de especie? Para explicarlo, vamos a tener que hacer un poco de contabilidad física y asegurarnos de que sale lo mismo a los dos lados de la flecha (→), incluidos los signos de la carga eléctrica. Si una partícula neutra se desintegra en partículas cargadas, por ejemplo, las cargas positivas tienen que equilibrar las negativas.

Primero, veamos qué pasa cuando un neutrón se desintegra en un protón, proceso típico de la interacción débil. Lo escribimos así:

n → p+ + e + υe

Ya hemos visto esto antes: un neutrón se desintegra en un protón, un electrón y un antineutrino. Fijaos que el protón, positivo, anula la carga negativa del electrón en el lado derecho de la reacción, y el antineutrino es neutro. Todo encaja. Pero esta es una visión superficial de la reacción, como quien ve a un huevo convertirse en un arrendajo. No ves qué hace el embrión dentro. El neutrón es en realidad un conglomerado de tres quarks: un quark up y dos down (udd); un protón es dos quarks up y uno down (uud). Entonces, cuando un neutrón se desintegra en un protón, un quark down se convierte en un quark up. Es, pues, más instructivo mirar dentro del neutrón y describir qué les pasa a los quarks. Y en el lenguaje de los quarks, la misma reacción se escribe:

d → u + e + υe

Es decir, en el neutrón un quark down se convierte en un quark up y se emiten un electrón y un antineutrino. Pero esta es una versión demasiado simplificada de lo que en realidad sucede. El electrón y el antineutrino no salen directamente del quark down. Hay una reacción intermedia en la que participa un W. La teoría cuántica de la interacción débil escribe, por lo tanto, el proceso de desintegración del neutrón en dos etapas:

d−1/3 → W + u+2/3

y a continuación

W → e + υe

Observad que el quark down se desintegra primero en un W y un quark up. El W, a su vez, se desintegra en el electrón y el antineutrino. El W es el vehículo de la interacción débil y participa en la reacción de desintegración. En la reacción de up, W tiene que ser negativo para equilibrar el cambio de la carga eléctrica cuando d se transforma en u. Si sumáis la carga −1 del W a la carga +2/3 del quark up os saldrá −1/3, la carga del quark down que puso en marcha la reacción. Todo encaja.

En los núcleos, los quarks up se desintegran también en los quarks down y convierten a los protones en neutrones. En el lenguaje de los quarks, el proceso se describe:

u+2/3 → W + d−1/3

y a continuación

W → e + υe

Aquí hace falta un W positivo para equilibrar el cambio de carga. Por lo tanto, las desintegraciones observadas de los quarks, por medio de los cambios de los neutrones en los protones y viceversa, requieren tanto un W+ como un W. Pero la historia no acaba aquí.

Los experimentos efectuados a mediados de los años setenta con haces de neutrinos establecieron la existencia de las «corrientes neutras», que a su vez requerían un vehículo neutro y pesado de la fuerza. Alentaron esos experimentos los teóricos como Glashow que trabajaban en la frontera de la unificación de las fuerzas y a quienes frustraba el que pareciera que la interacción débil requería sólo vehículos de la fuerza cargados. Se emprendió la caza de las corrientes neutras.

Cualquier cosa que fluya es, básicamente, una corriente. Una corriente de agua fluye por un río o una cañería. Una corriente de electrones fluye por un cable o a través de una solución. El flujo de las partículas de un estado a otro ocurre por medio de los W+ y W, y la necesidad de seguir el rastro de la carga eléctrica generó, probablemente, el concepto de «corriente». Una corriente positiva se produce por medio del W+; una negativa, del W. Estas corrientes se estudian en las desintegraciones débiles espontáneas, como las recién descritas. Pero pueden también generarse por las colisiones de los neutrinos en los aceleradores, que fueron posibles gracias al desarrollo de los haces de neutrinos en el experimento de los dos neutrinos de Brookhaven.

Veamos qué pasa cuando un neutrino muónico, el tipo que descubrimos en Brookhaven, choca con un protón, o, más específicamente, con un quark up del protón. La colisión de un antineutrino muónico con un quark up genera un quark down y un muón positivo.

υμ + u+2/3 → d−1/3 + μ+

Es decir, antineutrino muónico más quark up → quark down más muón positivo. En efecto, cuando el neutrino y el quark up chocan, el up se vuelve un down y el neutrino se convierte en un muón. Otra vez, lo que en realidad ocurre en la teoría de la interacción débil es una secuencia de dos reacciones:

υμ → W + μ+1

W + u → d

El antineutrino choca con el quark up y sale de la colisión como un muón. El up se vuelve un down, y la reacción entera se realiza por medio del W negativo. Tenemos, pues, una corriente negativa. Ahora bien, muy pronto, en 1955, los teóricos (en especial el maestro de Glashow, Julian Schwinger) cayeron en la cuenta de que sería posible tener una corriente neutra, como esta:

υμ + u → u + υμ

¿Qué pasa ahí? Tenemos neutrinos muónicos y quarks up en ambos lados de la reacción. El neutrino rebota en el quark up pero sale como un neutrino, no como un muón, al contrario de lo que pasaba en la reacción anterior. El quark up sufre un empellón pero sigue siendo un quark up. Como el quark up es parte de un protón (o un neutrón), el protón, aunque ha sufrido un impacto, sigue siendo un protón. Si mirásemos esta reacción superficialmente, veríamos que un neutrino muónico golpea un protón y rebota intacto. Pero lo que pasa es más sutil. En las reacciones anteriores, hacía falta un W, bien positivo, bien negativo, para que tuviese lugar la metamorfosis de un quark up en un quark down o al revés. Aquí, el neutrino debe emitir una partícula mensajera que golpee al quark up (y sea tragada por éste). Cuando intentamos escribir esta reacción, queda claro que esa partícula mensajera debe ser neutra.

Esta reacción es similar a la manera en que entendemos la fuerza eléctrica entre, digamos, dos protones: se produce, el intercambio de un mensajero neutro, el fotón, ello da lugar a la ley de Coulomb de la fuerza y así un protón puede golpear al otro. No hay cambio de especie. El parecido no es fortuito. La muchedumbre de la unificación (no el reverendo Moon sino Glashow y sus amigos) necesitaba ese proceso para que hubiese siquiera fuera la menor posibilidad de unificar las fuerzas electromagnética y débil.

El problema experimental, pues, era: ¿podemos hacer reacciones en las que los neutrinos choquen con los núcleos y salgan como neutrinos? Un ingrediente decisivo es que observemos el impacto en el núcleo golpeado. Hubo algunos indicios ambiguos de reacciones de ese estilo en nuestro experimento de los dos neutrinos en Brookhaven. Mel Schwartz las llamó «retretes». Una partícula neutra entra; una partícula neutra sale. No hay cambio de la carga eléctrica. El núcleo golpeado se rompe, pero aparece muy poca energía en el haz de neutrinos de energía relativamente baja de Brookhaven —de ahí el nombre que les puso Schwartz—. Corrientes neutras. Por razones que olvido, el mensajero débil neutro se llama (zeta cero, decimos) en vez de . Pero si queréis impresionar a vuestros amigos, emplead la expresión «corrientes neutras», forma fantasiosa de expresar que hace falta una partícula mensajera neutra para poner en marcha una reacción de interacción débil.

Es el momento de respirar más deprisa

Repasemos un poco lo que pensaban los teóricos.

Fermi fue el primero en distinguir la interacción débil, en los años treinta. Cuando escribió su teoría, tomó como modelo, en parte, a la teoría cuántica de campos de la interacción electromagnética, la electrodinámica cuántica (QED). Fermi probó a ver si esa nueva fuerza se atendría a la dinámica de la fuerza más vieja, el electromagnetismo (más vieja, es decir, por lo que se refiere a nuestro conocimiento de ella). En la QED, acordaos, el campo es llevado por unas partículas mensajeras, los fotones. La teoría de la interacción débil de Fermi, pues, había de tener también partículas. Pero ¿a qué se parecerían?

La masa del fotón es nula, y ello da lugar a la famosa ley del cuadrado del inverso de la distancia de la fuerza eléctrica. La interacción débil tenía un alcance muy corto, así que, de hecho, Fermi les dio a sus vehículos de la fuerza, simplemente, una masa infinita. Lógico. Las versiones posteriores de la teoría de Fermi, la más notable la de Schwinger, introdujeron los pesados W+ y W como vehículos de la interacción débil. Lo mismo hicieron otros teóricos. Veamos: Lee, Yang, Gell-Mann… Odio citar a ningún teórico porque el 99 por 100 de ellos se molestará. Si, en alguna ocasión, dejo de citar a uno, no es porque se me haya olvidado. Probablemente, será porque lo odio.

Ahora vienen los trucos. En la música programática, un tema recurrente introduce una idea, una persona o un animal —como el leitmotiv de Pedro y el Lobo que nos dice que Pedro está a punto de salir a escena—. Quizá lo que más a cuento venga en este caso sea el ominoso violonchelo que señala la aparición del gran escualo blanco en Tiburón. Estoy a punto de meter en las primeras notas del tema del desenlace el signo de la Partícula Divina. Pero no quiero revelarla demasiado pronto. Como en cualquier espectáculo irritante, cuanto más lento, mejor.

A finales de los años sesenta y primeros setenta, varios teóricos jóvenes se pusieron a estudiar la teoría cuántica de campos con la esperanza de extender el éxito de la QED a las otras fuerzas. Quizá os acordéis de que esas elegantes soluciones de la acción a distancia estaban sujetas a dificultades matemáticas: las magnitudes que deberían ser pequeñas y mensurables aparecían infinitas en las ecuaciones, y esa es una fatalidad. Feynman y sus amigos inventaron el proceso de renormalización para esconder los infinitos en las magnitudes medidas, e y m, por ejemplo, la carga y la masa del electrón. Se dice que la QED es una teoría renormalizable; es decir, cabe embridar los infinitos paralizadores. Pero cuando se aplicó la teoría cuántica de campos a las otras tres fuerzas —la débil, la fuerte y la gravedad—, se sufrió una total frustración. ¡Cómo podía pasarle eso a unos chicos tan majos! Con esas fuerzas los infinitos se desbocaban, y las cosas se estropeaban hasta tal punto que la utilidad, en su integridad, de la teoría cuántica de campos se puso en cuestión. Algunos teóricos examinaron de nuevo la QED intentando comprender por qué esa teoría funcionaba (la del electromagnetismo) y las demás no.

La QED, la teoría superprecisa que da el valor g hasta el undécimo decimal, pertenece a la clase de teorías conocidas por teorías gauge [o, teorías de aforo]. La palabra gauge significa en este contexto escala, como cuando se la emplea en inglés para referirse al ancho de vía de una línea férrea (y aforo, a la calibración de un aparato de medida). La teoría gauge expresa una simetría abstracta en la naturaleza que guarda una relación muy estrecha con los hechos experimentales. Un artículo fundamental de C. N. Yang y Robert Mills de 1954 resaltó el poder de la simetría gauge. En vez de proponer nuevas partículas que explicasen los fenómenos observados, se buscaban simetrías que predijesen esos fenómenos. Al aplicarla a la QED, la simetría gauge generaba las fuerzas electromagnéticas, garantizaba la conservación de la carga y proporcionaba, sin costo adicional, una protección contra los peores infinitos. Las teorías que exhiben una simetría gauge son renormalizables. (Repetid esta frase hasta que mane fluidamente entre vuestros labios, y probad a soltarla en la comida). Pero las teorías gauge implicaban la existencia de partículas gauge. No eran otras que nuestras partículas mensajeras: los fotones para la QED, y los W+ y W para la interacción débil. ¿Y para la fuerte? Los gluones, claro.

A algunos de los mejores y más brillantes teóricos les motivaba a trabajar en la interacción débil dos, no, tres razones. La primera, que en la interacción débil había multitud de infinitos, y no estaba claro cómo hacer de ella una teoría gauge. La segunda, el ansia por la unificación, ensalzada por Einstein y muy presente en los pensamientos de este grupo de teóricos jóvenes. Sus miras estaban puestas en la unificación de las fuerzas electromagnética y débil, tarea atrevida pues la interacción débil es muchísimo más débil que la eléctrica, su alcance es mucho, mucho más corto y viola simetrías como la paridad. Si no, ¡las dos fuerzas serían exactamente iguales!

La tercera razón era la fama y la gloria que recaería en el tío que resolviese el rompecabezas. Los participantes más destacados eran Steven Weinberg, por entonces en Princeton; Sheldon Glashow, miembro, junto con Weinberg, de un club de ciencia ficción; Abdus Salam, el genio pakistaní del Imperial College de Londres; Martinus Veltman, en Utrecht, Holanda; y su alumno Gerard ’t Hooft. Los teóricos de más edad (bien entrados en la treintena) habían dejado preparado el escenario: Schwinger, Gell-Mann, Feynman. Había un montón más por ahí; Jeffrey Goldstone y Peter Higgs fueron unos intérpretes de piccolo decisivos.

Nos ahorramos una descripción paso a paso del barullo teórico desde, más o menos, 1960 hasta mediados de los años setenta, y nos encontramos con que se logró al fin una teoría renormalizable de la interacción débil. Al mismo tiempo se halló que el matrimonio con la fuerza electromagnética, con la QED, parecía ya más natural. Pero para hacer todo eso, uno tenía que constituir una familia mensajera común de partículas para la fuerza combinada «electrodébil»: W+, W, y el fotón. (Parece una de esas familias mixtas, con hermanastros y hermanastras de matrimonios anteriores que intentan salir adelante, contra todo pronóstico, mientras comparten un cuarto de baño común). La nueva partícula pesada, , sirvió para satisfacer las exigencias de la teoría gauge, y el cuarteto satisfacía todos los requisitos de la violación de la paridad, así como el de la debilidad de la interacción débil. Sin embargo, en esa etapa (antes de 1970) no sólo no se habían visto los W y el Z, sino tampoco las reacciones que la podría producir. Y ¿cómo podemos hablar de una fuerza electrodébil unificada, cuando hasta un niño podía mostrar en el laboratorio enormes diferencias entre las naturalezas de las fuerzas electromagnética y débil?

Un problema con el que se enfrentaban los investigadores, cada uno en su soledad, en el despacho o en casa o en un asiento del avión, era que la interacción débil, al ser de corto alcance, había de tener vehículos de la fuerza pesados. Pero los mensajeros pesados no eran lo que la simetría gauge predecía, y la protesta tomaba la forma de los infinitos, agudo acero que se clava en las entrañas intelectuales del teórico. Además, ¿cómo coexisten los tres pesados, W+, W y , en una familia feliz con el fotón sin masa?

Peter Higgs, de la Universidad de Manchester (Inglaterra), dio una clave —otra partícula más, de la que hablaremos pronto—, de la que sacó partido Steven Weinberg, por entonces en Harvard y hoy en la Universidad de Texas. Está claro que los fontaneros del laboratorio no vemos la simetría débil-electromagnética. Los teóricos lo saben, pero quieren desesperadamente que en sus ecuaciones básicas haya la simetría. Así, nos enfrentábamos con el tener que hallar una forma de instaurar la simetría y romperla cuando las ecuaciones descendiesen a predecir los resultados del experimento. El mundo es perfecto en abstracto, ves, pero se vuelve imperfecto cuando bajamos a los detalles, ¿vale? ¡Esperad! No creo nada de eso.

Pero así son las cosas.

Weinberg, por medio del trabajo de Higgs, había descubierto un mecanismo gracias al cual un conjunto de partículas mensajeras que originalmente tenían masa cero, representantes de una fuerza unificada electrodébil, adquirían masa alimentándose, por hablar de una forma muy poética, de los componentes indeseados de la teoría. ¿Vale? ¿No? Al utilizar la idea de Higgs para destruir la simetría, ¡caray!: los W y el Z adquirían masa, el fotón seguía igual y de las cenizas de la teoría unificada destruida salían las fuerzas electromagnética y la débil. Los W y Z con masa dan vueltas por ahí y crean la radiactividad de las partículas y las reacciones que de vez en cuando interfieren las travesías del universo de los neutrinos, mientras los fotones dan lugar a la electricidad que todos conocemos, amamos y pagamos. Eso es. La radiactividad (interacción débil) y la luz (el electromagnetismo) sencillamente (¿?) enlazados. En realidad, la idea de Higgs no destruye la simetría; sólo la esconde.

Sólo seguía abierta una pregunta. ¿Por qué tenía que creerse alguien toda esa palabrería matemática? Bueno, Tini Veltman (nada mini) y Gerard ’t Hooft habían laborado en el mismo suelo, quizás más a conciencia, y habían mostrado que si se hace el (aún misterioso) truco de Higgs para romper la simetría, todos los infinitos que habían lacerado tradicionalmente a la teoría desaparecían y la teoría quedaba como los chorros del oro. Renormalizada.

Matemáticamente, aparecía en las ecuaciones todo un conjunto de términos con signos tales que anulaban los términos que tradicionalmente eran infinitos. Pero ¡había tantos términos así! Para hacerlo sistemáticamente, Hooft escribió un programa de ordenador, y un día de julio de 1971 observó el resultado a medida que unas complicadas integrales se restaban de otras. Cada una de ellas, si se las evaluaba por separado, daban un resultado infinito. Todos los infinitos se fueron. Esta fue la tesis de Hooft, y debe quedar con la de De Broglie como una tesis de doctorado que hizo historia.

Hallar el zeta cero

Bastante teoría ya. Hay que admitir que es una materia complicada. Pero volveremos a ella más adelante, y un firme principio pedagógico adquirido en cuarenta y tantos años de vérselas con estudiantes —desde los de primero a posdoctorados— dice que aun cuando el primer pase sea en un 97 por 100 incomprensible, la próxima vez que lo veas resultará, de alguna forma, de lo más familiar.

¿Qué consecuencias tenía toda esta teoría para el mundo real? Las más importantes tendrán que esperar hasta el capítulo 8. En 1970, la consecuencia inmediata para los experimentadores fue que el tenía que existir para que todo funcionase. Y si el era una partícula, lo encontraríamos. Era neutro, como su hermanastro el fotón. Pero al contrario que el fotón, carente de masa, se suponía que era muy pesado, como sus hermanos, los gemelos W. Nuestra tarea, pues, estaba clara: buscar algo que se pareciese a un fotón pesado.

Se habían buscado los W en muchos experimentos, entre ellos varios míos. Mirábamos en las colisiones de neutrinos, no veíamos ningún W y decíamos que el no poder dar con ellos sólo se podía entender si su masa era mayor que 2 GeV. Si hubiese sido más ligero, se habría dejado ver en nuestra segunda serie de experimentos con neutrinos en Brookhaven. Miramos en las colisiones de protones. Ni un W. Su masa, entonces, tenía que ser mayor que 5 GeV. Los teóricos también tenían sus opiniones sobre las propiedades del W y fueron aumentando su masa hasta que, en los últimos años setenta, se predijo que sería de unos 70 GeV. De lejos, demasiado grande para las máquinas de aquella época.

Pero volvamos al . Un núcleo dispersa un neutrino. Si éste envía un W+ (un antineutrino enviaría un W), se convierte en un muón. Pero si puede emitir un , sigue siendo un neutrino. Como se ha mencionado, como no hay cambio de carga eléctrica mientras seguimos los leptones, llamamos a eso corriente neutra.

Un experimento encaminado de verdad a detectar las corrientes neutras no es fácil. La huella es un neutrino invisible que entra, un neutrino igualmente invisible que sale, y además un cúmulo de hadrones producidos por el núcleo golpeado. Ver sólo un cúmulo de hadrones en el detector no es muy impresionante. Es justo lo que un neutrón de fondo haría. En el CERN, una cámara de burbujas gigante, Gargamelle se llamaba, empezó a funcionar con un haz de neutrinos en 1971. El acelerador era el PS, una máquina de 30 GeV que producía neutrinos de alrededor de 1 GeV. En 1972 el grupo del CERN era ya muy activo en seguir el rastro de sucesos sin muones. A la vez, la nueva máquina del Fermilab enviaba neutrinos de 50 GeV hacia un pesado detector de neutrinos electrónicos del que se encargaban David Cline (Universidad de Wisconsin), Alfred Mann (Universidad de Pennsylvania) y Carlo Rubbia (Harvard, CERN, el norte de Italia, Alitalia…).

No podemos hacer justicia a la historia de este descubrimiento. Está llena de sturm und drang, de interés humano, de la sociopolítica de la ciencia. Nos lo saltaremos todo y diremos sólo que en 1973 el grupo del Gargamelle anunció, de forma un tanto tentativa, que había observado corrientes neutras. En el Fermilab, el equipo de Cline-Mann-Rubbia tenía también unos datos así así. Los fondos oscurecedores eran serios, y la señal no le daba a uno un toque en la espalda. Llegaron a la conclusión de que habían descubierto las corrientes neutras. Y se arrepintieron. Y otra vez concluyeron que las habían visto. Un gracioso llamó a sus esfuerzos «corrientes neutras alternas».

Para el congreso de Rochester (una reunión internacional que se celebra cada dos años) de 1974, en Londres, todo estaba claro: el CERN había descubierto las corrientes neutras y el grupo del Fermilab tenía una confirmación convincente de esa señal. Las pruebas indicaban que «algo parecido a un » tenía que existir. Pero si nos atenemos a lo que dice el libro, aunque se estableciese la existencia de las corrientes neutras en 1974, hubieron de pasar nueve años más antes de que se probase directamente la existencia del . El mérito fue del CERN, en 1983. ¿La masa? El era, en efecto, pesado: 91 GeV.

A mediados de 1992, dicho sea de paso, la máquina LEP del CERN había registrado más de dos millones de , recogidos por sus cuatro gigantescos detectores. El estudio de la producción del y de su subsiguiente desintegración está proporcionando un filón de datos y mantiene ocupados a unos 1.400 físicos. Recordad que cuando Ernest Rutherford descubrió las partículas alfa, las explicó y a continuación le sirvieron de herramienta para descubrir el núcleo. Nosotros hicimos lo mismo con los neutrinos; y los haces de neutrinos, como acabamos de ver, se han convertido también en una industria, útil para hallar partículas mensajeras, estudiar los quarks y unas cuantas cosas más. La fantasía de ayer es el descubrimiento de hoy que será el aparato de mañana.

Revisión de la interacción fuerte: los gluones

En los años setenta necesitábamos para completar el modelo estándar un descubrimiento más. Teníamos los quarks, pero se enlazan entre sí con tanta fuerza que no existen en estado libre. ¿Cuál es el mecanismo del enlace? Recurrimos a la teoría cuántica de campos, pero los resultados fueron otra vez frustrantes. Bjorken había elucidado los primeros resultados experimentales obtenidos en Stanford, en los que los electrones rebotaban en los quarks del protón. Fuese cual fuese la fuerza, la dispersión de los electrones indicaba que era sorprendentemente débil cuando los quarks estaban muy juntos.

Era un resultando apasionante porque también se quería aplicar ahí la simetría gauge. Y las teorías gauge predijeron, contra la intuición, que la interacción fuerte se hace muy débil cuando los quarks se acercan mucho y más fuerte a medida que se separan. El proceso, descubierto por unos chicos, David Politzer, de Harvard, y David Gross y Frank Wilczek, de Princeton, llevaba un nombre que sería la envidia de cualquier político: libertad asintótica. Asintótico significa, burdamente, «que se acerca cada vez más, pero no toca nunca». Los quarks tienen libertad asintótica. La interacción fuerte se debilita más y más a medida que un quark se aproxima a otro. Esto significa, paradójicamente, que cuando los quarks están muy juntos se portan casi como si fuesen libres. Pero cuando se apartan, las fuerzas se hacen efectivamente mayores. Las distancias cortas suponen energías altas, así que la interacción fuerte se debilita a altas energías. Esto es justo lo contrario de lo que pasa con la fuerza eléctrica. (Las cosas se vuelven curiosísimas, dijo Alicia). Aún más importante era el que la interacción fuerte necesitase una partícula mensajera, como las otras fuerzas. En alguna parte le dieron al mensajero el nombre de gluón. Pero dar nombre no es conocer.

Otra idea, que menudea en la literatura teórica, viene a cuento ahora. A ésta le puso nombre Gell-Mann. Se llama color —o colour en el inglés de Europa— y no tiene nada que ver con el color que vosotros y yo percibimos. El color explica ciertos resultados experimentales y predice otros. Por ejemplo, explicaba cómo podía el protón tener dos quarks up y uno down cuando el principio de Pauli excluía específicamente que hubiera dos objetos idénticos en el mismo estado. Si uno de los quarks up es azul y el otro es verde, cumplimos la regla de Pauli. El color le da a la interacción fuerte el equivalente de la carga eléctrica.

Tiene que haber tres tipos de color, decían Gell-Mann y otros que habían trabajado en este huerto. Recordad que Faraday y Ben Franklin habían determinado que hay dos variedades de carga eléctrica, designadas más y menos. Los quarks necesitan tres. Hay quarks, pues, de tres colores.

Puede que la idea del color le fuese robada a la paleta, pues hay tres colores primarios. Una analogía mejor podría ser que la carga eléctrica es unidimensional, con las direcciones más y menos, mientras que el color es tridimensional (tres ejes: rojo, azul y verde). El color explicaba por qué las combinaciones de quarks son, únicamente, bien de quark con antiquark (mesones), bien de tres quarks (bariones). Estas combinaciones no muestran color; la quarkidad desaparece cuando miramos un mesón o un barión. Un quark rojo se combina con un antiquark antirrojo y produce un mesón incoloro. El rojo y el antirrojo se anulan. De la misma forma, los quarks rojos, azules y verdes de un protón se mezclan y producen el blanco (probad a hacerlo dándole vueltas a una rueda de color). Incoloro, también.

Aun cuando estas sean unas buenas razones para usar la palabra «color», su significado no es literal. Describimos con ella una propiedad abstracta más, que los teóricos les dieron a los quarks para explicar la creciente cantidad de datos. Podríamos haber usado Tom, Dick y Harry o A, B y C, pero el color era una metáfora más apropiada (¿colorista?). El color, pues, junto con los quarks y los gluones, parecía que siempre sería parte de la caja negra, un ente abstracto que nunca hará sonar un contador Geiger, ni dejará una traza en una cámara de burbujas, ni excitará los cables de un detector electrónico.

Sin embargo, la noción de que la interacción fuerte se debilita a medida que los quarks se acercan entre sí era apasionante desde el punto de vista de una unificación más avanzada. Cuando disminuye la distancia entre las partículas, su energía relativa crece (una distancia pequeña supone una energía grande). Esta libertad asintótica implica que la interacción fuerte se hace más débil a altas energías. A los buscadores de la unificación se les daba así la esperanza de que a una energía lo bastante alta la intensidad de la interacción fuerte podría acercarse a la de la fuerza electrodébil.

Y ¿qué pasa con las partículas mensajeras? ¿Cómo describimos las partículas que llevan la fuerza de color? Se obtuvo que los gluones llevan dos colores —un color y otro anticolor— y que, al ser emitidos o absorbidos por los quarks, cambian el color del quark. Por ejemplo, un gluón rojo-antiazul convierte un quark rojo en un quark antiazul. Este intercambio es el origen de la interacción fuerte, y Murray el Gran Denominador bautizó a la teoría como «cromodinámica cuántica» (QCD), nombre en resonancia con el de electrodinámica cuántica (QED). La tarea de cambiar el color supone que tengamos necesidad de tantos gluones como hagan falta para conseguir todos los cambios posibles. Resulta que son ocho gluones. Si le preguntáis a un teórico «¿por qué ocho?», él os dirá sabiamente: «Porque ocho es nueve menos uno».

Nuestra incomodidad con que no se vea nunca a los quarks fuera de los hadrones sólo se atemperó moderadamente con una representación física de por qué los quarks están siempre encerrados. A distancias muy cortas, los quarks ejercen unas fuerzas hasta cierto punto pequeñas los unos sobre los otros. Ese dominio es la gloria para los teóricos, porque en él pueden calcular las propiedades del estado del quark y la influencia del quark en los experimentos de colisiones.

Cuando los quarks se separan, en cambio, la fuerza se hace más intensa y la energía requerida para que crezca la distancia entre ellos sube muy deprisa hasta que, mucho antes de que los hayamos separado de verdad, la energía aportada produce la creación de un nuevo par quark-antiquark. Esta curiosa propiedad es una consecuencia de que los gluones no son simples, inertes partículas mensajeras. Ejercen en realidad fuerzas entre sí. En esto difiere la QED de la QCD, pues los fotones se ignoran unos a otros.

Con todo, la QED y la QCD tienen muchas estrechas similitudes, sobre todo en el dominio de las altas energías. Tardaron en llegar los éxitos de la QCD, pero fueron constantes. A causa de la borrosa parte de larga distancia de la fuerza, los cálculos nunca fueron muy precisos y muchos experimentos concluían con una afirmación bastante nebulosa: «nuestros resultados son compatibles con las predicciones de la QCD».

Entonces, ¿qué clase de teoría tenemos si jamás de los jamases podremos ver un quark libre? Podemos hacer experimentos que sientan la presencia de electrones y los midan, de esta manera y de la otra, aun cuando estén ligados del todo a los átomos. ¿Podemos hacer lo mismo con los quarks y los gluones? Bjorken y Feynman habían sugerido que en una colisión muy dura de partículas los quarks energizados tirarían al principio hacia afuera y, justo antes de abandonar la influencia de sus quarks compañeros, se enmascararían a sí mismos con un estrecho manojo de hadrones —tres o cuatro u ocho piones, por ejemplo, o poned también algunos kaones y nucleones—, que se dirigirían en un haz estrecho a lo largo de la trayectoria del quark progenitor. Se les dio el nombre de «chorros», y se puso en marcha su búsqueda.

Con las máquinas de los años setenta no era fácil distinguir esos chorros porque lo único que sabíamos producir eran quarks lentos, que generaban chorros anchos con un número pequeño de hadrones. Queríamos unos chorros densos, estrechos.

El primer éxito correspondió a una joven experimentadora, Gail Hanson, doctorada en el MIT y que trabajaba en el SLAC. Su cuidadoso análisis estadístico descubrió que había una correlación de hadrones en los residuos de una colisión e+ e a 3 GeV en el SPEAR. La ayudó el que fuesen los electrones los que entraban y un quark y un antiquark los que salían, en direcciones opuestas para conservar el momento.

Estos chorros correlacionados se manifestaron, a duras penas pero concluyentemente, en el análisis. Cuando Demócrito y yo estábamos en la sala de control de la CDF, destellaban en la pantalla cada pocos minutos unos manojos afilados como agujas de unos diez hadrones, pares de chorros separados 180 grados. No hay razón alguna por la que deba darse semejante estructura, a no ser que el chorro sea el producto de un quark de mucha energía y mucho momento que se viste antes de salir.

Pero el mayor descubrimiento de este tipo en los años setenta se hizo en la máquina PETRA de e+ e de Hamburgo, Alemania. Esta máquina, cuyas colisiones tenían una energía total de 30 GeV, mostró también, sin necesidad de análisis, la estructura de los dos chorros. Ahí casi se podían ver los quarks en los datos. Pero también se vio algo más.

Uno de los cuatro detectores conectados a PETRA tenía su propio acrónimo: TASSO, de Two-Armed Selenoidal Spectrometer (Espectómetro Solenoidal de Dos Brazos). El grupo del TASSO buscaba sucesos en los que aparecieran tres chorros. Una consecuencia de la teoría QCD es que cuando se aniquilan un e+ y un e producen un quark y un antiquark, hay una probabilidad razonable de que uno de los quarks que salen radie una partícula mensajera, un gluón. Ahí hay energía suficiente para convertir un gluón «virtual» en un gluón real. Los gluones comparten la timidez de los quarks y, como los quarks, se visten antes de dejar la caja negra del dominio de encuentro. De ahí los tres chorros de hadrones. Pero eso lleva más energía.

En 1978 las sesiones con energías de 13 y 17 GeV no arrojaron nada, pero a 27 GeV pasó algo. Otra física, Sau Lan Wu, profesora de la Universidad de Wisconsin, llevó adelante el análisis. El programa de Wu pronto descubrió más de cuarenta sucesos en los que había tres chorros de hadrones, y cada chorro tenía de tres a diez pistas (hadrones). El conjunto se parecía a la estrella de los Mercedes.

Los otros grupos de PETRA pronto se subieron al tren. Rastreando en sus datos, también encontraron sucesos de tres chorros. Un año después, se habían reunido miles. Se había, pues, «visto» el gluón. El teórico John Ellis, del CERN, calculó el patrón de las pistas por medio de la QCD, y debe concedérsele el mérito de haber motivado la búsqueda. El anuncio de la detección del gluón se hizo en un congreso que se celebró en el Fermilab en 1979, y me tocó a mí ir al programa de televisión de Phil Donahue, en Chicago, para explicar el descubrimiento. Puse más energía en explicar que los búfalos del Fermilab no vagaban por el laboratorio para servir de primeras alarmas por si se escapaba una radiación peligrosa. Pero en física las verdaderas noticias eran los gluones —los bosones, no los bisontes.

Así que ya tenemos todas las partículas mensajeras, o bosones gauge, como son llamadas más eruditamente. («Gauge» viene de la simetría gauge, y bosón deriva del físico indio S. N. Bose, que describió la clase de partículas cuyo espín tiene valores enteros). Mientras las partículas de la materia tienen todas un espín de ½ y se las llama fermiones, las partículas mensajeras tienen todas espín 1 y son bosones. Hemos pasado por encima de algunos detalles. El fotón, por ejemplo, fue predicho por Einstein en 1905 y Arthur Compton lo observó experimentalmente en 1923 mediante rayos X dispersados por electrones atómicos. Aunque las corrientes neutras se descubrieron a mediados de los años setenta, los W y Z no se observaron de forma directa hasta 1983-1984, cuando se los detectó en el colisionador de hadrones del CERN. Como se ha mencionado, los gluones se captaron en 1979.

En esta larga discusión de la interacción fuerte, deberíamos señalar que la definimos como la fuerza entre quark y quark cuyo vehículo son los gluones. Pero ¿y qué es de la «vieja» interacción fuerte entre los neutrones y los protones? Sabemos ahora que es el efecto residual de los gluones que, digamos, gotean de los neutrones y los protones que se enlazan en el núcleo. La vieja interacción fuerte que se describe bien mediante el intercambio de piones se considera ahora una consecuencia de las complejidades de los procesos entre los quarks y los gluones.

¿El final del camino?

Al entrar en los años ochenta, habíamos dado ya con todas las partículas de la materia (los quarks y los leptones), y teníamos las partículas mensajeras, o bosones gauge, de las tres fuerzas (excluida la gravedad) en muy buena medida en la mano. Si se añaden las partículas de las fuerzas a las partículas de la materia se tiene el modelo estándar completo, o ME. Aquí, pues, está el «secreto del universo»:

Materia
Primera generación Segunda generación Tercera generación
Quarks
up (u) encanto (c) top (t)
down (d) extraño (s) Bottom (b)
Leptones
neutrino electrónico (υe) neutrino muónico (υμ) neutrino tau (υτ)
electrón (e) muón (μ) tau (τ)
Fuerzas
Bosones gauge
electromagnetismo fotón (γ)
interacción débil W+ W
interacción fuerte ocho gluones

Recordad que los quarks vienen en tres colores. Por lo tanto, si uno es mezquino contará dieciocho quarks, seis leptones y doce bosones gauge que transportan las fuerzas. Hay, además, una antitabla en la que todas las partículas de la materia aparecen como antipartículas. Eso os daría sesenta partículas en total. Pero ¿a qué echar la cuenta? Quedaos con la tabla de arriba; es todo lo que tenéis que saber. Por fin creemos que tenemos los á-tomos de Demócrito. Son los quarks y los leptones. Las tres fuerzas y sus partículas mensajeras explican su «movimiento constante y violento».

Podría parecer que resumir el universo entero en una tabla, por compleja que sea, es una arrogancia. Pero da la impresión que los seres humanos nos vemos empujados a construir síntesis de ese estilo; los «modelos estándar» han sido recurrentes en la historia de Occidente. El actual modelo estándar no recibió ese nombre hasta los años setenta, y la expresión es propia de la historia moderna reciente de la física. Pero, ciertamente, ha habido a lo largo de los siglos otros modelos estándar. El esquema siguiente muestra sólo unos pocos:

600 ac: Tales (milesio)

Partículas: Agua

Fuerzas: No se mencionan

Nota: 8

Comentario: Fue el primero en explicar el mundo mediante causas naturales, no mediante los dioses. En el lugar de la mitología puso la lógica.

460 aC: Empédocles (de Agrigento)

Partículas: Tierra, aire, fuego y agua

Fuerzas: Amor y discordia

Nota: 9

Comentario: Aportó la idea de que hay «múltiples» partículas que se combinan para formar todos los tipos de materia.

430 aC: Demócrito (de Abdera)

Partículas: El atomos invisible e indivisible, o á-tomo

Fuerzas: El movimiento violento constante

Nota: 10

Comentario: Su modelo requería demasiadas partículas, cada una con una forma diferente, pero su idea básica de que hay un átomo que no puede ser partido sigue siendo la definición básica de partícula elemental.

1687: Isaac Newton (inglés)

Partículas: Átomos duros, con masa, impenetrables

Fuerzas: La gravedad (para el cosmos). Fuerzas desconocidas (para los átomos)

Nota: 7

Comentario: Le gustaban los átomos, pero no hizo que su causa avanzase. Su gravedad es un gran dolor de cabeza para los peces gordos en la década de 1990

1760: Roger J. Boscovich (dálmata)

Partículas: «Puntos de fuerza», indivisibles y sin forma o dimensión

Fuerzas: Fuerzas atractivas y repulsivas que actúan entre puntos

Nota: 9

Comentario: Su teoría era incompleta, limitada, pero la idea de que hay partículas de «radio nulo», puntuales, que crean «campos de fuerza», es esencial en la física moderna.

1880: John Dalton

Partículas:

Fuerzas: La fuerza de atracción ente los átomos

Nota: 7,5

Comentario: Se precipitó al resucitar la palabra de Demócrito —el átomo de Dalton no es indivisible—, pero dio una pista al decir que los átomos diferían en peso, no en su forma, como pensaba Demócrito.

1820: Michael Faraday (inglés)

Partículas: Cargas eléctricas

Fuerzas: Electromagnetismo (más la gravedad)

Nota: 8,5

Comentario: Aplicó el atomismo a la electricidad al conjeturar que las corrientes estaban formadas por «corpúsculos de electricidad», los electrones.

1870: Dmitri Mendeleev (siberiano)

Partículas: Más de 50 átomos, dispuestos en la tabla periódica de los elementos

Fuerzas: No hace cábalas sobre las fuerzas

Nota: 8,5

Comentario: Tomó la idea de Dalton y organizó todos los elementos químicos conocidos. En su tabla periódica apuntaba con claridad una estructura más profunda y significativa.

1992: Bjorken, Fermi, Friedman, Gell-Mann, Glashow, Kendall, Lederman, Perl, Richter, Schwartz, Steinberger, Taylor, Ting, más un reparto de miles

Partículas: Seis quarks y seis leptones más sus antipartículas. Hay tres colores de quarks

Fuerzas: El electromagnetismo, la interacción fuerte, la débil, doce partículas que llevan las fuerzas, más la gravedad

Nota: Incompleto

Comentario: «Γυφφαω» (ríe). Demócrito de Abdera.

¿Por qué es incompleto nuestro modelo estándar?

Una carencia obvia es el que no se haya visto todavía el quark top. Otra, que falta una de las fuerzas: la gravedad. Nadie sabe cómo meter esta vieja gran fuerza en el modelo. Otro defecto estético es el que no sea lo bastante simple; debería parecerse más a la tierra, aire, fuego y agua, más el amor y la discordia, de Empédocles.

Hay demasiados parámetros en el modelo estándar, demasiados controles que ajustar.

Esto no quiere decir que el modelo estándar no sea uno de los grandes logros de la ciencia. Es la obra de un montón de individuos (de los dos sexos) que se quedaban levantados por la noche hasta muy tarde. Pero al admirar su belleza y su amplitud, uno no puede evitar sentirse incómodo y deseoso de algo más sencillo, de un modelo que hasta un griego de la Antigüedad pudiese amar.

Escuchad: ¿no oís una risa que sale del vacío?