SENADOR JOHN PASTORE: ¿Hay algo que tenga alguna relación con las esperanzas que suscita este acelerador y que, de una forma o de otra, afecte a la seguridad de este país?
ROBERT R. WILSON: No, señor. No lo creo.
PASTORE: ¿Nada en absoluto?
WILSON: Nada en absoluto.
PASTORE: ¿Carece de importancia en lo que a ella se refiere?
WILSON: Sólo tiene que ver con el respeto con que nos miramos unos a otros, la dignidad de los hombres, nuestro amor por la cultura. Tiene que ver con: ¿somos buenos pintores, buenos escultores, grandes poetas? Me refiero a todas las cosas que realmente veneramos y honramos en nuestro país y que excitan nuestro patriotismo. No tiene nada que ver directamente con la defensa de nuestro país salvo que hace que merezca la pena defenderlo.
Tenemos una tradición en el Fermilab. Cada primero de junio, llueva o haga sol, a las siete de la mañana se invita a la plantilla a correr los más de seis kilómetros alrededor del anillo principal del acelerador por la carretera de la superficie, que sirve además de pista de jogging. Corremos siempre en la dirección en que se aceleran los antiprotones. Mi último tiempo oficioso alrededor del anillo fue de 38 minutos. El actual director del Fermilab, mi sucesor John Peoples, comunicó, el primer verano que ocupó el puesto, que invitaba a la plantilla a correr el 1 de junio con «un director más joven y que corre más». Correr, corría más, pero ninguno de nosotros es lo suficientemente rápido para batir a los antiprotones. Completan el circuito en unas 22 millonésimas de segundo, lo que quiere decir que cada antiprotón me dobla unos cien millones de veces.
La plantilla del Fermilab sigue siendo humillada por los antiprotones. Pero vamos a la par; fuimos nosotros los que diseñamos los experimentos. Conducimos a los antiprotones a que choquen de frente contra los protones que corren justo a la misma velocidad en dirección contraria. El proceso de conseguir que las partículas choquen es la esencia de este capítulo.
El examen de los aceleradores que vamos a hacer será un poco un desvío. Hemos corrido a lo largo de siglos de progreso científico como un camión sin frenos. Vayamos un poco más despacio. No vamos a hablar aquí tanto de descubrimientos, ni de físicos siquiera, como de máquinas. Los instrumentos están unidos inseparablemente al progreso científico, del plano inclinado de Galileo a la cámara de chispas de Rutherford. Ahora, un instrumento ocupa el escenario central. No se puede entender la física de las últimas décadas si no se conoce la naturaleza de los aceleradores y la serie de detectores que los acompañan, los instrumentos dominantes en la especialidad durante los últimos cuarenta años. Al aprender sobre los aceleradores, aprendemos además mucha física, pues esta máquina incorpora muchos principios que los físicos han perfeccionado gracias a siglos de trabajo.
A veces pienso en la torre de Pisa como si hubiera sido el primer acelerador de partículas, un acelerador (casi) vertical que Galileo utilizó en sus estudios. Pero la historia verdadera empieza mucho más tarde. El desarrollo del acelerador dimana de nuestro deseo de llegar hasta el átomo. Dejando aparte a Galileo, la historia empieza con Ernest Rutherford y sus alumnos, que se convirtieron en maestros del arte de sacar provecho de la partícula alfa para explorar el átomo.
La partícula alfa es un regalo. Cuando un material radiactivo por naturaleza se desintegra espontáneamente, lanza estas partículas pesadas y de gran energía. La energía característica de una partícula alfa es de 5 millones de electronvoltios. Un electronvoltio (eV) es la cantidad de energía que un solo electrón recibiría si cruzase desde la carcasa (negativa) de la pila de 1 voltio de una linterna a su polo positivo. Cuando hayáis terminado los dos capítulos siguientes, el electronvoltio os será tan familiar como el centímetro, la caloría o el megabyte. Estas son cuatro abreviaturas que deberíais conocer antes de seguir adelante:
KeV: mil electronvoltios (K de kilo)
MeV: un millón de electronvoltios (M de mega)
GeV: mil millones de electronvoltios (G de giga)
TeV: billón de electronvoltios (T de tera)
Más allá del TeV recurrimos a la notación de potencias de diez: 10¹² eV es un TeV. La tecnología previsible no pasa de 1014, y ahí entramos en el dominio de las partículas de los rayos cósmicos, que bombardean la Tierra desde el espacio exterior. El número de partículas de los rayos cósmicos es pequeño, pero sus energías pueden tornar cualquier valor hasta 10²¹ eV.
En la física de partículas, 5 MeV no es mucho; las alfas de Rutherford a duras penas rompían los núcleos de los átomos de nitrógeno en las que quizá fueron las primeras colisiones nucleares deliberadas. Y de ellas sólo salieron vislumbres tentadores de lo que había que descubrir. La teoría cuántica nos dice que cuanto menor sea el objeto que se estudia, más energía hace falta; es como afilar el cuchillo de Demócrito. Para partir eficazmente el núcleo necesitamos energías de muchas decenas o incluso cientos de MeV. Cuanto mayores sean, mejor.
Una digresión filosófica. Como contaré, los científicos de partículas iban construyendo tan contentos aceleradores cada vez más poderosos por todas las razones por las que cualquiera de nosotros, sapiens, hacemos algo: la curiosidad, el ego, el poder, la avaricia, la ambición… Muy a menudo, unos cuantos, en quieta contemplación ante una cerveza, le daremos vueltas a la cuestión de si el mismísimo Dios sabe qué producirá nuestra próxima máquina (por ejemplo, el «monstruo» de 30 GeV que en 1959 estaba a punto de terminarse en Brookhaven). ¿No estaremos acaso inventándonos nuestros propios problemas al conseguir esas nuevas, inauditas energías? ¿Dios, en Su inseguridad, mira por encima del hombro de GellMann o Feynman u otros de Sus teóricos favoritos para descubrir qué hay que hacer a esas energías gigantescas? ¿Convoca a un comité de ángeles residentes —Rabí Newton, Einstein, Maxwell— con el objeto de que le indiquen qué hay que hacer a los 30 GeV? La brusquedad de la historia de la teoría da de vez en cuando alas a este punto de vista, como si a Dios se le ocurriesen las cosas a medida que nosotros vamos hacia adelante. Sin embargo, el progreso en la astrofísica y en la investigación de los rayos cósmicos nos certifica enseguida que eso no es más que una tontería «del viernes por la noche antes del sabbath». Nuestros colegas que miran hacia arriba nos dicen con seguridad que al universo sí le importan mucho los 30 GeV, los 300 GeV, hasta los 3.000 millones de GeV. El espacio es barrido por partículas de energías astronómicas (¡uf!), y lo que hoy es un acontecimiento raro, exótico en un punto de colisión infinitesimal de Long Island o Batavia o Tsukuba era, nada más haber nacido el universo, ordinario, cotidiano, uno entre tantos.
Y ahora volvamos a las máquinas.
El acelerador más potente que existe hoy, el Tevatrón del Fermilab, produce colisiones a unos 2 TeV o 400.000 veces la energía que se creaba en las colisiones de las partículas alfa de Rutherford. El Supercolisionador Superconductor, aún por construir, se ha concebido para que opere a unos 40 TeV.
40 TeV suena como si fuese muchísima energía, y de hecho lo es cuando se invierte en una sola colisión de dos partículas. Pero deberíamos poner esto en perspectiva. Cuando encendemos una cerilla, participan unos 10²¹ átomos en la reacción, y cada proceso libera unos 10 eV, así que le energía total es aproximadamente 10²² eV, o unos 10.000 millones de TeV. En el Supercolisionador habrá 100 millones de colisiones por segundo, cada una de las cuales liberará 40 TeV, lo que da un total de unos 4.000 millones de TeV, ¡una cantidad no muy distinta de la energía que se libera al encender una cerilla! Pero la clave es que la energía se concentra en unas pocas partículas y no en los billones y billones y billones de partículas que hay en una pizca de materia visible.
Podemos ver todo el complejo del acelerador —de la estación de energía alimentada con petróleo, pasando por las líneas de energía eléctrica, al laboratorio donde los transformadores llevan la energía eléctrica a los imanes y las cavidades de radiofrecuencia— como un gigantesco dispositivo que concentra, con una eficiencia bajísima, la energía química del petróleo en unos insignificantes mil millones o así de protones por segundo. Si la cantidad macroscópica de petróleo se calentase hasta que cada uno de los átomos que la constituyen tuviese 40 TeV, la temperatura sería de 4 × 1017 grados, 400.000 billones de grados en la escala Kelvin. Los átomos se derretirían en los quarks que los forman. Ese era el estado del universo entero menos de una mil billonésima de segundo tras la creación.
Entonces, ¿qué hacemos con toda esa energía? La teoría cuántica exige que, para estudiar cosas cada vez menores, los aceleradores sean cada vez más potentes. Esta es una tabla de la energía aproximada que hace falta para descerrajar varias estructuras interesantes:
Energía (aproximada) | Estructura | Tamaño |
---|---|---|
0,1 eV | Molécula, átomo grande | 10−8 metros |
1,0 eV | Átomo | 10−9 m |
1.000 eV | Región atómica central | 10−11 m |
1 MeV | Núcleo gordo | 10−14 m |
100 MeV | Región central del núcleo | 10−15 m |
1 GeV | Neutrón o protón | 10−16 m |
10 GeV | Efectos de quark | 10−17 m |
100 GeV | Efectos de quark | 10−18 m (con más detalle) |
10 TeV | Partícula Divina | 10−20 m |
Observad lo predeciblemente que la energía necesaria aumenta a medida que el tamaño disminuye. Observad, además, que para estudiar los átomos sólo hace falta 1 eV, pero se necesitan 10.000 trillones de eV para empezar a estudiar los quarks.
Los aceleradores son como los microscopios que utilizan los biólogos, sólo que para estudiar cosas muchísimo menores. Los microscopios corrientes iluminan con luz la estructura de, digamos, los glóbulos rojos de la sangre. Los microscopios electrónicos, tan queridos por los cazadores de microbios, son más poderosos precisamente porque los electrones tienen mayor energía que la luz del microscopio óptico. Gracias a las longitudes de onda más cortas de los electrones, los biólogos pueden «ver» y estudiar. Es la longitud de onda del objeto que bombardea la que determina el tamaño de lo que podemos «ver» y estudiar. En la teoría cuántica sabemos que a medida que la longitud de onda se hace más corta la energía aumenta; nuestra tabla no hace otra cosa que demostrar esa conexión.
En 1927, Rutherford, en un discurso dado en la Royal Society Británica, expresó su esperanza de que un día los científicos hallasen una forma de acelerar las partículas cargadas hasta energías mayores que las proporcionadas por la desintegración radiactiva. Previó que se inventarían máquinas capaces de generar muchos millones de voltios. Había, aparte de la pura energía, una razón para construir máquinas así. A los físicos les hacía falta disparar un número mayor de proyectiles a un blanco dado. Las fuentes de partículas alfa que proporciona la naturaleza no eran precisamente boyantes: se podían dirigir hacia un blanco de un centímetro cuadrado menos de un millón de partículas por segundo. Un millón parece mucho, pero los núcleos ocupan sólo una centésima de una millonésima del área del blanco. Hacen falta al menos mil veces más partículas aceleradas (1.000 millones) y, como ya se ha dicho, mucha más energía, muchos millones de voltios (los físicos no estaban seguros de cuántos), para sondear el núcleo. A finales de los años veinte, esta tarea parecía poco menos que imponente, pero los físicos de muchos laboratorios se pusieron a trabajar en el problema. A partir de ahí vino una carrera hacia la creación de máquinas que acelerasen el enorme número de partículas requerido hasta al menos un millón de voltios. Antes de examinar los avances de la técnica de los aceleradores, deberíamos hablar de algunos conceptos básicos.
No es difícil explicar la física de la aceleración de partículas (¡prestad atención!). Conectad los bornes de una batería DieHard a dos placas metálicas (las llamaremos terminales), separadas, por ejemplo, unos treinta centímetros. A este montaje se le llama el hueco. Encerrad los dos terminales en un recipiente del que se haya extraído el aire. Organizad el equipo de forma que una partícula cargada eléctricamente —los electrones y los protones son los proyectiles primarios— pueda moverse con libertad a través del hueco. Un electrón, con su carga negativa, correrá satisfecho hacia el terminal positivo y ganará una energía de (mirad la etiqueta de la batería) 12 eV. El hueco, pues, produce una aceleración. Si el terminal metálico positivo es una rejilla en vez de una placa sólida, la mayoría de los electrones lo atravesarán y se creará un haz directo de electrones de 12 eV. Ahora bien, un electronvoltio es una unidad de energía pequeñísima. Lo que hace falta es una batería de 1.000 millones de voltios, pero Sears no trabaja ese artículo. Para conseguir grandes voltajes es necesario ir más allá de los dispositivos químicos. Pero no importa lo grande que sea un acelerador; hablemos de un Cockcroft-Walton de los años veinte o del Supercolisionador de 87 kilómetros de circunferencia, el mecanismo básico es el mismo: el hueco a través del cual las partículas ganan energía.
El acelerador toma partículas normales, respetuosas de la ley, y les da una energía extra. ¿De dónde sacamos las partículas? Los electrones son fáciles de obtener. Calentamos un cable hasta la incandescencia y los electrones manan. Tampoco cuesta conseguir los protones. El protón es el núcleo del átomo de hidrógeno (los núcleos de hidrógeno no tienen neutrones), así que lo único que hace falta es gas hidrógeno del que está a la venta. Se pueden acelerar otras partículas, pero tienen que ser estables —es decir, sus vidas medias han de ser largas— porque el proceso de aceleración lleva tiempo. Y han de tener carga eléctrica, pues está claro que el hueco no funciona con una partícula neutra. Los candidatos principales a ser acelerados son los protones, los antiprotones, los electrones y los positrones (los antielectrones). También se pueden acelerar núcleos más pesados, los deuterones y las partículas alfa, por ejemplo; tienen usos especiales. Una máquina inusual que se está construyendo en Long Island, Nueva York, acelerará los núcleos de uranio hasta miles de millones de electrón volts.
¿Qué hace el proceso de aceleración? La respuesta sencilla, pero incompleta, es que acelera a las afortunadas partículas. En los primeros tiempos de los aceleradores, esta explicación funcionó muy bien. Una descripción mejor es que eleva la energía de las partículas. A medida que los aceleradores se hicieron más poderosos, pronto consiguieron velocidades cercanas a la suprema: la de la luz. La teoría de la relatividad especial de Einstein de 1905 afirma que nada puede viajar más deprisa que la luz. A causa de la relatividad, el concepto de «velocidad» no es muy útil. Por ejemplo, una máquina podría acelerar los protones a, digamos, el 99 por 100 de la velocidad de la luz, y una mucho más cara, construida diez años después, llegaría al 99,9 por 100. Un montón. ¡Vete a explicárselo al congresista que votó por semejante rosquilla sólo para conseguir otro 0,9 por 100!
No es la velocidad la que afila el cuchillo de Demócrito y ofrece nuevos dominios de observación. Es la energía. Un protón a un 99 por 100 de la velocidad de la luz tiene una energía de unos 7 GeV (el Bevatrón de Berkeley, 1955), mientras que uno a un 99,95 por 100 la tiene de 30 GeV (Brookhaven AGS, 1960) y uno a 99,999 por 100, de 200 GeV (Fermilab, 1972). Así que la relatividad de Einstein, que rige la manera en que la velocidad y la energía cambian, hace que sea ocioso hablar de la velocidad. Es la energía lo que importa. Una propiedad relacionada con ella es el momento, que para una partícula de alta energía se puede considerar una energía dirigida. Dicho sea de paso, la partícula acelerada se vuelve también más pesada a causa de E = mc². En la relatividad, una partícula en reposo aún tiene una energía dada por E = m0c², donde m0 se define como la «masa en reposo» de la partícula. Cuando se acelera la partícula, su energía, E, y por lo tanto su masa crecen. Cuanto más cerca se esté de la velocidad de la luz, más pesada se vuelve y por consiguiente más difícil es aumentar su velocidad. Pero la energía sigue creciendo. La masa en reposo del protón es alrededor de 1 GeV, lo que viene muy bien. La masa de un protón de 200 GeV es más de doscientas veces la del protón que reposa cómodamente en la botella de gas hidrógeno. Nuestro acelerador es en realidad un «ponderador».
Ahora bien, ¿cómo usamos esas partículas? Dicho con sencillez, las obligamos a que produzcan colisiones. Como este es el proceso central gracias al que podemos aprender acerca de la materia y la energía, debemos entrar en detalles. Está bien olvidarse de las distintas peculiaridades de la maquinaria y de la manera en que se aceleran las partículas, por interesantes que puedan ser. Pero acordaos de esta parte. El meollo del acelerador está por completo en la colisión.
Nuestra técnica de observar y, al final, de conocer el mundo abstracto del dominio subnuclear es similar a la manera en que conocemos cualquier otra cosa, un árbol, por ejemplo. ¿Cuál es el proceso? Para empezar, nos hace falta luz. Usemos la del Sol. El flujo de fotones que viene del Sol se dirige hacia el árbol y se refleja en las hojas y en la corteza, en las ramas grandes y en las pequeñas, y nuestro ojo recoge una fracción de esos fotones. El objeto, podemos decir, dispersa los fotones hacia el detector. La lente del ojo detecta los fotones y clasifica las distintas cualidades: el color, el matiz, la intensidad. Se organiza esta información y se envía al procesador en línea, el lóbulo occipital del cerebro, que se especializa en los datos visuales. Al final, el procesador fuera de línea llega a una conclusión: «¡Por Júpiter, un árbol! ¡Qué bonito!».
Puede que la información que llega al ojo haya sido filtrada por gafas, para ver o de sol, lo que añade distorsión a la que el ojo introduce de por sí. Toca al cerebro corregir esas distorsiones. Reemplacemos el ojo por una cámara, y ahora, una semana después, con un grado mayor de abstracción, se ve el árbol proyectado en un pase de diapositivas familiares. O una grabadora de vídeo puede convertir los datos ofrecidos por los fotones dispersados en una información electrónica digital: ceros y unos. Para aprovechar esto, se pone en funcionamiento mediante la televisión, que reconvierte la señal digital en analógica, y un árbol aparece en la pantalla. Si se quisiera enviar «árbol» a nuestros colegas científicos del planeta Uginza, puede que no se convirtiese la información digital en analógica, pero aquélla transmitiría, con la máxima precisión, la configuración a la que los terráqueos llamamos árbol.
Por supuesto, las cosas no son tan simples en un acelerador. Las partículas de tipos diferentes se usan de maneras diferentes. Pero todavía podemos llevar la metáfora otro paso adelante para las colisiones y dispersiones nucleares. Los árboles se ven de forma diferente por la mañana, al mediodía, al ponerse el sol. Cualquiera que haya visto los numerosos cuadros que Monet pintó de la fachada de la catedral de Ruán a diferentes horas del día sabe hasta qué punto la cualidad de la luz establece diferencias. ¿Cuál es la verdad? Para el artista la catedral tiene muchas verdades. Cada una reverbera en su propia realidad: la luz neblinosa de la mañana, los duros contrastes del sol al mediodía o el rico resplandor del final de la tarde. A cada una de esas luces se exhibe un aspecto diferente de la verdad. Los físicos trabajan con el mismo enfoque. Necesitamos toda la información que podamos obtener. El artista emplea la luz cambiante del sol. Nosotros emplearnos partículas diferentes: un flujo de electrones, un flujo de muones o de neutrinos, a energías siempre cambiantes.
Las cosas son como sigue.
De una colisión se sabe qué entra y qué sale (y cómo sale). ¿Qué pasa en el minúsculo volumen de la colisión? La desquiciadora verdad es que no podemos verlo. Es como si una caja negra cubriese la región de colisión. En el mundo cuántico, fantasmagórico, lleno de reflejos, los detalles mecánicos internos de la colisión no son observables —apenas si somos capaces siquiera de imaginarlos—. Lo que tenemos es un modelo de las fuerzas que actúan y, donde sea pertinente, de la estructura de los objetos que chocan. Vemos qué entra y qué sale, y preguntamos si nuestro modelo de lo que hay en la caja predice los patrones.
En un programa educativo del Fermilab para niños de diez años les hacemos afrontar ese problema. Les damos una caja cuadrada vacía para que la midan, la meneen, la pesen. Ponemos a continuación algo dentro de la caja, un bloque de madera, por ejemplo, o tres bolas de acero. Pedimos entonces a los estudiantes que otra vez pesen, meneen, inclinen y escuchen, y que nos digan todo lo que puedan acerca de los objetos: el tamaño, la forma, el peso… Es una metáfora instructiva de nuestros experimentos de dispersión. Os sorprendería cuán a menudo aciertan los chicos.
Pasemos a los adultos y a las partículas. Supongamos que se quiere descubrir el tamaño de los protones. Tomémosle la idea a Monet: mirémoslos bajo diferentes formas de luz. ¿Podrían los protones ser puntos? Para saberlo, los físicos golpearon los protones con otros protones de una energía muy baja con el objeto de explorar la fuerza electromagnética entre los dos objetos cargados. La ley de Coulomb dice que esta fuerza se extiende al infinito, disminuyendo su intensidad con el cuadrado de la distancia. El protón que hace de blanco y el acelerado están, claro, cargados positivamente, y como las cargas iguales se repelen, el protón blanco repele sin dificultad al protón lento, que no llega nunca a acercarse demasiado. Con este tipo de «luz», el protón parece, en efecto, un punto, un punto de carga eléctrica. Así que aumentemos la energía de los protones acelerados. Ahora, las desviaciones en los patrones de dispersión de los protones indican que van penetrando con la hondura suficiente para tocar la llamada interacción fuerte, la fuerza de la que ahora sabemos que mantiene unidos a los constituyentes del protón. La interacción fuerte es cien veces más intensa que la fuerza eléctrica de Coulomb, pero, al contrario que ésta, su alcance no es en absoluto infinito. Se extiende sólo hasta una distancia de unos 10−13 centímetros, y luego cae deprisa a cero.
Al incrementar la energía de la colisión, desenterramos más y más detalles de la interacción fuerte. A medida que aumenta la energía, la longitud de onda de los protones (acordaos de De Broglie y Schrödinger) se encoge. Y, como hemos visto, cuanto menor sea la longitud de onda, más detalles cabe discernir en la partícula que se estudie.
Robert Hofstadter, de la Universidad de Stanford, tomó en los años cincuenta algunas de las mejores «imágenes» del protón. En vez de un haz de protones, la «luz» que utilizó fue un haz de electrones. El equipo de Hofstadter apuntó un haz bien organizado de electrones de, digamos, 800 MeV a un pequeño recipiente de hidrógeno líquido. Los electrones bombardearon los protones del hidrógeno y el resultado fue un patrón de dispersión, el de los electrones que salían en una variedad de direcciones con respecto a su movimiento original. No es muy diferente a lo que hizo Rutherford. Al contrario que el protón, el electrón no responde a la interacción nuclear fuerte. Responde sólo a la carga eléctrica del protón, y por ello los Científicos de Stanford pudieron explorar la forma de la distribución de carga del protón. Y esto, de hecho, revela el tamaño del protón. Claramente, no era un punto. Se midió que el radio era de 2,8 × 10−13 centímetros; la carga se acumula en el centro, y se desvanece en los bordes de lo que llamamos el protón. Se obtuvieron resultados parecidos cuando se repitieron los experimentos con haces de muones, que también ignoran la interacción fuerte. Hofstadter recibió en 1961 un premio Nobel por su «fotografía» del protón.
Alrededor de 1968, los físicos del Centro del Acelerador Lineal de Stanford (SLAC) bombardearon los protones con electrones de mucha mayor energía —de 8 a 15 GeV— y obtuvieron un conjunto muy diferente de patrones de dispersión. A esta luz dura, el protón presentaba un aspecto completamente distinto. Los electrones de energía relativamente baja que empleó Hofstadter podían ver sólo un protón «borroso», una distribución regular de carga que hacía que el electrón pareciese una bolita musgosa. Los electrones del SLAC sondearon con mayor dureza y dieron con unos personajillos que correteaban dentro del protón. Fue la primera indicación de la realidad de los quarks. Los nuevos y los viejos datos no se contradecían —como no se contradicen los cuadros de la mañana y del anochecer de Monet—, pero los electrones de baja energía sólo podían revelar distribuciones de carga medias. La visualización que ofrecieron los electrones de energía mayor mostró que nuestro protón contiene tres constituyentes puntuales en movimiento rápido. ¿Por qué el experimento del SLAC mostró este detalle, y el estudio de Hofstadter no? Una colisión de energía que sea lo bastante alta (determinada por lo que entre y lo que salga) congela los quarks en su sitio y «siente» la fuerza puntual. Es, de nuevo, la virtud de las longitudes de onda cortas. Esta fuerza produce inmediatamente dispersiones a grandes ángulos (recordad a Rutherford y el núcleo) y grandes cambios de energía. El nombre formal de este fenómeno es «dispersión inelástica profunda». En los experimentos previos, los de Hofstadter, el movimiento de los quarks se emborronaba y los protones parecían «regulares» y uniformes por dentro a causa de la menor energía de los electrones sondeadores: Imaginad que se saca una fotografía de tres bombillas diminutas que vibran rápidamente con una exposición de un minuto. La película mostraría un solo objeto grande, borroso, indiferenciado. El experimento del SLAC usó —hablando burdamente— un obturador más rápido, que congelaba las manchas de luz para que se las pudiese contar fácilmente.
Como la interpretación basada en los quarks de la dispersión de los electrones de gran energía se salía mucho de lo corriente y era de tremenda importancia, estos experimentos se repitieron en el Fermilab y en el CERN (acrónimo del Centro Europeo de Investigaciones Nucleares) con muones cuya energía era diez veces la energía del SLAC (150 Gev) y con neutrinos. Los muones, como los electrones, comprueban la estructura electromagnética del protón, pero los neutrinos, impermeables a la fuerza electromagnética y a la interacción fuerte, tantean la llamada distribución de la interacción débil. La interacción débil es la fuerza nuclear responsable de la desintegración radiactiva, entre otras cosas. Cada uno de estos experimentos enormes, efectuados en acalorada competencia, llegó a la misma conclusión: el protón está formado por tres quarks. Y aprendimos algunos detalles de cómo se mueven los quarks. Su movimiento define lo que llamamos «protón».
El análisis detallado de los tres tipos de experimentos —con electrones, con muones y con neutrinos— acertó también a detectar un nuevo tipo de partícula, el gluón. Los gluones son los vehículos de la interacción fuerte, y sin ellos los datos no se podrían explicar. Este mismo análisis dio detalles cuantitativos de la manera en que los quarks dan vueltas los unos alrededor de los otros en su prisión protónica. Veinte años de este tipo de estudio (el nombre técnico es «funciones de estructura») nos han dado un depurado modelo que explica todos los experimentos de colisión en los que se dirijan protones, neutrones, electrones, muones y neutrinos, y además fotones, piones y antiprotones, contra protones. Esto es Monet exagerado. Quizá el poema de Wallace Stevens «Trece maneras de mirar a un mirlo» sería una comparación más oportuna.
Como podéis ver, aprendemos muchas cosas para explicar qué entra y qué sale. Aprendemos acerca de las fuerzas y de cómo originan estructuras complejas del estilo de los protones (formados por tres quarks) y los mesones (compuestos por un quark y un antiquark). Con tanta información complementaria, cada vez importa menos que no podamos ver dentro de la caja negra donde en realidad sucede la colisión.
Uno no puede por menos que sentirse impresionado por la secuencia de «semillas dentro de las semillas». La molécula está formada por átomos. La región central del átomo es el núcleo. El núcleo está formado por protones y neutrones. El protón y el neutrón están formados por quarks. Los quarks están formados por… ¡so, quietos! No se pueden descomponer los quarks, pensamos, pero, por supuesto, no estamos seguros. ¿Quién se atrevería a decir que hemos llegado al final del camino? Sin embargo, el consenso es ese —en el momento presente— y, al fin y al cabo, Demócrito no puede vivir para siempre.
Tenemos todavía que examinar un proceso importante que puede ocurrir durante una colisión. Podemos hacer partículas nuevas. Pasa todo el rato en casa. Mirad la lámpara que valientemente intenta iluminar esta oscura página. ¿Cuál es la fuente de la luz? La electricidad, a la que agita la energía eléctrica que se vierte en el filamento de la bombilla o, si sois eficientes en el uso de la energía, en el gas de la lámpara fluorescente. Los electrones emiten fotones. Ese es el proceso. En el lenguaje más abstracto del físico de partículas, el electrón puede radiar en el proceso de colisión un fotón. El electrón (por mediación del enchufe de la pared) proporciona la energía gracias a un proceso de aceleración.
Ahora tenemos que generalizar. En el proceso de creación, nos constriñen las leyes de la conservación de la energía, el momento, la carga y el respeto a todas las demás reglas cuánticas. Además, el objeto que, de la forma que sea; es responsable de la creación de una nueva partícula tiene que estar «conectado» a la partícula que se crea. Ejemplo: un protón choca con otro, y se hace una nueva partícula, un pión. Lo escribimos de esta forma:
p+ + p+ = p+ + π+ + n
Es decir, los protones (p+) chocan y producen otro protón, un pión positivo (π+) y un neutrón (n). Todas estas partículas están conectadas mediante la interacción fuerte; se trata de un proceso de creación típico. De forma alternativa, cabe ver este proceso como un protón que está «bajo la influencia» de otro protón, que se disuelve en un «pi más» y un neutrón.
Otro tipo de creación, un proceso raro y apasionante que lleva el nombre de aniquilación, tiene lugar cuando chocan la materia y la antimateria. La palabra aniquilación se usa en su más estricto sentido del diccionario, en el de que algo desaparezca de la existencia. Cuando un electrón choca con su antipartícula, el positrón, la partícula y la antipartícula desaparecen, y en su lugar aparece momentáneamente energía en la forma de un fotón. A las leyes de la conservación no les gusta este proceso, así que el fotón es temporal y deben crearse pronto dos partículas en su lugar (por ejemplo, otro electrón y otro positrón). Con menor frecuencia el fotón se puede disolver en un muón y un antimuón, o incluso en un protón positivo y un antiprotón negativo. La aniquilación es el único proceso que es totalmente eficiente en convertir masa en energía de acuerdo con la ley de Einstein, E = mc². Cuando estalla una bomba nuclear, por ejemplo, sólo una fracción de un 1 por 100 de su masa atómica se convierte en energía. Cuando chocan la materia y la antimateria, desaparece el 100 por 100 de la masa.
Cuando estamos haciendo partículas nuevas, el requisito primario es que haya bastante energía, y E = mc² es nuestra herramienta de contabilidad. Por ejemplo, ya mencionamos que la colisión entre un electrón y un positrón puede dar lugar a un protón y un antiprotón, o un p y un p barra, como los llamamos. Como la energía de la masa en reposo de un protón es de alrededor de 1 GeV, las partículas de la colisión original deben aportar al menos 2 GeV para que se produzca el par p y p barra. Una energía mayor aumenta la probabilidad de este resultado y da a los objetos recién producidos alguna energía cinética, lo que hace más fácil detectarlos.
La naturaleza «glamourosa» de la antimateria ha suscitado la noción de ciencia ficción de que podría resolver la crisis de la energía. La verdad es que un kilogramo de antimateria proporcionaría suficiente energía para que los Estados Unidos tirasen durante un día. La razón es que toda la masa del antiprotón (más el protón que se lleva a la aniquilación total) se convierte en energía según E = mc². Al quemar carbón o petróleo sólo una mil millonésima de la masa se convierte en energía. En los reactores de fisión ese número es el 0,1 por 100, y en el suministro de energía por la fusión, hace tanto tiempo esperado, es de alrededor del (¡no contengáis la respiración!) 0,5 por 100.
Otra forma de considerar estas cosas es imaginarse que todo el espacio, hasta el espacio vacío, está barrido por partículas, todas las que la naturaleza en su infinita sabiduría puede proporcionar. No es una metáfora. Una de las consecuencias de la teoría cuántica es que en el vacío saltan partículas verdaderamente a la existencia y salen de ella. Esas partículas, de todos los tamaños y formas son sin excepción temporales. Se crean, y enseguida desaparecen; es un bazar de frenética actividad. Como quiera que ocurra en el espacio donde nada hay, en el vacío, no ocurre en realidad nada. Es una fantasmagoría cuántica, pero quizá sirva para explicar qué pasa en una colisión. Aquí aparece y desaparece un par de quarks encantados (un cierto tipo de quark y su antiquark); allí se juntan un quark bottom y su antiquark. Y esperad, por allá, ¿qué es eso? Bueno, cualquier cosa: un X y un anti-X aparecen, algo que no conozcamos todavía en 1993.
Hay reglas en esta locura caótica. Los números cuánticos deben sumar cero, el cero del vacío. Otra regla: cuanto más pesados sean los objetos, menos frecuente será su evanescente aparición. Toman «prestada» energía al vacío para aparecer durante la más insignificante fracción de segundo; luego desaparecen porque deben devolverla en un tiempo que especifican las relaciones de incertidumbre de Heisenberg. La clave es esta: si se puede proporcionar la energía desde el exterior, la aparición virtual transitoria de estas partículas originadas en el vacío puede que se convierta en una existencia real, que quepa detectar con las cámaras de burbujas o los contadores. ¿Proporcionada cómo? Bueno, si una partícula de gran energía, recién salida del acelerador y a la caza de nuevas partículas, puede permitirse pagar el precio —es decir, por lo menos la masa en reposo del par de quarks o de X—, se lo reembolsa al vacío, y decimos que nuestra partícula acelerada ha creado un par quark-antiquark. Está claro que cuanto más pesadas sean las partículas que se quieran crear, más energía necesitaremos que nos dé la máquina. En los capítulos 7 y 8 conoceréis muchas partículas nuevas que vinieron a la existencia justo de esa manera. Dicho sea de paso, esta fantasía cuántica de un vacío que todo lo impregna lleno de «partículas virtuales» tiene otras consecuencias experimentales; modifica, por ejemplo, la masa y el magnetismo de los electrones y los muones. Lo explicaremos con detalle más adelante, cuando lleguemos al experimento «g menos 2».
A partir de la era de Rutherford se puso en marcha la carrera cuya meta era la construcción de dispositivos que pudiesen alcanzar energías muy grandes. A lo largo de los años veinte las compañías eléctricas contribuyeron a este esfuerzo porque la energía eléctrica se transmite más eficazmente cuando el voltaje es alto. Otra motivación fue la creación de rayos X para el tratamiento del cáncer. El radio ya se usaba para destruir tumores, pero era carísimo y se creía que una radiación de mayor energía supondría una gran ventaja. Por lo tanto, las compañías eléctricas y los institutos de investigación médica apoyaron el desarrollo de generadores de alto voltaje. Rutherford, como era característico en él, marcó la pauta cuando planteó a la Metropolitan-Vickers Eléctrical Company de Inglaterra el reto de que «nos diese un potencial del orden de los diez millones de voltios que pudiese instalarse en una sala de tamaño razonable… y un tubo en el que se haya hecho el vacío capaz de soportar ese voltaje».
Los físicos alemanes intentaron embridar el inmenso voltaje de las tormentas alpinas. Colgaron un cable aislado entre dos picos de montaña; canalizó cargas de nada menos que 15 millones de voltios e indujo chispas enormes que saltaron cinco metros y medio entre dos esferas metálicas. Espectacular, pero no muy útil. Este método se abandonó cuando un científico murió mientras estaba ajustando el aparato.
El fracaso del equipo alemán demostró que se necesitaba algo más que energía. Había que encerrar los terminales del hueco en un tubo de rayos o en una cámara de vacío que fuese un aislante muy bueno. (A los grandes voltajes les encanta formar arcos entre los aislantes a menos que el diseño sea muy preciso). El tubo tenía que ser además lo suficientemente resistente para soportar que se le extrajese el aire. Era esencial un vacío de alta calidad; si quedaban muchas moléculas residuales flotando en el tubo interferían con el haz. Y el alto voltaje tenía que ser lo bastante estable para que acelerase muchas partículas. Se trabajó en estos y otros problemas técnicos de 1926 a 1933, hasta que se resolvieron.
La competencia fue intensa en toda Europa, y las instituciones y los científicos estadounidenses se unieron al jaleo. Un generador de impulsos construido por la Allgemeine Elektrizität Gesellschaft en Berlín llegó a los 2,4 millones de voltios pero no producía partículas. La idea pasó a la General Electric en Schenectady, que mejoró la cantidad de energía y la llevó a los 6 millones de voltios. En la Institución Carnegie de Washington, distrito de Columbia, el físico Merle Tuve consiguió con una bobina de inducción varios millones de voltios en 1928, pero tenía un tubo de rayos adecuado. Charles Lauritsen, del Cal Tech, fue capaz de construir un tubo de vacío que soportase 750.000 voltios. Tuve tomó el tubo de Lauritsen y produjo un haz de 10¹³ (10 billones) de protones por segundo a 500.000 voltios, en teoría una energía y un número de partículas suficiente para sondear el núcleo. Tuve, en realidad, consiguió que hubiese colisiones nucleares, pero sólo en 1933, y por entonces otros dos proyectos se le habían adelantado.
Otro corredor en la carrera fue Robert Van de Graaff, de Yale y luego del MIT, que construyó una máquina que llevaba las cargas eléctricas con una banda de seda sin fin a una gran esfera metálica, aumentando gradualmente el voltaje de la esfera hasta que, al llegar a unos pocos millones de voltios, lanzaba un tremendo arco a la pared del edificio. Este era el hoy famoso generador de Van de Graaff, conocido por los estudiantes de física de bachillerato en todas partes. Al aumentar el radio de la esfera se pospone la descarga. Meter la esfera entera en nitrógeno líquido servía para incrementar el voltaje. Al final, los generadores de Van de Graaff serían las máquinas preferidas en la categoría de menos de 10 millones de voltios, pero hicieron falta años para perfeccionar la idea.
La carrera continuó durante los últimos años de la década de 1920 y los primeros de la siguiente. Ganó una pareja de la banda del Cavendish de Rutherford, John Cockcroft y Ernest Walton, pero por un pelo. Y (tengo que reconocerlo a regañadientes) tuvieron la preciosa ayuda de un teórico. Cockcroft y Walton intentaban, tras numerosos fracasos, llegar al millón de voltios que parecía necesario para sondear el núcleo. Un teórico ruso, George Gamow, había estado visitando a Niels Bohr en Copenhague, y decidió darse una vuelta por Cambridge antes de volver a casa. Allí tuvo una discusión con Cockcroft y Walton, y les dijo a estos experimentadores que no les hacía falta tanto voltaje como se traían entre manos: Argumentó que la nueva teoría cuántica permitía que se penetrase con éxito en el núcleo aun cuando la energía no fuese lo bastante alta para superar la repulsión eléctrica del núcleo. Explicó que la teoría cuántica daba a los protones propiedades ondulatorias que podían atravesar como por un túnel la «barrera» de la carga nuclear; lo hemos examinado en el capítulo 5. Cockcroft y Walton tomaron por fin nota y modificaron el diseño de su aparato para que diese 500.000 voltios. Por medio de un transformador y un circuito multiplicador de voltaje aceleraron los protones que salían de un tubo de descarga del tipo que J. J. Thomson había utilizado pura generar los rayos catódicos.
En la máquina de Cockcroft y Walton se aceleraban erupciones de protones, alrededor de un billón por segundo, por el tubo de vacío, y se las estrellaba contra blancos de plomo, litio y berilio. Era 1930 y por fin se habían provocado reacciones nucleares mediante partículas aceleradas. El litio se desintegró con protones de tan sólo 400.000 eV, muy por debajo de los millones de electronvoltios que se había creído eran necesarios. Fue un acontecimiento histórico. Se disponía, pues, de un nuevo tipo de «cuchillo», si bien todavía en su forma más primitiva.
La acción pasa ahora a Berkeley, California, adonde Ernest Orlando Lawrence, nativo de Dakota del Sur, había llegado en 1928 tras un brillante comienzo en la investigación física en Yale. E. O. Lawrence inventó una técnica radicalmente diferente de acelerar las partículas; empleaba una máquina que llevaba el nombre de ciclotrón, por la que recibió el premio Nobel en 1939. Lawrence conocía bien las engorrosas máquinas electrostáticas, con sus voltajes enormes y sus frustrantes derrumbamientos eléctricos, y se le ocurrió que tenía que haber un camino mejor. Rastreando por la literatura en busca de maneras de conseguir una gran energía sin grandes voltajes, dio con los artículos de un ingeniero noruego, Rolf Wideröe. A Wideröe se le ocurrió que cabía doblar la energía de una partícula sin doblar el voltaje si se la hacía pasar por dos huecos en fila. La idea de Wideröe es el fundamento de lo que hoy se llama un acelerador lineal. Se pone un hueco tras otro a lo largo de una línea, y las partículas toman energía en cada uno de ellos.
El artículo de Wideröe, sin embargo, le dio a Lawrence una idea aún mejor. ¿Por qué no usar un solo hueco con un voltaje modesto, pero por el que se pasase una y otra vez? Lawrence razonó que cuando una partícula cargada se mueve en un campo magnético su trayectoria se curva y se convierte en un círculo. El radio del círculo está determinado por la intensidad del imán (a imán más fuerte, radio menor) y el momento de la partícula cargada (a mayor momento, mayor radio). El momento es simplemente la masa de la partícula por su velocidad. Esto quiere decir que un imán intenso guiará a la partícula de forma que se mueva por un círculo diminuto, pero si la partícula gana energía y por lo tanto momento, el radio del círculo crecerá.
Imaginaos una caja de sombreros emparedada entre los polos norte y sur de un gran imán. Haced la caja de latón o de acero inoxidable, de algo que sea fuerte pero no magnético. Extraedle el aire. Dentro de la caja hay dos estructuras de cobre huecas en forma de D que casi llenan la caja: los lados rectos de las D están abiertos y se encaran con un pequeño hueco entre ambas, los lados curvos están cerrados. Suponed que una D está cargada positivamente, la otra negativamente, con una diferencia de potencial de, digamos, 1.000 voltios. Una corriente de protones generados (no importa cómo) cerca del centro del círculo se dirige, a través del hueco, de la D positiva a la negativa. Los protones ganan 1.000 voltios y su radio de giro crece porque el momento es mayor. Giran dentro de la D, y cuando vuelven al hueco, gracias a una conmutación inteligente, ven de nuevo un voltaje negativo. Se aceleran otra vez, y tienen ahora 2.000 eV. El proceso sigue. Cada vez que cruzan el hueco, ganan 1.000 eV. A medida que ganan momento van luchando contra el poder constrictivo del imán, y el radio de su trayectoria no deja de crecer. El resultado es que describen una espiral a partir del centro de la caja hacia el perímetro. Allí dan en un blanco, ocurre una colisión, y la investigación empieza.
La clave de la aceleración en el sincrotrón estriba en asegurarse de que los protones vean siempre una D negativa al otro lado del hueco. La polaridad tiene que saltar rápidamente de D a D de una manera sincronizada exactamente con la rotación de las partículas. Pero, os preguntaréis quizá, ¿no es difícil sincronizar el voltaje alterno con los protones, cuyas trayectorias no dejan de describir círculos cada vez mayores a medida que continúa la aceleración? La respuesta es no. Lawrence descubrió que, gracias a lo listo que es Dios, los protones que giran en espiral compensan que su camino sea más largo acelerándose. Completan cada semicírculo en el mismo tiempo; a este proceso se le da el nombre de aceleración resonante. Para que las órbitas de los protones casen, hace falta un voltaje alterno de frecuencia fija, técnica que se conocía bien gracias a la radiofonía. De ahí el nombre del mecanismo conmutador de la aceleración: generador de radiofrecuencia. En este sistema los protones llegan al borde del hueco justo cuando la D opuesta tiene un máximo de voltaje negativo.
Lawrence elaboró la teoría del ciclotrón en 1929 y 1930. Más tarde diseñó, sobre el papel, una máquina en la que los protones daban cien vueltas con una generación de 10.000 voltios a través del hueco de la D. De esa forma obtenía un haz de protones de 1 MeV (10.000 voltios × 100 vueltas = l MeV). Un haz así sería «útil para el estudio de los núcleos atómicos». El primer modelo, construido en realidad por Stanley Livingston, uno de los alumnos de Lawrence, se quedó muy corto: sólo llegó a los 80 KeV (80.000 voltios). Lawrence se convirtió por entonces en una estrella. Consiguió una subvención enorme (¡1.000 dólares!) para que construyese una máquina que produjera desintegraciones nucleares. Las piezas polares (las piezas que hacían de polos norte y sur del imán) tenían veinticinco centímetros de diámetro, y en 1932 la máquina aceleró los protones hasta una energía de 1,2 MeV. Se utilizaron para producir colisiones nucleares en el litio y en otros elementos sólo unos cuantos meses después de que lo hiciese el grupo de Cockcroft y Walton en Cambridge. En segundo lugar, pero Lawrence todavía se encendió un puro.
Lawrence fue un emprendedor y agitador de energía y capacidad enormes. Fue el padre de la Gran Ciencia. La expresión se refiere a las instalaciones centralizadas y gigantescas de gran complejidad y coste compartidas por un gran número de científicos. En su evolución, la Gran Ciencia creó nuevas formas de llevar a cabo la investigación con equipos de científicos. Creó también agudos problemas sociológicos, de los que hablaremos más adelante. No se había visto a nadie como Lawrence desde Tycho Brahe, el Señor de Uraniborg, el laboratorio de Hven. En el terreno experimental, Lawrence hizo de los Estados Unidos un serio participante en el mundo de la física. Contribuyó a la mística de California, a ese amor por las extravagancias técnicas, por las empresas complejas y caras. Eran retos que irritaban a la joven California y, en realidad, a los jóvenes Estados Unidos.
A la altura de 1934 Lawrence había producido haces de deuterones de 5 MeV con un ciclotrón de noventa y cuatro centímetros. El deuterón, un núcleo formado por un protón y un neutrón, se había descubierto en 1931, y se había demostrado que era un proyectil más eficaz que el protón para producir reacciones nucleares. En 1936 tenía un haz de deuterones de 8 MeV. En 1939 una máquina de metro y medio operaba a 20 MeV. Un monstruo que se empezó a construir en 1940 y se completó tras la guerra tenía un imán que pesaba ¡10.000 toneladas! Por su capacidad de desentrañar los misterios del núcleo se construyeron ciclotrones en distintas partes del mundo. En medicina se usaron para tratar tumores. Un haz de partículas dirigido al tumor deposita bastante energía en él para destruirlo. En los años noventa, hay alrededor de mil ciclotrones en uso en los hospitales de los Estados Unidos. La investigación básica de la física de partículas, sin embargo, ha abandonado el ciclotrón en favor de un nuevo tipo de máquina.
El impulso para crear energías aún mayores se intensificó y se extendió por todo el mundo. A cada nuevo dominio de energía se hicieron nuevos descubrimientos. Nacieron también nuevos problemas que había que resolver y que no hacían sino que creciera el deseo de obtener energías mayores. La riqueza de la naturaleza parecía oculta en el micromundo nuclear y subnuclear.
Al ciclotrón lo limita su propio diseño. Como las partículas giran en espiral hacia afuera, el número de órbitas queda, como es obvio, limitado por la circunferencia del aparato. Para obtener más órbitas y más energía, hace falta un ciclotrón mayor. Hay que aplicar el campo magnético a toda el área espiral, así que los imanes deben ser grandes… y caros. Entra el sincrotrón. Si se pudiera lograr que la órbita de las partículas, en vez de describir una espiral hacia afuera, mantuviese un radio constante, sólo se necesitaría el imán a lo largo de la trayectoria estrecha de la órbita. A medida que las partículas ganasen energía, se podría incrementar sincrónicamente el campo magnético para mantenerlas encerradas en una órbita de radio constante. ¡Inteligente! Se ahorraron toneladas y toneladas de hierro, pues así era posible reducir las piezas magnéticas polares, transversales al camino del haz, a un tamaño de unos cuantos centímetros, en vez de decímetros.
Deben mencionarse dos detalles importantes antes de que procedamos con los años noventa. En un ciclotrón, las partículas cargadas (protones o deuterones) viajan a lo largo de miles —a ese número se llegó— de vueltas en una cámara de vacío pinzada entre los polos de un imán. Para evitar que las partículas se desperdigasen y golpeasen las paredes de la cámara, era absolutamente esencial que hubiese algún tipo de proceso de enfoque. Lo mismo que una lente enfoca la luz de un destello en un haz (casi) paralelo, la fuerza magnética se usa para comprimir las partículas en un haz bien apretado.
En el ciclotrón esta acción de enfoque la provee la forma en que el campo magnético cambia a medida que los protones se mueven hacia el borde exterior del imán. Robert R. Wilson, joven alumno de Lawrence que más tarde construiría el acelerador del Fermilab, fue el primero en percatarse del efecto, sutil pero decisivo, que tenían las fuerzas magnéticas de evitar que los protones se desperdigasen. En los primeros sincrotrones se daba a las piezas polares unas formas que ofreciesen esas fuerzas. Más tarde se usaron unos imanes cuadripolares especialmente diseñados (con dos polos nortes y dos polos sur) para que enfocasen las partículas, mientras, aparte, unos imanes dipolares las conducían por una órbita fija.
El Tevatrón del Fermilab, una máquina de un billón de electronvoltios que se terminó en 1983, es un buen ejemplo. Las partículas son llevadas por una órbita circular mediante poderosos imanes superconductores, de manera parecida a como las vías guían el tren por una curva. El conducto del haz, donde se ha hecho un alto vacío, es un tubo de acero inoxidable (no magnético) de sección oval, de unos ocho centímetros de ancho y cinco de alto, centrado entre los polos norte y sur de los imanes. Cada imán (guiador) dipolar tiene 64 metros de largo. Los «quads», los imanes cuadripolares, miden metro y medio. Hacen falta más de mil imanes para cubrir la longitud del tubo. El conducto, el haz y la combinación de los imanes completan un círculo cuyo radio es de un kilómetro; toda una diferencia con respecto al primer modelo de Lawrence, que medía diez centímetros. Podéis ver aquí la ventaja del diseño sincrotrónico. Se necesitan muchos imanes, pero no son, hasta cierto punto, muy voluminosos; su ancho es el justo para cubrir la conducción de vacío. Si el Tevatrón fuera un ciclotrón, nos haría falta un imán cuyas piezas polares tuvieran un diámetro de ¡dos kilómetros, para cubrir los más de seis de longitud de la máquina!
Las partículas dan 50.000 vueltas por segundo a esa pista de seis kilómetros y pico. En diez segundos viajan más de tres millones de kilómetros. Cada vez que pasan por un hueco —en realidad una serie de cavidades especialmente construidas—, un voltaje de radiofrecuencia les propina una energía de alrededor de 1 MeV. Los imanes que las mantienen enfocadas las dejan desviarse de las rutas que se les asignan apenas un cuarto de centímetro en todo el viaje. No es perfecto, pero sí lo bastante bueno. Es como apuntar con un rifle a un mosquito que está en la Luna y darle en el ojo que no es. Para mantener los protones en la misma órbita mientras se los acelera, la intensidad de los imanes debe aumentar en sincronía precisa con la ganancia de energía de aquéllos.
El segundo detalle importante tiene que ver con la teoría de la relatividad: los protones se vuelven, de forma detectable, más pesados cuando su energía supera los 20 MeV, más o menos. Este incremento de la masa destruye la «resonancia ciclotrónica» que Lawrence descubrió y gracias a la cual los protones que giran en espiral compensan con exactitud la mayor longitud de su trayectoria acelerándose. Gracias a esa resonancia se puede sincronizar la rotación con una frecuencia fija del voltaje que acelera las partículas a través del hueco. A una energía mayor, el tiempo de rotación crece, y ya no se puede aplicar un voltaje de radiofrecuencia constante. Para contrarrestar la ralentización, la frecuencia aplicada debe disminuir y por ello se utilizan voltajes aceleradores de frecuencia modulada (FM), con los que se sigue el incremento de masa de los protones. El sincrociclotrón, un ciclotrón de frecuencia modulada, fue el primer ejemplo del efecto de la relatividad en los aceleradores.
El sincrotrón de protones resuelve el problema de una manera aún más elegante. Es un poco complicado, pero se basa en que la velocidad de la partícula (99 coma lo que sea por 100 de la velocidad de la luz) es esencialmente constante. Suponed que la partícula cruza el hueco en esa parte del ciclo de radiofrecuencia en que el voltaje acelerador es cero. No hay aceleración. Aumentemos ahora el campo magnético un poco. La partícula describe un círculo más cerrado y llega un poco antes al hueco; ahora la radiofrecuencia está en una fase que acelera. La masa, pues, crece, el radio de la órbita también y estamos de vuelta a donde empezamos pero con una energía mayor. El sistema se corrige a sí mismo. Si la partícula gana demasiada energía (masa), su radio de giro aumentará, llegará más tarde al hueco y verá un voltaje desacelerador, lo que corregirá el error. El aumento del campo magnético tiene el efecto de incrementar la energía de masa de nuestra heroína la partícula. Este método depende de la «estabilidad de fase», que se estudia en este mismo capítulo, más adelante.
Uno de los primeros aceleradores me fue cercano y querido: el sincrociclotrón de 400 MeV de la Universidad de Columbia, construido en una finca de Irvington-on-Hudson, Nueva York, a no muchos minutos de Manhattan. La finca, a la que se puso el nombre de la ancestral montaña escocesa Ben Nevis, fue creada en la época colonial por Alexander Hamilton. Más tarde la poseyó una rama de la familia Du Pont, y luego la Universidad de Columbia. El ciclotrón de Nevis, construido entre 1947 y 1949, fue uno de los aceleradores de partículas más productivos del mundo durante sus veintitantos años de funcionamiento (1950-1972). Produjo además ciento cincuenta y tantos doctores, alrededor de la mitad de los cuales se quedaron en el campo de la física de partículas y fueron profesores de Berkeley, Stanford, Cal Tech, Princeton y muchas otras instituciones de tres al cuarto. La otra mitad fue a todo tipo de sitios: pequeñas instituciones de enseñanza, laboratorios gubernamentales, a la investigación industrial, a las finanzas…
Yo era un estudiante graduado cuando el presidente (de Columbia) Dwight Eisenhower inauguró la instalación en junio de 1950 con una pequeña ceremonia celebrada sobre el césped de la hermosa finca —árboles magníficos, arbustos, unas cuantas construcciones de ladrillo rojo—, que se inclinaba hacia el impresionante río Hudson. Tras el correspondiente discurseo, Ike le dio a un botón y por los altavoces salieron los «pitidos» amplificados de un contador Geiger, que señalaban la existencia de radiación. Producía los pitidos una fuente radiactiva que yo sostenía cerca de un contador de partículas porque la máquina había escogido justo ese momento para romperse. Ike nunca se enteró.
¿Por qué 400 MeV? La partícula de moda en 1950 era el pión, o mesón pi, como se le llama también. Un físico teórico japonés, Hideki Yukawa, predijo el pión en 1936. Se creía que era la clave de la interacción fuerte, en esos días el gran misterio. Hoy pensamos en ella basándonos en los gluones. Pero volviendo a aquellos días, los piones, que van y vienen entre los protones y los neutrones para mantenerlos muy juntos en el núcleo, eran la clave, y necesitábamos hacerlos y estudiarlos. Para producir piones en las colisiones nucleares, la partícula que sale del acelerador debe tener una energía mayor que mpión c², es decir, mayor que la masa en reposo del pión. Al multiplicar la masa en reposo del pión por la velocidad de la luz al cuadrado, nos sale 140 MeV, la energía de esa masa en reposo. Como sólo una parte de la energía de colisión va a parar a la producción de partículas nuevas, necesitábamos una energía extra, y nos quedamos en 400 MeV. La máquina de Nevis se convirtió en una fábrica de piones.
Pero esperad. Antes hay que decir unas palabras acerca de cómo supimos que existían los piones. A finales de los años cuarenta, los científicos de la Universidad de Bristol, en Inglaterra, se percataron de que una partícula alfa «activa» al atravesar una emulsión fotoeléctrica depositaba sobre una placa de cristal las moléculas que caían en su trayectoria. Al procesar la película, se ve una traza definida por los granos de bromuro de plata, que se discierne con facilidad mediante un microscopio de poco poder de resolución. El grupo de Bristol envió en globo lotes de emulsiones muy espesas hasta la parte más alta de la atmósfera, donde la intensidad de los rayos cósmicos es mucho mayor que a nivel del mar. Esta fuente de radiación producida «naturalmente» aportaba una energía que excedía en mucho a las insignificantes alfas de 5 MeV de Rutherford. En esas emulsiones expuestas a los rayos cósmicos, Cesare Lattes, brasileño, Giuseppe Occiallini, italiano, y C. F. Powell, el profesor residente en Bristol, descubrieron, en 1947, el pión.
El más llamativo del trío era Occiallini, a quien sus amigos conocían por Beppo. Espeleólogo aficionado, bromista compulsivo, era la fuerza que movía al grupo. Instruyó a una legión de mujeres jóvenes para que hiciesen el penoso trabajo de estudiar las emulsiones con el microscopio. El supervisor de mi tesis, Gilberto Bernardini, muy amigo de Beppo, le visitó un día en Bristol. Como le señalaban a dónde tenía que ir en perfecto inglés, idioma que le parecía muy difícil, Bernardini se perdió enseguida. Finalmente, fue a parar a un laboratorio donde varias señoras muy inglesas miraban por unos microscopios y maldecían en un argot italiano que se habría prohibido en los muelles de Génova. «Ecco! —exclamó Bernardini con su acento característico— es el laboratorio de Beppo!».
Lo que las trazas de esas emulsiones mostraban era una partícula, el pión, que entra a gran velocidad, se frena gradualmente (la densidad de los granos de bromuro de plata aumenta a medida que la partícula se frena) y acaba por pararse. Al final de la traza aparece una nueva partícula; lleva mucha energía y sale a toda velocidad. El pión es inestable y se desintegra en una centésima de microsegundo en un muón (la nueva partícula al final de la traza) y algo más. Ese algo más resultó que era un neutrino, que no deja trazas en la emulsión. La reacción se escribe:
π → μ + ν
Es decir, un pión da (termina por dar) lugar a un muón y un neutrino. Como la emulsión no ofrece información sobre la secuencia temporal, había que efectuar un análisis meticuloso de las trazas de media docena de esos raros acontecimientos para saber de qué partícula se trataba y cómo se desintegró. Tenían que estudiar la nueva partícula, pero el uso de rayos cósmicos ofrecía sólo un puñado de sucesos así por año. Como pasaba con las desintegraciones nucleares, se requerían aceleradores que tuvieran una energía lo bastante alta.
En Berkeley, el ciclotrón de 467 centímetros de Lawrence empezó a producir piones, como la máquina de Nevis. El pión en sus interacciones fuertes con los neutrones y los protones pronto fue estudiado por los sincrociclotrones de Rochester, Liverpool, Pittsburgh, Chicago, Tokio, París y Dubna (cerca de Moscú), así como la interacción débil en la desintegración radiactiva del pión. Otras máquinas, en Cornell, en el Cal Tech, en Berkeley y en la Universidad de Illinois, utilizaban electrones para producir los piones, pero las máquinas que tuvieron más éxito fueron los sincrociclotrones de protones.
Ahí estaba yo, en el verano de 1950, con una máquina que pasaba por las penalidades del parto y mi necesidad de unos datos con los que pudiera obtener un doctorado y ganarme la vida. Se jugaba a los piones. Dale a un trozo de algo —carbón, cobre, cualquier cosa que contenga núcleos— con los protones de 400 MeV de la máquina de Nevis, y deberías generar piones. Berkeley había contratado a Lattes, y éste enseñó a los físicos la manera de exponer y procesar las emulsiones muy sensibles que se utilizaron con tanto éxito en Bristol. Insertaron una pila de emulsiones en el tanque de vacío del haz y dejaron que los protones diesen en un blanco próximo a la pila. Sacad las emulsiones por una cámara hermética, procesadlas (una semana de trabajo) y sometedlas por fin a estudio microscópico (¡meses!). Tanto esfuerzo sólo le dio al equipo de Berkeley unas pocas docenas de sucesos de pión. Tenía que haber un camino más sencillo. El problema era que había que instalar los detectores de partículas dentro de la máquina, en la región del potente imán acelerador, para registrar los piones, y el único dispositivo práctico era la pila de emulsiones. De hecho, Bernardini planeaba un experimento de emulsiones en la máquina de Nevis similar al que la gente de Berkeley había realizado. La gran, elegante cámara de niebla que yo había construido para mi doctorado era un detector mucho mejor, pero era imposible que encajase entre los polos de un imán dentro de un acelerador. Y no sobreviviría como detector de partículas en la intensa radiación que había dentro del acelerador. Entre el imán del ciclotrón y el área experimental había un muro de hormigón de tres metros de espesor que encerraba la radiación descarriada.
Había llegado a Columbia un nuevo posdoctorado, John Tinlot, procedente del afamado grupo de rayos cósmicos de Bruno Rossi en el MIT. Tinlot era la quintaesencia del físico. Poco antes de cumplir los veinte años había sido violinista con calidad de concertista, pero abandonó el violín tras tomar la agónica decisión de estudiar física. Fue el primer doctor joven con el que trabajé, y aprendí muchísimo de él. No sólo física. John llevaba el juego, a las cartas, a los dados, a los caballos, en los genes: long shots, blackjack, craps, ruleta, póquer, mucho póquer. Jugaba durante los experimentos, mientras se tomaban los datos. Jugaba en las vacaciones, en los trenes y en los aviones. Era una manera moderadamente cara de aprender física; mis pérdidas las moderaban los demás jugadores, los estudiantes, técnicos y guardas de seguridad que John reclutase. No tenía piedad.
John y yo nos sentábamos en el suelo del acelerador, que-todavía-no-funcionaba-en-realidad, tomábamos cerveza y hablábamos de lo habido y por haber. «¿Qué les pasa realmente a los piones que salen del blanco?», me preguntaba de pronto. Yo había aprendido a ser cauto. John jugaba en física como a los caballos. «Bueno, si el blanco está dentro de la máquina [y tenía que estarlo, no sabíamos cómo sacar los piones acelerados del ciclotrón], el imán es tan potente que los desperdigará en todas las direcciones», respondí con cautela.
John: ¿Saldrá alguno de la máquina y dará en el muro protector?
Yo: Seguro, pero por todas partes.
John: ¿Por qué no los encontramos?
Yo: ¿Cómo?
John: Hagamos una delineación magnética.
Yo: Eso es trabajo. [Eran las ocho de la tarde de un viernes.]
John: ¿Tenemos la tabla de los campos magnéticos medidos?
Yo: Se supone que tengo que irme a casa.
John: Usaremos esos rollos enormes de papel marrón de embalar y dibujaremos las trayectorias de los piones a una escala uno a uno…
Yo: ¿El lunes?
John: Tú te encargas de la regla de cálculo [era 1950] y yo dibujo las trayectorias.
Bueno, a las cuatro de la madrugada del sábado habíamos hecho un descubrimiento fundamental que cambiaría la manera en que se usaban los ciclotrones. Habíamos trazado los caminos de unas ochenta partículas ficticias o así que salían de un blanco introducido en el acelerador con direcciones y energías verosímiles; usamos 40, 60, 80 y 100 MeV. Para nuestra estupefacción, las partículas no iban «a cualquier sitio». Por el contrario, a causa de las propiedades del campo magnético cerca y más allá del borde del imán del ciclotrón, se curvaban alrededor de la máquina en un haz apretado. Habíamos descubierto lo que se vendría a conocer con el nombre de «enfoque del campo por el borde». Girando las grandes láminas de papel —es decir, escogiendo una posición concreta del blanco—, conseguimos que el haz de piones, con una generosa banda de energía en torno a 60 MeV, fuera derecho a mi flamante cámara de niebla. La única traba era la pared de hormigón que había entre la máquina y el área experimental donde estaba mi principesca cámara.
Nadie había caído antes en la cuenta de lo que nosotros habíamos descubierto: El lunes por la mañana nos acomodamos ante el despacho del director para echarnos encima de él en cuanto apareciese y contárselo. Teníamos tres sencillas peticiones que hacer: 1) una nueva colocación del blanco en la máquina; 2) una ventana mucho más delgada entre la cámara de vacío del haz del ciclotrón y el mundo exterior de forma que se minimizase la influencia de una placa de acero inoxidable de dos centímetros y medio sobre los piones que emergieran; y 3) un nuevo agujero de unos diez centímetros de alto por veinticinco de ancho, calculábamos, abierto en el muro de hormigón de tres metros de espesor. ¡Todos esto de parte de un humilde estudiante graduado y de un posdoctorado!
Nuestro director, el profesor Eugene Booth, era un caballero de Georgia y un académico de Rhodes que raras veces decía «mecachis». Hizo una excepción con nosotros. Razonamos, explicamos, engatusamos. Pintamos visiones de gloria. ¡Se haría famoso! ¡Imagínese un haz de piones externo, el primero que haya habido jamás!
Booth nos echó fuera, pero después del almuerzo nos llamó de nuevo. (Habíamos estado sopesando las ventajas de la estricnina con respecto al arsénico). Bernardini se había dejado caer, y Booth le colocó nuestra idea a tan eminente profesor visitante. Mi sospecha es que los detalles, expresados con la musiquilla georgiana de Booth, fueron demasiado para Gilberto, que una vez me confió: «Booos, Boosth, ¿quién puede pronunciar esos nombres norteamericanos?». Sin embargo, Bernardini nos apoyó con una exageración típicamente latina, y caímos en gracia.
Un mes más tarde, todo funcionaba bien y salía justo como en los bosquejos del papel de embalar. En unos pocos días mi cámara de niebla había registrado más piones que todos los otros laboratorios del mundo juntos. Cada fotografía (tomamos una por minuto) tenía seis o siete bellas trazas de piones. Cada tres o cuatro fotografías mostraban un rizo en la traza del pión, como si se desintegrase en un muón y «algo más». Las desintegraciones de los piones me sirvieron de tesis. En seis meses habíamos construido cuatro haces, y Nevis estaba en plena producción en cuanto fábrica de datos sobre las propiedades de los piones. A la primera oportunidad, John y yo fuimos al hipódromo de Saratoga, donde, con su suerte de siempre, consiguió un 28 a 1 en la octava carrera, contra la que se había jugado nuestra cena y el dinero de la gasolina para volver a casa. Quería de verdad a ese tipo.
John Tinlot hubo de tener una intuición extraordinaria para sospechar la existencia del enfoque del campo por el borde, que a todos los demás que se dedicaban al negocio del ciclotrón se les había escapado. Tendría luego una distinguida carrera como profesor de la Universidad de Rochester, pero murió de cáncer a los cuarenta y tres años de edad.
La segunda guerra mundial marcó una divisoria crucial entre la investigación científica de antes y después de la guerra. (¿Qué tal como afirmación polémica?). Pero marcó además una nueva fase en la búsqueda del á-tomo. Contemos algunos de los caminos. La guerra generó un salto adelante tecnológico, en muy buena parte centrado en los Estados Unidos, que no fue aplastado por el potente sonido de las cercanas explosiones que Europa sufría. El desarrollo en tiempo de guerra del radar, la electrónica, la bomba nuclear (por usar el nombre más propio) fue en cada caso un ejemplo de lo que la colaboración entre la ciencia y los ingenieros podía hacer (mientras no la maniatasen las consideraciones presupuestarias).
Vannevar Bush, el científico que dirigió la política científica de los Estados Unidos durante la guerra, expuso la nueva relación entre la ciencia y el gobierno en un elocuente informe que remitió al presidente Franklin D. Roosevelt. Desde ese momento en adelante, el gobierno de los Estados Unidos se comprometió a apoyar la investigación científica básica. El apoyo a la investigación, básica y aplicada, ascendió tan deprisa que podemos reírnos de la subvención de mil dólares por la que tan duro trabajó E. O. Lawrence a principios de los años treinta. Aun ajustándola a la inflación, esa cifra se queda en nada ante la ayuda federal a la investigación básica en 1990: ¡unos doce mil millones de dólares! La segunda guerra mundial vio además cómo una invasión de refugiados científicos procedentes de Europa se convertía en una parte fundamental del auge de la investigación en los Estados Unidos.
A principios de los años cincuenta, unas veinte universidades tenían aceleradores con los que se podían realizar las investigaciones de física nuclear más avanzadas. A medida que fuimos conociendo mejor el núcleo, la frontera se desplazó al dominio subnuclear, donde hacían falta máquinas mayores —más caras—. La época pasó a ser de consolidación: fusiones y adquisiciones científicas. Se agruparon nueve universidades para construir y gestionar el laboratorio del acelerador de Brookhaven, Long Island. Encargaron una máquina de 3 GeV en 1952 y una de 30 GeV en 1960. Las universidades de Princeton y de Pennsylvania se unieron para construir una máquina de protones cerca de Princeton. El MIT y Harvard construyeron el Acelerador de Electrones de Cambridge, una máquina de electrones de 6 GeV.
A lo largo de los años, según fue creciendo el tamaño de los consorcios, el número de máquinas de primera línea disminuyó. Necesitábamos energías cada vez mayores para abordar la pregunta «¿qué hay dentro?» y buscar los verdaderos á-tomos, o el cero y el uno de nuestra metáfora de la biblioteca. A medida que se fueron proponiendo máquinas nuevas, se dejaron de construir, para liberar fondos, las viejas, y la Gran Ciencia (expresión que suelen usar como insulto los comentaristas ignorantes) se hizo más grande. En los años cincuenta, se podían hacer quizá dos o tres experimentos por año con grupos de dos a cuatro científicos. En las décadas siguientes, la escala de los proyectos en colaboración fue cada vez mayor y los experimentos duraban más y más, llevados en parte por la necesidad de construir detectores que no dejaban de ser más complejos. En los años noventa, solo en la Instalación del Detector del Colisionador, en el Fermilab, trabajaban 360 científicos y estudiantes de doce universidades, dos laboratorios nacionales e instituciones japonesas e italianas. Las sesiones programadas se extendían durante un año o más de toma de datos, sin más interrupciones que las navidades, el 4 de julio o cuando se estropeaba algo.
Las riendas de la evolución desde una ciencia que se hacía sobre una mesa a la que se basa en unos aceleradores que miden varios kilómetros las tomó el gobierno de los Estados Unidos. El programa de la bomba durante la segunda guerra mundial dio lugar a la Comisión de Energía Atómica (la AEC), institución civil que supervisó las investigaciones relativas a las armas nucleares y su producción y almacenamiento. Se le dio, además, la misión, a modo de consorcio nacional, de financiar y supervisar la investigación básica que se refiriese a la física nuclear y lo que más tarde vendría a llamarse física de partículas.
La causa del á-tomo de Demócrito llegó incluso a los salones del Congreso, que creó el Comité Conjunto (de la Cámara de Representantes y del Senado) para la Energía Atómica con la finalidad de que prestase su supervisión. Las audiencias del comité, publicadas en unos densos folletos verdes gubernamentales, son un Fort Knox de información para los historiadores de la ciencia. En ellos se leen los testimonios de H. O. Lawrence, Robert Wilson, I. I. Rabi, J. Robert Oppenheimer, Hans Bette, Enrico Fermi, Murray Gell-Mann y muchos otros que responden pacientemente las preguntas que se les hacían sobre cómo iban las investigaciones acerca de la partícula final… y por qué requería otra máquina más. El intercambio de frases reproducido al principio de este capítulo entre el espectacular director fundador del Fermilab, Robert Wilson, y el senador John Pastore está tomado de uno de esos libros verdes.
Para completar la sopa de letras, la AEC se disolvió en la ERDA (la Oficina de Investigación y Desarrollo de la Energía), que pronto fue sustituida por el DOE (el Departamento de Energía de los Estados Unidos), del que, en el momento en que se escribe esto, dependen los laboratorios nacionales donde funcionan los estrelladores de átomos. Actualmente hay cinco laboratorios de este tipo en los Estados Unidos: el SLAC, el de Brookhaven, el de Cornell, el Fermilab y el del Supercolisionador Superconductor, aún en construcción.
Por lo general, el propietario de los laboratorios de los aceleradores es el gobierno, pero de su funcionamiento se encarga una contrata, que puede corresponder a una universidad, como la de Stanford en el caso del SLAC, o a un consorcio de universidades e instituciones, como es el caso del Fermilab. Los adjudicatarios nombran un director, y se ponen a rezar. El director lleva el laboratorio, toma todas las decisiones importantes y suele permanecer en el puesto demasiado tiempo. Como director del Fermilab de 1979 a 1989, mi principal tarea fue llevar a la práctica el sueño de Robert R. Wilson: la construcción del Tevatrón, el primer acelerador superconductor. Tuvimos además que crear un inmenso colisionador de protones y antiprotones que observase colisiones frontales a casi 2 TeV.
Mientras fui director del Fermilab me preocupó mucho el proceso de investigación. ¿Cómo podían los estudiantes y los posdoctorados jóvenes experimentar la alegría, el aprendizaje, el ejercicio de la creatividad que experimentaron los alumnos de Rutherford, los fundadores de la teoría cuántica, mi propio grupito de compañeros mientras nos rompíamos la cabeza con los problemas en el suelo del ciclotrón Nevis? Pero cuanto más me fijaba en lo que pasaba en el laboratorio, mejor me sentía. Las noches que visitaba el CDF (y el viejo Demócrito no estaba allí), veía a los estudiantes excitadísimos mientras realizaban sus experimentos. Los sucesos centelleaban en una pantalla gigante, reconstruidos por el ordenador para que a la docena o así de físicos que estuviesen de turno les fueran inteligibles. De vez en cuando, un suceso daba a entender hasta tal punto que se trataba de una «física nueva», que se oía con claridad una exclamación.
Cada proyecto de investigación en colaboración a gran escala consta de muchos grupos de cinco o diez personas: un profesor o dos, varios posdoctorados y varios estudiantes graduados. El profesor mira por su camada, para que no se le pierda en la multitud. Al principio no hacen otra cosa que diseñar, construir y probar el equipo. Luego viene el análisis de los datos. Hay tantos datos en uno de esos experimentos de colisionador, que una buena parte ha de esperar a que algún grupo complete un solo análisis antes de pasar al siguiente problema. Cada científico joven, quizá aconsejado por su profesor, escoge un problema específico que recibe la aprobación consensuada del consejo de los jefes del grupo. Y los problemas abundan. Por ejemplo, cuando se producen partículas W+ y W− en las colisiones de protones y antiprotones, ¿cuál es la forma precisa del proceso? ¿Cuánta energía se llevan los W? ¿Con qué ángulos se emiten? Y así sucesivamente. Esto o aquello podría ser un detalle interesante, o un indicio que conduzca a un mecanismo fundamental de las interacciones fuerte y débil. La tarea más apasionante de los años, noventa es hallar el quark top y medir sus propiedades. Hasta mediados de 1992 se encargaron de esa búsqueda, en el Fermilab, cuatro subgrupos del proyecto en colaboración CDF, a cargo de cuatro análisis independientes.
Ahí los físicos jóvenes actúan por su cuenta y se las ven con los complejos programas de ordenador y las inevitables distorsiones que genera un aparato imperfecto. Su problema es sacar conclusiones válidas acerca de la manera en que la naturaleza funciona, poner una pieza más del rompecabezas del micromundo. Tienen la suerte de contar con un grupo de apoyo enorme: expertos en programación, en el análisis teórico, en el arte de buscar pruebas que confirmen las conclusiones tentativas. Si hay una anomalía interesante en la forma en que los W salen de las colisiones, ¿se trata de un efecto espurio del aparato (metafóricamente, de una pequeña grieta en la lente del microscopio)? ¿Es un gazapo del programa informático? ¿O es real? Y si es real, ¿no habrá visto el compañero Henri un fenómeno similar en su análisis de las partículas Z, o quizá Marjorie al analizar los chorros de retroceso?
La Gran Ciencia no es el feudo particular de los físicos de partículas. Los astrónomos comparten telescopios gigantes y juntan sus observaciones para sacar conclusiones válidas acerca del cosmos. Los oceanógrafos comparten unos barcos de investigación elaboradamente equipados con sonar, vehículos de inmersión y cámaras especiales. La investigación del genoma es el programa de Gran Ciencia de los microbiólogos. Hasta los químicos necesitan espectrómetros de masas, láseres tintados y ordenadores enormes. Inevitablemente, en una disciplina tras otra, los científicos comparten las caras instalaciones que hacen falta para progresar.
Una vez dicho todo esto, debo recalcar que es también de la mayor importancia para los físicos jóvenes que puedan trabajar de una manera más tradicional, apiñados en torno a un experimento de mesa con sus compañeros y un profesor. Ahí tendrán la espléndida posibilidad de apretar un botón, de apagar las luces e irse a casa a pensar, y si hay suerte a dormir. La «ciencia pequeña» es también una fuente de descubrimientos, de variedad e innovación que contribuye inmensamente al avance del conocimiento. Debemos atinar con el equilibrio adecuado en nuestra política científica y dar gracias sinceramente por la existencia de ambas opciones. En cuanto a quienes practican la física de alta energía, uno puede lloriquear y añorar los buenos y viejos días, cuando un científico solitario se ponía a mezclar elixires de colores en su entrañable laboratorio. Es un sueño encantador, pero nunca nos llevará hasta la Partícula Divina.
De los muchos avances técnicos que permitieron la aceleración hasta energías en esencia ilimitadas (es decir, ilimitadas salvo por lo que se refiere a los presupuestos), nos fijaremos de cerca en tres.
El primero fue el concepto de estabilidad de fase, descubierto por V. I. Veksler, un genio soviético, e independiente y simultáneamente por Edwin McMillan, físico de Berkeley. Nuestro ubicuo ingeniero noruego, Rolf Wideröe, patentó, con independencia de los otros, la idea. La estabilidad de fase es lo bastante importante para echar mano de una metáfora. Imaginaos dos cuencos hemisféricos idénticos que tengan un fondo plano muy pequeño. Poned uno de los cuencos cabeza abajo y colocad una bola en el pequeño fondo plano, que ahora es la parte más alta. Colocad una segunda bola en el fondo del cuenco que no se ha invertido. Ambas bolas están en reposo. ¿Son estables las dos? No. La prueba consiste en dar un golpecito a cada una. La bola número uno rueda por la pared externa del cuenco abajo y su condición cambia radicalmente. Es inestable. La bola número dos sube un poco por el lado, vuelve al fondo, lo sobrepasa y oscila alrededor de su posición de equilibrio. Es estable.
Las matemáticas de las partículas en los aceleradores tienen mucho en común con estas dos condiciones. Si una perturbación pequeña —por ejemplo, la colisión suave de una partícula con un átomo de gas residual o con una partícula acelerada compañera— produce grandes cambios en el movimiento, no hay estabilidad básica, y más pronto o más tarde la partícula se perderá. Por el contrario, si esas perturbaciones producen pequeñas excursiones oscilatorias alrededor de una órbita ideal, tenemos estabilidad.
El progreso en el diseño de los aceleradores fue una mezcla espléndida del estudio analítico (ahora muy computarizado) y de la invención de dispositivos ingeniosos, muchos de ellos construidos a partir de las técnicas de radar desarrolladas durante la segunda guerra mundial. El concepto de estabilidad de fase se llevó a cabo en una serie de máquinas mediante la aplicación de fuerzas eléctricas de radiofrecuencia (rf). La estabilidad de fase en un acelerador se produce cuando organizamos la radiofrecuencia aceleradora de manera que la partícula llegue a un hueco en un instante ligeramente equivocado, lo que dará lugar a un pequeño cambio en la trayectoria de la partícula; la próxima vez que la partícula pase por el hueco, el error se habrá corregido. Antes se dio un ejemplo con el sincrotrón. Lo que realmente pasa es que el error se corrige con exceso, y la fase de la partícula, relativa a la radiofrecuencia, oscila alrededor de una fase ideal en la se consigue la aceleración buena, como la bola en el fondo del cuenco.
El segundo gran avance ocurrió en 1952, mientras el Laboratorio de Brookhaven terminaba su Cosmotrón, un acelerador de 3 GeV. El grupo del acelerador esperaba una visita de sus colegas del CERN de Ginebra, donde se diseñaba una máquina de 10 GeV. Tres físicos hicieron un descubrimiento importante mientras preparaban la reunión. Stanley Livingston (alumno de Lawrence), Ernest Courant y Hartland Snyder eran miembros de una nueva especie: los teóricos de aceleradores. Dieron con un principio al que se conoce por el nombre de enfoque fuerte. Antes de que describa este segundo gran avance, debería comentar que los aceleradores de partículas se han convertido en una disciplina refinada y erudita. Merece la pena repasar las ideas fundamentales. Tenemos un hueco, o una cavidad de radiofrecuencias, que se encarga de darle a la partícula su aumento de energía cada vez que cruza por él. Para usarlo una y otra vez, guiamos las partículas con imanes por un círculo aproximado. La máxima energía de las partículas que cabe conseguir en un acelerador viene determinada por dos factores: 1) el radio mayor que consiente el imán y 2) el campo magnético más intenso que es posible con ese radio. Podemos construir máquinas de mayor energía haciendo que el radio sea mayor, que el campo magnético sea más intenso o ambas cosas.
Una vez se establecen esos parámetros, si se les da demasiada energía a las partículas, saldrán fuera del imán. Los ciclotrones de 1952 podían acelerar las partículas a no más de 1.000 MeV. Los sincrotrones proporcionaban campos magnéticos que guiaban a las partículas por un radio fijo. Recordad que la intensidad del imán del sincrotrón empieza siendo muy pequeña (para coincidir con la pequeña energía de las partículas inyectadas) al principio del ciclo de aceleración y sube gradualmente hasta su valor máximo. La máquina tiene forma de rosquilla, y el radio de la rosquilla de las diversas máquinas que se construyeron en esa época iba de los tres a los quince metros. Las energías logradas llegaban a los 10 GeV.
El problema que ocupó a los inteligentes teóricos de Brookhaven era el de mantener a las partículas estrechamente apelotonadas y estables con respecto a una partícula idealizada que se moviese sin perturbaciones por unos campos magnéticos de perfección matemática. Como los tránsitos son tan largos, basta con que haya perturbaciones e imperfecciones magnéticas pequeñísimas para que la partícula se aleje de la órbita ideal. Enseguida nos quedamos sin haz. Por lo tanto, debemos crear las condiciones para que la aceleración sea estable. Las matemáticas son lo bastante complicadas, dijo un guasón, como para «que se le ricen las cejas a un rabí».
El enfoque fuerte supone que se configuren los campos magnéticos que guían a las partículas de forma que se mantengan mucho más cerca de una órbita ideal. La idea clave es darles a las piezas polares unas curvas apropiadas de manera que las fuerzas magnéticas sobre la partícula generen rápidas oscilaciones de amplitud minúscula en torno a la órbita ideal. Eso es la estabilidad. Antes del enfoque fuerte, las cámaras de vacío con forma de rosquilla habían de tener una anchura de medio metro a un metro, y requerían polos magnéticos de un tamaño similar. El gran avance de Brookhaven permitió que se redujese el tamaño de la cámara de vacío del imán y fuera sólo de siete a trece centímetros. ¿El resultado? Un enorme ahorro en el coste por MeV de energía acelerada.
El enfoque fuerte cambió la economía y, enseguida, hizo concebible la construcción de un sincrotrón que tuviera un radio de unos sesenta metros. Más adelante hablaremos del otro parámetro, la intensidad del campo magnético; mientras se use el hierro para guiar las partículas, está limitada a 2 teslas, el campo magnético más intenso que soporta el hierro sin enfurecerse. La descripción correcta del enfoque fuerte fue un gran avance. Se aplicó por primera vez a una máquina de electrones de I GeV que construyó Robert Wilson el Rápido en Cornell. ¡Se dijo que la propuesta de Brookhaven al AEC de construir una máquina de protones de enfoque fuerte consistió en una carta de dos páginas! (Aquí nos podríamos quejar del crecimiento de la burocracia, pero no serviría de nada). Se aprobó, y el resultado fue la máquina de 30 GeV conocida como AGS y que se completó en Brookhaven en 1960.
El CERN desechó sus planes de una máquina de 10 GeV de enfoque débil y recurrió a la idea del enfoque fuerte de Brookhaven para construir un acelerador de 25 GeV de enfoque fuerte por el mismo precio. Lo pusieron en marcha en 1959.
A finales de los años sesenta, la idea de usar piezas polares tortuosas para conseguir el enfoque fuerte había dado paso a un planteamiento donde las funciones estaban separadas. Se instala un imán de guía dipolar «perfecto» y se segrega la función de enfoque con un imán cuadripolar dispuesto simétricamente alrededor del conducto del haz.
Gracias a las matemáticas, los físicos aprendieron cómo dirigen y enfocan los campos magnéticos complejos las partículas; los imanes con números grandes de polos norte y sur —sexapolos, octapolos, decapolos— se convirtieron en componentes de refinados sistemas de acelerador diseñados para que ejerciesen un control preciso sobre las órbitas de las partículas.
Desde los años sesenta en adelante, los ordenadores fueron cada vez más importantes en el manejo y control de las corrientes, los voltajes, las presiones y las temperaturas de las máquinas. Los imanes de enfoque fuerte y la automatización computarizada hicieron posibles las notables máquinas que se construyeron en los años sesenta y setenta.
La primera máquina de GeV (mil millones de electronvoltios) fue el modestamente denominado Cosmotrón, que empezó a funcionar en Brookhaven en 1952. Cornell vino a continuación, con una máquina de 1,2 GeV. Estas son las otras estrellas de esa época:
Acelerador | Energía | Localización | Año |
---|---|---|---|
Bevatrón | 6 GeV | Berkeley | 1954 |
AGS | 30 GeV | Brookhaven | 1960 |
ZGS | 12,5 GeV | Argonne (Chicago) | 1964 |
El «200» | 200 GeV | Fermilab | 1972 |
El «200» (ampliación) | 400 GeV | Fermilab | 1974 |
Tevatrón | 900 GeV | Fermilab | 1983 |
En otras partes del mundo estaban el Saturne (Francia, 3 GeV), Nimrod (Inglaterra, 10 GeV), Dubna (URSS, 10 GeV), KEK PS (Japón, 13 GeV), PS (CERN/Ginebra, 25 GeV), Serpuhkov (URSS, 70 GeV), SPS (CERN/Ginebra, 400 GeV).
El tercer gran avance fue la aceleración de cascada, cuya idea se atribuye a Matt Sands, físico del Cal Tech. Sands decidió que, cuando se va a por una gran energía, no es eficaz hacerlo todo en una sola máquina. Concibió una secuencia de aceleradores diferentes, cada uno optimizado para un intervalo de energía concreto, digamos de 0 a 1 MeV, de 1 a 100 MeV, y así sucesivamente. Las varias etapas se pueden comparar a las marchas de un coche, cada una de las cuales se diseña para elevar la velocidad hasta el siguiente nivel de manera óptima. A medida que la energía aumenta, el haz acelerado se aprieta más.
En las etapas de mayor energía, las dimensiones transversales menores requieren, pues, imanes también menores y más baratos. La idea de la cascada ha dominado todas las máquinas desde los años sesenta. Sus ejemplos más expresivos son el Tevatrón (cinco etapas) y el Supercolisionador en construcción en Texas (seis etapas).
Un punto que quizá se haya perdido en las consideraciones técnicas precedentes es por qué viene bien hacer ciclotrones y sincrotrones grandes. Wideröe y Lawrence demostraron que no hay por qué producir voltajes enormes, como los pioneros que les precedieron creían, para acelerar las partículas hasta energías grandes. Basta con enviar las partículas a través de una serie de huecos o diseñar una órbita circular a fin de que se pueda usar múltiples veces un solo hueco. Por lo tanto, en las máquinas circulares sólo hay dos parámetros: la intensidad del imán y el radio con que giran las partículas. Los constructores de aceleradores ajustan estos dos factores para obtener la energía que quieren. El radio está limitado, más que nada, por el dinero. La intensidad de los imanes, por la tecnología. Si no podemos elevar el campo magnético, hacemos mayor el círculo para incrementar la energía.
En el Supercolisionador sabemos que queremos producir 20 TeV en cada haz, y sabemos (o creemos que sabemos) hasta qué punto puede ser intenso el imán que construyamos. De ello podemos deducir lo grande que debe ser el tubo: 85 kilómetros.
Retrocediendo a 1911, un físico holandés descubrió que ciertos metales, cuando se los enfriaba a temperaturas extremadamente bajas —sólo unos pocos grados por encima del cero absoluto de la escala Kelvin (−273 grados centígrados)—, perdían toda resistencia a la electricidad. A esa temperatura un lazo de cable transportaría una corriente para siempre sin gastar nada de energía.
En casa, una amable compañía eléctrica os suministra la energía eléctrica, mediante cables de cobre. Los cables se calientan a causa de la resistencia friccional que ofrecen al paso de la corriente. Este calor desperdiciado gasta energía y abulta la factura. En los electroimanes corrientes de los motores, los generadores y los aceleradores, los cables de cobre llevan corrientes que producen campos magnéticos. En un motor, el campo magnético pone a dar vueltas haces de cables que conducen corriente. Notáis lo caliente que está el motor. En un acelerador, el campo magnético conduce y enfoca las partículas. Los cables de cobre del imán se calientan y para enfriarlos se emplea un poderoso flujo de agua, que pasa normalmente por unos agujeros practicados en los espesos enrollamientos de cobre. Para que os hagáis una idea de a dónde va a parar el dinero, la factura de la electricidad que se pagó en 1975 por el acelerador del Fermilab fue de unos quince millones de dólares, alrededor de un 90 por 100 de la cual correspondía a la energía utilizada en los imanes del anillo principal de 400 GeV.
A principios de los años sesenta tuvo lugar un gran avance técnico. Gracias a unas aleaciones nuevas de metales exóticos fue posible mantener el frágil estado de superconductividad mientras se conducían corrientes enormes y se producían grandes campos magnéticos. Y todo ello a unas temperaturas más razonables, de 5 a 10 grados sobre el cero absoluto, que las muy difíciles de 1 o 2 grados que hacían falta con los metales ordinarios. El helio es un verdadero líquido a los 5 grados (todo lo demás se solidifica a esa temperatura), por lo que surgió la posibilidad de una superconductividad práctica. La mayoría de los grandes laboratorios se puso a trabajar con cables hechos de aleaciones del tipo niobio-titanio o niobio estaño-3 en lugar de cobre, rodeados de helio líquido para enfriarlos hasta temperaturas superconductoras.
Se construyeron para los detectores de partículas vastos imanes que empleaban las nuevas aleaciones —para rodear, por ejemplo, una cámara de burbujas—, pero no para los aceleradores, en los que los campos magnéticos habían de ser más intensos a medida que las partículas ganaban energía. Las corrientes cambiantes en los imanes generan efectos friccionales (corrientes de remolino) que por lo general destruyen el estado superconductor. Muchas investigaciones afrontaron este problema en los años sesenta y setenta, y el líder en ese campo fue el Fermilab, dirigido por Robert Wilson. El equipo de Wilson emprendió el I+D de los imanes superconductores en 1973, poco después de que el acelerador «200» original empezase a funcionar. Uno de los motivos fue el aumento explosivo del costo de la energía eléctrica a causa de la crisis del petróleo de aquella época. El otro era la competencia del consorcio europeo, el CERN, radicado en Ginebra.
Los años setenta fueron de vacas flacas por lo que se refería a los fondos de investigación en los Estados Unidos. Tras la segunda guerra mundial, el liderazgo mundial de la investigación había pertenecido sólidamente a este país, mientras el resto del mundo trabajaba para reconstruir las economías e infraestructuras científicas destrozadas por la guerra. A finales de los años setenta había empezado a restaurarse el equilibrio. Los europeos estaban construyendo una máquina de 400 GeV, el Supersincrotrón de Protones (el SPS), mejor financiada y mejor dotada con los caros detectores que determinan la calidad de la investigación. (Esta máquina marcó el principio de otro ciclo de colaboración y competencia internacionales. En los años noventa, Europa y Japón siguen por delante de los Estados Unidos en algunos campos de investigación y no muy por detrás en casi todos los demás).
La idea de Wilson era que si se podía resolver el problema de los campos magnéticos variables, un anillo superconductor ahorraría una cantidad enorme de energía eléctrica y sin embargo produciría unos campos magnéticos más poderosos, lo que, para un radio dado, supone una energía mayor. Con la ayuda de Alvin Tollestrup, profesor del Cal Tech que pasaba un año sabático en el Fermilab (acabaría por alargar su permanencia), Wilson estudió con gran detalle de qué manera las corrientes y los campos cambiantes creaban un calentamiento local. Las investigaciones que se proseguían en otros laboratorios, sobre todo en el Rutherford de Inglaterra, ayudaron al grupo del Fermilab a construir cientos de modelos. Trabajaron con metalúrgicos y científicos de materiales, y, entre 1973 y 1977, consiguieron resolver el problema; se logró que los imanes magnéticos saltasen de una corriente nula a una de 5.000 amperios en 10 segundos, sin que la superconductividad desapareciese. En 1978-1979 una línea de producción emprendió la producción de imanes de seis metros y medio con propiedades excelentes, y en 1983 el Tevatrón empezó a funcionar en el complejo del Fermilab como un «posquemador». La energía iba de 400 GeV a 900 GeV, y el consumo de energía se redujo de 60 megavatios a 20, la mayor parte del cual se gastaba en producir helio líquido.
Cuando Wilson puso en marcha su programa de I+D en 1973, la producción anual de material superconductor de los Estados Unidos era de unos cuantos cientos de kilogramos. El consumo que hizo el Fermilab de algo más de 60.000 kilogramos de material superconductor alentó a los productores y cambió radicalmente la postura de la industria. Los mayores consumidores son hoy las firmas que hacen aparatos de producción de imágenes por resonancia magnética para el diagnóstico médico. El Fermilab puede arrogarse un poco el mérito de que exista este sector industrial que ingresa 500 millones de dólares al año.
Y el hombre al que corresponde buena parte del mérito de que exista el propio Fermilab es nuestro primer director, el artista/vaquero/diseñador de máquinas Robert Rathbun Wilson. ¡Y hablan de carisma! Wilson creció en Wyoming, donde montaba a caballo y estudiaba con ganas en la escuela, hasta ganarse una beca para Berkeley. Allí fue alumno de E. O. Lawrence.
Ya he descrito las hazañas arquitectónicas del hombre del Renacimiento que construyó el Fermilab; también era grande su refinamiento técnico. Wilson se convirtió en el director fundador del Fermilab en 1967 y recibió una dotación de 250 millones de dólares para construir (eso decían las especificaciones) una máquina de 200 GeV con siete líneas de haz. La construcción, empezada en 1968, debía durar cinco años, pero Wilson terminó la máquina en 1972, antes de la fecha prevista. En 1974 funcionaba regularmente a 400 GeV con catorce líneas de haz y 10 millones de dólares sobrantes de la asignación inicial, y todo ello con la arquitectura más esplendida que jamás se hubiese visto en una instalación del gobierno de los Estados Unidos. Hace poco he calculado que si Wilson hubiera estado al cargo de nuestro presupuesto de defensa durante los últimos quince años con el mismo tino, los Estados Unidos disfrutarían hoy de un superávit presupuestario decente y el mundo del arte hablaría de nuestros tanques.
Se cuenta que a Wilson se le ocurrió lo del Fermilab a principios de los años sesenta en París, donde era profesor en un proyecto de intercambio. Se encontró un día bosquejando, junto a otros artistas, a una bella y bien curvada modelo desnuda en una sesión de dibujo pública en la Grande Chaumière. Se discutía por entonces en Norteamérica acerca del «200», y a Wilson no le gustaba lo que leía en su correspondencia. Mientras otros dibujaban pechos, Wilson dibujaba círculos para tubos de haces y los adornaba con cálculos. Eso es dedicación.
Wilson no era perfecto. Tomó por el camino más corto varias veces durante la construcción del Fermilab, y no siempre acertó. Se quejaba amargamente de que una estupidez le había costado un año (podría haber acabado en 1971) y 10 millones de dólares más. También se puso furioso, y en 1978, disgustado por el lento ritmo de la financiación federal de los trabajos sobre la superconducción, dimitió.
Cuando se me pidió que fuese su sucesor, fui a verle. Amenazó con perseguirme si no aceptaba el puesto, y ello hizo efecto. La perspectiva de verme perseguido por Wilson a lomos de su caballo era demasiado. Así que acepté el puesto y preparé tres sobres.
Podemos ilustrar todo lo que se ha explicado en este capítulo mediante la descripción del acelerador de cascada del Fermilab, con sus cinco máquinas secuenciales (siete si queréis contar los dos anillos donde hacemos antimateria). El Fermilab es una coreografía compleja de cinco aceleradores diferentes, cada uno un paso por encima en energía y elaboración, como la ontogenia que recapitula a la filogenia (o lo que recapitule).
Para empezar, nos hace falta algo que acelere. Corremos a Avíos El As y compramos una botella presurizada de gas hidrógeno. El átomo de hidrógeno consiste en un electrón y un núcleo simple, de un solo protón. En la botella hay bastantes protones para que el Fermilab funcione durante un año. Coste: unos veinte dólares, si se devuelve la botella. La primera máquina de la cascada es nada menos que un acelerador electrostático Cockcroft-Walton, diseño de los años treinta. Aunque es el más antiguo de la serie de aceleradores del Fermilab, es el de pintas más futuristas, adornado como está con unas bolas muy grandes y lustrosas y anillos con apariencia de rosquillas que a los fotógrafos les encanta fotografiar. En el Cockcroft-Walton, una chispa arranca el electrón del átomo y deja un protón de carga positiva, prácticamente en reposo. La máquina acelera entonces esos protones y crea un haz de 750 KeV dirigido a la entrada de la máquina siguiente, que es un acelerador lineal, o linac. El linac envía los protones por una serie, de 150 metros de largo, de cavidades (huecos) de radiofrecuencia para que alcancen los 200 MeV.
A esta respetable energía se los transfiere, mediante la guía magnética y el enfoque, al «impulsor», un sincrotrón, que hace dar vueltas a los protones y que su energía suba a 8 GeV. Fijaos en esto: ahí, ya hemos producido energías mayores que en el Bevatrón de Berkeley, el primer acelerador de GeV, y aún nos faltan dos anillos. Este cargamento de protones se inyecta entonces en el anillo principal, la máquina «200» de unos seis kilómetros de perímetro, que en los años 1974-1982 trabajaba a 400 GeV, el doble de la energía oficial para la que se la diseñó. El anillo principal era el caballo percherón del complejo del Fermilab.
Una vez se conectó el Tevatrón, en 1983, el anillo principal empezó a tomarse la vida con un poco más de desahogo. Ahora lleva los protones sólo hasta 150 GeV y los transfiere entonces al anillo superconductor del Tevatrón, cuyo tamaño es exactamente el mismo que el del anillo principal y está muy pocos metros debajo de él. En el uso corriente del Tevatrón, los imanes superconductores hacen dar vueltas y más vueltas a las partículas de 150 GeV, 50.000 por segundo, que así ganan 700 KeV por vuelta hasta que, tras unos 25 segundos, llegan a los 900 GeV. A esas alturas, los imanes, alimentados por corrientes de 5.000 amperios, han incrementado la intensidad de sus campos hasta 4,1 teslas, más del doble del campo que los viejos imanes de hierro podían ofrecer. Y la energía que se requiere para mantener los 5.000 amperios es ¡aproximadamente cero! La tecnología de las aleaciones superconductoras no para de mejorar. Hacia 1990 la tecnología de 1980 del Tevatrón ya había sido superada, así que el Supercolisionador usará campos de 6,5 teslas, y el CERN está trabajando duro para llevar la técnica al que quizá sea el límite de las aleaciones de niobio: 10 teslas. En 1987 se descubrió un nuevo tipo de superconductor, basado en materiales cerámicos que necesitaban sólo enfriamiento de nitrógeno. Se suscitaron esperanzas de que era inminente un gran progreso en lo que se refería al coste, pero los campos magnéticos fuertes que se requieren no existen aún, y nadie puede hacerse una idea de cuándo reemplazarán estos materiales nuevos al niobio-titanio, o siquiera si lo reemplazarán alguna vez.
En el Tevatrón, 4,1 teslas es el límite, y las fuerzas electromagnéticas empujan a los protones a una órbita que los saca de la máquina hacia un túnel, donde se dividen entre unas catorce líneas de haz. Aquí disponen los grupos experimentales los blancos y los detectores para hacer sus experimentos. Unos mil físicos trabajan en el programa de blanco fijo. La máquina funciona en ciclos. Lleva unos treinta segundos hacer toda la aceleración. El haz se evacua durante otros veinte segundos, a fin de no abrumar a los experimentadores con un ritmo de partículas demasiado alto para sus experimentos. Este ciclo se repite cada minuto.
La línea externa del haz se enfoca muy apretadamente. Mis compañeros y yo preparamos un experimento en el «Centro de Protones», donde se extrae, enfoca y guía un haz de protones a lo largo de unos dos kilómetros y medio a un blanco de un cuarto de milímetro de ancho, el grosor de una hoja de afeitar. Los protones chocan con ese fino borde. Cada minuto, día tras día, durante semanas, un estallido de protones golpea en ese blanco sin que se desvíen en más de una pequeña fracción de su anchura.
El otro modo de usar el Tevatrón, el modo colisionador, es muy diferente, y lo consideraremos en detalle. En este modo, los protones inyectados derivan por el Tevatrón a 150 GeV a la espera de los antiprotones, que en su debido momento son emitidos por la fuente de p barra y enviados alrededor del anillo en la dirección opuesta. Cuando los dos haces están en el Tevatrón, empezamos a elevar la intensidad de los imanes y a acelerar los dos haces. (Enseguida se darán más explicaciones sobre cómo funciona esto).
En cada fase de la secuencia, los ordenadores controlan los imanes y los sistemas de radiofrecuencia, para mantener los protones estrechamente agrupados y bajo control. Los sensores informan sobre las corrientes, los voltajes, las presiones, las temperaturas, la localización de los protones y los últimos promedios del Dow Jones. Un funcionamiento defectuoso podría mandar los protones, desbocados, fuera de su conducto de vacío a través de la estructura del imán que lo rodea, taladrando un agujero muy bien hecho y muy caro. Nunca ha pasado: al menos, no por ahora.
Hemos hablado aquí mucho de las máquinas de protones, pero no sólo se trabaja con protones. Lo bueno que tienen es que cuesta hasta cierto punto poco acelerarlos. Podemos acelerarlos hasta billones de electronvoltios. El Supercolisionador los acelerará hasta los 20 billones de electronvoltios. En realidad, podría no haber teóricamente un límite de lo que podemos hacer. Por otra parte, los protones están llenos de otras partículas: los quarks y los gluones. Ello hace que las colisiones sean embarulladas, complicadas. Esa es la razón de que algunos físicos prefieran acelerar electrones, que son puntuales, a-tómicos. Como son puntos, sus colisiones son más limpias que las de los protones. La cara negativa es que su masa es pequeña, así que es difícil y caro acelerarlos. Sus masas pequeñas producen una gran cantidad de radiación electromagnética cuando se los hace dar vuelta en círculo. Hay que invertir mucha más energía para compensar la pérdida por radiación. Desde el punto de vista de la aceleración, esa radiación no es sino un desecho, pero para algunos investigadores se trata más bien de una bonificación secundaria que es toda una bendición porque es muy intensa y su longitud de onda muy corta. Se dedican actualmente muchos aceleradores circulares a producir esta radiación de sincrotrón. Entre los clientes están los biólogos, que usan los intensos haces de fotones para estudiar la estructura de moléculas enormes, los constructores de chips electrónicos, para hacer litografía de rayos X, los científicos de materiales, que estudian la estructura de los materiales, y muchos otros de tipo práctico.
Una forma de evitar esta pérdida de energía es usar un acelerador lineal, como el linac de Stanford, de más de tres kilómetros de largo, que se construyó a principios de los años sesenta. A la máquina de Stanford se le llamaba al principio «M», de monstruo, y para su época fue una máquina espantosa. Empieza en el campus de Stanford, a medio kilómetro, más o menos, de la Falla de San Andrés, y se abre paso hacia la bahía de San Francisco. El Centro del Acelerador Lineal de Stanford debe su existencia al ímpetu y el entusiasmo de su fundador y primer director, Wolfgang Panofsky. J. Robert Oppenheimer contaba que el brillante Panofsky y su hermano gemelo, el no menos brillante Hans, asistieron a Princeton juntos y ambos consiguieron unos expedientes académicos estelares, pero uno de ellos lo hacía un pelo mejor que el otro. Desde entonces, decía Oppenheimer, se convirtieron en el Panofsky «listo» y el Panofsky «tonto». ¿Quién es quién? «¡Eso es secreto!», dice Wolfgang. A decir la verdad, casi todos lo llamamos Pief.
Las diferencias entre el Fermilab y el SLAC son obvias. Uno hace protones; el otro electrones. Uno es circular, el otro recto. Y cuando decimos que un acelerador lineal es recto, queremos decir recto. Por ejemplo, supongamos que construimos un tramo de carretera de tres kilómetros de largo. Los topógrafos nos aseguran que es recto, pero no lo es. Sigue la muy suave curvatura de la Tierra. A un topógrafo que está sobre la superficie de la Tierra le parece recto, pero visto desde el espacio es un arco. El tubo del haz del SLAC, por el contrario, es recto. Si la Tierra fuese una esfera perfecta, el linac sería una tangente de la superficie de la Tierra de tres kilómetros de longitud. Proliferaron por el mundo las máquinas de electrones, pero el SLAC siguió siendo el más espectacular, capaz de acelerar los electrones hasta 20 GeV en 1960, hasta 50 GeV en 1989. Entonces los europeos lo superaron.
Muy bien, estas son nuestras opciones hasta aquí. Se pueden acelerar protones o se pueden acelerar electrones, y se los puede acelerar en círculo o en línea recta. Pero hay que tomar una decisión más.
Por lo general, se sacan los haces de los límites de la prisión magnética, y se los transporta siempre por las conducciones de vacío, hasta el blanco donde se producen las colisiones. Hemos explicado de qué forma el análisis de las colisiones proporciona información sobre el mundo subnuclear. La partícula acelerada aporta una cierta cantidad de energía, pero sólo se dispone de una parte de ella para explorar la naturaleza a distancias pequeñas o para fabricar nuevas partículas conforme a E = mc². La ley de la conservación del momento dice que parte de la energía de entrada se mantendrá y será dada a los productos finales de las colisiones. Por ejemplo, si un autobús en movimiento choca con un camión parado, buena parte de la energía del autobús acelerado se irá en empujar los distintos trozos de hoja metálica, de vidrio y de goma, energía que se sustrae de la que podría demoler el camión más completamente.
Si un protón de 1.000 GeV golpea a un protón en reposo, la naturaleza insiste en que cualquier partícula que salga debe tener el suficiente movimiento hacia adelante para igualar el momento hacia adelante del protón incidente. Resulta que esto deja un máximo de sólo 42 GeV para hacer partículas nuevas.
A mediados de los años sesenta nos dimos cuenta de que, si se pudiera conseguir que dos partículas, cada una de las cuales tuviera toda la energía del haz del acelerador, chocasen de frente, tendríamos una colisión muchísimo más violenta, Se aportaría a la colisión el doble de la energía del acelerador, y toda ella estaría disponible, pues el momento total inicial es cero (los objetos que chocan tienen momentos iguales y opuestos). Por lo tanto, en un acelerador de 1.000 GeV una colisión frontal de dos partículas, cada una de las cuales tenga 1.000 GeV libera 2.000 GeV para la creación de nuevas partículas, lo que hay que comparar con los 42 GeV de que se dispone cuando el acelerador está en el modo de blanco estacionario. Pero hay una penalización. Una ametralladora puede dar con mucha facilidad a la fachada de un caserón, pero es más difícil que dos ametralladoras se disparen entre sí y sus balas choquen en el aire. Esto os dará cierta idea del problema que supone manejar un acelerador de haces en colisión.
Tras su colisionador original, Stanford construyó en 1973 un acelerador muy productivo, el SPEAR (acrónimo que quiere decir lanza), para el Anillo del Acelerador de Positrones y Electrones de Stanford. Aquí los haces de electrones se aceleran en un acelerador de más de tres kilómetros de largo hasta una energía entre 1 y 2 GeV, y se los inyecta en un pequeño anillo de almacenamiento magnético. Una secuencia de reacciones producía las partículas de Carl Anderson, los positrones. Primero, el intenso haz de electrones incide en un blanco y produce, entre otras cosas, un intenso haz de fotones. La ceniza de partículas cargadas es barrida con imanes, que no afectan a los fotones, neutros. Así se consigue que un limpio haz de fotones golpee en un blanco delgado, de platino, por ejemplo. El resultado más común es que la pura energía del fotón se convierta en un electrón y un positrón, que compartirán la energía original del fotón menos la masa en reposo del electrón y del positrón.
Un sistema de imanes recoge cierta fracción de los positrones, que se inyecta en un anillo de almacenamiento donde los electrones han estado pacientemente dando vueltas y vueltas. Los flujos de positrones y de electrones, que tienen cargas eléctricas opuestas, se curvan bajo el efecto de un imán en direcciones opuestas. Si uno de los flujos va en el sentido de las agujas del reloj, el otro va al revés que el reloj. El resultado es obvio: colisiones frontales. SPEAR hizo varios descubrimientos importantes, los colisionadores se volvieron muy populares y una plétora de acrónimos poéticos (¿?) invadió el mundo. Antes de SPEAR estuvo ADONE (Italia, 2 GeV); tras SPEAR, DORIS (Alemania, 6 GeV) y luego PEP (otra vez Stanford, 30 GeV), PETRA (Alemania, 30 GeV), CESR (Cornell, 8 GeV), VEPP (URSS), TRISTAN (Japón, de 60 a 70 GeV), LEP (CERN, 100 GeV) y SLC (Stanford, 100 GeV). Obsérvese que se tasa a los colisionadores por la suma de las energías de los haces. El LEP, por ejemplo, tiene 50 GeV en cada haz; por lo tanto, es una máquina de 100 GeV.
En 1972, se dispuso de colisiones frontales de protones en el pionero Anillo Intersector de Almacenamiento (ISR) del CERN, instalado en Ginebra. En él se entrelazan dos anillos independientes; los protones van en direcciones opuestas en cada anillo y chocan de frente en ocho puntos de intersección diferentes. La materia y la antimateria, los electrones y los positrones, por ejemplo, pueden circular en el mismo anillo porque los imanes los hacen circular en direcciones opuestas, pero hacen falta dos anillos separados para machacar unos protones contra otros.
En el ISR, cada anillo se llena de protones de 30 GeV procedentes del acelerador del CERN más convencional, el PS. El ISR tuvo finalmente un gran éxito. Pero cuando se puso en marcha en 1972, obtuvo sólo unos cuantos miles de colisiones por segundo en los puntos de colisión de «alta luminosidad». «Luminosidad» es la palabra que se usa para describir el número de colisiones por segundo, y los problemas iniciales del ISR demostraron lo difícil que era conseguir que dos balas de ametralladora (los dos haces) chocaran. La máquina acabó por mejorar hasta producir más de 5 millones de colisiones por segundo. Por lo que se refiere a la física, se hicieron algunas mediciones importantes, pero, en general, el ISR fue más que nada una experiencia de aprendizaje valiosa acerca de los colisionadores y las técnicas de detección. El ISR era una máquina elegante, tanto técnicamente como por su apariencia: una típica producción suiza. Trabajé allí durante mi año sabático de 1972, y volví con frecuencia a lo largo de los diez años siguientes. Enseguida me llevé a I. I. Rabi, que visitaba Ginebra por un congreso de «Átomos para la Paz», a dar una vuelta por allí. En cuanto entramos en el elegante túnel del acelerador, Rabi se quedó con la boca abierta, y exclamó: «¡Ah, Patek Philippe!».
El colisionador más difícil de todos, el que enfrenta a los protones contra los antiprotones, llegó a ser posible gracias al invento de un ruso fabuloso, Gershon Budker, que trabajaba en la Ciudad de la Ciencia Soviética, en Novosibirsk. Budker había estado construyendo máquinas de electrones en Rusia, en competencia con su amigo norteamericano Wolfgang Panofsky. Se trasladó su actividad a Novosibirsk, a un nuevo complejo universitario en Siberia. Como dice Budker, Panosfsky no fue trasladado a Alaska; la competición; pues, no era justa y él se vio obligado a innovar.
En Novosibirsk, en los años cincuenta y sesenta, Budker llevó un floreciente sistema capitalista de vender a la industria soviética pequeños aceleradores de partículas a cambio de materiales y dinero que permitieran a sus investigaciones seguir adelante. Le apasionaba la perspectiva de usar los antiprotones, o p-barras, como elemento que chocase contra otros en un acelerador, pero sabía que eran un bien escaso. El único lugar donde se les encuentra es en las colisiones de alta energía, donde se producen gracias, sí, a E = mc². Una máquina de muchas decenas de GeV tendrá unos cuantos p-barras entre las cenizas de las colisiones. Si quería reunir suficientes para que las colisiones ocurrieran a unos ritmos útiles, tenía que acumularlos durante muchas horas. Pero a medida que los p-barras salen de un blanco golpeado, se mueve cada uno por su sitio. A los expertos en aceleradores les gusta expresar esos movimientos mediante su dirección principal y energía (¡justo!) y los movimientos laterales superfluos que tienden a llenar el espacio disponible de la cámara de vacío. Budker vio —este fue su hallazgo— la posibilidad de «enfriar» las componentes laterales de sus movimientos y comprimir los p-barras en un haz mucho más denso a medida que se almacenaban. Es un asunto complicado. Deben alcanzarse unos niveles de control del haz, de estabilidad magnética y de ultravacío inauditos. Hay que almacenar los antiprotones, enfriarlos y acumularlos más de diez horas antes de que haya suficientes para inyectarlos en el colisionador, donde se los acelerará. Era una idea poética, pero el programa era demasiado complejo para los limitados recursos de Budker en Siberia.
Entra Simon Van der Meer, ingeniero holandés del CERN que hizo avanzar esta técnica de enfriamiento a finales de los años setenta y contribuyó a construir la primera fuente de p-barra, para que se usase en el primer colisionador de protones y antiprotones. Utilizó el anillo de 400 GeV del CERN como dispositivo a la vez de almacenamiento y colisión, y las primeras colisiones p/p barra quedaron conectadas al sistema en 1981. Van de Meer compartió el premio Nobel de 1985 con Carlo Rubbia por haber contribuido con su «enfriamiento estocástico» al programa de investigación que había preparado Carlo Rubbia y que dio lugar al descubrimiento de las partículas W+, W− y Z°, de las que hablaremos más adelante.
Carlo Rubbia tiene una personalidad tan llamativa que merecería un libro entero, y al menos hay uno sobre él (Nobel Dreams, de Gary Taubes). Carlo, uno de los graduados más brillantes de la asombrosa Scuola Normale de Pisa, donde fue estudiante Enrico Fermi, es una dinamo que no puede nunca ir más despacio. Ha trabajado en Nevis, en el CERN, en Harvard, en el Fermilab, otra vez en el CERN y luego otra vez en el Fermilab. Como ha viajado tanto, inventó un complejo sistema de minimizar gastos intercambiando las mitades de ida y vuelta de los billetes. Una vez le convencí por un rato de que se retiraría con ocho billetes de más, todos de oeste a este. En 1989 fue nombrado director del CERN; por entonces, el laboratorio del consorcio europeo había ido en cabeza durante unos seis años por lo que se refería a las colisiones de protones y antiprotones. Sin embargo, el Tevatrón se puso en cabeza de nuevo en 1987-1988, cuando el Fermilab hizo unas mejoras importantes en el montaje del CERN y puso en funcionamiento su propia fuente de antiprotones.
Los p-barras no crecen en los árboles y no podréis comprarlos en Avíos El As. En los años noventa el Fermilab es la mayor reserva mundial de antiprotones, que se almacenan en un anillo magnético. Un estudio futurista de la Fuerza Aérea de los Estados Unidos y de la Rand Corporation ha determinado que un miligramo de antiprotones sería el combustible ideal de un cohete, pues contendría la energía equivalente a unas dos toneladas de petróleo. Como el Fermilab es el líder mundial en la producción de antiprotones (1010 por hora), ¿cuánto le llevaría hacer un miligramo? Al ritmo actual, unos pocos millones de años, funcionando las veinticuatro horas del día. Algunas extrapolaciones de la tecnología actual increíblemente optimistas podrían reducir esta cifra a unos cuantos miles de años. Mi consejo es, pues, que no invirtáis en la Mutua P-Barra de Fidelidad.
El montaje del colisionador del Fermilab funciona como sigue. El viejo acelerador de 400 GeV (el anillo principal), que opera a 120 GeV, arroja los protones contra un blanco cada dos segundos. Cada colisión de unos 10¹² protones hace unos 10 millones de antiprotones, que apuntan en la dirección correcta con la energía correcta. Con cada p-barra hay miles de piones, kaones y otros residuos indeseados, pero son todos inestables y desaparecen más pronto o más tarde. Los p-barras se enfocan en un anillo magnético, el anillo «desapelotonador», donde se los procesa, organiza y comprime, y a continuación se los transfiere al anillo acumulador. Ambos anillos tienen alrededor de ciento cincuenta metros de circunferencia y almacenan p-barras a 8 GeV, la misma energía que el acelerador impulsor. El almacenamiento es un asunto delicado, pues todos nuestros equipos están hechos de materia (¿de qué si no?), y los p-barras son antimateria. Si entran en contacto con la materia… la aniquilación. Tenemos, por tanto, que mantener con el mayor cuidado a los p-barras dando vueltas cerca del centro del tubo de vacío. Y la calidad del vacío ha de ser extraordinaria, la mejor «nada» que la técnica pueda conseguir.
Tras la acumulación y la compresión continua durante unas diez horas, ya estamos listos para inyectar los p-barras de vuelta al acelerador de donde salieron. En un procedimiento que recuerda a un lanzamiento de la NASA, una tensa cuenta atrás tiene como objeto que haya la certidumbre de que cada voltaje, cada corriente, cada imán y cada conmutador están en condiciones. Se lanzan los p-barras a toda velocidad dentro del anillo principal, donde circulan en sentido contrario a las agujas del reloj a causa de su carga negativa. Se los acelera a 150 GeV y se los transfiere, de nuevo por medio de una prestidigitación magnética, al anillo superconductor del Tevatrón. Ahí, los protones, recién inyectados desde el impulsor a través del anillo principal, han estado esperando con paciencia, circulando incansablemente en el acostumbrado sentido del reloj. Ahora tenemos dos haces, que corren en direcciones opuestas por los más de seis kilómetros del anillo. Cada haz consta de seis pelotones de partículas, cada uno de los cuales tiene alrededor de 10¹² protones, con un número algo menor de p-barras por pelotón.
Ambos haces se aceleran desde los 150 GeV, la energía que se les impartió en el anillo principal, hasta toda la energía que puede dar el Tevatrón: 900 GeV. El paso final es «apretar». Como los haces circulan en sentidos opuestos por el mismo y pequeño tubo, se han estado cruzando, inevitablemente, durante la fase de aceleración. Sin embargo, su densidad es tan baja que hay muy pocas colisiones entre las partículas. «Apretar» energiza unos imanes superconductores cuadripolares especiales que comprimen el diámetro de los haces, y de tener el mismo que una paja para sorber (unos pocos milímetros) pasan a no ser más gruesos que un cabello humano (micras). Esto aumenta la densidad de partículas enormemente. Ahora, cuando se cruzan los haces hay al menos una colisión por cruce. Los imanes están retorcidos de manera que las colisiones ocurran en el centro de los detectores. El resto corre de su cuenta.
Una vez se ha establecido un funcionamiento estable, se encienden los detectores y empiezan a recoger datos. Lo normal es que esto dure de diez a veinte horas, mientras se van acumulando más p-barras con la ayuda del viejo anillo principal. Con el tiempo, los pelotones de protones y antiprotones se despueblan y se vuelven más difusos, y así se reduce el ritmo con que ocurren los sucesos. Cuando la luminosidad (el número de colisiones por segundo) disminuye a alrededor de un 30 por 100, y si hay suficientes p-barras nuevos almacenados en el anillo acumulador, se apagan los haces y se emprende una nueva cuenta atrás, como la de la NASA. Lleva una media hora rellenar el colisionador del Tevatrón. Se considera que alrededor de 2.000 millones de antiprotones es un buen número para inyectar, Cuantos más, mejor. Se enfrentan a unos 500.000 millones de protones, mucho más fáciles de obtener, para producir unas 100.000 colisiones por segundo. Las mejoras que se harán a todo esto y que, según se prevé, estarán instaladas en los años noventa, aumentarán esas cantidades en un factor de diez, más o menos.
En 1990, el colisionador del CERN de p y p-barras fue retirado, con lo que todo el campo quedó en manos de la instalación del Fermilab, con sus dos poderosos detectores.
Aprendemos acerca del dominio subnuclear observando, midiendo y analizando las colisiones que producen las partículas de grandes energías. Ernest Rutherford encerró a sus colaboradores en una habitación a oscuras para que pudiesen ver y contar los destellos generados por las partículas alfa al dar en las pantallas de sulfuro de cinc. Nuestras técnicas de conteo de partículas han evolucionado considerablemente desde entonces, en especial durante el periodo posterior a la segunda guerra mundial.
Antes de la segunda guerra mundial, la cámara de niebla fue un instrumento de gran importancia. Anderson descubrió con una de ellas el positrón, y las había en los laboratorios de todo el mundo donde se investigasen los rayos cósmicos. La labor que se me asignó en Columbia fue construir una que habría de funcionar con el ciclotrón Nevis. Como yo era entonces un estudiante graduado que estaba absolutamente verde, no era consciente de las sutilezas de las cámaras de niebla, y competí con expertos de Berkeley, el Cal Tech, Rochester y otros sitios así. Las cámaras de niebla son un fastidio, y pueden «envenenarse», es decir, sufrir impurezas que crean gotas indeseadas, que se confunden con las que delinean las trazas de las partículas. Nadie tenía en Columbia experiencia con estos temibles detectores. Me leí toda la literatura y adopté todas las supersticiones: limpiar el cristal con hidróxido de sodio y lavarlo con agua triplemente destilada; hervir el diafragma de goma en alcohol metílico de cien grados; mascullar los ensalmos adecuados… Rezar un poco no hace daño.
Desesperado, intenté que un rabino bendijera mi cámara de niebla. Por desgracia, escogí al rabino equivocado. Era ortodoxo, muy religioso, y cuando le pedí que le echase una brucha (hebreo: bendición) a mi cámara de niebla, exigió saber antes qué era una cámara de niebla. Le enseñé una foto, y se puso furioso de que le hubiera sugerido ese sacrilegio. El tipo siguiente con el que probé, un rabino conservador, tras ver la imagen, me preguntó cómo funcionaba la cámara. Se lo expliqué. Me escuchó, movió la cabeza de arriba abajo, se pasó la mano por la barba y finalmente, con tristeza, me dijo que no podía hacerlo. «La ley …». Así que fui al rabino de la Reforma. Cuando llegué a su casa, acababa de bajarse de su Jaguar XKE. «Rabino, ¿podría echarle una brucha a mi cámara de niebla?», le rogué. «¿Brucha?», respondió. «¿Qué es una brucha?». Así que me dejaron con un palmo de narices.
Al final estuve listo para la gran prueba. Al llegar a ese punto, todo tenía que funcionar, pero cada vez que ponía en marcha la cámara no me salía más que un denso humo blanco. Por entonces llegó a Columbia Gilberto Bernardini, un verdadero experto, y se puso a mirar lo que yo hacía.
—¿«Cosa e la varila» de metal metida en la cámara? —preguntaba.
—Es mi fuente radiactiva —le decía—, la que produce las trazas. Pero no me sale nada más que humo blanco.
—Sácala.
—¿Que la saque?
—Sí, sí, fuera.
Así que la saqué, y unos cuantos minutos después… ¡trazas! Por la cámara se abrían paso unas hermosas trazas ondulantes. La imagen más bella que jamás hubiese visto. Lo que pasaba era que mi fuente de milicurios era tan intensa que llenaba la cámara de iones y cada uno hacía crecer su propia gota. El resultado: un humo denso, blanco. No me hacía falta una fuente radiactiva. Los rayos cósmicos, omnipresentes en el espacio a nuestro alrededor, proporcionan amablemente bastante radiación. Ecco!
La cámara de niebla resultó ser un instrumento muy productivo porque con ella se podía fotografiar el rastro de las gotas minúsculas que se formaban a lo largo de la traza de las partículas que la atravesaban. Equipada con un campo magnético, las trazas se curvan, y al medir el radio de esa curvatura obtenemos el momento de las partículas. Cuanto más cerca estén las trazas de ser rectas (menos curvatura), mayor energía tienen las partículas. (Acordaos de los protones en el ciclotrón de Lawrence, que ganaban momento y entonces describían grandes círculos). Tomamos miles de imágenes que descubrían una variedad de datos sobre las propiedades de los piones y de los muones. La cámara de niebla —vista como un instrumento, no como la fuente de mi doctorado y de mi plaza— nos permitía observar unas cuantas docenas de trazas por fotografía. Los piones tardan alrededor de una milmillonésima de segundo en atravesar la cámara. Es posible formar una capa densa de material en la que tenga lugar una colisión, lo que ocurre quizá en una de cada cien fotografías. Como sólo se puede tomar una imagen por minuto, el ritmo de acumulación de datos está más limitado.
El siguiente avance fue la cámara de burbujas, inventada a mediados de los años cincuenta por Donald Glaser, por entonces en la Universidad de Michigan. La primera cámara de burbujas fue un dedal de hidrógeno líquido. La última que se usó —fue retirada del Fermilab en 1987— era una vasija de cuatro metros y medio por tres de acero inoxidable y cristal.
En una cámara llena de líquido, a menudo hidrógeno licuado, se forman unas burbujas diminutas a lo largo del rastro de las partículas que la atraviesan. Las burbujas indican que se produce una ebullición debida a la disminución súbita deliberada de la presión del líquido. Así, éste se pone por encima del punto de ebullición, que depende tanto de la temperatura como de la presión. (Puede que hayáis sufrido lo difícil que es cocer un huevo en vuestro chalé de la montaña. A la baja presión de las cimas de las montañas, el agua hierve bien por debajo de los 100° C.) Un líquido limpio, no importa lo caliente que esté, se resiste a hervir. Por ejemplo, si calentáis un poco de aceite en un pote hondo por encima de su temperatura de ebullición normal, y todo está realmente limpio, no hervirá. Pero echad un solo trozo de patata, y se pondrá a hervir explosivamente. Así que para producir burbujas, hacen falta dos cosas: una temperatura por encima del punto de ebullición y algún tipo de impureza que aliente la formación de una burbuja. En la cámara de burbujas se sobrecalienta el líquido mediante la disminución súbita de la presión. La partícula cargada, en sus numerosas colisiones suaves con el líquido, deja un rastro de átomos excitados que, tras la disminución de la presión, es ideal para la nucleación de las burbujas. Si se produce en la vasija una colisión entre la burbuja incidente y un protón (núcleo de hidrógeno), todos los productos cargados que se generan se hacen también visibles. Como el medio es un líquido, no se necesitan placas densas, y el punto de colisión se ve claramente. Los investigadores de todo el mundo tomaron millones de fotografías de las colisiones en las cámaras de burbujas, ayudados en sus análisis por dispositivos automáticos de lectura.
Funciona así. El acelerador dispara un haz de partículas hacia la cámara de burbujas. Si se trata de un haz de partículas cargadas, diez o veinte trazas empiezan a poblar la cámara. En un milisegundo o así tras el paso de las partículas, se mueve rápidamente un pistón, que hace que descienda la presión y con ello empiece la formación de las burbujas. Tras otro milisegundo o así de tiempo de crecimiento, se enciende un destello de luz, la película se mueve y ya estamos listos para otro ciclo.
Se dice que Glaser (que ganó el premio Nobel por su cámara de burbujas e inmediatamente se hizo biólogo) sacó su idea de la nucleación de burbujas estudiando el truco de hacer que el copete de espuma de un vaso de cerveza sea mayor echándole sal. Los bares de Ann Arbor, Michigan, engendraron, pues, uno de los instrumentos que más éxito haya tenido de los que se han empleado para seguir las huellas de la Partícula Divina.
El análisis de las colisiones tiene dos claves: el espacio y el tiempo. Nos gustaría registrar la trayectoria de una partícula en el espacio y el tiempo preciso de su paso. Por ejemplo, una partícula entra en el detector, se para, se desintegra y da lugar a una partícula secundaria. Un buen ejemplo de partícula que se para es el muón, que puede desintegrarse en un electrón, separado temporalmente una millonésima de segundo más o menos del momento de la detención. Cuanto más preciso sea el detector, mayor será la información. Las cámaras de burbujas son excelentes para el análisis espacial del suceso. Las partículas dejan trazas, y en la cámara de burbujas podemos localizar puntos en esas trazas con una precisión de alrededor de un milímetro. Pero no ofrecen información temporal.
Los contadores de centelleo pueden localizar las partículas tanto en el espacio como en el tiempo. Están hechos de plásticos especiales y producen un destello de luz cuando incide en ellos una partícula cargada. Van envueltos en plástico negro opaco, y se hace que cada uno de esos minúsculos destellos de luz confluya en un fotomultiplicador electrónico que convierte la señal, indicadora del paso de una partícula, en un impulso eléctrico nítidamente definido. Cuando ese impulso se superpone a un tren electrónico de impulsos de reloj, se puede registrar la llegada de una partícula con una precisión de unas pocas mil millonésimas de segundo. Si se usan muchas tiras de centelleo, la partícula dará en varias sucesivamente y dejará una serie de impulsos que describirán su trayectoria espacial. La localización espacial depende del tamaño del contador; por lo general, la determina con una precisión de unos cuantos centímetros.
La cámara proporcional de hilos (PWC) fue un avance de la mayor importancia. La inventó un francés prolífico que trabaja en el CERN, Georges Charpak. Héroe de la segunda guerra mundial y de la resistencia, prisionero en un campo de concentración, Charpak llegó a ser el inventor más destacado de aparatos detectores de partículas. En su PWC, un aparato ingenioso y «simple», se tiende una serie de hilos finos sobre un bastidor, separados sólo unos pocos milímetros. El bastidor mide normalmente sesenta centímetros por ciento veinte, y hay unos cuantos cientos de hilos de sesenta centímetros de largo tendidos en ese espacio de un metro y veinte centímetros. Se organizan los voltajes de forma que cuando pase una partícula cerca de un hiló, se genere en éste un impulso eléctrico, que se registra. La localización precisa del hilo afectado determina un punto de la trayectoria. Se obtiene el instante en que se ha producido el impulso por comparación con un reloj electrónico. Gracias a mejoras adicionales, las definiciones espacial y temporal pueden afinarse hasta, aproximadamente, 0,1 milímetros y 10−8 segundos. Con muchos planos como este apilados en una caja hermética rellena de un gas apropiado se pueden definir con precisión las trayectorias de las partículas. Como la cámara sólo se activa durante un corto intervalo de tiempo, los sucesos aleatorios de fondo quedan suprimidos y cabe usar haces intensísimos. Los PWC de Charpak han formado parte de todos los experimentos importantes de física de partículas desde 1970, más o menos. En 1992, Charpak ganó el premio Nobel (¡él solo!) por su invento.
Todos estos sensores de partículas, y otros, se incorporaron en los depurados detectores de los años ochenta. El detector CDF del Fermilab es un caso típico entre los sistemas más complejos. Tiene tres pisos de altura, pesa 5.000 toneladas y su construcción costó 60 millones de dólares; se diseñó para observar las colisiones frontales de los protones y los antiprotones en el Tevatrón. En él, 100.000 sensores, entre los cuales hay contadores de centelleo e hilos cuyas configuraciones se han diseñado con el mayor cuidado, alimentan con corrientes de información en la forma de impulsos electrónicos un sistema que organiza, filtra y, por último, registra los datos para su análisis futuro.
Como en todos los detectores semejantes, hay demasiada información para que pueda ser manejada en tiempo real —es decir, inmediatamente—, así que los datos se codifican en forma digital y se organizan para grabarlos en una cinta magnética.
El ordenador debe decidir qué colisiones son «interesantes» y cuáles no, pues en el Tevatrón se producen más de 100.000 por segundo, y se espera que esta cifra se incremente en la primera mitad de los años noventa hasta un millón de colisiones por segundo. Ahora bien, la mayoría de esas colisiones carece de interés. Las más preciosas son aquellas en las que un quark de un protón le da realmente un beso a un antiquark o incluso a un gluón del p-barra. Estas colisiones duras son raras.
El sistema que maneja la información tiene menos de una millonésima de segundo para examinar una colisión en concreto y tomar una decisión fatal: ¿es interesante este suceso? Para un ser humano, es una velocidad que da vértigo, pero no para un ordenador. Todo es relativo. En una de nuestras grandes ciudades, una banda de caracoles atacó y robó a una tortuga. Cuando más tarde le preguntó la policía, la tortuga dijo: «No lo sé. ¡Todo pasó tan deprisa!».
Para aliviar la toma electrónica de decisiones, se ha desarrollado un sistema de niveles secuenciales de selección de sucesos. Los experimentadores programan los ordenadores con varios «disparadores», indicadores que le dicen al sistema qué sucesos ha de registrar. Un suceso que descargue una gran cantidad de energía en el detector, por ejemplo, es un disparador típico, pues es más probable que ocurran fenómenos nuevos a altas energías que a bajas. Establecer los disparadores es como para que a uno le entren sudores fríos. Si son demasiado laxos, abrumas la capacidad y la lógica de las técnicas de registro. Si los pones demasiado estrictos, puede que te pierdas alguna física nueva o que hayas hecho el experimento para nada. Hay disparadores que saltarán a «vale» cuando se detecte que de la colisión sale un electrón de mucha energía. A otro disparador le convencerá la estrechez de un chorro de partículas, y así sucesivamente. Lo normal es que haya de diez a veinte configuraciones diferentes de sucesos de colisión a los que se permite que activen un disparador. El número total de sucesos que los disparadores dejan pasar puede ser de 5.000 a 10.000 por segundo, pero el ritmo de sucesos es así lo bastante bajo (uno cada diezmilésima de segundo) para que dé tiempo a «pensar» y a examinar —¡ejem!; a que examine el ordenador— los candidatos con más cuidado. ¿Queréis de verdad registrar este suceso? El filtrado prosigue a través de cuatro o cinco niveles hasta que no queden más de unos diez sucesos por segundo.
Cada uno de esos sucesos se graba en una cinta magnética con todo detalle. A menudo, en las etapas donde rechazamos sucesos, se graba una muestra de, digamos, uno de cada cien para estudiarlos más adelante y determinar si se está perdiendo una información importante. El sistema entero de adquisición de datos (DAQ) es posible gracias a una alianza nada santa de los físicos que creen que saben lo que quieren saber, los inteligentes ingenieros electrónicos que se esfuerzan duramente por agradar y, ¡oh, sí!, una revolución en la microelectrónica comercial basada en los semiconductores.
Los genios de toda esta tecnología son demasiado numerosos para citarlos, pero, desde mi punto de vista subjetivo, uno de los innovadores más destacados fue un tímido ingeniero electrónico que trabajaba en una buhardilla del Laboratorio de Nevis de la Universidad de Columbia, donde yo me formé. William Sippach iba muy por delante de los físicos bajo cuyo control estaba. Nosotros dábamos las especificaciones; él diseñaba y construía el DAQ. Una y otra vez le llamaba a las tres de la madrugada quejándome de que habíamos dado con una seria limitación de su (siempre era suya cuando había un problema) electrónica. Él escuchaba tranquilamente y hacía una pregunta: «¿has visto un microconmutador que hay dentro de la placa de la cubierta del estante catorce? Actívalo y tu problema estará resuelto. Buenas noches». La fama de Sippach se extendió, y en una semana corriente se dejaban caer visitantes de New Haven, Palo Alto, Ginebra y Novosibirsk para hablar con Bill.
Sippach y muchos otros que contribuyeron a desarrollar estos complejos sistemas continúan una gran tradición que empezó en los años treinta y cuarenta, cuando se inventaron los circuitos de los primeros detectores de partículas, que, a su vez, se convirtieron en los ingredientes fundamentales de la primera generación de ordenadores digitales. Y éstos, por su parte, engendraron mejores aceleradores y detectores, que engendraron…
Los detectores son la última línea de todo este negocio.
Ahora sabéis todo lo que os hace falta saber de los aceleradores, o quizá más. Puede, de hecho, que sepáis más que la mayoría de los teóricos. No es una crítica, sólo un hecho. Más importante es lo que estas nuevas máquinas nos dicen acerca del mundo.
Como he mencionado, gracias a los sincrociclotrones de los años cincuenta aprendimos mucho sobre los piones. La teoría de Hideki Yukawa apuntaba que mediante el intercambio de una partícula de una masa concreta se podía crear una contrafuerza atractiva intensa que enlazaría a los protones con los protones, a los protones con los neutrones y a los neutrones con los neutrones. Yukawa predijo la masa y la vida media de la partícula que se intercambiaba: el pión.
La energía de la masa en reposo del pión es de 140 MeV, y en los años cincuenta se creaba prolíficamente en las máquinas de 300 a 800 MeV de los campus de universidades de distintas partes del mundo. Los piones se desintegran en muones y neutrinos. El muón, el gran problema de los años cincuenta, parecía ser una versión más pesada del electrón. Richard Feynman fue uno de los físicos prominentes que luchó agónicamente con esos dos objetos que se portaban en todos los aspectos de forma idéntica, sólo que uno pesaba doscientas veces lo que el otro. La resolución de este misterio es una de las claves de todo nuestro empeño, una pista hacia la propia Partícula Divina.
La siguiente generación de máquinas produjo una sorpresa generacional: al golpear el núcleo con partículas de mil millones de voltios pasaba «algo diferente». Repasemos lo que se puede hacer con un acelerador, sobre todo teniendo en cuenta que el examen final va a ser muy pronto. En esencia, la gran inversión en ingenio humano que se ha descrito en este capítulo —el desarrollo de los aceleradores modernos y de los detectores de partículas— nos permite hacer dos tipos de cosas: dispersar los objetos o —y esto es el «algo diferente»— producir objetos nuevos.
Dispersión. En los experimentos de dispersión miramos cómo se alejan las partículas en varias direcciones. La expresión técnica que designa el producto final de un experimento de dispersión es «distribución angular». Cuando se los analiza conforme a las reglas de la física cuántica, estos experimentos nos dicen mucho acerca del núcleo que dispersa a las partículas. A medida que la energía de la partícula de entrada procedente del acelerador aumenta, la estructura se enfoca mejor. Así conocimos la composición de los núcleos: los neutrones, los protones, la manera en que se disponen, el baile de San Vito con que mantienen la manera en que están dispuestos. Cuando aumentamos aún más la energía de nuestros protones, podemos «ver» dentro de los protones y de los neutrones. Cajas dentro de cajas.
Para que las cosas sean más simples, podemos usar como blancos protones sueltos (núcleos de hidrógeno). Los experimentos de dispersión nos dicen cuál es el tamaño del protón y cómo se distribuye en él la carga eléctrica positiva. Un lector inteligente nos preguntará si la sonda misma —la partícula que golpea el blanco— no contribuye a la confusión; la respuesta es que sí. Por eso usamos una variedad de sondas. Las partículas alfa de la radiación cedieron el paso a los protones y electrones disparados por los aceleradores, y más tarde usamos partículas secundarias: fotones que salían de los electrones, piones que salían de las colisiones de protones y núcleos. A medida que a lo largo de los años sesenta y setenta fuimos haciéndolo mejor, usamos partículas terciarias como partículas de bombardeo: los muones de las desintegraciones de los piones se convirtieron en sondas, lo mismo que los neutrinos de esa misma fuente, y también muchas otras partículas más.
El laboratorio del acelerador se convirtió en un centro de servicios con una variedad de productos. A finales de los años ochenta, la división de ventas del Fermilab anunciaba a los clientes potenciales que se disponía de los siguientes haces calientes y fríos: protones, neutrones, piones, kaones, muones, neutrinos, antiprotones, hiperiones, fotones polarizados (todos giran en la misma dirección), fotones marcados (sabemos sus energías), y si no lo ve, ¡pregunte!
Producción de partículas nuevas. Aquí el objetivo es hallar si un nuevo dominio de energía da lugar a la creación de partículas nuevas, que no se hayan visto nunca antes. Si hay una partícula nueva, queremos saberlo todo de ella: su masa, su espín, su carga, su familia y demás. Hemos de saber además su vida media y en qué otras partículas se desintegra. Por supuesto, hemos de saber su nombre y qué papel desempeña en la gran arquitectura del mundo de las partículas. El pión se descubrió en los rayos cósmicos, pero pronto hallamos que no llegan a las cámaras de niebla de la nada. Los protones de los rayos cósmicos procedentes del espacio exterior entran en la atmósfera de la Tierra, y en ella chocan con los núcleos de nitrógeno y de oxígeno (hoy tenemos también más contaminantes); en esas colisiones se crean los piones. El estudio de los rayos cósmicos identificó unos cuantos objetos raros más, como las partículas K+ y K− y los que recibían el nombre de lambda (la letra griega λ.) Cuando, a partir de mediados de los años cincuenta y, con creces, en los años sesenta, el dominio fue de los grandes aceleradores, se crearon varias partículas exóticas. El chorreo de objetos nuevos se convirtió enseguida en un diluvio. Las enormes energías de que se disponía en los aceleradores desvelaron la existencia no de una o cinco o diez, sino de cientos de partículas nuevas, en las que no había soñado, Horacio, apenas ninguna de nuestras filosofías. Estos descubrimientos fueron la obra de grupos, el fruto de la Gran Ciencia y de la aparición como hongos de tecnologías y métodos nuevos de la física experimental de partículas.
A cada objeto nuevo se le dio un nombre, por lo usual una letra griega. Los descubridores, generalmente una colaboración de sesenta y tres científicos y medio, anunciaban el nuevo objeto y daban todas las propiedades —masa, carga, espín, vida media y una larga lista de propiedades adicionales— que se conociesen. Pronunciaban entonces su «¡adelante!», juntaban doscientos dólares, escribían una tesis o dos y esperaban a que se les invitara a dar seminarios, a leer artículos en los congresos, a que se les promocionase, todo eso. Y más que nada, estaban ansiosos por seguir adelante y asegurarse de que otros confirmaban sus resultados, preferiblemente mediante alguna otra técnica, para que se minimizasen los sesgos instrumentales. Es decir, todo acelerador concreto y sus detectores tienden a «ver» los sucesos de una manera particular. Hace falta que el suceso sea confirmado por unos ojos diferentes.
La cámara de burbujas fue una técnica poderosa para el descubrimiento de partículas; gracias a ella se podían ver y medir los contactos estrechos con mucho detalle. Los experimentos donde se usaban detectores electrónicos apuntaban, por lo general, a procesos más específicos. Una vez una partícula se había hecho un hueco en la lista de objetos confirmados, se podían diseñar colisiones y dispositivos específicos que proporcionasen datos sobre otras propiedades, como la vida media —todas las partículas nuevas eran inestables— y modos de desintegración. ¿En qué se desintegraban? Un lambda se desintegra en un protón y un pión; un sigma, en un lambda y un pión; y así sucesivamente. Tabular, organizar, intentar que los datos no fueran abrumadores. Estas eran las líneas directrices para conservar la cordura a medida que el mundo nuclear exhibía una complejidad cada vez más profunda. Todas las partículas nombradas con una letra griega que se crearon en las colisiones regidas por la interacción fuerte recibieron la denominación colectiva de hadrones —la palabra griega que significa «pesado»—, y las había a cientos. No era eso lo que queríamos. En vez de a una sola partícula, minúscula, indivisible, la búsqueda del á-tomo democritiano había llevado hasta cientos de partículas pesadas y muy divisibles. ¡Qué desastre! De nuestros colegas de la biología aprendimos qué había que hacer cuando no se sabe qué hacer: ¡clasificar! Y nos abandonamos a la tarea. Los resultados —y las consecuencias— de esta clasificación se consideran en el capítulo siguiente.
Cerramos este capítulo con un nuevo punto de vista acerca de lo que realmente pasa en las colisiones de los aceleradores, que se nos ofrece como cortesía de nuestros colegas dedicados a la astrofísica. (Hay un pequeño grupo, pero muy divertido, de astrofísicos que se acurrucan tan a gusto en el Fermilab). Esta gente nos asegura —no tenemos razones para dudar de ellos— que el mundo se creó hace unos 15.000 millones de años en una explosión catastrófica, el big bang. En los primeros instantes tras la creación, el universo recién nacido era una sopa caliente y densa de partículas primordiales que chocaban entre sí con energías (que equivalen a temperaturas) muchísimo mayores que cualquiera que podamos siquiera soñar con reproducir, aun con una megalomanía aguda, ni a marchas forzadas. Pero el universo se enfría mientras se expande. En algún punto, unos 10−12 segundos después de la creación, la energía media de las partículas de la sopa caliente del universo se redujo a 1 billón de electronvoltios, o 1 TeV, que viene a ser la energía que el Tevatrón del Fermilab produce en cada haz. Por lo tanto, podemos ver los aceleradores como máquinas del tiempo. El Tevatrón reproduce, por un breve instante durante las colisiones frontales de los protones, el comportamiento del universo entero a la edad de «una billonésima de segundo». Podemos calcular la evolución del universo si conocemos la física de cada época y las condiciones que la época anterior les dejó.
Este uso como máquina del tiempo es en realidad un problema de los astrofísicos. Bajo circunstancias normales, a los físicos de partículas nos divertiría y halagaría, pero no nos preocuparía, que los aceleradores imitasen el universo primitivo. En los últimos años, sin embargo, hemos empezado a ver el nexo. Retrocediendo aún más en el tiempo, cuando las energías eran bastante mayores que 1 TeV —el límite de nuestro inventario actual de aceleradores—, se halla un secreto que hemos de desvelar. Ese universo anterior y más caliente contiene una pista crucial acerca de la madriguera de la Partícula Divina.
El acelerador en cuanto máquina del tiempo —la conexión astrofísica— es un punto de vista que hay que considerar. Otra conexión es la que plantea Robert Wilson, el vaquero constructor de aceleradores, que escribió:
Como suele ocurrir, las consideraciones estéticas y técnicas se combinaban de manera inextricable [en el diseño del Fermilab]. Hasta encontré, muy marcada, una extraña semejanza entre la catedral y el acelerador: el propósito de una de estas estructuras era alcanzar una altura espacial vertiginosa; el de la otra, alcanzar una altura comparable en energía. Sin duda, el atractivo estético de ambas estructuras es primariamente técnico. En la catedral, lo encontramos en la funcionalidad de la construcción basada en el arco ojival, en el empuje y el contraempuje tan viva y bellamente expresados, de manera tan impresionante utilizados. También hay una estética tecnológica en el acelerador. Como las agujas de la catedral caen abriendo su círculo, así giran en espiral las órbitas. Y hay un empuje eléctrico y un contraempuje magnético. Una y otro viven en permanente erupción que eleva su propósito y su función hasta que la expresión final se logre, pero esta vez se trata de la energía de un brillante haz de partículas.
Así arrebatado, le presté un poco más de atención a la construcción de la catedral. Hallé una chocante semejanza entre la estrecha comunidad de los constructores de catedrales y la comunidad de los constructores de aceleradores: unos y otros eran innovadores audaces, unos y otros eran fieros competidores dentro de sus naciones, y, sin embargo, en esencia, los unos y los otros eran internacionalistas. Me gusta comparar al gran Maitre d’Oeuvre, Suger de Saint Denis, con Cockcroft de Cambridge; o a Sully de Notre-Dame con Lawrence de Berkeley; y a Villard de Honnecourt con Budker de Novosibirsk.
A lo que yo sólo puedo añadir que hay este vínculo más profundo: tanto las catedrales como los aceleradores se construyen, con un precio muy alto, por una cuestión de fe. Aquéllas y éstos proporcionan elevación espiritual, trascendencia y, devotamente, revelación. Por supuesto, no todas las catedrales salieron bien.
Uno de los momentos gloriosos de nuestro negocio es la escena de la sala de control abarrotada, cuando los jefes, es un día especial, están ante la consola, atentos a las pantallas. Todo está en su sitio. El trabajo de tantos científicos e ingenieros durante tantos años está a punto de salir a la luz cuando se sigue al haz desde la botella de hidrógeno por la intrincada víscera… ¡Funciona! ¡El haz! En menos tiempo del que se tarda en decir hurra, el champán se vierte en las copas de Styrofoam, escritos el júbilo y el éxtasis en todos los rostros. En nuestra metáfora sacra, veo a los trabajadores colocando la última gárgola en su sitio mientras los sacerdotes, los obispos, los cardenales y el imprescindible jorobado se apiñan tensamente alrededor del altar, a ver si la cosa funciona.
Además de los GeV y sus otros atributos técnicos, se deben tener en cuenta las cualidades estéticas del acelerador. Dentro de miles de años, puede que los arqueólogos y los antropólogos juzguen nuestra cultura por los aceleradores. Al fin y al cabo, son las mayores máquinas que nuestra civilización haya construido.
Hoy visitamos Stonehenge o las Grandes Pirámides, y primero nos maravillamos por su belleza y por el logro técnico que supuso su construcción. Pero también tenían un propósito científico; eran unos «observatorios» burdos con los que se seguía el curso de los cuerpos astronómicos. Debemos, pues, emocionarnos también con el impulso que llevó a las culturas de la Antigüedad a erigir grandes estructuras para medir los movimientos de los cielos intentando comprender el universo y vivir en armonía con él. La forma y la función se combinaban en las pirámides y en Stonehenge para que sus creadores pudieran perseguir las verdades científicas. Los aceleradores son nuestras pirámides, nuestro Stonehenge.
El tercer final se refiere al hombre cuyo nombre lleva el Fermilab. Enrico Fermi, uno de los físicos más famosos de los años treinta, cuarenta y cincuenta. Era italiano, y su trabajo en Roma estuvo marcado por brillantes avances tanto en el experimento como en la teoría, y por una muchedumbre de estudiantes excepcionales reunidos en torno a él. Fue un maestro dedicado y dotado. Recibió el premio Nobel en 1938, y aprovechó la ocasión para escapar de la Italia fascista y establecerse en los Estados Unidos.
Su fama popular dimana de que encabezase el equipo que construyó en Chicago, durante la segunda guerra mundial, la primera pila nuclear con reacción en cadena. Tras la guerra, también reunió en la Universidad de Chicago a un brillante grupo de alumnos, tanto teóricos como experimentadores. Los alumnos de Fermi, los de su periodo romano y los de Chicago, se dispersaron por el mundo, y en todas partes escalaron puestos y ganaron premios. «Se puede reconocer a un buen maestro por el número de sus alumnos que son premios Nobel», dice un antiguo proverbio azteca.
En 1954 Fermi dio su conferencia de despedida como presidente de la Sociedad Física Norteamericana. Con una mezcla de respeto y sátira, predijo que en un futuro próximo construiríamos un acelerador en órbita alrededor de la Tierra, aprovechando el vacío natural del espacio. Observó también, esperanzadamente, que se podría construir sumando los presupuestos militares de los Estados Unidos y de la URSS. Con unos superimanes y mi calculadora de costes de bolsillo, me salen 50.000 TeV con un coste de 10 billones de dólares, sin incluir descuentos con la cantidad. ¿Qué mejor forma habría de devolver al mundo la cordura que haciendo de las espadas aceleradores?