14
En 1967, tras haber pasado varios años trabajando juntos, Fred Mosteller y John Tukey, convertidos ya en viejos amigos, se deleitarían rememorando «la batalla librada por la regla de Bayes, que lleva más de dos siglos dejando oír su encarnizado estrépito, unas veces de manera violenta, otras cubierta de acentos casi plácidos […], en una mezcla de vacilación y de vigor». Thomas Bayes había dado la espalda a su propia creación. Un cuarto de siglo más tarde, Laplace la exaltaba. En el transcurso del siglo XIX, el teorema de Bayes vendría a conocer un doble destino, ya que si por un lado se iba a recurrir con notable frecuencia a él, tampoco se iba a dejar de cubrirlo de críticas por otro. Ridiculizada a principios del siglo XX, se emplearía con apremiante secretismo durante la segunda guerra mundial, utilizándose más tarde con un empuje asombroso y con una condescendencia no menos sorprendente.[14.1] Sin embargo, en la década de 1970 el destino de la regla de Bayes parecía haberse empantanado en una irremediable calma chicha.
Una serie de circunstancias —como la pérdida de todo liderazgo, un encadenado conjunto de cambios profesionales y la ocurrencia de diferentes transformaciones geográficas— vendrían a contribuir al abatimiento. Jimmie Savage, principal portavoz estadounidense del teorema de Bayes, al que defendía por ser un sistema de carácter tan lógico como general, fallecería de un ataque al corazón en el año 1971. Tras la desaparición de Enrico Fermi, Harold Jeffreys y el físico estadounidense Edwin T. Jaynes harían campaña, aunque en vano, en favor del método de Bayes, intentando promocionarlo en el ámbito de las ciencias físicas. Edwin Thompson Jaynes —que acostumbraba a decir que siempre daba en preguntarse qué habría hecho Laplace en su lugar antes de abordar cualquier forma de resolución de un determinado problema práctico— se granjearía la antipatía de muchos de sus colegas a causa de su fervor bayesiano. Dennis Lindley, que se estaba dedicando a levantar pacientemente una serie de departamentos de estadística bayesiana en el Reino Unido, abandonaría la administración en el año 1977 para dedicarse a la investigación independiente. Jack Good dejaría las hipersecretas agencias de codificación y decodificación británicas para pasar a integrarse en el mundo académico a través del Instituto Politécnico de Virginia y la universidad de ese mismo estado. Albert Madansky, que había confesado apreciar toda técnica que se revelase operativa, dejaría atrás la Corporación RAND para zambullirse en la empresa privada e incorporarse más tarde a la Escuela de Negocios de la Universidad de Chicago, institución en la que, según afirmaba, encontraba más aplicaciones prácticas para sus métodos que en los departamentos de estadística. George Box acabaría interesándose en los controles de calidad de los sistemas de producción fabril, pasando con el tiempo a asesorar, junto a William Edwards Deming y otros, a la industria automovilística japonesa. Howard Raiffa también cambiaría de tercio, pasando a ocuparse de gestionar las medidas políticas de carácter público, mientras que Robert Schlaifer, el bayesiano carente de sólidos conocimientos matemáticos, se aventuraba por su parte en el mundillo de la programación informática.
En la década de 1970, época en la que James O. Berger se convertiría al bayesianismo, la comunidad de estadísticos fieles al teorema de Bayes era todavía tan reducida que resultaba virtualmente posible tener presente de un solo vistazo el conjunto de sus actividades. La primera conferencia internacional sobre la regla de Bayes se celebraría en el año 1979 en Valencia, España, y a ella habrían de acudir prácticamente todos los bayesianos de reconocido prestigio del momento —cuya cifra total no superaba probablemente el centenar de personas.
El mesiánico sueño de que la regla de Bayes acabara reemplazando al frecuentismo se había esfumado. Los pragmatistas que abogaban por la universalización de los métodos estadísticos defendían la idea de que era preciso establecer una síntesis que viniera a unir el sistema bayesiano con el no bayesiano. Según Mosteller y Tukey —que coincidían en esto claramente—, el ideal menos controvertido a este respecto sería el de llegar a una de estas dos soluciones: bien la de unas probabilidades a priori basadas en los datos de frecuencia, bien el establecimiento de un a priori «amable» fundado en creencias pero capaz de experimentar modificaciones drásticas en función de la nueva información.
En el año 1978, al redactar George E. P. Box, J. Stuart Hunter y William G. Hunter la obra titulada Statistics for Experimenters, los tres autores omitirían deliberadamente toda referencia a la regla de Bayes, considerando que se trataba de un método demasiado polémico como para resultar comercialmente interesante. Despojado de la terrible «palabrota» que empieza con la letra «B», el libro revelaría ser un gran éxito de ventas. Lo que parece irónico en este caso es que, un año más tarde, uno de los filósofos de Oxford, Richard Swinburne, no pusiera tantos reparos al llegar el momento de utilizar ese mismo vocablo, ya que decidiría incluir en el teorema de Bayes toda una serie de opiniones personales, tanto en la corazonada inicial como en un conjunto de datos supuestamente objetivos, a fin de llegar a la conclusión de que había más de un cincuenta por ciento de probabilidades de que Dios existiera. Más tarde, Swinburne procedería a estimar las posibilidades de que Jesús resucitara, situándolas «en un entorno próximo al noventa y siete por ciento». Se trataba en ambos casos de cálculos que ni al reverendo Thomas Bayes ni a su correligionario y amigo Richard Price se les había pasado por la cabeza efectuar, de modo que serían muy numerosas las personas —y muchas de ellas no versadas en estadística— las que dieran en considerar que el hecho de que Swinburne no se hubiera tomado la molestia de realizar unas valoraciones cuidadosas venía a suponer una mancha para la propia regla de Bayes.
A lo largo de todo este período, el bastión del frecuentismo que defendía Jerzy Neyman en la Universidad de Berkeley seguiría siendo el más exclusivo centro estadístico de los Estados Unidos. El vasto departamento de estadística de la Universidad de Stanford —impulsado por Charles Stein y otros catedráticos de la Universidad de California que se habían negado a firmar el juramento de lealtad impuesto en los prolegómenos de la era McCarthy— también se mostraría vehementemente frecuentista, hasta el punto de que la puerta del despacho de los profesores solía aparecer adornada con emblemas de carácter anti-bayesiano.
Los bayesianos iban a la deriva, logrando a duras penas mantenerse a flote. Lo que estaban haciendo, casi sin darse cuenta, era esperar a que llegara el momento en que los ordenadores pudieran adquirir la complejidad suficiente como para ponerse a la altura de las exigencias de su método. Pero al no existir ordenadores potentes y accesibles, ni programas lógicos útiles y económicos, eran muchos los estadísticos —tanto bayesianos como anti-bayesianos— que habían abandonado todo intento de encontrar aplicaciones realistas para sus conocimientos, replegándose en consecuencia al ámbito de la matemática teórica. Herman Chernoff, cuyos trabajos estadísticos habrían de emanar en muchas ocasiones de los problemas que le encargaba resolver la Oficina de Investigación Naval de la armada estadounidense, se impacientaría a tal punto con los teoréticos enzarzados en sus elucubraciones y generalizaciones, cada vez más complejas, que en el año 1974 decidiría abandonar la Universidad de Stanford e incorporarse al Instituto Tecnológico de Massachusetts, pasando posteriormente a engrosar las filas de la Universidad de Harvard. «Habíamos llegado a una época», comentará más tarde, «en la que se hacía preciso utilizar de un modo mucho más intenso los ordenadores, por no mencionar que también teníamos que realizar muchos más trabajos de carácter práctico […]. Yo estaba convencido de que, en el futuro, nuestro campo de estudio debería tener un contacto mucho más intenso con las aplicaciones del mundo real si realmente deseábamos obtener indicaciones que vinieran a señalarnos cuál era la vía a seguir —al menos estaba claro que era mejor eso que seguir concentrándonos en la realización de nuevos desarrollos teóricos—.» Chernoff no era un estadístico bayesiano, pero en una ocasión diría a la estadística Susan Holmes, que por entonces daba sus primeros pasos en la profesión, que la mejor manera de hacer frente a un problema difícil consistía en «empezar enfocándolo desde un punto de vista bayesiano, ya que así obtendrás la respuesta correcta. Y una vez hecho eso podrás justificarlo del modo que más te guste».[14.2]
En el seno de los círculos bayesianos se seguían defendiendo los distintos pareceres con gran vehemencia. En el año 1976, Jim Berger asistiría a la primera conferencia bayesiana de su vida, quedando conmocionado al ver que la mitad de la sala comenzaba a dirigirse a gritos a la otra mitad. Todo el mundo parecía comportarse amistosamente, pero los a priori que manejaban eran muy diferentes, lo cual dividía a los bayesianos en distintos grupos de adeptos, como el de los que preferían los a priori personales y subjetivos —tal era el caso de Savage, por ejemplo— o el de los que optaban por los de carácter objetivo —entre los que se contaba Jeffrey—, y lo cierto era que nadie disponía de ningún experimento diacrítico que permitiera a la disciplina zanjar el asunto. Good deambularía eclécticamente de uno a otro bando.
Se generaría así un frustrante círculo vicioso en el que todo el mundo culpaba a todo el mundo. En este sentido, Persi Diaconis quedaría aturdido y molesto al comprobar que John Pratt se había valido de los métodos frecuentistas para analizar las cifras de asistencia a las salas cinematográficas que promocionaba su esposa —decisión que Pratt había adoptado porque la cantidad de datos implicados superaba con mucho lo que los ordenadores de esa época eran capaces de manejar—. Sin embargo, el propio Diaconis habría de pasar por amargas experiencias propias en este sentido, y una de las peores fue de hecho la que le tocó vivir en una cafetería de la Universidad de Berkeley en la que se había atrincherado para corregir las galeradas de uno de sus artículos. Al ver Lindley lo que estaba haciendo, le echó en cara que hubiese utilizado métodos frecuentistas en aquel trabajo. «Y eso que tú eres nuestro más destacado bayesiano», se quejaría Lindley.[14.3] No obstante, el propio Lindley vendría a provocar a su vez el malestar de Mosteller al dejar pasar la oportunidad de embarcarse en un ambicioso proyecto y emplear en él la regla de Bayes en lugar del sistema frecuentista. Toda ocasión perdida de utilizar el teorema de Bayes constituía un serio revés para la causa, y obviamente un motivo de recriminación. Llegado el año 1978, los frecuentistas que seguían la línea de Neyman y Pearson tenían a los bayesianos «incómodamente dominados», mientras que un tercer grupo en discordia, el de los partidarios de Fisher, «ponía alternativamente en jaque a uno y otro bando».[14.4]
Pocos teoremas pueden alardear de semejante historia. Los bayesianos habían logrado desarrollar un amplio sistema teórico y metodológico, pero las perspectivas de llegar a probar algún día su eficacia parecían francamente deprimentes. De Finetti llegó a predecir que el paradigma dominante en el ámbito estadístico vendría a experimentar un giro que lograría elevar a lo más alto a los métodos bayesianos en el plazo de cincuenta años —lo que daba en situar su triunfo más allá del año 2010—. El frecuentista Bradley Efron, de la Universidad de Stanford, estimaba que las probabilidades de que el siglo XXI perteneciera por entero a los bayesianos se situaban en un quince por ciento —cifra que resultaba extremadamente baja.
En una ocasión en la que se estaba dedicando al politiqueo en defensa de la regla de Bayes, Lindley acabaría afirmando que «el cambio se está verificando a un ritmo mucho más lento del que yo había imaginado […]. Está siendo un proceso muy premioso […]. Yo había supuesto ingenuamente que si dedicaba una hora de mi tiempo a charlar con un estadístico juicioso y le explicara los argumentos en que se sustentan los beneficios de la regla de Bayes, mi interlocutor no tardaría en aceptar mis razonamientos y se pasaría a nuestro bando. Pero no es eso lo que en realidad sucede. La gente no funciona de esa manera […]. Creo que es mucho más probable que el vuelco se produzca gracias al papel que desempeñan los estadísticos prácticos que por medio de las acciones que puedan venir a efectuar los de carácter teorético». Y al preguntársele de qué forma podría estimularse el uso de la teoría bayesiana, Lindley no tendría empacho en responder ásperamente: «Bastará con acudir a su funeral».[14.5]
Hallándose pues en el limbo la teoría bayesiana, resulta comprensible que las apariciones públicas del método fuesen no sólo escasas sino también muy espaciadas. Por consiguiente, al encargar el Congreso de los Estados Unidos el primer estudio de índole general sobre la seguridad potencial de las plantas nucleares se planteó la siguiente interrogante: ¿se atrevería alguien a pronunciar siquiera el nombre de Bayes, y no digamos ya a emplear de facto dicho método?
En el año 1953, el presidente Eisenhower había puesto en marcha la industria de la energía nuclear al pronunciar el célebre discurso de «Átomos para la paz». Veinte años después, pese a que no se hubiera realizado todavía ningún estudio general de los riesgos que pudiera implicar para la salud pública o la integridad del entorno la implantación de las centrales nucleares, eran ya varias las compañías privadas que se dedicaban a explotar las cincuenta plantas nucleares de producción de energía que poseían en los Estados Unidos. Sin embargo, al iniciarse en el Congreso estadounidense un debate relacionado con la procedencia o improcedencia de absolver a los propietarios y a los operadores de las centrales de toda responsabilidad en caso de accidente, la Comisión Estadounidense de la Energía Atómica decidió finalmente tomar cartas en el asunto y ordenar la realización de un estudio de seguridad.
En este sentido, resultaría significativo que el hombre a quien se designara para llevar a cabo dicho estudio no fuera un estadístico, sino un físico e ingeniero llamado Norman Carl Rasmussen. Nacido en la localidad de Harrisburg, Pensilvania, en el año 1927, Rasmussen había prestado servicio en la marina durante un año al término de la segunda guerra mundial, graduándose en el Gettysburg College en 1950 y obteniendo el título de doctor en física nuclear experimental de baja energía por el Instituto Tecnológico de Massachusetts en 1956. Rasmussen se dedicaría allí a la enseñanza de la física hasta el año 1958, fecha en la que el Instituto daría en crear uno de los primeros departamentos de ingeniería nuclear de los Estados Unidos.
Lo cierto es que, en la fecha en la que se asignó a Rasmussen la tarea de ponderar la seguridad de la industria dedicada a la producción de energía nuclear, no se había producido jamás un accidente en una central de ese tipo. Convencidos de que un accidente de esa índole resultaría catastrófico, los ingenieros tendían a diseñar las centrales de acuerdo con criterios muy conservadores, y el gobierno regulaba además su funcionamiento de forma muy severa.
Al carecer de todo dato relacionado con la fusión del núcleo de una central de energía atómica, Rasmussen decidió actuar como ya lo había hecho en su día Madansky en la Corporación RAND al estudiar la posibilidad de que se produjeran accidentes en el transporte o en el manejo de las bombas de hidrógeno. Tanto Rasmussen como sus colegas tuvieron que analizar los índices de fallo potencial de las bombas de refrigeración, de las válvulas de los aliviaderos y de otras piezas del equipo de las plantas. Al comprobar que el estudio de estas tasas de fallo tampoco bastaba para generar el suficiente material estadístico como para establecer alguna conclusión, el grupo de Rasmussen decidió recurrir a dos fuentes de información totalmente incendiarias: la opinión de los expertos y el análisis bayesiano.
Hacía ya mucho tiempo que los ingenieros venían confiando en el buen juicio de los profesionales, pero lo cierto era que los frecuentistas consideraban que esos pareceres no sólo tenían un carácter subjetivo sino que no se revelaban susceptibles de repetición, de modo que optaron por proscribir su uso. Y para complicar aún más las cosas, la experiencia de la guerra del Vietnam había puesto fin a la seducción que habían estado ejerciendo en los Estados Unidos los oráculos de los expertos y los gabinetes estratégicos. La confianza en los líderes se había desplomado por completo, y la sensación que había venido a instalarse en su lugar en el seno de la opinión pública era la de una «radical presunción de que las instituciones se hallaban plagadas de fallos». La fe en la tecnología también había disminuido. En el año 1971, el Congreso cancelaría su participación en la construcción de un avión supersónico de pasajeros, el SST[14.i] —siendo ésta una de las pocas ocasiones en que los Estados Unidos darían en rechazar la aplicación de una importante y novedosa tecnología—. Por lo demás, los activistas que esgrimían el lema No Nukes[14.ii] habían comenzado ya a organizar manifestaciones en todo el país.
Al carecer de toda prueba directa de la ocurrencia de un accidente nuclear, el equipo de Rasmussen tuvo la sensación de que no le quedaba más remedio que solicitar la opinión de los expertos. Ahora bien, ¿cómo iban a poder combinar el juicio de los entendidos con los índices de fallo de las diversas piezas de una central? Por regla general, el teorema de Bayes solía ofrecer un medio para proceder a esa combinación. Sin embargo, los miembros del grupo de Rasmussen consideraban que ya eran bastantes las polémicas que se les echaban encima por el hecho de tener que ocuparse de la energía nuclear, así que no tenían ninguna gana de aumentar las controversias abrazando el teorema de Bayes. Lo último que necesitaban era una discusión relacionada con sus métodos.
Para evitar el empleo de la ecuación de Bayes, Rasmussen y sus ayudantes optaron entonces por emplear los árboles decisionales de Raiffa. Raiffa era un misionero bayesiano, y sus árboles hundían sus raíces en el método del pastor inglés, pero lo cierto era que eso carecía de importancia. Los miembros del equipo de Rasmussen decidieron evitar toda mención a términos como el de «regla de Bayes», así que prefirieron decir que su método constituía un enfoque subjetivista. Creyeron que el hecho de mantenerse al margen del teorema de Bayes les evitaría tener que considerarse bayesianos.
El informe final del comité, redactado en el año 1974, estaba repleto de incertidumbres bayesianas y de distribuciones de probabilidad relativas a los índices de fallos de las piezas de las centrales y a los porcentajes de errores humanos estimados. Los frecuentistas no asignaban distribuciones de probabilidad a las incógnitas. Con todo, la única referencia a la regla de Bayes quedó relegada a un rinconcito apenas visible del Apéndice III: «El hecho de tratar los datos al modo de otras tantas variables aleatorias se asocia en ocasiones con el enfoque bayesiano […]. [Y lo cierto es que] también puede emplearse la interpretación bayesiana».[14.6]
Sin embargo, el celo puesto en la evitación de la palabra «Bayes» no conseguiría impedir que se vertieran críticas sobre el informe. Pese a que varios estudios posteriores aprobaran el uso que se había hecho de las «probabilidades subjetivas», la verdad era que algunas de las estadísticas contenidas en el informe resultaban rotundamente erróneas. Cinco años más tarde, en enero de 1979, la Comisión Reguladora de la Energía Nuclear de los Estados Unidos retiró el apoyo que había venido brindando hasta entonces al estudio. De este modo, el Informe Rasmussen pareció abocado al olvido.
O esa impresión se tendría al menos durante los dos meses posteriores al desaire de la citada Comisión Reguladora, puesto que transcurrido ese plazo, el núcleo del segundo reactor nuclear de la central de la Isla de las Tres Millas quedaría dañado como consecuencia de un grave accidente. Casi al mismo tiempo, Jane Fonda estrenaba una película extremadamente taquillera titulada El síndrome de China, en la que se abordaba un tema candente: el de los encubrimientos de seguridad vinculados con la ocurrencia de accidentes en las centrales nucleares. La industria de la energía nuclear civil de los Estados Unidos se desplomó en lo que habría de ser uno de los más notables reveses jamás sufridos por el capitalismo de ese país. Pese a que en el año 2003, aproximadamente el veinte por ciento de la energía eléctrica de la nación procediera de las ciento cuatro plantas nucleares distribuidas por el conjunto de los estados de la Unión, lo cierto es que en el momento de escribir estas líneas lleva sin ordenarse la construcción de una nueva central nuclear desde el año 1978.
La Isla de las Tres Millas vendría a insuflar nueva vida al Informe Rasmussen y al hecho de que se hubiese recurrido en él al análisis subjetivista. Una vez producido el accidente, las averiguaciones y las predicciones realizadas por el comité adquirieron un cariz premonitorio. Los expertos que se habían ocupado anteriormente del problema habían pensado que las probabilidades de que se produjera un grave daño en el núcleo de un reactor eran extremadamente bajas y que sus efectos, caso de ocurrir la fusión, serían catastróficos. Sin embargo, el Informe Rasmussen había llegado a la conclusión opuesta: la probabilidad de que el núcleo de un reactor nuclear sufriera una alteración severa se revelaba según sus datos mayor de lo esperado, pero las consecuencias no tenían por qué resultar dantescas en todos los casos. El informe también había conseguido identificar dos problemas significativos que habían desempeñado un importante papel en el accidente de la Isla de las Tres Millas: el error humano por un lado, y la liberación de radiactividad al medio exterior al edificio por otro. El estudio había sabido identificar incluso la secuencia de acontecimientos que había venido a provocar en último término la ocurrencia del accidente. Habría que esperar hasta el año 1981 para que dos estudios respaldados por la industria del sector vinieran a emplear finalmente el teorema de Bayes y lo admitieran. Los analistas lo utilizarían para combinar las probabilidades de que se produjeran fallos en el equipamiento técnico de las centrales con la información específica procedente de dos plantas nucleares concretas: la de Zion, situada al norte de Chicago, y la de Indian Point, junto al río Hudson, treinta y ocho kilómetros al norte de la ciudad de Nueva York. Desde entonces, los métodos de análisis cuantitativo del riesgo y los estudios probabilísticos vinculados con la seguridad de unas determinadas instalaciones han venido utilizando tanto los métodos frecuentistas como los bayesianos para valorar la presencia o la ausencia de riesgos en el ámbito de la industria química, de las centrales nucleares, de los depósitos de residuos peligrosos, de la liberación de material radiactivo procedente de las plantas de producción de energía nuclear, de la contaminación de Marte por microorganismos terrestres, de la destrucción de puentes y de la investigación relacionada con los depósitos minerales. Además, para gran alivio de la industria, el análisis de riesgos también se está centrando actualmente en la identificación de aquellas normativas supuestamente inútiles que podrían abandonarse de confirmarse su inoperancia.
La estimación subjetiva todavía sigue constituyendo una preocupación para muchos especialistas e ingenieros pertenecientes al campo de las ciencias físicas, dado que no les agrada la idea de mezclar con fines científicos la información objetiva con la subjetiva. Sin embargo, ya no es necesario —ni posible— evitar pronunciar la palabra «Bayes».