10
En agudo contraste con la extrema confidencialidad del informe que Madansky había realizado acerca de la bomba de hidrógeno, el cisma que separaba a los frecuentistas, perfectamente atrincherados en sus posiciones, y a los bayesianos, tenidos por unos advenedizos, estaba empezando a adquirir tintes de total y absoluto escándalo. Como de costumbre, la manzana de la discordia giraba en torno al carácter subjetivo de la molesta probabilidad a priori de Thomas Bayes. La idea de incluir en los cálculos un conocimiento que no tuviera su origen en los datos estadísticos disponibles constituía un anatema para el dúo de antibayesianos formado por Fisher y Neyman. Y dado que ambos estaban sacando conclusiones y haciendo predicciones sobre la base de los datos recogidos sin recurrir a ninguna cuota probabilística a priori, los teoréticos bayesianos, que no tenían más remedio que ponerse a la defensiva, hacían todo lo posible por evitar por completo la utilización de probabilidades a priori.
A lo largo de la década de 1960, las teorías bayesianas iban a proliferar con imponente profusión, hasta el punto de que Jack Good llegaría a afirmar haber contado «al menos cuarenta y seis mil seiscientas cincuenta y seis interpretaciones diferentes», cifra que superaba con mucho el número de estadísticos que había por entonces en todo el mundo.[10.1] Entre esas múltiples versiones figuraban las de las visiones subjetiva, personalista y objetiva de la regla de Bayes, amén del bayesianismo empírico, el bayesianismo semiempírico, el semibayesianismo, el bayesianismo epistémico, el intuicionista, el lógico, el confuso, el jerárquico, el seudo-bayesianismo, el cuasi-bayesianismo, el bayesianismo compuesto, el paramétrico, el no paramétrico, el hiper-paramétrico y el no hiper-paramétrico. En muchos casos, las variantes no presentaban atractivo sino a ojos de sus propios creadores, y de hecho algunos de los estadísticos modernos sostienen que todas aquellas sutilezas apenas contribuyeron a generar ramas revolucionarias de la teoría bayesiana. En una ocasión en que se le preguntó cuál era la mejor manera de distinguir a un bayesiano de otro, un bioestadístico soltó esta ocurrencia: «Se les puede diferenciar por sus posteriores».[10.i]
Tras haber pasado prácticamente desapercibida en medio del alboroto de las reyertas entre frecuentistas y bayesianos, la vieja expresión «probabilidad inversa» estaba empezando a desaparecer, siendo sustituida por un término moderno: el de «inferencia bayesiana». Además, al ir imponiéndose la lengua inglesa en todos los círculos estadísticos de posguerra, los artículos de los teóricos británicos comenzaron a parecer bastante más importantes que los que Laplace escribiera en francés. Como dice Glenn Shafer de la Universidad Rutgers, «buena parte de lo que se ha escrito acerca de la historia de la probabilidad ha sufrido una distorsión derivada del predominio de los puntos de vista centrados en la perspectiva inglesa».[10.2] No obstante, es muy posible que en este cambio interviniera algo más que el lenguaje. En 2008, teniendo ya ochenta y cinco años, el inglés Dennis Lindley afirmaría que se hallaba prácticamente convencido de que Laplace era más importante que Thomas Bayes: «Bayes resolvió un problema de corto alcance; Laplace en cambio solventó muchos, incluso en el ámbito de la probabilística […]. Es posible que el hecho de que yo desconozca el trabajo del sabio francés tenga un origen cultural, dado que sus escritos no ocuparon un lugar destacado en la formación matemática que recibí». Más tarde, Lindley añadiría, con su característica honradez, la siguiente apostilla: «Sin embargo, he de reconocer mis prejuicios: los franceses nos abandonaron a nuestra suerte durante la segunda guerra mundial, y además tuvimos que sufrir al espantoso De Gaulle».[10.3]
En Inglaterra, el germen de la regla de Bayes habría de prender incluso en el seno de la familia de Fisher. George E. P. Box, el joven químico que había tenido que simular que se proponía entregar un caballo en las inmediaciones del domicilio de Fisher para poder visitarle durante la segunda guerra mundial, acabaría convirtiéndose en su yerno. Al igual que Fisher, Box llegaría a la conclusión de que la estadística debía estrechar sus relaciones con la ciencia más que con la matemática. Este punto de vista terminaría consolidándose aún más al trabajar posteriormente Box para las Industrias Químicas Imperial, un gigante del sector, e introducirse también en el movimiento en favor de la adopción de medidas de control de calidad, cosa que haría al asociarse a W. Edwards Deming y participar en la industria automovilística japonesa.
En el año 1960, Box se encargaría de crear el departamento de estadística de la Universidad de Wisconsin, comenzando a dar clases por primera vez en un curso denominado «Fundamentos de estadística». Él mismo recuerda que «solía preparar mis notas con todo cuidado, semana tras semana. Sin embargo, cuanta más atención ponía en elaborarlas tanto más me convencía de que las materias estándar que había estudiado con Egon Pearson estaban equivocadas. De este modo, mi curso empezó a adquirir un sesgo bayesiano cada vez más pronunciado […]. La gente solía tomárselo a chacota y decía que todo aquello no eran más que pamplinas».[10.4]
Al dedicarse a ayudar a los científicos que no contaban sino con muy escasos datos, Box descubriría que la estadística tradicional generaba unas soluciones confusas y muy poco satisfactorias. Con todo, el frecuentismo funcionaba adecuadamente en aquellos casos especiales en que los datos se agrupaban formando curvas probabilísticas de Gauss y en que se suponía además que los valores medios venían a ser la expresión de la media estadística. Así las cosas, Box resumiría la situación puntualizando que «a mis ojos, la comparación de las medias me pareció correcta hasta [que descubrí a] Stein».[10.5]
La paradoja de Stein daba en cuestionar todas esas medias. Charles Stein era un estadístico teorético que había estado reflexionando acerca de una idea que parecía sumamente sencilla: la de la estimación de una media. Los estadísticos no se ocupaban de los individuos, ya que su sustento principal provenía del cálculo de un valor medio en el que viniera a condensarse la esencia de un vasto volumen de información. La pregunta que llevaban siglos tratando de resolver consistía en determinar qué valor medio revelaba ser el más adecuado para resolver un problema concreto. En el curso de sus investigaciones, Stein descubrió un método que, irónicamente, generaba unas predicciones más exactas que las derivadas de los promedios simples. Los estadísticos decidieron darle el nombre de paradoja de Stein, pero el creador del método mismo prefería llamarlo «contracción». Siendo un teórico que basaba sus análisis en el frecuentismo, Stein se guardó muy mucho de exponer y de debatir la relación existente entre su método y el de Bayes.
No obstante, la paradoja de Stein funciona cuando se procede a efectuar comparaciones entre estadísticas relacionadas entre sí, como ocurre, pongo por caso, con la producción de huevos de varias razas de gallinas distintas, con el cálculo del promedio de bateos de diversos jugadores de béisbol, o aun con el análisis de las indemnizaciones por los riesgos que asumen los trabajadores de una compañía de reparación de tejados. Tradicionalmente, por ejemplo, los granjeros que dan en comparar la producción de huevos de cinco razas de gallinas ponedoras diferentes acostumbran a estimar por separado el promedio de huevos que es capaz de poner cada una de las razas. ¿Pero qué ocurriría si un viajante avícola anunciara disponer de una raza de gallinas supuestamente integrada por aves capaces de poner un millón de huevos cada una? Dado el conocimiento que previamente habían ido acumulando en relación con la cría de aves de corral, los granjeros se reirían de él a carcajadas y le echarían sin contemplaciones de la ciudad. Los bayesianos comprendieron que, al igual que los granjeros, Stein había ponderado sus medias con una especie de superdistribución o hiperdistribución vinculada tanto con las características propias de los pollos como con la información relativa a las capacidades ponedoras inherentes a cada una de las razas de gallinas —datos que nunca antes se habían tenido en cuenta—. Y uno de los elementos intrínsecamente asociados con la cría de aves de corral es el hecho de que no hay ninguna gallina que pueda poner un millón de huevos.
De manera similar, el sistema de Stein utilizaba la información disponible a priori para explicar el hecho de que un bateador que hasta un determinado momento se hubiera revelado más bien mediocre comenzara la nueva temporada de béisbol acertando a golpear adecuadamente la bola en el cuarenta por ciento de los intentos, lo que sin duda es una cantidad espectacular. La paradoja de Stein indica a los aficionados que no deben olvidar los conocimientos que previamente han adquirido acerca del deporte del béisbol y que han de tener asimismo presentes los promedios de bateo de otros jugadores.
En el año 1961, al simplificar este método Willard D. James y el propio Charles Stein, se produciría otra sorpresa, dado que se llegaría a la misma fórmula de base bayesiana que ya habían empleado varias décadas antes los actuarios de las compañías aseguradoras para valorar las primas de las pólizas de cobertura de los accidentes laborales. El teorema de la credibilidad actuarial de Albert Wurts Whitney se expresaba del siguiente modo: x = P + z (p − P), mientras que la notación del principio de Stein y James era ésta: z = ȳ + c (ȳ − y) —y como puede verse, se trata de dos fórmulas idénticas escritas no obstante con símbolos y nombres diferentes—. En ambos casos, se concentraban los datos derivados de una serie de cantidades relacionadas y se les dotaba de una mayor credibilidad o se los contraía hasta lograr que se agruparan en horquillas más estrechas en torno a la media estadística. Gracias a ello, los actuarios podían hacer predicciones más precisas acerca del futuro bienestar de los trabajadores de toda una amplia gama de categorías industriales. Sólo Arthur Bailey se había percatado de que dicha fórmula era de raíz bayesiana, comprendiendo asimismo que también podría aplicarse con idéntica validez en situaciones ajenas al mundo de los seguros.
Los bayesianos, encantados, comenzaron a reivindicar que Stein estaba empleando el contexto conocido como a priori de las cifras que tenía que manejar para reducir la gama de respuestas posibles y realizar mejores predicciones. No obstante, Stein seguiría considerando que los a priori «negativos» y subjetivos del marco filosófico de Bayes resultaban «totalmente inadecuados».[10.6]
Box, que creía que Stein habría hecho mejor en admitir que su método era de origen bayesiano, comenzó a pensar inmediatamente en otras relaciones que funcionaban de la misma manera. La producción diaria de huevos correspondiente a un lunes guarda relación con la puesta del martes, y ésta con la del miércoles y con la del jueves. En este caso, el vínculo existente entre los diferentes elementos considerados se concreta en una serie temporal, de modo que las sucesivas observaciones tienden a encontrarse en una situación de mutua correlación, de la misma manera que el día de mañana tiende a parecerse bastante a la jornada de hoy. Sin embargo, Box descubrió con regocijo que el hecho de analizar una serie temporal con métodos bayesianos permitía mejorar las predicciones, y que sin dichos métodos la paradoja de Stein no resultaba operativa al aplicarla al estudio de las series temporales. Así lo explicaba el propio Box: «Si alguien se presenta en tu oficina con una secuencia de números y te pide que los analices, lo más razonable es preguntar de dónde proceden esas cifras y cuál es el vínculo que las enlaza. Es preciso tener en cuenta el elemento cualitativo que determina que esos números resulten comparables. No se pueden sacar los números de su contexto».[10.7]
Los frecuentistas y los bayesianos habrían de polemizar durante años en torno a la paradoja de Stein, debido en parte a que ninguno de los dos bandos parecía tener toda la razón ni hallarse tampoco totalmente equivocado. Sin embargo, Box era un bayesiano convencido, llegando a componer incluso una cancioncilla festiva con la melodía del conocido tema de «There’s No Business like Show Business». Así decía una de sus estrofas:
No hay teorema como el teorema de Bayes
pues a ningún otro teorema conocido se parece.
En él todo resulta atrayente,
todo en él es cautivador.
No temáis expresar esa sensación del a priori
que habéis estado ocultando hasta la fecha.
… No hay teorema como el teorema de Bayes
pues a ningún otro teorema conocido se parece.[10.8]
A medida que las interpretaciones bayesianas fueran multiplicándose como conejos y brotando como hongos en los lugares más insospechados, como era el caso de la paradoja de Stein, comenzarían a aparecer fisuras en la teoría que más valoraba el propio Fisher: la probabilidad fiduciaria. Fisher había introducido ese método como alternativa a la regla de Bayes en el transcurso del debate que había mantenido con Karl Pearson en el año 1930. Sin embargo, en 1958 Lindley lograría mostrar que en caso de emplearse a priori uniformes, la probabilidad fiduciaria de Fisher y la inferencia bayesiana generaban soluciones idénticas.
Además, también se produciría otra fisura al deducir Allan Birnbaum el principio de probabilidad de George A. Barnard a partir de una serie de principios frecuentistas de muy amplia aceptación, mostrando al mismo tiempo que era preciso incluir únicamente en el cálculo los datos observados, y no la información que podría haberse derivado del experimento sin llegar a concretarse. Otro frecuentista se quejaría de que lo que Birnbaum estaba «proponiendo [implicaba] hacer retroceder cuarenta y cinco años las hojas del calendario —aunque no obstante eso siga poniéndole por delante de los bayesianos, que desearían hacer retroceder el tiempo en ciento cincuenta años—».[10.9] Con todo, Jimmie Savage no dejaría de elogiar el trabajo de Birnbaum diciendo que había constituido un «acontecimiento histórico».[10.10]
Savage también condenaría el método fiduciario de Fisher por emplear algunos de los mecanismos de Bayes y evitar al mismo tiempo el oprobio asociado con la asunción de las probabilidades a priori. Savage opinaba que la teoría de Fisher suponía «un atrevido intento de hacer la tortilla bayesiana sin romper los huevos bayesianos».[10.11] Box pensaba que la probabilidad fiduciaria de su suegro estaba empezando a parecer «una forma disimulada de aplicar la regla de Bayes».[10.12]
Pero no iban a terminar ahí las cosas, ya que en el año 1957 acabaría aflorando un nuevo desacuerdo entre los bayesianos y los antibayesianos al poner de manifiesto Lindley —que estaba desarrollando una cuestión planteada por Jeffreys— una situación teorética en la que los dos enfoques acababan generando unos resultados diametralmente opuestos. La paradoja de Lindley se produce cuando se somete a prueba una hipótesis concreta utilizando un vasto volumen de datos. En el año 1987, Robert G. Jahn, un profesor de ingeniería aeronáutica de la Universidad de Princeton, realizó un amplio estudio en el que, según sus conclusiones, podía darse por sentada la existencia de facultades psicoquinéticas. Jahn informó de que un generador de acontecimientos aleatorios había comprobado en ciento cuatro millones cuatrocientas noventa mil ocasiones la hipótesis de que una persona situada en un sofá colocado a dos metros y medio de distancia fuera incapaz de ejercer en los resultados del experimento una influencia superior a la que pudieran tener los efectos del azar. El profesor de Princeton añadía que, en todas esas comprobaciones, el generador de acontecimientos aleatorios había encontrado dieciocho mil cuatrocientos setenta y un ejemplos de influencia humana en su sensible equipo microelectrónico (es decir, un 0,018 por ciento), ejemplos que no podían explicarse únicamente en función del azar. Aun en el caso de un reducidísimo valor p con un nivel de significación de 0,00015, el frecuentista se veía obligado a rechazar la hipótesis (y concluir por tanto en favor de la posible existencia de facultades psicoquinéticas), mientras que los mismos datos bastaban para persuadir a un bayesiano de que la hipótesis que negaba la realidad del espiritismo era casi con toda certeza verdadera.
Seis años más tarde, Jimmie Savage, Harold Lindman y Ward Edwards, de la Universidad de Michigan, mostrarían que los resultados derivados de la utilización del teorema de Bayes o los valores p del frecuentismo podían mostrar diferencias significativas aun empleando muestras de datos de magnitudes más cotidianas. Por ejemplo, un bayesiano que se enfrentara a un problema con una probabilidad a priori sensata y que dispusiera de una muestra integrada únicamente por veinte elementos, se hallaría en situación de obtener una respuesta diez veces mejor, o incluso más, que la que alcanzaban a proporcionar los valores p.
Lindley quedó abocado a chocar con el mal genio de Fisher al revisar el tercer libro de este autor y descubrir «algo que a mi juicio suponía un error tan fundamental como grave —a saber, el hecho de que [su] probabilidad fiduciaria no se atuviera a las leyes de la probabilística—. Fisher mantenía que su teoría respetaba las reglas de la probabilidad, pero estaba equivocado, ya que no era así, de modo que yo le puse un ejemplo. Y entonces Fisher se enfureció conmigo». Un colega que simpatizaba con Lindley le advirtió de que Fisher estaba verdaderamente encolerizado, pero «yo no comprendí», prosigue Lindley, «la auténtica magnitud de su enfado sino más tarde, al publicarse el libro que contenía la correspondencia de Fisher. Se mostró muy poco razonable; debería haber admitido su error. Sin embargo, se empeñaba en decir que yo no era más que un jovencito engreído y que él tenía motivos para mostrarse algo disgustado». Lindley empeoraría las cosas al añadir a su falta de tacto el gesto de convertir su descubrimiento en un artículo. El director de la revista accedió a publicarlo porque el planteamiento de Lindley era correcto, pero preguntó a su autor si sabía realmente dónde se estaba metiendo: «La ira de Fisher va a cernirse amenazadoramente sobre nuestras cabezas», le dijo.[10.13] Y efectivamente, a lo largo de los ocho meses siguientes, Fisher no dejaría de incluir en las cartas que enviara a sus amigos todo un conjunto de quejas relacionadas con «la revisión de Lindley», cuyo artículo juzgaba «bastante insultante».[10.14]
El teorema de Bayes también vendría a crispar los nervios de Neyman. En el año 1960, éste organizaría un simposio en Berkeley en el que Lindley leería una ponencia relacionada con las distribuciones a priori. Esa ponencia iba a provocar, en palabras de Lindley, «el único altercado público realmente serio del que tengo memoria en el campo de la estadística. Neyman se puso furioso conmigo delante de todo el mundo. Yo quedé muy preocupado, pero Savage saltó en mi defensa y supo manejar la situación —y a mi juicio lo hizo muy bien—».[10.15]
Un buen día, a mediados de la década de 1960, Box se atrevió a abordar el tema de los a priori iguales con su irascible suegro. Fisher había acudido a su casa para ver a su nieta, y unos amigos habían advertido a Box de que no debía forzar las cosas con Fisher, ya que sólo conseguiría hacerle explotar. Sin embargo, al ascender la colina en la que se levantan las instalaciones de la Universidad de Wisconsin, en Madison, Box le dijo a su anciano suegro: «Voy a asignar a mis cálculos las mismas probabilidades, de modo que si tengo cinco hipótesis, la probabilidad de cada una de ellas será de un quinto».[10.16]
Fisher respondió con cierto enojo, con la actitud de quien viene a decir: «Esto es lo que tengo que decir, y una vez que lo haya hecho te callas y punto». Éstas fueron sus palabras: «Una cosa es que pienses que no sabes algo y otra muy distinta que creas que las probabilidades de todas las posibilidades implicadas son las mismas».[10.17] Esa distinción, con la que más tarde habría de concordar Box, era la que impedía a Fisher aceptar la regla de Bayes. Al igual que Neyman, Fisher admitía que si llegaba a ver en alguna ocasión un a priori al que pudiera conceder cierta credibilidad, no tendría inconveniente en utilizar el método de Bayes-Laplace. Y de hecho así lo haría. Dado que conocía el árbol genealógico de los animales de su laboratorio, pudiendo remontarse varias generaciones en cada uno de los casos, Fisher se encontraba en condiciones de especificar, al menos a puerta cerrada, las probabilidades iniciales de un particular cruzamiento. En esos experimentos, Fisher usaba efectivamente el teorema de Bayes. Andando el tiempo, Box manifestaría apenado que si había terminado divorciándose de la hija de Fisher había sido porque ésta había heredado en gran medida el temperamento desabrido de su padre.
Comenzó a considerarse que podía resultar atractivo llegar a un arreglo que permitiera asociar los métodos bayesianos y los antibayesianos. La idea consistía en realizar una estimación de las probabilidades iniciales en función de su frecuencia relativa y después proseguir el análisis aplicando el resto de la regla de Bayes. El bayesianismo empírico, como dio en llamarse al procedimiento, parecía constituir un gran avance. Ya en el año 1925 había intentado Egon Pearson algo similar, y de hecho Turing había empleado una variante de esa misma idea durante la segunda guerra mundial, por no mencionar que Herbert Robbins la había propuesto en el año 1955. Además, Neyman también la había recomendado, provocando un aluvión de publicaciones. Sin embargo, el bayesianismo empírico apenas ejercía influencia alguna en las corrientes más destacadas de la teoría estadística, y su ascendiente en el ámbito de las aplicaciones efectivas sería prácticamente nulo hasta finales de la década de 1970.
Por esa misma época comenzarían a abordar otros autores uno de los inconvenientes prácticos que presentaba la regla de Bayes: el de las dificultades vinculadas con su computación. La forma continua que había ideado Laplace del teorema de Bayes, requería una integración de funciones. Sin embargo, podía resultar complicado realizar dicha integración, y al aumentar el número de incógnitas, los problemas de la integración adquirían tintes poco menos que irremediables dadas las capacidades de cómputo de la época. Entre los autores que se pusieron a trabajar para desarrollar un conjunto de aproximaciones asintóticas con las que conseguir que los cálculos resultaran más manejables se encontraban Harold Jeffreys, Dennis Lindley y David Wallace.
No obstante, en la década de 1960, y en medio de tan fervorosa pasión matemática, unos cuantos individuos de talante práctico se entregarían a la tarea de generar la clase de apoyo institucional de la que ya llevaban tiempo disfrutando los frecuentistas, es decir, el asociado con la celebración de seminarios anuales, la publicación de revistas, la obtención de fuentes de financiación y la elaboración de libros de texto. Morris H. DeGroot escribirá entonces la primera obra de renombre internacional sobre la teoría decisional bayesiana, esto es, sobre el análisis matemático de la toma de decisiones. Arnold Zellner, de la Universidad de Chicago, se encargaría por su parte de reunir fondos, de organizar una serie de conferencias y de empezar a aplicar toda una batería de pruebas a los problemas económicos, procediendo a estudiarlos uno a uno y resolviéndolos tanto desde el punto de vista bayesiano como desde el ángulo no bayesiano. Gracias a la influencia de Zellner, la probabilidad subjetiva de Savage lograría ejercer un importantísimo impacto en la economía. El proceso asociado con el desarrollo de las aplicaciones económicas de la estadística necesitaría varias décadas para completarse. De hecho, la Sociedad Internacional para el Análisis Bayesiano y el Departamento Bayesiano de la Asociación Estadística de los Estados Unidos no lograrían ver la luz sino a principios de la década de 1990.
Con todo, la agitación provocada por la teoría bayesiana habría de rebasar los ámbitos de la estadística y la matemática. En las décadas de 1960 y 1970, tanto los criptoanalistas de la Agencia de Seguridad Nacional de los Estados Unidos como los analistas de la Agencia Central de Inteligencia y la generalidad de los abogados comenzarían a ponderar igualmente la posibilidad de aplicar los métodos bayesianos a sus respectivas áreas de trabajo.
En el año 1959, los médicos empezarían a sopesar la idea de utilizar la regla de Bayes en la diagnosis médica, impulsados por la sugerencia de Robert S. Ledley, del Instituto Nacional de Estándares y Tecnología de los Estados Unidos, y de Lee B. Lusted, de la Facultad de Medicina de la Universidad de Rochester. Ledley y Lusted optarían por enviar el artículo en el que realizaban esa propuesta a la revista Science, porque las publicaciones médicas no habían mostrado interés alguno por su escrito. En el año 1961, y tras haberlo leído, Homer Warner, un cardiocirujano pediátrico del Hospital de los Santos de los Últimos Días, que ejercía además la docencia en la Universidad de Utah, en Salt Lake City, comenzaría a desarrollar el primer programa informático para el diagnóstico de enfermedades. Warner lograría mostrar —basándose en los estudios realizados en mil niños afectados por diversas cardiopatías congénitas— que el método de Bayes podía identificar con notable precisión el problema subyacente a todas esas afecciones. «Los antiguos cardiólogos no alcanzaban a dar crédito a la idea de que un ordenador pudiera realizar una tarea concreta mejor que un ser humano», recordaría Warner andando el tiempo.[10.18] Pocos años después de que Warner introdujera su batería de pruebas, formada por cincuenta y cuatro tests, Anthony Gorry y Otto Barnett consiguieron mostrar que en realidad bastaba con aplicar siete u ocho de esas pruebas —a condición de que se las pudiese considerar relevantes en relación con los síntomas del paciente y siempre que se efectuaran una por una y de acuerdo con una secuencia predeterminada—. No obstante, serían pocos los facultativos que utilizaran dicho sistema, de modo que los esfuerzos encaminados a informatizar la elaboración de diagnósticos acabarían por perder su impulso.
Entre los años 1960 y 1972, la Agencia de Seguridad Nacional de los Estados Unidos comenzó a formar a los criptoanalistas en los métodos bayesianos más avanzados, publicando al menos seis artículos en su revista interna —el NSA Technical Journal—. Guardados originalmente en un archivo confidencial bajo el rótulo de Top Secret Umbra —palabra esta última que se empleaba como clave general para categorizar los documentos de inteligencia del más alto nivel—, la Agencia accedería a desclasificar parcialmente dichos trabajos en el año 2009 al solicitar yo misma su lectura, aunque se suprimiría el nombre de los autores de tres de los seis ensayos. (Y al menos uno de ellos lleva el sello característico de los artículos de Jack Good). En otro trabajo, uno de los empleados de la Agencia llamado F. T. Leahy cita una afirmación que Van Nostrand había publicado en la Scientific Encyclopedia en la que se mantiene que «se ha descubierto que el teorema de Bayes no puede considerarse científico, además de provocar varias contradicciones y de resultar innecesario». Sin embargo, en el año 1960, Leahy sostendría ya que la regla de Bayes no sólo constituye «una de las técnicas matemáticas más importantes de cuantas tienen en su mano utilizar los criptoanalistas […], sino que [además] se ha empleado en casi todos los análisis criptográficos que la Agencia de Seguridad Nacional ha logrado resolver adecuadamente hasta la fecha […]. Es un método que permite enunciar las únicas fórmulas correctas con las que nos es dado resolver buena parte de los problemas criptoanalíticos a que nos enfrentamos», incluidos aquellos que nos obligan a realizar comparaciones entre múltiples hipótesis.[10.19] Pese a todo, «únicamente un puñado de matemáticos de la Agencia de Seguridad Nacional conocía la totalidad de maneras» en que resultaba posible aplicar el teorema de Bayes. Lo más probable es que todos esos artículos se hubieran publicado con la intención de poner remedio a aquella situación.
En la Agencia Central de Inteligencia, los analistas realizarían también decenas de experimentos con los métodos de Bayes. En las décadas de 1960 y 1970, la CIA, que no tenía más remedio que inferir sus conclusiones sobre la base de un material probatorio incompleto o inseguro, ya se había revelado incapaz de predecir, al menos en una docena de ocasiones, distintos acontecimientos desastrosos. Entre ellos cabe mencionar el de la intervención de las fuerzas norvietnamitas en Vietnam del Sur y el del aumento de los precios del petróleo que decretó en el año 1973 la Organización de Países Exportadores de Petróleo (OPEP). Lo característico era que los analistas de la CIA realizaran una predicción y no pasaran de ahí. Me refiero al hecho de que tendían a no tener en cuenta las posibilidades de que se produjeran acontecimientos poco probables pero potencialmente catastróficos, siendo además incapaces de actualizar las predicciones iniciales a medida que iban contando con datos nuevos. Pese a que la CIA llegara finalmente a la conclusión de que los análisis basados en el método de Bayes resultaban más pertinentes, también habría de juzgarlos excesivamente lentos. De este modo, los experimentos serían finalmente abandonados al no disponerse de una capacidad informática verdaderamente fuerte.
Los profesionales de la abogacía reaccionaron de manera diferente. En el año 1971, y tras haber sugerido en varias ocasiones que la regla de Bayes podría resultar útil en la valoración de las pruebas jurídicas, el catedrático Laurence H. Tribe, de la Facultad de Derecho de Harvard, se decidiría a publicar un virulento e influyente artículo sobre dicho método. Apoyándose en los conocimientos adquiridos durante la obtención de la licenciatura que poseía en ciencias exactas, Tribe no sólo condenaría la regla de Bayes, sino también otras «estrategias matemáticas, o seudo-matemáticas», debido a que, a su juicio, podían «distorsionar —y en algunos casos, destruir— ciertos valores importantes [al] rodear al proceso [jurídico] de un galimatías matemático».[10.20] Después de semejante declaración, Bayes vería cómo muchas de las salas de justicia del país le cerraban violentamente la puerta en las narices.
Lo más extraordinario de la gloriosa resurrección vivida por la metodología bayesiana en el transcurso de las décadas de 1950 y 1960 estriba en el hecho de que fuesen tan escasas las personas de todos los ámbitos del saber que optaran por aplicar públicamente la teoría de Bayes a los problemas de la vida cotidiana. Y una de las consecuencias de este estado de cosas sería que buena parte de las especulaciones que giraban en torno a la regla de Bayes siguieron constituyendo materia de debate, lo que significa que en tanto no lograran probar en público la superioridad de su método, los bayesianos se verían abocados al estancamiento.