16

¡Eureka!

Mientras la revolución informática inundaba de datos el mundo, la regla de Bayes se veía enfrentada a la mayor crisis de sus doscientos cincuenta años de historia. ¿Estaba condenada al olvido una teoría del siglo XVIII descubierta en una época en que los datos estadísticos eran escasos y la realización de cómputos lenta y laboriosa? Lo cierto es que ya había sobrevivido a cinco mazazos poco menos que fatales: el propio Bayes la había dejado abandonada y acumulando polvo en una estantería; aunque Price la publicara, el público la había ignorado; Laplace, que había concebido una versión propia del mismo método, había terminado prefiriendo su teoría basada en la frecuencia; los frecuentistas habían conseguido borrarla prácticamente del mapa; y los militares la habían mantenido en secreto.

En el año 1980, todo aquel que se dedicara al estudio del medio ambiente, la economía, la salud, la educación o las ciencias sociales había comenzado ya a teclear los datos en un terminal conectado a un ordenador central. El sustantivo inglés input (con el que se señalaba el aporte o la introducción de información en un sistema) se convirtió en un verbo. En los historiales médicos, por ejemplo, empezaron a incluirse decenas de valoraciones relativas a cada uno de los pacientes de un facultativo —empleándose dichos datos para consignar elementos que iban desde la edad y el género a la raza y la presión sanguínea, pasando por el peso, la circunstancia de haber padecido o no un ataque cardíaco y los hábitos relacionados con el tabaquismo—. Las estadísticas enológicas comenzaron a recoger mediciones químicas y estimaciones numéricas indicadoras de la calidad atribuible a los viticultores, las variedades de uva y las cosechas.

Ahora bien, ¿quién podía saber cuál de los veintitantos elementos asociados con un paciente o un vino dados eran los verdaderamente relevantes? Los investigadores se veían obligados a analizar más de una incógnita al mismo tiempo, a calcular las relaciones existentes entre las múltiples variables, y a determinar el efecto que ejercía el cambio de una de las variables en las demás. Sin embargo, los datos relativos a los hechos de la vida real no formaban nítidas y bien ordenadas campanas de Gauss, y cada vez que se mejoraba la información vinculada con las diferentes variables aumentaba de forma espectacular el número de incógnitas. Los ordenadores estaban dando lugar a una revolución en la estadística al introducir el análisis multivariante, lo cual estaba generando a su vez una profusión de incógnitas a la que daría en llamarse la maldición de la alta dimensionalidad. Los estadísticos tuvieron que preguntarse si un método ideado para lanzar al aire unos cuantos doblones de oro podría llegar a adaptarse realmente al nuevo orden de cosas.

A principios de los años ochenta del siglo pasado, los bayesianos seguían siendo una pequeña y cercada tribu integrada por poco más de un centenar de estudiosos. La realización de los cómputos se eternizaba, de modo que la mayoría de los investigadores seguían teniendo que limitarse al examen de problemas «menores» y al estudio de nimiedades. Los modelos estadísticos disponibles no tenían la complejidad suficiente como para abordar cuestiones de mayor envergadura. El título de una de las conferencias que habrían de celebrarse en el año 1982 —«Estadística bayesiana práctica»— venía a ser una especie de cómico oxímoron. El organizador del ciclo de charlas había sido uno de los alumnos de Lindley, A. Philip Dawid, de la Escuela Universitaria de Londres, pero él mismo admitiría que «la computación bayesiana de cierta complejidad seguía siendo básicamente imposible […]. Fueran cuales fuesen las credenciales filosóficas del método, una de las críticas más comunes y válidas que se realizaban por esa época al bayesianismo era la de que constituía un sistema poco menos que impracticable».[16.1]

La maldición de la alta dimensionalidad amenazaba tanto a los bayesianos como a los frecuentistas. Muchos de los integrantes del mundillo de la estadística académica seguían enzarzados en debatir si debían permitirse o no el lujo de recurrir a un análisis que requiriera un uso intensivo de la informática. La mayoría de los estadísticos de la época eran matemáticos, y muchos de ellos no distinguían claramente entre sus queridas y vetustas calculadoras —ya fueran manuales (de la marca Brunsviga) o eléctricas (como el modelo de Facit)— y las nuevas computadoras electrónicas. Todos ellos estaban tratando de analizar los nuevos conjuntos de datos con métodos pensados para unas herramientas de cálculo desfasadas. Uno de aquellos profesionales de la estadística alardearía no obstante de que el procedimiento de cálculo que él utilizaba consistía en dirigirse a pie hasta el centro informático de la universidad para la que trabajaba y decir: «Resuélvanme esto».[16.2] Gracias a algunos precursores como Robert Schlaifer y Howard Raiffa, los bayesianos serían la fuerza preponderante en el ámbito de los estudios empresariales y la economía teórica, mientras que los departamentos de estadística estaban dominados por los frecuentistas —técnicos que preferían centrarse en grupos de datos con escasas incógnitas a volcarse en el examen de hechos que implicaran el manejo de un gran número de ellas.

Por consiguiente, muchos departamentos de estadística se limitaban a observar desde la barrera a los físicos y a los biólogos que se entregaban al análisis de datos relacionados con las placas tectónicas, los púlsares, la biología evolutiva, la contaminación, el medio ambiente, la economía, la salud, la educación y las ciencias sociales. Los ingenieros, económetras, estudiosos de la computación y técnicos informáticos no tardarían en verse aureolados del prestigio de que parecían carecer los estadísticos, sumidos en sus monótonas rutinas. Los críticos empezaban a percatarse de que los departamentos de estadística no sólo se hallaban aislados sino que actuaban a la defensiva y habían iniciado un claro declive. Según se decía, las publicaciones estadísticas más destacadas tenían un carácter tan matemático que apenas contaban con un público que estuviera capacitado para entenderlas, siendo además de índole tan poco práctica que casi nadie se interesaba por ellas. Los miembros de la nueva generación parecían pensar que los ordenadores y sus algoritmos podían sustituir por completo a los cálculos matemáticos.

Con una iniciativa que podría haberse convertido en un gran avance en el campo de la computación, Lindley y uno de sus alumnos, Adrian F. M. Smith, lograrían enseñar a los bayesianos a desarrollar modelos capaces de fraccionar los complejos procesos del cálculo científico en una secuencia compuesta por un conjunto de fases denominadas jerarquías. Con el tiempo, este sistema habría de convertirse en uno de principales instrumentos de trabajo de los bayesianos, pero en aquella época la idea se dio de bruces contra la realidad del momento. Los modelos eran demasiado específicos y esquemáticos como para poder hallar una aplicación científica concreta. Habría que esperar otros veinte años para que los manuales bayesianos comenzaran a explicar los modelos jerárquicos. Ocurría sencillamente que los estadísticos y los científicos pertenecientes a la corriente dominante no creían que el teorema de Bayes pudiera llegar a tener jamás una aplicación práctica. Uno de los elementos que indican elocuentemente la actitud que mantenían es el hecho de que los clérigos anteriores a Thomas Bayes figuraran en el Dictionary of National Biography británico, omitiéndose en cambio toda entrada referida al propio Bayes.

Y sin embargo, por sorprendente que resulte y pese a todos estos titubeos académicos, un contratista de la Fuerza Aérea estadounidense utilizaría el método de Bayes para ponderar el riesgo de que se produjera un accidente en la lanzadera espacial Challenger. Pese a que en el transcurso de la guerra fría, las fuerzas aéreas ya hubieran financiado el estudio bayesiano que Albert Madansky había realizado en la Corporación RAND, la Administración Nacional de la Aeronáutica y el Espacio de los Estados Unidos (NASA) desconfiaba todavía de las representaciones subjetivas de la incertidumbre. Por consiguiente, tendrían que ser las fuerzas aéreas las que patrocinaran, en el año 1983, la revisión de las estimaciones que había ordenado realizar la NASA respecto a la probabilidad de que la lanzadera espacial sufriera un accidente. La empresa contratista, la Teledyne Energy Systems, utilizaría el análisis bayesiano valiéndose de la experiencia recogida previamente —la cual señalaba que se habían producido ya treinta y dos accidentes confirmados en los mil novecientos dos lanzamientos de cohetes efectuados hasta entonces—. Recurriendo por tanto a «las probabilidades subjetivas y a la experiencia operativa», la compañía Teledyne estimó que la probabilidad de que se produjera un fallo en el acelerador del cohete era de uno de cada treinta y cinco intentos. Las estimaciones que manejaba la NASA en aquella época eran de un fallo por cada cien mil lanzamientos. Con todo, la Teledyne insistía en que «lo más prudente era atenerse a las estimaciones de fallo más conservadoras, ya que habían sido realizadas sobre la base de la experiencia acumulada previamente y en función de los análisis probabilísticos».[16.3] El 28 de enero de 1986, al realizarse el lanzamiento número veinticinco de la lanzadera espacial, el Challenger explotó en pleno vuelo, provocando la muerte de los siete tripulantes que la pilotaban.

La disparidad de criterios que determinó que el ejército diera en aceptar de cuando en cuando el teorema de Bayes y que el mundillo de la estadística académica siguiera no obstante negándose a adoptarla continúa resultando desconcertante incluso en nuestros días. ¿Quiere eso decir que la experiencia que habían adquirido los militares en el uso de la regla de Bayes durante la segunda guerra mundial y la posterior guerra fría —una experiencia guardada con el máximo secreto— les había permitido confiar en el método? ¿Se arredraba menos el ejército ante la perspectiva de utilizar ordenadores? ¿O todo se reducía al simple hecho de que quizá tuviera acceso a máquinas de cómputo más potentes? Dado que muchas de las fuentes relacionadas con la segunda guerra mundial y la guerra fría todavía siguen mereciendo la consideración de secretos de estado, es posible que jamás alcancemos a saber la respuesta que ha de darse a estas preguntas.

Durante la década de 1980, varios investigadores civiles dedicados al estudio de problemas hasta entonces intratables en los ámbitos de la salud pública, la sociología, la epidemiología y la restauración de imágenes optarían por aplicar experimentalmente la informática al análisis bayesiano. Una importante polémica surgida en torno a los efectos que las emisiones de los motores diésel pudieran tener en la calidad del aire y la incidencia del cáncer impulsaría el primero de esos intentos. En la década de 1980, los especialistas en las enfermedades cancerosas contaban ya con datos fehacientes sobre los efectos que el humo del tabaco producía en las personas, los animales de laboratorio y las células, pero apenas disponían de información fiable acerca de los gases de escape de los motores diésel. En el año 1983, William H. DuMouchel, del departamento de matemáticas del Instituto Tecnológico de Massachusetts, junto con Jeffrey E. Harris, perteneciente al departamento de economía de esa misma institución y al Hospital General de Massachusetts, decidieron unir sus fuerzas para plantear la siguiente interrogante: «¿Es posible tomar los datos obtenidos en especies no humanas y extrapolarlos, aprovechando la información que nos brindan, para aplicarlos a los seres humanos?».[16.4] Este tipo de metaanálisis, en los que se combinaban los resultados de un conjunto de pruebas similares, eran demasiado complejos como para poder ser analizados con los métodos frecuentistas, pero DuMouchel era un discípulo de Adrian F. M. Smith y conocía los trabajos que éste había realizado con Lindley y sus modelos jerárquicos. Harris, por su parte, no era estadístico, así que le importaba poco el sistema que se emplease con tal de que permitiera responder a la pregunta en cuestión. Haciendo suyos los métodos del bayesianismo jerárquico, los dos hombres reunieron información procedente de las pruebas que los laboratorios solían efectuar con los ratones, las células embrionarias de hámster y ciertas sustancias químicas. Llegaron a incorporar incluso a su estudio la opinión de una serie de expertos sobre la relevancia biológica que pudieran tener para los seres humanos los datos obtenidos en animales y sobre la relación que pudiera existir entre los efectos del humo de los cigarrillos y los gases de escape de los motores diésel. La regla de Bayes les permitió explicar de manera formal las incertidumbres asociadas con el hecho de cotejar una información obtenida en especies biológicas diferentes.

No era nada fácil encontrar microordenadores en aquel entonces. Muchos de los investigadores que se dedicaban al estudio de la nueva epidemia conocida con el nombre de síndrome de inmunodeficiencia adquirida (SIDA), por ejemplo, tenían que realizar sus cálculos estadísticos a mano, y todavía se publicaban atajos matemáticos para efectuarlos con mayor rapidez. Harris programaría el proyecto de investigación sobre el diésel en APL, un lenguaje informático utilizado para multiplicar matrices, enviándolo después por teletipo al centro de cómputo del Instituto Tecnológico de Massachusetts. Dibujó un conjunto de ilustraciones en cartulinas, añadió pies de foto con letras adhesivas y consiguió que un fotógrafo del Instituto les hiciera unas instantáneas.

Gracias a los estudios efectuados en ratones y hámsteres, DuMouchel y Harris se encontraron en condiciones de concluir que aun en el caso de que los vehículos ligeros de motor diésel obtuvieran una cuota de mercado del veinticinco por ciento, manteniéndola durante un período de veinte años, el riesgo de que el habitante típico de las aglomeraciones urbanas acabara padeciendo un cáncer de pulmón por esa causa sería desdeñable en comparación con la exposición a la enfermedad del fumador tipo con un consumo de tabaco situado en una cajetilla diaria. El riesgo de los fumadores era cuatrocientas veinte mil veces superior al de los urbanitas. En la actualidad, los metaanálisis bayesianos pueden considerarse anticuados desde el punto de vista estadístico, pero DuMouchel y Harris consiguieron que los bayesianos se frotaran las manos ante la expectativa del surgimiento de nuevos métodos capaces de manejar grandes volúmenes de datos —haciéndoles también ansiar la potencia de cálculo informática necesaria para trabajar con ellos.

Mientras los investigadores del cáncer de pulmón indagaban en las posibilidades del teorema de Bayes, Adrian Raftery trabajaba en el Trinity College de Dublín en un célebre conjunto de estadísticas relacionadas con una serie de letales explosiones de polvo de carbón ocurridas en las minas británicas a lo largo del siglo XIX. Los investigadores anteriores habían empleado técnicas frecuentistas para mostrar que los índices de siniestralidad de las minas de carbón se habían modificado con el paso del tiempo. Sin embargo, dichas estadísticas daban por supuesto que el cambio había sido gradual. Raftery quería comprobar si la transformación había sido efectivamente paulatina o, por el contrario, abrupta. En primer lugar, consiguió elaborar un sólido método matemático de carácter frecuentista para proceder al análisis de los datos. Después, movido por la curiosidad, comenzó a experimentar con la regla de Bayes, comparando todo un conjunto de modelos teoréticos a fin de observar cuál de ellos tenía mayores probabilidades de determinar en qué momento habían empezado a cambiar de facto los índices de siniestralidad. «Me resultó extremadamente sencillo averiguarlo», recordaría más tarde Raftery. «Simplemente conseguí resolverlo de forma muy, muy rápida». Y con ese hallazgo, Raftery descubrió una circunstancia notable, desconocida hasta entonces en toda la historia británica. El análisis bayesiano que acababa de efectuar reveló que los índices de siniestralidad venían a caer súbitamente en picado a finales de la década de 1880 o principios de la de 1890. Un historiador amigo suyo acertaría a sugerirle la razón. En el año 1889, los mineros británicos habían fundado la Federación Minera —una entidad altamente reivindicativa que más tarde acabaría convirtiéndose en la Unión Nacional de Mineros—. La seguridad era su primera y más importante preocupación. Y prácticamente de la noche a la mañana, las minas de carbón comenzaron a convertirse en lugares más seguros.

«Aquél fue un descubrimiento que me llevó a exclamar ¡Eureka!», diría posteriormente Raftery. «Era muy emocionante. Y de no haber contado con la estadística bayesiana habría resultado mucho más difícil comprobar esa hipótesis.»[16.5] La estadística de base frecuentista funcionaba bien siempre que la hipótesis fuese un caso particular de otra y que ambas dieran por supuesta una evolución gradual de los acontecimientos. Sin embargo, cuando las hipótesis se oponían y ninguna de ellas podía considerarse un caso particular de la otra, el frecuentismo no resultaba nada útil, sobre todo cuando los datos señalaban la ocurrencia de cambios muy bruscos —como la creación de una federación concebida para reivindicar mejoras en las condiciones laborales de un concreto tipo de trabajadores.

Raftery acabaría publicando dos artículos en el año 1986 en los que expondría el método empleado para construir modelos capaces de estudiar situaciones presididas por un brusco cambio de ritmo. El primero de esos trabajos, de carácter frecuentista, era largo y denso, de modo que no lo leyó prácticamente nadie. El segundo texto, de índole bayesiana, era más breve y más sencillo, así que logró un impacto muy superior. En ese mismo año, Raftery publicaría todavía un tercer ensayo, en este caso de sólo una página y cuarto de longitud, y su efecto en los sociólogos fue inmediato. El artículo apareció en el preciso instante en el que muchos sociólogos estaban a punto de abandonar los controvertidos valores p del frecuentismo. Era muy habitual que los sociólogos trabajasen con grupos de datos relativos a poblaciones compuestas por miles de individuos, cada uno de ellos provisto de centenares de variables, como la edad, la raza, la religión, el clima o la estructura familiar. Por desgracia, cuando los investigadores intentaban determinar la importancia de esas variables recurriendo a los métodos frecuentistas que Karl Pearson y Ronald Aylmer Fisher habían desarrollado para casos en que la población se situaba entre cincuenta y doscientos sujetos, los resultados que se obtenían eran muy a menudo extraños. Los efectos ocultos comenzaban a adquirir importancia o arrojaban resultados antagónicos, por no mencionar que a veces quedaban desautorizados por los estudios posteriores. Al no disponer más que de un único modelo y tener que aplicarlo a muestras muy numerosas, los frecuentistas pasaban por alto las incertidumbres relacionadas con el modelo. Además, eran muy pocos los científicos sociales que tenían la posibilidad de repetir sus encuestas o reproducir sus experimentos en unas condiciones que pudiesen considerarse exactamente las mismas. De este modo, a principios de la década de 1980 eran ya muchos los sociólogos que habían llegado a la conclusión de que en la comprobación de hipótesis su intuición resultaba más precisa que la información proporcionada por el frecuentismo.

La regla de Bayes, por el contrario, parecía generar unos resultados que se ceñían mejor a la intuición de los sociólogos. Raftery acostumbraba a decir a sus colegas que «lo que nos interesa es ponernos a comparar modelos, no limitarnos a buscar posibles discrepancias de orden secundario entre uno de esos modelos y los datos».[16.6] Lo que realmente querían saber los investigadores era cuál de los modelos que manejaban tenía más probabilidades de revelarse cierto, dados los datos conocidos. Con el teorema de Bayes, los investigadores podían estudiar la aparición de cambios súbitos en las fases de crecimiento de las entidades biológicas, que pasaban de una forma estable a otra, en la relación entre los déficits comerciales y los comportamientos económicos, en el abandono y la reinstalación de los yacimientos arqueológicos, y en determinadas situaciones clínicas, como las vinculadas con el rechazo de los órganos trasplantados y la recuperación de los pacientes a quienes se les habían injertado, así como en la estructura de las ondas cerebrales observables en la enfermedad de Parkinson. La comprobación de hipótesis basada en el método bayesiano fue adoptada de forma generalizada en los ámbitos de la sociología y la demografía, y de hecho el último y más breve artículo de Raftery sigue siendo uno de los que más se citan en la esfera sociológica.

Entretanto, el procesamiento y el análisis de imágenes había empezado a adquirir ya una importancia capital en el campo de la actividad militar, la automatización industrial y el diagnóstico médico. Los aviones militares, los sensores infrarrojos, las máquinas de ultrasonidos, la tomografía por emisión de fotones, la obtención de imágenes por resonancia magnética (IRM), la micrografía electrónica y los telescopios astronómicos estaban comenzando a suministrar imágenes borrosas, distorsionadas o imperfectas. La señal de todas esas imágenes tenía que ser procesada para eliminar el ruido y conferir nitidez a las zonas borrosas a fin de poder reconocer su objeto. Se trataba en todos los casos de problemas inversos, perfectamente adecuados para el análisis bayesiano.

El primer intento conocido de utilizar el teorema de Bayes para procesar y restaurar imágenes se halla relacionado con las armas nucleares que se someten a prueba en el Laboratorio Nacional con que cuentan los Estados Unidos en Los Álamos. Bobby R. Hunt sugirió a dicha institución el uso de la regla de Bayes, empleándola él mismo en los años 1973 y 1974. Su trabajo fue considerado confidencial, pero a lo largo de ese período Hunt escribiría —en compañía de Harry C. Andrews— un libro titulado Digital Image Restoration en el que ambos autores exponían la metodología básica. En el año 1976, el laboratorio levantó el secreto que pesaba sobre la obra y aprobó su publicación. Más tarde, entre los años 1977 y 1978, el Congreso de los Estados Unidos mandaría llamar a Hunt para que analizara las imágenes del atentado contra el presidente John F. Kennedy. En su testimonio, Hunt no hizo ninguna referencia al teorema de Bayes. «Era un asunto excesivamente técnico para una audiencia del Congreso», explicaría más tarde.

Prácticamente en el mismo momento en que Hunt comenzaba a trabajar en el análisis de imágenes para el ejército, Julian Besag, de la Universidad de Durham, en Inglaterra, empezaba a emplear plantas de tomate enfermas para estudiar la propagación de las epidemias. La regla de Bayes le ayudaría a distinguir tanto la aparición de regularidades de carácter local como el surgimiento de interacciones de proximidad entre plantas cultivadas en estructuras de celdas unitarias cúbicas similares en cierto modo a los píxeles de una imagen. Al observar uno de esos píxeles, Besag se percató de que podía valorar la probabilidad de que la planta del píxel vecino acabara teniendo el mismo color —circunstancia que convertía a su idea en un instrumento útil para la mejora de imágenes imperfectas—. Sin embargo, Besag no era un estudioso oficialmente afiliado al método bayesiano, de modo que su trabajo pasaría en gran medida desapercibido en esos años.

Un grupo de investigadores que trabajaban en compañía de Ulf Grenander en la Universidad Brown, de Providence, en Rhode Island, estaba tratando de concebir una serie de modelos matemáticos para la generación de imágenes médicas, centrándose para ello en el estudio del efecto que un determinado píxel podía tener en varios de los píxeles próximos a él. Los cálculos sobrepasaban fácilmente el millón de incógnitas. Grenander pensó que tan pronto como se empleara el teorema de Bayes en un problema realista, las objeciones filosóficas que se le oponían no tardarían en difuminarse.

Stuart Geman asistía por entonces al seminario de teoría de pautas que impartía Grenander en la universidad y poco después trató de restaurar, con la ayuda de su hermano Donald Geman, una fotografía borrosa de una señal de tráfico. Los hermanos Geman se interesaban en la reducción del ruido de las imágenes y en encontrar fórmulas para captar y explotar las regularidades de una de ellas a fin de afinar las líneas y los perfiles de las imágenes desenfocadas. Stuart se había especializado en física antes de terminar su licenciatura y conocía las técnicas de muestreo de Montecarlo. Así las cosas, los hermanos Geman concibieron una variante del método de Montecarlo que resultaba particularmente adecuada para los problemas que planteaba la generación de imágenes dotadas de un gran número de píxeles y de estructuras reticulares.

Sentado frente a una mesa en París, Donald Geman comenzó a pensar en el nombre que más convenía ponerle al sistema que acababa de idear junto con su hermano. Por aquella época, uno de los regalos que más solían hacerse en el Día de la Madre era un surtido variado de bombones de chocolate de la marca Whitman. En el interior de la tapa de la caja figuraba un diagrama en el que se identificaba el relleno de cada uno de los bombones del interior. A los ojos de Geman, el diagrama era una matriz compuesta por una serie de variables tan desconocidas como estimulantes. «Voy a llamarlo el muestreo de Gibbs», diría Geman, recordando a Josiah Willard Gibbs, un físico estadounidense del siglo XIX que había aplicado los métodos estadísticos a los sistemas físicos.[16.7]

Los puntos de la imagen oculta comenzaban a delinear un perfil. Sin embargo, al igual que Besag, los hermanos Geman se movían en un pequeño nicho matemático, el de la estadística tridimensional. De ese modo, en lugar de ir mordisqueando poco a poco el problema que se proponían resolver, Donald y Stuart Geman trataron de englutirlo entero de una sola vez. Sin embargo, al comenzar a trabajar a nivel de los píxeles en un fragmento fotográfico de sesenta y cuatro por sesenta y cuatro celdillas, el número de incógnitas que obtuvieron resultó superar con creces la capacidad digestiva de los ordenadores de la época. Expusieron los pormenores del «muestreo de Gibbs» en un artículo extraordinariamente difícil de comprender que aparecería publicado en el año 1984 en la revista IEEE Transactions on Pattern Analysis and Machine Intelligence. Los especialistas en el procesamiento de imágenes, las redes neurales y los sistemas expertos no tardarían en adoptar el método, y con el tiempo, al irse incrementando año a año la potencia de cálculo de los ordenadores, el sistema de los hermanos Geman empezaría a despertar asimismo el interés de algunos estadísticos. Al año siguiente, Donald y Stuart se dedicarían a recorrer el planeta dando conferencias, ya que todo el mundo deseaba invitarles a exponer sus conclusiones.

Donald Geman empleó el muestreo de Gibbs en la mejora de las imágenes que enviaban los satélites, mientras que Stuart se centró en aplicarlo a los escáneres médicos. Varios años después, los estadísticos ajenos al reducido ámbito de las imágenes tridimensionales empezaron a darse cuenta de que existían otras versiones de carácter más general que podían resultar útiles. La flexibilidad y fiabilidad del muestreo de Gibbs terminaría convirtiendo a dicho método en el más célebre de los algoritmos de Montecarlo. Más tarde, Occidente descubriría que un matemático disidente ruso llamado Valentin Fedorovich Turchin había descubierto el muestreo de Gibbs antes que los Geman, en el año 1971, pero su trabajo había sido publicado en un conjunto de revistas escritas en lengua rusa y no incluía la utilización de ordenadores, así que sus esfuerzos se verían postergados.

En el año 1985, la vieja disputa que había venido enfrentando durante largo tiempo a los bayesianos y a los frecuentistas comenzó a perder chispa y potencia antagónica, circunstancia que llevaría a Glenn Shafer, de la Universidad Rutgers, a sostener que la pugna había terminado «por calcificarse, convirtiéndose en un enfrentamiento tan estéril como trillado». Persi Diaconis haría una observación similar aunque no por ello menos sorprendente, ya que se trató de un comentario que no habría alcanzado a comprender una persona que no se hubiera hallado familiarizada con los choques que habían venido produciéndose entre los bayesianos y los frecuentistas comandados por Karl Pearson, Ronald Fisher y Jerzy Neyman. «Resulta agradable comprobar que nuestra área de conocimiento muestra una tendencia tan poco reñidora con la competencia», había afirmado Diaconis. «Si se fija usted en la mayoría de los demás campos, como el de la biología, por ejemplo, constatará que los estudiosos se tiran a degüello unos contra otros.»[16.8]

Con todo, prácticamente todo el mundo seguía convencido de que mientras no pudiera contarse con ordenadores más potentes, mientras no resultara más sencillo acceder a ellos y no se dispusiera de un conjunto de programas lógicos de manejo más sencillo y menor coste continuaría siendo imposible proceder a un análisis informático de los problemas reales mediante el método bayesiano.

Lindley llevaba programando sus propios ordenadores desde el año 1965 y consideraba que el teorema de Bayes se ajustaba de manera ideal a la computación informática: «Todo cuanto hemos de hacer es introducir la lógica de los axiomas y los datos y dejar después que sea el ordenador el que aplique las leyes de la aritmética». Llegaría a decir que la informática era una forma de «darle vueltas a la manivela del sistema bayesiano». Sin embargo, uno de sus alumnos, a quien ya hemos mencionado —Adrian F. M. Smith—, consiguió percatarse de una cosa que se le había escapado a su viejo maestro: la clave para lograr que la regla de Bayes resultara útil en el ámbito laboral de los estadísticos y los matemáticos radicaba en la disponibilidad o no de una mayor facilidad de cálculo, no en la elaboración de una teoría más refinada. Y así lo reconocería más tarde el propio Lindley: «Creo que uno de los mayores errores de mi vida profesional consistió en no haber sabido advertir que la informática resultaba más necesaria que el análisis matemático».[16.9]

Pasando por alto el hecho de que muchos departamentos de estadística se mostraran recelosos, Smith lanzó una ofensiva, orientándola en una dirección radicalmente nueva. Los amigos de Smith le consideraban un hombre jovial y práctico dotado de un gran sentido común, de un buen don de gentes y de la personalidad positiva de quien confía en alcanzar sus metas personales y profesionales, el tipo de persona que se siente más cómoda con ropa deportiva que enfundada en el atuendo propio de un académico. Desde luego, Smith estaba perfectamente dispuesto a hacer todo el trabajo sucio preciso para dotar de una utilidad práctica al teorema de Bayes. Aprendió italiano para colaborar en la traducción de los dos volúmenes de la Theory of Probability de De Finetti y después se encargó de que se publicara. De esta forma, el enfoque subjetivista de De Finetti quedaría ampliamente al alcance de los estadísticos anglo-estadounidenses. Smith desarrollaría asimismo un conjunto de filtros y de dispositivos informáticos de orden práctico que vendrían a facilitar enormemente los cálculos bayesianos.

Hecho esto, y en compañía de otros tres colegas —Dennis V. Lindley, José M. Bernardo y Morris DeGroot—, Smith se dedicaría a organizar una serie de conferencias internacionales para bayesianos en Valencia, España. Este ciclo de coloquios ha venido celebrándose regularmente desde el año 1979. Smith daba por descontado que sus propuestas habrían de «recibir las críticas habituales por parte de los no bayesianos, que reaccionan contra todo lo que yo pueda afirmar». Y desde luego, los frecuentistas no dejarían de acusar a los bayesianos de entregarse a prácticas sectarias, reuniéndose en localidades alejadas de los habituales círculos de la profesión y en falsos cabarets, dedicándose en ellos a contemplar parodias y a escuchar canciones de tema bayesiano. Evidentemente, muchas otras disciplinas habían hecho exactamente lo mismo. Las conferencias desempeñaron también un papel vital en otro aspecto: el de contribuir al surgimiento de un cierto sentimiento de camaradería en un pequeño ámbito del saber habitualmente sometido a duros ataques.

En el año 1984, Smith publicó un manifiesto imprimiendo el título en letra itálica a fin de conferirle un mayor énfasis: Efficient numerical integration procedures are the key to more widespread use of Bayesian methods.[16.10] Al empezar a poderse recopilar y almacenar los datos mediante los ordenadores, comenzó a resultar imposible seguir efectuando de forma manual los análisis. Al aparecer los microordenadores y la posibilidad de conectarlos a un conjunto de redes de alto rendimiento capaces de generar gráficas y de almacenar un inmenso número de datos, los analistas informáticos pudieron empezar a acariciar al fin la esperanza de llegar a improvisar con la informática tan fácilmente como antes lo hicieran con el lápiz y el papel. Con su característico sentido práctico, Smith puso a sus alumnos de la Universidad de Nottingham a trabajar, pidiéndoles que se dedicaran a desarrollar una serie de programas lógicos que no sólo fuesen eficientes sino también de manejo sencillo y que pudiesen aplicarse a los problemas bayesianos de la estadística tridimensional y de la epidemiología.

Intrigado por los proyectos de Smith, Alan Gelfand, de la Universidad de Connecticut, le preguntó si podía pasar en Nottingham el tiempo que le había dejado libre el año sabático que acababa de tomarse. Al llegar Gelfand, Smith le sugirió que iniciara un proyecto nuevo. Así lo recordará más tarde Gelfand: «Smith me entregó un artículo de Tanner y Wong, diciendo: “Éste parece un trabajo muy interesante. Seguro que puede profundizarse en esa vía”». Wing Hung Wong y Martin A. Tanner, de las universidades de Chicago y Wisconsin, respectivamente, se interesaban en el análisis de las imágenes tridimensionales con el objetivo de identificar los puntos de ligamiento genético y de escanear el cerebro utilizando la tomografía por emisión de positrones (o PET, según sus siglas inglesas: «Positron Emission Tomography»). Wong llevaba ya un tiempo tratando de adaptar para el cálculo bayesiano el algoritmo de esperanza-maximización —un sistema iterativo que la Agencia de Seguridad Nacional de los Estados Unidos había desarrollado en secreto durante la segunda guerra mundial o los primeros años de la guerra fría—. Una generación más tarde, Arthur Dempster, de la Universidad de Harvard, y uno de sus alumnos, Nan Laird, lograrían descubrir de forma independiente, esto es, sin conocer los trabajos de la Agencia de Seguridad Nacional, el algoritmo de esperanza-maximización, publicando su descubrimiento —destinado al uso civil— en el año 1977. Al igual que el muestreo de Gibbs, el algoritmo de esperanza-maximización operaba de forma iterativa y tenía la capacidad de transformar una pequeña muestra de datos en una serie de estimaciones con elevada probabilidad de resultar ciertas en el conjunto íntegro de una población dada.

Gelfand acababa apenas de zambullirse en el estudio del artículo de Wong cuando acertó a pasar por allí David Clayton de la Universidad de Leicester. Al ver el trabajo de Wong, Clayton exclamó: «Por cierto, creo que el ensayo de los hermanos Stuart y Donald Geman guarda alguna relación con esto». Aunque no había llegado a publicarlo, Clayton había redactado un informe técnico que abordaba cuestiones vinculadas con el muestreo de Gibbs. Nada más ver el texto de los hermanos Geman, Gelfand comprendió que las piezas encajaban perfectamente unas con otras: el teorema de Bayes, el muestreo de Gibbs, las cadenas de Márkov y las iteraciones. Una cadena de Márkov puede estar compuesta por un gran número de eslabones, y en cada uno de ellos ha de realizarse necesariamente un muestreo sobre la base de un determinado abanico de variables posibles, calculando después, uno tras otro, los valores de dicho muestreo. Todo aquel que pretenda estudiar un efecto sutil e infrecuente deberá por fuerza calcular una y otra vez el valor de cada una de las cadenas hasta obtener una cifra que sea lo suficientemente elevada como para poner de manifiesto el elemento infrecuente que se andaba buscando. Las cifras que acaban manejándose no tardan en adquirir proporciones enormes, lo cual, añadido a la longitud y el carácter tedioso de los cálculos, solía desanimar a la mayoría de los investigadores.

Sin embargo, Gelfand y Smith se dieron cuenta de que la sustitución de las integrales complejas por una serie de muestreos podía poner en manos de los bayesianos una magnífica herramienta de cálculo. «De este modo se volvía a las cuestiones más básicas que se aprenden en un curso de introducción a la estadística», explicaría más tarde Gelfand. «Si uno pretende averiguar algo acerca de una distribución o una población, lo que se hace es tomar muestras de dicha población, pero no se realiza directamente el muestreo». Los estadísticos especializados en el tratamiento de imágenes y en la matemática tridimensional habían estado examinando los modelos locales en su conjunto, pero Gelfand y Smith se percataron de que era preciso producir cadenas de gran longitud, compuestas por una serie de observaciones que, tras ser generadas de una en una o de dos en dos, eran enhebradas después unas tras otras. Así lo explicaría Gelfand: «El truco consistía en observar las distribuciones simples de una en una, sin examinar nunca el conjunto. El valor de cada una de esas distribuciones dependía únicamente del valor anterior. Hay que fragmentar el problema en un montón de piezas minúsculas y de fácil resolución y después efectuar millones de iteraciones. De este modo se sustituye un perfil de alta dimensionalidad por un enorme número de perfiles de baja dimensionalidad y gran sencillez de cálculo. Disponíamos ya de la tecnología necesaria. Ésa es la forma de conjurar la maldición de la alta dimensionalidad».[16.11]

Smith y Gelfand redactaron lo más rápido que pudieron el artículo en el que exponían todos estos extremos, dado que los elementos del sistema que habían concebido ya se conocían, aunque la síntesis de orden general que habían ideado fuese nueva. En cuanto otros estudiosos comenzaran a reflexionar sobre el asunto no tardarían en comprender la importancia del método.

En junio del año 1989, Smith mostraría al público asistente a un cursillo celebrado en Quebec que la cadena de Montecarlo de Márkov podía aplicarse prácticamente a cualquier problema estadístico. Aquello fue como una revelación. Los bayesianos quedaron «conmocionados al comprobar la enorme amplitud del método».[16.12] Al sustituir la integración por las cadenas de Márkov lograron finalmente calcular, doscientos cincuenta años después del surgimiento del teorema de Bayes, unas probabilidades a priori de carácter realista así como unas funciones verosímiles y realizar al mismo tiempo los arduos cómputos necesarios para obtener las probabilidades a posteriori.

A los ojos de los no iniciados en la materia, uno de los aspectos más asombrosos de la peripecia de la regla de Bayes radicaría en el hecho de que hiciese ya décadas que tanto los físicos como los estadísticos tuvieran noticia de la existencia de las cadenas de Márkov. Para poder comprender este desconcertante fallo debemos recordar unos cuantos episodios anteriores. El método de Montecarlo surgiría en el año 1906, fecha en la que un matemático ruso llamado Andréi Andréyevich Márkov había concebido las cadenas de variables que hoy llevan su nombre. Sin embargo, los cálculos requerían tanto tiempo que el propio Márkov decidiría no aplicar sus cadenas sino a las vocales y las consonantes de un poema de Alexandr Pushkin.

Treinta años después, habiéndose dado ya los primeros pasos en el campo de la física nuclear —pues estamos en la década de 1930—, el físico italiano Enrico Fermi comenzaría a estudiar los neutrones liberados en las reacciones de colisión. Una noche, Fermi decidió combatir el insomnio procediendo a calcular mentalmente la secuencia de las cadenas de Márkov capaces de describir la trayectoria que deberían adquirir los neutrones en las reacciones en cadena. Para asombro de sus colegas, a la mañana siguiente, Fermi se hallaba en condiciones de predecir los resultados experimentales de los trabajos que tenían entre manos. Provisto de una pequeña calculadora mecánica, Fermi comenzó a elaborar toda una serie de cadenas de Márkov destinadas a resolver también otros problemas. Los físicos dieron a esas cadenas el nombre de «muestreo estadístico».

Fermi no publicó sus métodos, y, según Jack Good, durante la segunda guerra mundial la censura gubernamental preferiría mantener bajo siete llaves el secreto de las cadenas de Márkov. Tras la guerra, Fermi ayudaría a John von Neumann y a Stanislaw Ulam a desarrollar una técnica que permitiera a los investigadores de la bomba de hidrógeno utilizar el nuevo Computador e Integrador Numérico Electrónico de la Universidad de Pensilvania (ENIAC, según sus siglas inglesas —«Electronic Numerical Integrator and Computer»—). A fin de poder calcular la masa crítica de neutrones necesaria para desencadenar una explosión termonuclear, Maria Goeppert Mayer, futura ganadora del Premio Nobel de física, simularía el proceso mediante un conjunto de cadenas de Márkov, siguiendo para ello la trayectoria de un neutrón con cada cálculo y tomando decisiones en distintos puntos del proceso a fin de determinar cuál era la probabilidad más alta: la de que el neutrón fuese absorbido, la de que quedara liberado, la de que desapareciera o la de que se fisionara. La dificultad de los cálculos superaba las capacidades de los equipos IBM existentes por entonces, y eran muchos los científicos que pensaban que se trataba incluso de una tarea que quedaba fuera del alcance de cualquier tipo de ordenador imaginable. Sin embargo, Mayer informó de que dichos cálculos «no comprometían las capacidades del ENIAC».[16.13] En el año 1949, Mayer intervendría en un simposio para físicos organizado por el Negociado Nacional de Estándares de los Estados Unidos, el Laboratorio Nacional de Oak Ridge y la Corporación RAND con el objetivo de informar a los matemáticos y a los estadísticos de las aplicaciones del método, considerado hasta entonces de carácter estrictamente confidencial.

Ese mismo año, Nicholas Metropolis, que había dado al algoritmo el nombre de método de Montecarlo debido a la afición al juego del tío de Stanislaw Ulam, explicaría a los estadísticos los elementos generales del sistema en el prestigioso Journal of the American Statistical Association. Sin embargo, no expondría los detalles del algoritmo moderno hasta el año 1953, fecha en la que su artículo aparecería publicado en el Journal of Chemical Physics, que por regla general no se encuentra sino en las bibliotecas de las facultades de física y química. Es más, tanto Metropolis como los demás autores que habían colaborado con él en esta labor de difusión —dos equipos integrados por sendas parejas de cónyuges: Arianna y Marshall Rosenbluth, y Augusta y Edward Teller— se interesaban únicamente en las partículas que se desplazaban en torno a un área cuadrada. Ninguno de ellos habría de generalizar el sistema a fin de dotarlo de otras aplicaciones. Serían por tanto los físicos y los químicos quienes abrieran la senda de la aplicabilidad de los métodos de Montecarlo. Pese a trabajar con los primeros ordenadores —esto es, con máquinas dotadas de una memoria de trabajo comprendida entre los cuatrocientos y los ochenta mil bytes— se las arreglaron para lidiar con las pérdidas de memoria, las cintas magnéticas ilegibles, las válvulas de vacío estropeadas y los métodos de programación de lenguaje ensamblador. En una ocasión se necesitaron literalmente varios meses para descubrir un pequeño error de programación. En la década de 1950, la Corporación RAND organizaría una serie de conferencias sobre las técnicas de Montecarlo, empleándolas después en un laboratorio de simulación especialmente construido al efecto para someter a prueba, caso por caso, un conjunto de problemas excesivamente complejos como para poder ser resueltos por medio de fórmulas matemáticas.

En el transcurso de este difícil período, los estadísticos habrían de ver cómo se les volvía a aconsejar en varias ocasiones que utilizaran de distintas formas el método de Montecarlo, ya que en unos casos se les sugería que emplearan ordenadores y en otros se les intentaba convencer de que no lo hicieran. En el año 1954, dos estadísticos vinculados al Instituto de Investigación Británico de la Energía Atómica recomendarían a los lectores del Journal of the Royal Statistical Society que trabajaran con «el Montecarlo del pobre» al realizar sus cálculos —lo que significaba que los efectuaran con lápiz y papel—;[16.i] John M. Hammersley y Keith W. Morton sostenían que la utilización del método de Montecarlo resultaba extremadamente sencilla —es «coser y cantar», decían—. Y en el año 1965, Lindley explicaría a su vez el funcionamiento de las cadenas de Márkov en un texto destinado a los estudiantes universitarios.

Un caso particularmente sangrante es el de W. Keith Hastings, un matemático de la Universidad de Toronto al que un buen día abordaron unos químicos que estaban estudiando el comportamiento de cien partículas que interactuaban entre sí pese a hallarse sujetas a los efectos de otras fuerzas exteriores. El hecho de que el caso implicara el análisis de seiscientas variables determinaría que Hastings comprendiera inmediatamente, según él mismo habría de señalar más tarde, la importancia que tenían las cadenas de Márkov para la corriente estadística dominante, consagrándoles a partir de ese momento todo el tiempo de que disponía: «Me sentí muy emocionado porque la idea subyacente me remitía de nuevo a los estudios de Metropolis. Tan pronto como me percaté de ello, me puse a trabajar frenéticamente. Sencillamente tenía que volcarme en el asunto. Era más fuerte que yo». En el año 1970, Hastings publicaría un artículo en la revista estadística Biometrika en el que generalizaba el algoritmo de Metropolis. Una vez más, los bayesianos volverían a hacer caso omiso de este nuevo ensayo. En la actualidad es totalmente habitual que los ordenadores se sirvan del algoritmo de Hastings-Metropolis para abordar problemas en los que se manejen más de quinientas mil hipótesis y miles de problemas de inferencia paralelos.

Hastings se había adelantado en veinte años a su época. De haber publicado su artículo en un período en el que los ordenadores potentes fueran ya una realidad de acceso fácil y generalizado, su carrera habría sido muy distinta. Como él mismo recuerda: «Era muy elevado el número de estadísticos que no se decidían a emplear la informática. Se limitaban a seguir estos cursillos teóricos, a sacar como churros una serie de trabajos teoréticos, y a exigir en algunos casos una respuesta exacta».[16.14] Lo que el algoritmo de Hastings-Metropolis proporciona es un conjunto de estimaciones, no cifras exactas. En el año 1971, Hastings abandonó la investigación y se asentó en la Universidad de Victoria, en la Columbia Británica. No tendría noticia de la relevancia de su trabajo sino en el año 1992, estando ya jubilado. ¿Por qué tardaron tanto los estadísticos en comprender las implicaciones de un método ya entonces antiguo? ¿Y qué fue lo que determinó que Gelfand y Smith fuesen los primeros en entender su importancia? «Todo cuanto puedo decir en nuestro favor es que simplemente topamos inesperadamente con él. Tuvimos mucha suerte», señala en la actualidad el propio Gelfand. «Estaba ahí, sencillamente, esperando como si dijéramos a que alguien se dignase ensamblar todas las piezas del rompecabezas».

La suerte de acertar con el momento oportuno también se reveló crucial. Gelfand y Smith publicarían su síntesis en el preciso instante en el que los ordenadores baratos y de grandes prestaciones alcanzaban a dotarse al fin de la potencia de cálculo suficiente como para admitir la utilización de una serie de paquetes de programas lógicos capaces de ahondar en las relaciones existentes entre las distintas variables. El teorema de Bayes estaba empezando a presentar el aspecto de una teoría específicamente indicada para los ordenadores. Se había tenido hasta entonces la impresión de que el problema no residía en la teoría misma, sino en la complejidad de los cálculos que habían exasperado a Laplace en la década de 1780 y que los frecuentistas habían evitado abordar al no poder manejar más que un conjunto de datos provisto de pocas variables.

Sin embargo, los propios Smith y Gelfand seguían pensando que el método de Montecarlo era un último recurso y que únicamente debía emplearse en aquellos casos que revelaran ser de una complejidad extrema. Sus escritos traslucían una especie de timidez expositiva, siempre atentos a no repetir demasiado la palabra que empezaba por B (no haciéndolo, por ejemplo, más que cinco veces en un texto de doce páginas). «La idea de emplear la palabra que empezaba por B provocaba siempre cierta preocupación, haciendo que los bayesianos se pusieran espontáneamente a la defensiva, deseosos de no echar más leña al fuego», recuerda Gelfand. «Siempre habíamos sido una minoría oprimida, un grupo de estudiosos que se esforzaba por conseguir un mínimo de reconocimiento. Y pese a que estuviéramos convencidos de estar haciendo bien las cosas, no éramos sino un pequeño elemento del mundillo estadístico, sin demasiado eco en la comunidad científica.»[16.15]

Según sostienen los bayesianos Christian P. Robert y George Casella, el artículo de Gelfand y Smith vino a ser como una especie de «epifanía en el ámbito de la estadística». A lo que añaden lo siguiente, por si alguien no hubiera llegado a captar la idea en toda su dimensión: «Definición: epifanía n. Acontecimiento espiritual […] destello de comprensión súbito». Años más tarde, todavía seguirían describiendo el impacto de aquel descubrimiento con palabras como «chispazo», «fogonazo», «conmoción», «impacto» y «explosión».[16.16]

Seis meses más tarde, y liberándose de su timidez, Gelfand y Smith redactarían un segundo artículo con la colaboración de Susan E. Hills y Amy Racine-Poon. En esta ocasión no tendrían inconveniente en jalonar su exposición matemática con una profusión de voces como «sorprendente», «universalidad», «versatilidad» o «sencilla puesta en práctica». De este modo llegarían a la majestuosa conclusión de que «El potencial de la metodología es enorme, ya que vuelve extremadamente sencillo el análisis de una cantidad de problemas que hasta el presente se venían considerando insolubles desde el punto de vista bayesiano».[16.17] Luke Tierney, de la Universidad Carnegie Mellon, vincularía esta técnica con el método de Metropolis, de modo que la totalidad del proceso —al que los físicos habían denominado sistema de Montecarlo— sería rebautizado, pasando a conocerse a partir de ese momento con el nombre de cadena de Montecarlo de Márkov, o MCMC según sus siglas inglesas («Markov chain Monte Carlo»). De la conjunción del teorema de Bayes y la MCMC se ha dicho que es «posiblemente el mecanismo más potente jamás ideado para procesar datos y hechos conocidos».[16.18]

A principios del año 1991, fecha en la que Gelfand y Smith expondrían sus planteamientos en un cursillo de MCMC celebrado en la Universidad Estatal de Ohio, quedarían sorprendidos al constatar que se habían inscrito cerca de ochenta científicos. Ninguno de ellos era estadístico, pero todos llevaban años utilizando el método de Montecarlo en los ámbitos de la arqueología, la genética, la economía y otros campos similares.

Los cinco años siguientes vendrían marcados por un emocionante frenesí. Los problemas que hasta entonces habían sido una pesadilla comenzaron a resolverse con la misma facilidad con que se cascan huevos para cocinar una tortilla. Diez años antes, el hecho de organizar una conferencia bajo el rótulo de «Estadística bayesiana práctica» habría sido considerado un chiste. Sin embargo, superado el año 1990, los estadísticos bayesianos podían estudiar ya conjuntos fácticos en los campos de la genómica o la climatología y elaborar modelos de magnitudes mucho mayores de lo que jamás habrían podido imaginar los físicos al desarrollar inicialmente los métodos de Montecarlo. Por primera vez, los bayesianos se encontraban en una situación que no les obligaba a simplificar en exceso ni a manejar supuestos de «juguete».

En el transcurso de la siguiente década, el artículo que más veces habría de citarse en las ciencias matemáticas sería el estudio de las aplicaciones prácticas del bayesianismo en la genética, el deporte, la ecología, la sociología y la psicología. El número de aplicaciones derivadas del uso de las cadenas de Montecarlo de Márkov se incrementaría de manera exponencial.

De forma casi instantánea, las cadenas de Montecarlo de Márkov y el muestreo de Gibbs comenzaron a transformar en su totalidad la forma en que los estadísticos abordaban metodológicamente los problemas que se les planteaban. Se trataba de un verdadero cambio de paradigma, por emplear los términos de Thomas Kuhn.[16.19] Las MCMC permitían resolver problemas reales, ya que utilizaban algoritmos informáticos en lugar de teoremas, y facilitarían el acceso de los estadísticos y los científicos a un universo en el que la voz «exacto» venía a equivaler a «simulado» y en el que las repetitivas operaciones de los ordenadores dieron en sustituir a las ecuaciones matemáticas. Se produjo un salto cuántico en la estadística.

En la fecha en la que Smith y Gelfand publicaron su ensayo, los frecuentistas eran capaces de resolver muchísimos más problemas que los bayesianos. Sin embargo, en el espacio de pocos años, los bayesianos pasaron a encontrarse en situación de zanjar muchas más cuestiones que los frecuentistas. En medio del entusiasmo subsiguiente, Jun S. Liu, un estadístico de la Universidad de Stanford que trabajaba en colaboración con el biólogo Charles E. Lawrence, mostraría a los analistas del genoma que el teorema de Bayes y las cadenas de Montecarlo de Márkov podían poner de manifiesto las pautas de organización de las proteínas y el ADN. El proyecto internacional destinado a establecer la secuencia del genoma humano, iniciado en el año 1990, había empezado ya a generar un enorme volumen de datos. Liu mostró que, en unos pocos segundos, un terminal de ordenador programado para trabajar con el teorema de Bayes y un conjunto de muestras iterativas de la cadena de Montecarlo de Márkov era capaz de detectar una serie de pautas de organización tan sutiles como íntimamente relacionadas unas con otras en las moléculas proteicas y en las secuencias de ácidos nucléicos. Después, él mismo conseguiría, con la ayuda de Lawrence, inferir el valor del conjunto de datos críticos que se desconocían y señalar la existencia de antepasados, estructuras y funciones comunes. De este modo, la avalancha de investigadores que vino a inundar los campos de la genómica y la biología computacional fue tan grande que Gelfand decidió buscar un nuevo proyecto de investigación en otra parte.

Entre los años 1995 y 2000, los bayesianos lograrían poner a punto una serie de filtros de partículas como el filtro de Kalman, así como un conjunto de aplicaciones en tiempo real destinadas a las finanzas, el análisis de imágenes, el procesamiento de señales y la inteligencia artificial. En veinte años, el número de asistentes a las conferencias bayesianas de Valencia se cuadruplicaría. En el año 1993, esto es, transcurridos más de dos siglos desde su fallecimiento, Thomas Bayes venía a sumar su nombre al de sus correligionarios clérigos, al ser finalmente incluido en el Dictionary of National Biography. Estando todavía la comunidad bayesiana en pleno frenesí a causa de la operatividad de las cadenas de Montecarlo de Márkov y del muestreo de Gibbs, se ideó un programa lógico de alcance general llamado a sacar las ideas bayesianas del reducto científico e informático.

A finales de la década de 1980, y en un claro ejemplo de coincidencia afortunada, dos grupos de investigadores que trabajaban de forma independiente y en emplazamientos separados por una distancia de más de ciento veinticinco kilómetros comenzarían a trabajar en dos aspectos distintos de un mismo problema. Mientras en la Universidad de Nottingham, Smith y Gelfand se afanaban en desarrollar la teoría de las cadenas de Montecarlo de Márkov, David Spiegelhalter, uno de los alumnos de Smith, se ponía a indagar en la unidad de bioestadística del Consejo de Investigación Médica de la Universidad de Cambridge. El punto de vista que manejaba Spiegelhalter en relación con la utilización del teorema de Bayes en las simulaciones por ordenador era notablemente diferente al de su maestro. Los estadísticos nunca habían considerado la idea de que producir programas lógicos para otros estudiosos pudiera ser una de las facetas de su trabajo. Pero Spiegelhalter, influido por la ciencia informática y la inteligencia artificial, decidió que ésa era sin duda una de sus tareas. De este modo comenzaría a desarrollar en el año 1989 un programa lógico de carácter general que podía resultar útil para todos aquellos que quisieran utilizar los modelos gráficos en las simulaciones. Una vez más, la influencia de David Clayton se revelaría importante. Spiegelhalter desvelaría en el año 1991 su programa estándar y gratuito, denominado BUGS (siglas inglesas de «Bayesian Statistics Using Gibbs Sampling», o Estadística bayesiana basada en el muestreo de Gibbs).

El programa BUGS iba a permitir que el sistema bayesiano diera el mayor salto de popularidad de toda su historia. Todavía hoy sigue siendo el programa lógico más conocido de todos cuantos se utilizan en el análisis bayesiano, y ha conseguido difundir por todo el mundo los métodos bayesianos.

«No era un proyecto de excesiva envergadura», admitirá más tarde Spiegelhalter. «Se trataba de una idea asombrosamente elemental, pero también muy sólida, por la que se venía a asociar el muestreo de Gibbs con un grafo a fin de poder redactar programas de carácter genérico.»[16.20] Su código, que es llamativamente simple, sigue siendo hoy prácticamente el mismo que el ideado en el año 1991.

Los ecólogos, los sociólogos y los geólogos no tardarían en adoptar el programa BUGS y sus distintas variantes: WinBUGS para los usuarios del Windows de Microsoft, LinBUGS para el sistema Linux, y OpenBUGS. Sin embargo, la ciencia informática, el aprendizaje automático y la inteligencia artificial también acabarían por devorar despreocupadamente el programa BUGS. Desde que fuera concebido, el programa BUGS se ha aplicado a multitud de campos, desde el cartografiado de las enfermedades a la farmacometría, pasando por la ecología, la economía de la salud, la genética, la arqueología, la psicometría, la gestión costera, el análisis del rendimiento educativo, los estudios conductuales, la econometría, la transcripción musical automatizada, el diseño deportivo, la evaluación de recursos pesqueros y las ciencias actuariales. En una ocasión un bayesiano que se hallaba de visita en un laboratorio oceanográfico quedaría sorprendido al descubrir que todos los científicos del centro utilizaban el programa BUGS sin que pudiera verse entre ellos a un solo estadístico.

La investigación médica y las pruebas diagnósticas serían dos de los primeros campos en beneficiarse de la recién adquirida popularidad del sistema de Bayes. En el preciso instante en que parecía empezar a amainar el febril entusiasmo generado tras la aparición de las cadenas de Montecarlo de Márkov, Peter Green, de la Universidad de Bristol, lograría mostrar a los bayesianos la forma de comparar las complejas hipótesis que los científicos denominan modelos. Antes del año 1996, todo aquel que tuviera que realizar una predicción relacionada con el riesgo de que un determinado individuo pudiera sufrir un derrame cerebral tenía que centrar su atención en un único modelo a la vez. Green mostró que se podía pasar de un modelo a otro sin necesidad de dedicar una infinidad de tiempo a cada uno de los modelos en cuestión. Los estudios efectuados con anterioridad habían identificado diez factores potencialmente implicados en la etiología de los derrames cerebrales. Green conseguiría señalar cuáles eran los cuatro factores que tenían mayores probabilidades de generarlos: una elevada presión sistólica, la falta de ejercicio, la diabetes y la ingesta diaria de una o más aspirinas.

La experimentación médica habría de beneficiarse muy particularmente del análisis bayesiano. El número de pruebas médicas que implicaban el uso de imágenes era muy elevado, de modo que en el año 1990, Larry Bretthorst, uno de los alumnos de Edwin Thompson Jaynes, un físico bayesiano, optaría por perfeccionar la detección de señales de la exploración por resonancia magnética nuclear, o RMN, consiguiendo mejorarla en varios órdenes de magnitud. Bretthorst ya había estudiado los problemas vinculados con la generación de imágenes, logrando optimizar la detección de las señales de radar por encargo de la Comandancia de misiles del ejército de los Estados Unidos.

En el año 1991, el público, atemorizado ante la epidemia de sida, exigió que se realizara una prueba de detección universal del virus de la inmunodeficiencia humana (VIH). Los bioestadísticos no tardarían en recurrir al método de Bayes para demostrar que el hecho de someter a la totalidad de una población dada a un examen destinado a detectar la presencia o ausencia de una enfermedad rara resultaba contraproducente. Wesley O. Johnson y Joseph L. Gastwirth consiguieron mostrar que una prueba tan sensible como la que se realizaba para la detección del virus de la inmunodeficiencia humana podía dar muchos falsos positivos e indicar a un gran número de pacientes que se hallaban infectados por el VIH cuando en realidad no era así. Los medios airearían los casos de varios suicidios cometidos por personas a las que se les había informado que el resultado de la prueba del VIH había dado positivo sin comprender que dicho resultado no significaba necesariamente que hubiesen contraído la enfermedad. Quedó claro que al aplicar los sistemas de detección se iba a provocar la alarma entre las personas sanas y que esto acabaría generando la necesidad de volver a realizarles la prueba con un conjunto de procedimientos más refinados, lo cual resultaba extremadamente caro.

De manera muy similar, aunque también más polémica, un enfoque bayesiano vendría a mostrar que la realización de una costosa tomografía por resonancia magnética en la detección del cáncer de mama podía resultar adecuada en el caso de una mujer en cuyo historial familiar hubiera muchos pacientes afectados por esa enfermedad, pero que no convenía proceder a efectuar en cambio dicha prueba a todas las mujeres de edades comprendidas entre los cuarenta y los cincuenta años. Una mujer que se haga una mamografía anual durante un período de diez años puede estar segura —y prácticamente al cien por cien— de que en algún momento del proceso los resultados de la prueba vendrán a dar un falso positivo —y el coste de la biopsia subsiguiente se sitúa en los Estados Unidos en una horquilla comprendida entre los mil y los dos mil dólares—. (Véase el Apéndice B para los detalles relacionados con el cálculo de un problema bayesiano relativo al cáncer de mama). En el caso del cáncer de próstata, las pruebas preventivas capaces de detectar un elevado nivel de antígeno prostático específico (o PSA, según sus siglas inglesas: «Prostate-Specific Antigen») tienen una notable precisión si lo que se pretende es identificar a los hombres que padecen cáncer. Se trata sin embargo de una enfermedad tan rara que casi todos los varones que reciben la noticia de que el resultado ha dado positivo resultan no padecer en modo alguno dicho cáncer.

Por otra parte, el método de Bayes mostraría asimismo que la gente que obtenía un resultado negativo en la prueba de detección del cáncer, ya fuera de mama o de próstata, tampoco podía despreocuparse enteramente del asunto. La prueba del antígeno prostático específico es tan poco sensible que la buena noticia de un resultado negativo no proporciona prácticamente la menor seguridad de que un hombre no padezca de hecho un cáncer de próstata. Y lo mismo puede decirse, aunque en menor medida, de las mamografías: la sensibilidad de la prueba determina que su tasa de fiabilidad genere aproximadamente entre un ochenta y cinco y un noventa por ciento de aciertos, lo que significa que una mujer que sólo unos meses después de haberse realizado una mamografía con resultado negativo se note por palpación un bulto deberá consultar inmediatamente a un médico. Un médico que sea un bayesiano estricto dará a sus pacientes el índice de las probabilidades que éstos tienen de padecer un cáncer en lugar de un «sí» o un «no» categóricos.

Dado que la genética implica el estudio de una serie de enfermedades extremadamente raras así como la realización de pruebas imperfectas y la solución de problemas complicados, en los que un minúsculo error en los datos o los cálculos puede afectar a las decisiones, cabe esperar que en los próximos años la probabilística bayesiana vaya adquiriendo una importancia cada vez mayor en la valoración de las pruebas diagnósticas.

Spiegelhalter dedicaría más de diez años a tratar de convencer a la comunidad médica de que el programa BUGS era el mejor método matemático para aprender de la experiencia. El autor de este sistema bayesiano esgrimía para ello el siguiente argumento: «en el ámbito de la atención sanitaria, es muy frecuente que los progresos se produzcan como consecuencia de un conjunto de elementos capaces de incrementar el conocimiento disponible y no como resultado de uno o más grandes avances que obliguen a asumir un cambio de paradigma, de modo que dicho campo presenta unas características particularmente favorables para el ángulo de trabajo del sistema bayesiano». Spiegelhalter sostendría asimismo que «la concepción de los métodos estadísticos estándar los hace especialmente aptos para condensar las pruebas extraídas de uno o más estudios únicos, o aun para reunir la evidencia procedente de otras investigaciones similares, resultándoles en cambio más difícil manejar la generalizada complejidad derivada de un conjunto integrado por múltiples fuentes probatorias».[16.21] Si los frecuentistas únicamente pueden plantear un determinado tipo de preguntas, un bayesiano tiene en sus manos la posibilidad de hallar un marco para cualquier interrogante.

En la década de 1980, con la llegada de los terminales informáticos de alto rendimiento, comenzarían a poder utilizarse las redes bayesianas para trabajar con las numerosas variables interdependientes del ámbito médico, como el hecho de que un paciente aquejado por un marcado proceso febril suela presentar asimismo un cuadro de leucocitosis, esto es, un elevado número de células de la serie blanca en la sangre. Las redes bayesianas son grafos de nodos o vértices unidos por un conjunto de conexiones que ponen de manifiesto las relaciones de causa a efecto subyacentes. Las «redes» buscan una o más pautas concretas, asignando probabilidades a una u otra parte de esas pautas y actualizando las probabilidades halladas valiéndose del teorema de Bayes. Distintas personas vendrían a contribuir al desarrollo de las redes bayesianas, las cuales terminarían popularizándose en el año 1988 gracias a un libro publicado por Judea Pearl, un informático de la Universidad de California, Los Ángeles. Al tratar la causa y el efecto al modo de una creencia bayesiana cuantificable, Pearl contribuiría a reactivar el campo de la inteligencia artificial.

Ron Howard, que había comenzado a interesarse en la regla de Bayes siendo todavía estudiante en la Universidad de Harvard, había empezado a trabajar en las redes bayesianas en el departamento de ingeniería económica de la Universidad de Stanford. David E. Heckerman, un estudiante de medicina, se sentiría igualmente atraído por el sistema bayesiano, de modo que al redactar su tesis doctoral elaboró un programa para ayudar a los patólogos a diagnosticar las enfermedades neoplásicas del sistema linfático. Varias décadas antes ya se había intentado realizar diagnósticos asistidos por ordenador, pero la práctica había terminado por abandonarse. Aunque el doctorado en bioinformática de Heckerman guardara una estrecha relación con la medicina, lo cierto es que en el año 1990 la Asociación estadounidense para el Desarrollo de los Dispositivos Informáticos, es decir, la organización profesional del mundo de la informática de ese país, concedería un prestigioso premio nacional a su programa lógico. Dos años más tarde, Heckerman ingresaría en la compañía Microsoft para trabajar en las redes bayesianas.

La Agencia de Alimentos y Medicamentos de los Estados Unidos permite que los fabricantes de aparatos médicos utilicen la regla de Bayes en los informes que adjuntan a la solicitud final de aprobación que someten a la consideración de la propia Agencia. Entre esos dispositivos cabe citar la práctica totalidad de los artículos médicos a excepción de los fármacos y los productos biológicos: se trata de elementos como los guantes de látex, las lentes intraoculares, los implantes de mama, los termómetros, los equipos de ayuda doméstica para el seguimiento del sida, las prótesis de cadera o los corazones artificiales. Dado que por lo general estos dispositivos son de uso local y que sus perfeccionamientos se producen paso a paso, los nuevos modelos han de poder contar con toda la información objetiva previa disponible.

Los productos farmacéuticos son un caso aparte. A diferencia de los aparatos y los equipamientos médicos, los fármacos surgen por lo común de un descubrimiento sistémico obtenido en un solo paso, lo que significa que, al menos en potencia, la industria de este sector podría orientar subjetivamente las intuiciones a priori del método de Bayes. Ésta es la razón de que la Agencia de Alimentos y Medicamentos lleve mucho tiempo negándose a ceder a las presiones de las compañías farmacéuticas que quieren que se les permita recurrir a la metodología bayesiana cuando solicitan la autorización de la propia Agencia para poder comercializar un medicamento en los Estados Unidos.

No obstante, y según Spiegelhalter, esa misma pugna parece haber remitido ya en Inglaterra. Las compañías farmacéuticas utilizan ampliamente el programa WinBUGS al solicitar al Servicio Nacional británico de la Salud el reembolso de sus productos farmacéuticos. Se trata de un proceso, por citar al propio Spiegelhalter, de carácter «muy bayesiano, aunque no se use la palabra que empieza por B», dado que en él se emplean a priori de índole valorativa que guardan relación con la rentabilidad de los distintos medicamentos. Las directrices internacionales también permiten el uso de aplicaciones informáticas bayesianas en el campo farmacéutico, aunque se suele considerar que dichas directrices son demasiado ambiguas para resultar eficaces.

Al margen del diagnóstico y de la realización de pruebas vinculadas con los dispositivos médicos, los procedimientos matemáticos bayesianos apenas tienen impacto alguno en la investigación o la práctica clínica básica. Los médicos que ejercen su profesión siempre han utilizado una especie de versión intuitiva y no matemática de la regla de Bayes para establecer el diagnóstico de sus pacientes. A fin de cuentas, la mayor incógnita en medicina es la relacionada con las interrogantes precisas para averiguar la causa de los síntomas que aquejan al enfermo. Sin embargo, los manuales médicos tradicionales se organizan al modo de un listado de enfermedades. Suelen decir, por ejemplo, que una persona que sufra de sarampión tendrá probablemente la piel cubierta de manchitas rojas. No obstante, lo que quiere saber el médico que tiene delante a un enfermo con motitas encarnadas es justamente lo contrario: la probabilidad de que ese paciente salpicado de manchas coloradas padezca un sarampión. En el año 1992 empezarían a plantearse en los exámenes de licenciatura de los estudiantes de medicina algunos problemas bayesianos simples —como aquel cuyo enunciado vendría a decir, por ejemplo: ¿Cuál es la probabilidad de que un ecocardiograma de esfuerzo alcance a predecir la existencia de una cardiopatía?

Una de las pocas ocasiones en que los médicos realizan cálculos bayesianos, siquiera aproximados, es aquella en la que un paciente presenta síntomas que tienden a indicar la posible ocurrencia de un ataque cardíaco potencialmente letal, la existencia de una trombosis venosa profunda o la eventualidad de un tromboembolismo pulmonar. Para valorar el peligro, los médicos cuantifican por medio de puntos los distintos factores de riesgo de sus pacientes y proceden después a sumar el total. En el algoritmo destinado a estimar las posibilidades de que el enfermo sufra un ataque cardíaco, la puntuación obtenida es la que determina la probabilidad de que el paciente pueda morir en el plazo de dos semanas, sufrir un infarto agudo de miocardio o precisar de una intervención quirúrgica en las arterias coronarias. Los puntos asociados con la trombosis y la embolia indican si el riesgo de que se forme un coágulo en los vasos sanguíneos de un determinado paciente es bajo, medio o alto, y señalan asimismo cuál es la prueba idónea para establecer un diagnóstico. Se espera poder contar muy pronto con algún programa lógico capaz de indicar tanto a los médicos como a los pacientes los efectos que puedan ejercer sobre una diagnosis los resultados de una prueba concreta.

Al margen del mundo médico, las poblaciones de peces, ballenas y otros mamíferos marinos en peligro de extinción son también algunos de los primeros en beneficiarse del nuevo ímpetu informático del teorema de Bayes. A pesar de que en el año 1972 entrara en vigor en los Estados Unidos la Ley de Protección de los Mamíferos Marinos, sólo se han protegido unas cuantas especies: precisamente aquellas que gozan de una elevada visibilidad mediática y de una abundante publicidad, como las ballenas, los delfines y otros mamíferos marinos. Ha habido poblaciones explotadas, entre las que cabe incluir a distintas especies de ballenas del Océano Antártico, que se han derrumbado enteramente pese a estar siendo «gestionadas». En caso de disponer de una información sólida y abundante sobre las distintas especies, tanto los frecuentistas como los bayesianos consiguen llegar a conclusiones similares, pero en aquellos casos en que el material probatorio se revela endeble —y eso es justamente lo que sucede muy a menudo con los mamíferos marinos—, únicamente la capacidad que tiene el teorema de Bayes para dar cabida a la presencia de elementos de incertidumbre en los datos recabados alcanza a mostrar claramente cuándo es preciso reunir nueva información.

La mayor parte de las poblaciones de cetáceos conseguirían recuperarse durante la década de 1980, pero en el año 1993, dos biólogos del gobierno, Barbara L. Taylor y Timothy Gerrodette, se manifestarían en los siguientes términos: «Al menos una parte de la culpa de la espectacular sobreexplotación a que han estado sometidas [en épocas pasadas] las grandes ballenas ha de atribuirse al hecho de que los científicos se hayan revelado incapaces de ponerse de acuerdo […] y determinar claramente cuál era el mejor modo de abordar aquellos problemas en que intervienen elementos de incertidumbre […]. En ciertas circunstancias, una población puede estar encaminándose a la extinción antes de que pueda detectarse en su seno un declive significativo».[16.22] Durante los años de la administración de Bill Clinton se introduciría en la Ley para la Protección de la Vida Salvaje una enmienda destinada a aceptar la realización de análisis bayesianos capaces de alertar a los conservacionistas antes de que se presentara la necesidad de recabar nuevos datos para poder confirmar el peligro.

Los científicos que asesoran a los miembros de la Comisión Ballenera Internacional han solido mostrarse particularmente preocupados por la incertidumbre que atenaza sus valoraciones cuantitativas. Todos los años, la comisión establece el número de ballenas boreales —una especie amenazada— que se permitirá cazar a los esquimales en aguas del Océano Ártico. A fin de garantizar la supervivencia a largo plazo de las ballenas boreales, los científicos incluyen dos cifras en sus cálculos: la correspondiente al número de ballenas boreales y la relativa a la tasa de crecimiento de sus poblaciones. Las ballenas, que posiblemente sean los mamíferos más longevos de la Tierra, pueden alcanzar una longitud de más de dieciocho metros y un peso de más de sesenta toneladas, siendo capaces de ingerir dos toneladas de alimento al día. Únicamente pasan el cinco por ciento del tiempo en las superficies oceánicas, puesto que pueden mantenerse sumergidas por períodos de treinta minutos, valiéndose de sus enormes testas para quebrar la capa de hielo que cubre en ocasiones el mar y poder respirar. En la primavera puede verse junto al cabo de Point Barrow, en Alaska, a distintos equipos de científicos encaramados a un conjunto de puntos elevados a fin de avistar la llegada de las ballenas boreales que doblan ese accidente geográfico en el curso de la migración anual que las conduce al Ártico occidental. Dicho cómputo esta plagado de elementos de incertidumbre.

Los científicos que efectúan esos cómputos, y que representan a un amplio abanico de la opinión pública, desde la de los integrantes de Greenpeace a la de los pueblos ancestralmente dedicados a la caza de ballenas, se muestran inquietos ante la posibilidad de que la falta de datos fiables respecto de la verdadera magnitud de las poblaciones de ballenas boreales pueda dejar la puerta abierta a la explotación y exponer a la especie a un riesgo muy elevado. En el año 1991, en el transcurso de una serie de reuniones celebradas a lo largo de toda una semana para abordar el problema, la presidenta del evento lanzó la siguiente pregunta: «¿Qué medidas podemos tomar?».[16.23] La respuesta que obtuvo fue un silencio sepulcral. Los científicos allí reunidos se contaban entre los más destacados expertos en la situación de las ballenas boreales, pero ninguno de ellos fue capaz de aventurar una contestación a aquella interrogante.

Al regresar Judith Zeh —la mencionada presidenta de la comisión— al departamento de estadística de la Universidad de Washington, en Seattle, la científica inició una serie de conversaciones con Adrian Raftery, que acababa de trasladarse a esa institución estadounidense tras su estancia en Dublín. Como es lógico, tras la experiencia adquirida en el análisis de los accidentes que podían sufrirse en las minas de carbón, Raftery estaba convencido de que la regla de Bayes podía resultar de utilidad. Valiéndose de ella, el comité podría asignar un determinado grado de incertidumbre a todos los datos de que disponía e incrementar después el número de detecciones sumando a los avistamientos el registro de las vocalizaciones que emitieran las ballenas en las proximidades de una serie de hidrófonos colocados bajo el agua.

Por suerte, la primavera del año 1993 fue un año estupendo para el recuento de ballenas boreales, así que la suma de los avistamientos y las vocalizaciones consiguió mostrar que la población de ballenas estaba incrementándose, casi con toda seguridad, a un ritmo satisfactorio. Su recuperación venía a indicar que el hecho de ofrecer protección a otras grandes poblaciones de cetáceos, introduciendo moratorias y prohibiciones en la caza de fines comerciales, también podía estar contribuyendo a que se recobraran.

La totalidad del proceso —que podía haber implicado el choque entre los métodos bayesiano y frecuentista, largo tiempo antagonistas, y el enfrentamiento entre las distintas facciones de balleneros, que muy a menudo discrepan radicalmente unas de otras— podía haber resultado tremendamente polémico. No obstante, los tiempos estaban cambiando. Se impuso el pragmatismo. La realización de un conjunto de análisis bayesianos en toda regla a fin de compaginar los datos visuales y acústicos resultaba muy costosa, y, por consiguiente, al constatarse que no venían sino a confirmar los estudios previamente realizados por los frecuentistas se suspendió su elaboración. Raftery pasó entonces a utilizar el teorema de Bayes para efectuar predicciones climáticas con cuarenta y ocho horas de antelación.

Otros investigadores de la fauna salvaje darían en enarbolar igualmente el estandarte bayesiano. Paul R. Wade comenta sus impresiones del año 1988, fecha en la que había decidido utilizar la regla de Bayes en la elaboración de su tesis doctoral: «Yo me hallaba un poco perdido en ese pequeño reducto de la biología de los mamíferos marinos, pero tenía la impresión de encontrarme en el epicentro de una revolución científica». Diez años más tarde, estando ya trabajando en la Administración Nacional Oceánica y Atmosférica de los Estados Unidos, Wade se dedicaría a comparar los resultados de los análisis frecuentistas y bayesianos de una reducida y aislada población de belugas que estaba integrada por unos doscientos o trescientos cetáceos y que acostumbraba a moverse en los mares árticos y subárticos próximos a la Ensenada de Cook, en Alaska. La cuota legal de ballenas asignada a los cazadores indígenas era de unas ochenta y siete ballenas al año aproximadamente. La aplicación de los métodos frecuentistas habría exigido reunir datos durante siete años antes de poder valorar si esa cifra de capturas resultaba sostenible o no. Utilizando el teorema de Bayes, bastaron cinco años de observaciones para mostrar con una seguridad prácticamente absoluta que la población de belugas estaba descendiendo de manera sustancial, de modo que pudo detenerse a tiempo el experimento. «Cuando hablamos de poblaciones muy reducidas, la posibilidad de acortar brevemente los plazos, aunque sólo sea en dos años, puede revelarse importante», diría posteriormente Wade.[16.24] En mayo del año 1999, entraría en vigor una moratoria para interrumpir la caza de belugas en la Ensenada de Cook.

Entretanto, un comité del Consejo Nacional de Investigación de la Academia Nacional de Ciencias de los Estados Unidos comenzó a recomendar enérgicamente que también se utilizaran de forma agresiva los métodos bayesianos para mejorar las estimaciones de los recursos pesqueros marinos. En el año 1998, los miembros de dicho comité vendrían a destacar que, debido a la inmensidad y opacidad de los océanos, los gestores encargados de la vida silvestre necesitaban disponer de un conjunto de mediciones realistas capaces de contemplar las incertidumbres presentes en sus observaciones y modelos. De lo contrario, los responsables políticos se veían incapacitados para valorar los riesgos potenciales que podían cernirse sobre la fauna y la flora salvajes. En la actualidad, son muchas las revistas pesqueras que exigen la realización de análisis bayesianos.

Lindley ya había predicho que el siglo XXI estaba llamado a ser una era dominada por el bayesianismo, puesto que la superior lógica de la regla de Bayes no debía tardar en imponerse a los métodos basados en la frecuencia de aparición de los acontecimientos. David Blackwell, de la Universidad de Berkeley, que se mostraría en desacuerdo, declararía no obstante lo siguiente: «Si el enfoque bayesiano acaba por adquirir una mayor envergadura en el mundo de la estadística, no será debido a la influencia de otros estadísticos, sino al ascendiente que sobre este mundillo vienen a ejercer tanto los actuarios como los ingenieros, los empresarios y otras personas que efectivamente aprecian el sistema bayesiano y lo utilizan».[16.25] Al final, quedaría claro que Blackwell llevaba razón: el pragmatismo podía impulsar un cambio de paradigma. La filosofía de la ciencia no se había modificado. La diferencia estribaba en el hecho de que el teorema de Bayes había conseguido revelarse finalmente operativo.

Persi Warren Diaconis[16.ii] llevaba años preguntándose: «¿Cuándo llegará nuestro momento?». Pues bien, en el año 1997 podría al fin exclamar: «Ha llegado al fin nuestra hora».[16.26]

En el año 1995, Adrian F. M. Smith se convertiría en el primer presidente bayesiano de la Real Sociedad Estadística de Gran Bretaña. Tres años después, el propio Smith asombraría a propios y extraños al abandonar la estadística para convertirse en administrador de la Universidad de Londres. Smith, que había propuesto que la práctica médica se basara en el contraste de las pruebas, quería contribuir al desarrollo de unas políticas públicas igualmente basadas en las evidencias. Sus consternados colegas le reprenderían por haber abandonado la regla de Bayes. Sin embargo, Smith le confesaría a Lindley que la estadística había logrado resolver ya todos sus problemas. Contamos con un paradigma, dijo, y gracias a las cadenas de Montecarlo de Márkov sabemos cómo ponerlo en práctica. Y a Diaconis le aseguraría que los problemas estadísticos no planteaban ya ninguna dificultad y que lo único que había que hacer con ellos era introducirlos en un ordenador y hacer girar la manivela bayesiana.

En el año 2008, fecha en la que Smith asumiría el cargo de asesor científico del Ministerio de Innovación, Universidades y Competencias del Reino Unido, uno de los portavoces de la Real Sociedad Estadística haría el comentario de que ya eran tres los estadísticos que habían accedido al cargo de primer ministro de Gran Bretaña.[16.27]