3

Muchas dudas, pocos apoyos

Desaparecido Laplace, la regla de Bayes se vio sumida en un turbulento período en el que sería despreciada, reformada, tolerada a regañadientes y finalmente poco menos que arrasada por unos teóricos en pie de guerra. Sin embargo, a lo largo de todo el proceso, el teorema lograría seguir avanzando, aun a duras penas, y conservar su solidez, contribuyendo a resolver un conjunto de problemas prácticos vinculados con el ejército, las comunicaciones, el bienestar social y la medicina —y todo ello tanto en los Estados Unidos como en Europa.

El telón de fondo sobre el que vendría a recortarse esta peripecia iba a estar marcado por los efectos de un conjunto de imputaciones contrarias a la reputación de Laplace, que no por carecer de verdadero fundamento dejarían de gozar de un amplio predicamento en diferentes círculos. En su Penny Cyclopaedia del año 1839, el matemático inglés Augustus de Morgan dejaría constancia escrita de que Laplace había descuidado señalar el mérito de una obra ajena. Esta acusación continuaría repitiéndose sin base por espacio de ciento cincuenta años, hasta que Stigler, en un detallado estudio, llegara a la conclusión de que el cargo carecía de auténtica sustancia. En la década de 1880, un francés contrario a Napoleón y a la monarquía llamado Maximilien Marie trazaría un retrato de Laplace en el que afirmaba que su compatriota era un reaccionario que defendía radicalmente a la corona, y poco después, varios autores ingleses y estadounidenses hicieron suya la versión de Marie sin cuestionarse su veracidad. La Encyclopaedia Britannica publicada en el año 1912 afirmaría que Laplace «aspiraba a desempeñar el papel de un político […], degradándose hasta el punto de caer en el servilismo con tal de obtener una banda honorífica y un título».[3.1] En su Men of Mathematics, una obra que ha logrado suscitar el interés de los lectores durante largo tiempo, pese a ser un tanto extravagante, el estadounidense Eric Temple Bell colocaría el capítulo sobre Laplace bajo el siguiente rótulo: «De campesino a petimetre […] Humilde como Lincoln, soberbio como Lucifer». Bell trazaría el perfil de Laplace con adjetivos como los de «presuntuoso», «esnob», «engreído», «grosero» y «petulante», retablo que completaría diciendo que no sólo era una «persona que tenía íntima amistad con Napoleón», sino que «constituía quizá la más notoria refutación empírica de la superstición pedagógica que da en sostener que los empeños nobles ennoblecen necesariamente el carácter de un hombre».[3.2] El libro de Bell, publicado en el año 1937, habría de influir en toda una generación de matemáticos y científicos. En la década de 1960, una estudiosa anglo-estadounidense de la estadística llamada Florence Nightingale David escribiría, sin verificarlo, que «la condena [a Laplace] es prácticamente universal».[3.3] La biografía académica estadounidense escrita por el historiador Charles Coulston Gillispie y dos de sus colaboradores, Robert Fox e Ivor Grattan-Guinness, por el contrario, parece titubear entre el halago y la censura. Comienza con la categórica afirmación de que «no ha llegado hasta nosotros un solo testimonio que deje traslucir la existencia de sentimientos de simpatía hacia él», pero concluye con una enumeración en la que incluye los «estrechos vínculos personales que mantenía con otros científicos franceses», su «cálida y sosegada vida familiar» y la ayuda que acostumbraba a proporcionar incluso a quienes criticaban sus investigaciones.[3.4]

Poco a poco irá comprendiéndose, no obstante, que Laplace fue uno de los primeros científicos profesionales que haya conocido el mundo. El estadístico Karl Pearson, que desde luego no tenía pelos en la lengua, sostendrá sin ambages que el autor del artículo publicado en la Encyclopaedia Britannica de 1912 era «uno de los escritores más superficiales que jamás hayan venido a oscurecer la atmósfera de la historia de la ciencia […]. Este tipo de afirmaciones, publicadas por un autor de una nación y referentes a uno de los más distinguidos individuos de una segunda nación —desprovistas además de toda referencia—, resultan de todo punto deplorables».[3.5] Los historiadores modernos han mostrado que muchos de los comentarios despectivos sobre la vida y la obra de Laplace eran falsos.

Dejando a un lado los insultos personales, Laplace contribuiría a desencadenar un furor por la estadística que acabaría por desbordar tanto los límites de la regla originalmente ideada por Bayes como la esfera de influencia de la versión que habría de concebir el propio Laplace. Éste dispararía la espoleta de aquella pasión por la estadística al hacer público en el año 1827 el hecho, por entonces inaudito, de que el número de cartas que el sistema postal parisino se veía obligado a devolver permanecía aproximadamente constante de un año a otro. Más tarde, al publicar el gobierno francés una histórica serie de estadísticas sobre la región de París, se tuvo oportunidad de vislumbrar que muchas de las actividades irracionales o pecaminosamente delictivas que se registraban en la capital tendían igualmente a permanecer constantes, incluso en el caso de los robos, los asesinatos y los suicidios. En el año 1830, la existencia de porcentajes estadísticos estables se desligaría decididamente de la divina providencia, viéndose Europa barrida por una verdadera obsesión por las cifras objetivas, tan necesarias para el ejercicio de un buen gobierno.

Inquietos tanto por el rápido avance de la urbanización y la industrialización como por el surgimiento de la economía de mercado, los primeros victorianos optarían por constituir sociedades estadísticas privadas dedicadas al estudio de la falta de higiene, la delincuencia y la contabilidad. No era difícil reunir datos estadísticos, y todo se prestaba a su análisis: el perímetro torácico de los soldados escoceses, la cantidad de oficiales prusianos muertos a causa de la coz de un caballo, las cifras de víctimas afectadas por el cólera, etcétera… Incluso las mujeres podían realizarlas. No se precisaba de ningún trabajo matemático, y lo cierto era que tampoco se esperaba encontrar nada de esa índole en los estudios estadísticos. El hecho de que la mayor parte de los burócratas del gobierno encargados de elaborar estadísticas desconocieran las matemáticas o se mostraran incluso reacios a emplearlas carecía por tanto de importancia. Los hechos, los puros hechos, estaban a la orden del día.

La idea de que podía emplearse la probabilidad para cuantificar la hondura de las lagunas de nuestro conocimiento había quedado arrumbada. La indagación sobre las causas que realizaran en su día Bayes, Price y Laplace había caído en el olvido. En el año 1861, una de las personas con quien se carteaba la reformista hospitalaria Florence Nightingale la regañaría con estas palabras: «Me veo obligado a reiterar las objeciones que ya antes expuse respecto al hábito de mezclar la causación con la estadística […] El estudioso de la estadística no se ocupa en modo alguno de las causas».[3.6]

El término «subjetivo» pasó a convertirse en una palabra malsonante. Tanto la Revolución Francesa como sus distintas consecuencias habían acabado haciendo añicos la idea de que todas las personas racionales compartían las mismas creencias. El mundo occidental quedó escindido entre los partidarios del romanticismo, que rechazaban de plano las bondades de la ciencia, y los defensores de las ciencias naturales, en las que se sumergían en busca de certidumbres, cautivados por la objetividad de las cifras, ya se valorara con ellas la cantidad de cuchilladas recibidas por la víctima de una agresión o el número de parejas que contraían matrimonio a una determinada edad.

En el transcurso de la década posterior a la muerte de Laplace serían cuatro los revisionistas europeos que se pusieran al frente de las acusaciones contra Laplace y la probabilidad, esto es, contra la matemática de la incertidumbre. John Stuart Mill denunciaría que la probabilidad constituía «una aberración del intelecto» y una forma de «ignorancia […] disfrazada de ciencia».[3.7] La objetividad había pasado a considerarse una virtud, la subjetividad resultaba insultante, y la probabilidad de las causas quedó convertida en blanco de las críticas de los escépticos, cuando no en objeto de su abierta hostilidad. Abrumados por el volumen de datos recién recogidos, los revisionistas optarían por juzgar la probabilidad de un acontecimiento en función de la frecuencia con que éste se produjera, dado un elevado número de observaciones. Al final, acabaría dándose el nombre de frecuentistas o de teóricos del muestreo a los partidarios de esta probabilidad basada en la frecuencia.

A los ojos de los frecuentistas, Laplace constituía un objetivo tan imponente que apenas se percataban de la existencia de Bayes. Cuando los críticos pensaban en la regla de Bayes, tenían en mente la fórmula de Laplace, centrando sus críticas en el gran científico francés y en sus seguidores. Argumentando que la probabilidad debía medirse en función de las frecuencias de aparición objetivas que mostraran los acontecimientos, y no de acuerdo con el grado de creencia subjetiva que éstos vinieran a inspirar, estos críticos actuarían como si los dos enfoques fuesen opuestos, pese a que Laplace los hubiera considerado fundamentalmente equivalentes.

Los reformistas denunciarían que las pragmáticas simplificaciones de Laplace no eran más que un burdo exceso. De este modo condenarían dos de las más conocidas aplicaciones que Laplace había encontrado para el análisis probabilístico. Laplace había planteado las siguientes preguntas: teniendo en cuenta que, en el pasado, el sol se ha elevado ya miles de veces sobre el horizonte, ¿puede decirse que también mañana vendrá a alzarse en el firmamento?; y dado que los planetas giran de manera similar en torno al sol, ¿cabe afirmar que el sistema solar procede de una causa única? En realidad no habría de emplear la regla de Bayes en ninguno de los dos proyectos, puesto que se limitaría a utilizar las probabilidades vinculadas con el análisis de los juegos de azar. No obstante, es verdad que en ocasiones tanto él como sus seguidores comenzarían a responder a estas interrogantes asumiendo que las probabilidades se repartían al cincuenta por ciento entre ambas posibilidades. Esta simplificación podría haberse defendido en caso de que Laplace no hubiera tenido la más mínima información acerca del firmamento. Pero se trataba del más destacado astrónomo matemático del mundo, de modo que se hallaba en mejor posición que nadie para comprender que los amaneceres y las nebulosas eran simples resultados de la mecánica celeste, muy distintas por tanto de las cuotas de probabilidad pertinentes en los juegos de azar. También había iniciado el estudio de las tasas de natalidad de niños y niñas con un porcentaje del cincuenta por ciento, pese a que los científicos ya supieran que la probabilidad de que naciese un varón era del 0,52 aproximadamente.

Laplace aceptaba que el hecho de reducir las cuestiones científicas al factor probabilístico multiplicaba las posibilidades de que saliera favorecida su profunda convicción de que los fenómenos físicos tienen causas naturales y no religiosas. Y de hecho, él mismo advertía a sus lectores sobre el particular. A veces, también sus seguidores habrían de conceder mucho más peso a las probabilidades iniciales favorables a las leyes naturales, debilitando en cambio la incidencia de los ejemplos adversos. Los críticos insistirían una y otra vez en la circunstancia de que las probabilidades resultaban irrelevantes para las cuestiones que se estaban tratando. Identificarían la regla de Bayes con la asunción de una probabilidad igual a priori, condenando la totalidad de su análisis debido a esto. Pocos serían los críticos que tratarán de imaginar siquiera la posibilidad de otros a priori.

Años después, John Maynard Keynes decidiría estudiar las quejas relacionadas con las estimaciones de Laplace, que determinaban, tomando como base los datos obtenidos en cinco mil años de historia, que «existen un millón ochocientas veinticinco mil doscientas catorce posibilidades contra una de que [el sol] se levante mañana por encima de horizonte». Resumiendo los elementos del debate, Keynes escribirá que no sólo «George Boole ha rechazado los razonamientos de Laplace con el fundamento de que las hipótesis en que éste asienta sus planteamientos son arbitrarias, sino que otro tanto han hecho John Venn, con el argumento de que no se atiene a la experiencia, y Joseph Bertrand, que juzga sus ideas ridículas, así como sin duda otros muchos autores. Sin embargo, es preciso reconocer que su pensamiento también ha gozado de una amplísima aceptación —como muestran los casos de Augustus de Morgan, William Jevons, Rudolf Lotze, Emanuel Czuber y el profesor Karl Pearson, por no citar sino a unos cuantos estudiosos representativos de las escuelas y períodos que habrían de sucederse [a la muerte de Laplace]—».[3.8]

En medio de todas aquellas discrepancias, el delicado equilibrio que había establecido Laplace entre las creencias subjetivas y las frecuencias objetivas se vino abajo. Laplace había desarrollado dos teorías de la probabilidad y mostrado que en aquellos casos en que intervienen números muy elevados los resultados que se consiguen con una u otra venían a ser aproximadamente los mismos. Sin embargo, si la ciencia natural era la senda conducente al conocimiento cierto, ¿cómo iba a revelarse subjetiva? Los científicos no tardarían en considerar que los dos enfoques de Laplace constituían en realidad dos formulaciones diametralmente opuestas. Al carecer de un experimento diacrítico con el que poder decidir el sentido de la controversia y dándose además la circunstancia de que Laplace demostraba que muy a menudo ambos métodos conducían poco más o menos a los mismos resultados, el diminuto mundillo de los expertos en el cálculo de probabilidades iba a encontrar grandes dificultades para zanjar el debate.

La investigación en el campo de la matemática probabilística se derrumbó por completo. Transcurridas apenas dos generaciones desde su fallecimiento, el principal conocimiento por el que se vendría a recordar a Laplace sería el relacionado con la astronomía. En el año 1850 no sería ya posible encontrar un solo ejemplar de su inmenso tratado sobre la probabilidad en ninguna de las librerías parisinas. Tendría que ser Adolphe Quetelet, un belga dedicado a la caza de hechos, quien diera a conocer la existencia de la matemática probabilística al físico James Clerk Maxwell, y no el propio Laplace. Maxwell utilizaría los métodos fundados en la frecuencia para el estudio de la mecánica estadística y la teoría cinética de los gases. De acuerdo con las expectativas de Laplace y Condorcet, los científicos sociales debieran haber sido los principales usuarios de la regla de Bayes. Sin embargo, estos últimos iban a mostrarse reacios a adoptar forma alguna de probabilidad. Entre finales de la década de 1870 y principios de la de 1880, el científico y filósofo estadounidense Charles Sanders Peirce promovería el uso de la probabilidad basada en la frecuencia. En el año 1891, un matemático escocés llamado George Chrystal llegaría incluso a redactar la crónica necrológica del método de Laplace: «Dado que las leyes de […] la probabilidad inversa han quedado exánimes, lo propio sería darles una sepultura decente y apartarlas de la circulación, no embalsamar su cadáver en los libros de texto y los exámenes de los estudiantes […] Deberían dejarse caer calladamente en el olvido los actos de indiscreción de los grandes hombres».[3.9]

Era ya la tercera ocasión en que se decretaba el fallecimiento oficial de la regla de Bayes. La primera vez había sido el propio Bayes quien la había desterrado a sus anaqueles. El segundo oscurecimiento se había producido poco después de que Price reviviera brevemente la teoría, aunque únicamente para verla desaparecer, sumida en el olvido. Y en este tercer envite, los teoréticos habían procedido a sepultarla.

El funeral era un tanto prematuro. Pese a la condena de George Chrystal, la regla de Bayes no sólo seguía presente en los libros de texto y en las aulas sino que resultaba de utilidad a los astrónomos porque los frecuentistas antibayesianos no habían conseguido formular todavía un método práctico y sistemático. En una serie de espacios, todos ellos dispersos y específicos, lejos de la desaprobadora mirada de los teoréticos, la regla de Bayes rebosaba de vitalidad, ayudando a los estudiosos volcados en los problemas prácticos de la vida cotidiana a valorar los datos de que disponían y contribuyendo asimismo a combinar todas las formas de información posibles, permitiendo de este modo que sus usuarios alcanzaran a colmar las lagunas e incertidumbres de sus conocimientos.

Por esta brecha abierta entre la desaprobación teorética y la utilidad práctica acertaría a colarse el ejército francés, a las órdenes de Joseph Louis François Bertrand, un matemático dotado de un gran poder político. Bertrand reformó la regla de Bayes a fin de que resultara productiva para los oficiales de campaña, que tenían que hacer frente a un inmensa cantidad de factores de incertidumbre relacionados, entre otras cosas, con la localización exacta del enemigo; la densidad del aire; la dirección del viento; las diferencias de comportamiento constatables entre los diferentes cañones de que disponían, todos ellos forjados a mano; y el alcance, orientación y velocidad inicial de los proyectiles. En los muy utilizados libros de texto que habría de publicar, Bertrand sostendría que la probabilidad de las causas de Laplace era el único método válido para verificar una hipótesis a la que se hubieran aportado nuevas observaciones. No obstante, Bertrand creía también que los seguidores de Laplace habían terminado por desorientarse, debiendo poner necesariamente fin a la práctica de emplear indiscriminadamente una horquilla de probabilidades del cincuenta por ciento para las causas a priori. Y para ilustrar sus afirmaciones, Bertrand refería la anécdota de los insensatos campesinos de la Bretaña francesa, que, al estudiar las posibles causas de los naufragios que se producían a lo largo de su recortado litoral, optaban por asignar unas probabilidades iguales a las mareas y a los mucho más peligrosos vientos del noroeste. Bertrand argumentaba asimismo que la suposición de una igualdad entre las probabilidades a priori debía aplicarse únicamente a aquellos raros casos en que o bien las hipótesis mostrasen de verdad las mismas probabilidades o bien no se supiera absolutamente nada acerca de sus respectivas posibilidades de verificación.

Ateniéndose a las estrictas normas impuestas por Bertrand, los oficiales de artillería comenzaron a no asignar las mismas probabilidades de comportamiento más que a aquellos cañones que hubieran sido fabricados en una misma factoría, se debieran a la labor de aproximadamente las mismas manos, y fueran el resultado de unos mismos ingredientes y procesos sometidos además a condiciones idénticas. Durante los sesenta años siguientes, esto es, entre la década de 1880 y la segunda guerra mundial, los oficiales de artillería franceses y rusos habrían de manejar sus armas siguiendo las directrices marcadas en los manuales de Bertrand.

Las rigurosas reformas bayesianas que había introducido Bertrand estaban llamadas a desempeñar un papel en el caso Dreyfus, esto es, en el escándalo que vendría a conmocionar a la nación francesa entre los años 1894 y 1906. Alfred Dreyfus, un oficial de artillería francés de origen judío, había sido falsamente declarado culpable de la realización de actos de espionaje al servicio de Alemania y condenado a cadena perpetua. Prácticamente la única prueba que pesaba en contra de Dreyfus se reducía a una carta que, según la acusación, habría vendido a un agregado militar alemán. Alphonse Bertillon, un criminólogo policial que había inventado un sistema de identificación basado en las medidas anatómicas, testificaría repetidamente que, de acuerdo con la probabilística matemática, Dreyfus era casi con toda certeza el autor de la carta comprometedora. Las nociones de probabilística que manejaba Bertillon no pasaban de ser un simple despropósito matemático, y además el hombre no paraba de imaginar argumentos cada vez más descabellados. Y al ver que los conservadores contrarios a la república, junto con los católicos y los antisemitas, respaldaban la condena impuesta a Dreyfus, la familia del convicto organizó una campaña para exonerarle de culpa, recibiendo en el empeño el apoyo de los anticlericales, los judíos, los políticos y los intelectuales de izquierdas, encabezados por el novelista Émile Zola.

En el consejo de guerra al que sería sometida la revisión del caso Dreyfus en el año 1899, el abogado de la defensa llamó a declarar al más ilustre matemático y físico de Francia, Henri Poincaré, que había sido profesor de probabilística en la Sorbona durante más de diez años. Poincaré creía en la estadística de base frecuentista, pero al preguntársele si el documento que había presentado Bertillon había sido redactado de su puño y letra por Dreyfus o por alguna otra persona, el insigne matemático invocó la regla de Bayes. Poincaré consideraba que, para un tribunal de justicia, ese método era la única forma sensata de poder actualizar una hipótesis previa a la que se hubieran aportado nuevos datos, puesto que, desde su punto de vista, la falsificación de documentos constituía uno de los problemas característicamente adecuados para una comprobación mediante el método bayesiano.

Poincaré entregó al abogado de Dreyfus una breve y sarcástica carta que el letrado leyó en voz alta ante los miembros de la sala: «el extremo más comprensible de cuantos expone Bertillon es falso […] Este colosal error coloca bajo sospecha todo lo que sigue […] No entiendo por qué se preocupa usted. No sé si el acusado terminará siendo condenado o no, pero en caso de que así fuera, tendrá que ser sobre la base de otras pruebas, puesto que esos argumentos [los de Bertillon] no podrán sesgar el juicio de unos hombres imparciales que además han recibido una sólida educación científica».[3.10] Llegada a ese punto la declaración —de acuerdo con lo registrado por el taquígrafo del tribunal—, se organizó un «prolongado alboroto» en la sala. El testimonio de Poincaré había desbaratado enteramente el fundamento de la acusación: todos los jueces habían recibido su formación en academias militares y conocían los trabajos de Bayes a través del manual de Bertrand.

El veredicto que emitieron los jueces fue una componenda, y en él se volvía a hallar culpable a Dreyfus, aunque reduciendo en esta ocasión la condena a cinco años de prisión. Sin embargo, el público estaba indignado, de modo que dos semanas más tarde el presidente de la república promulgaba un indulto. Dreyfus recibió un ascenso, siendo incluso condecorado con la Legión de Honor. Además, el gobierno decidió instituir una serie de reformas destinadas a separar estrictamente a la Iglesia y al estado. Muchos abogados estadounidenses, desconocedores de que la teoría probabilística contribuyó en su día a liberar a Dreyfus, han venido considerando este juicio como un ejemplo de descontrol matemático, viendo en él por tanto una razón para limitar el uso de la probabilidad en los casos penales.

Al perfilarse en el horizonte la amenaza de la primera guerra mundial, un general francés defensor del empleo de aviones militares y tanques en la inminente contienda, Jean Baptiste Eugène Estienne, desarrollaría un conjunto de complejas tablas bayesianas para señalar a los oficiales de campaña las mejores formas de apuntar y disparar. Estienne también habría de elaborar un método bayesiano para someter a prueba los distintos tipos de munición. En el año 1914, después de que Alemania se apoderase de buena parte de las regiones industriales del oeste de Francia, las municiones eran tan escasas que los franceses se vieron en la imposibilidad de utilizar los métodos de comprobación de la calidad del material que requerían la realización de estudios de carácter frecuentista debido a que éstos consumían una gran cantidad de proyectiles. Movilizados a causa del esfuerzo vinculado con la defensa de la nación, los profesores de matemáticas abstractas desarrollarían diversas tablas experimentales de corte bayesiano que únicamente exigían la destrucción de veinte cartuchos por cada lote de veinte mil. En lugar de efectuar un número predeterminado de pruebas, el ejército podía detener los ensayos tan pronto como estimara que el lote de municiones en cuestión era lo suficientemente seguro. Y en el transcurso de la segunda guerra mundial, los matemáticos estadounidenses y británicos alcanzarían a descubrir métodos similares, asociando su estudio y mejora al ámbito de la investigación operativa.

Al aproximarse la primera guerra mundial, todavía se daba por supuesto que la regla de Bayes seguía agonizando antes de haber podido echar a andar siquiera. No obstante, en esa época los Estados Unidos hubieron de hacer frente a dos emergencias provocadas por la rápida industrialización del país. En ambos casos, un grupo de estadísticos autodidactas optaría por recurrir a la regla de Bayes, utilizándola como instrumento para la adopción de decisiones informadas: primero en relación con las comunicaciones telefónicas y más tarde para resolver un problema vinculado con las lesiones sufridas por los trabajadores.

La primera de estas crisis tuvo lugar al estallar el pánico financiero del año 1907 y amenazar éste la supervivencia del sistema de telefonía Bell, propiedad de la Compañía de Teléfonos y Telégrafos Estadounidense («American Telephone and Telegraph Company», o AT&T según sus siglas inglesas). El período de vigencia de las patentes de Alexander Graham Bell había expirado pocos años antes, y además la compañía se había expandido más allá de lo razonable. Sólo la intervención de un consorcio bancario encabezado por la Casa Morgan[3.i] evitaría el desplome de la compañía Bell.

Por esa misma época, los organismos estatales de control habían comenzado ya a exigir pruebas a la compañía Bell de que tenía la capacidad necesaria para ofrecer a los usuarios un servicio mejor y más económico que las empresas que competían con ella en el ámbito local. Por desgracia, era frecuente que las líneas telefónicas de la Bell quedaran saturadas tanto a última hora de la mañana como al inicio de la tarde, puesto que en esos períodos de tiempo el número de clientes que trataban de establecer simultáneamente una llamada desbordaba los medios técnicos de la compañía. Durante el resto de la jornada —esto es, en el ochenta por ciento del tiempo de servicio—, la red de la Bell quedaba en cambio infrautilizada. No había una sola compañía que poseyera la fuerza suficiente como para permitirse la puesta en funcionamiento de un sistema capaz de gestionar todas las llamadas que pudieran llegar a producirse en las horas punta.

Edward C. Molina, un ingeniero de la ciudad de Nueva York, empezaría a ponderar los elementos de incertidumbre que implicaba la organización del servicio. Molina, cuya familia había emigrado de Portugal, pasando primero por Francia, había nacido en Nueva York en el año 1877. Había conseguido completar la enseñanza secundaria, pero al carecer de medios económicos para cursar estudios en la universidad, tuvo que ponerse a trabajar, primero en el departamento de ingeniería e investigación de la Compañía Western Electric, pasando más tarde a una división homóloga de la AT&T (a la que más tarde acabaría conociéndose con el nombre de Laboratorios Bell). El Sistema Bell que se empleaba en las compañías telefónicas estaba adoptando un nuevo enfoque matemático y tratando de aplicarlo a la resolución de problemas. El jefe de Molina, que era George Ashley Campbell, había estudiado probabilística con Poincaré en Francia, pero eran varios los empleados de la compañía que habían empezado a instruirse sobre el particular a través de las páginas de la Encyclopaedia Britannica. El propio Molina se dedicaba también a la enseñanza de las matemáticas y la física, y acabaría convirtiéndose en el principal experto nacional en el campo de la probabilística de Bayes y Laplace.

A diferencia de muchos de sus colegas de la época, Molina comprendería que «existía una gran confusión debido a que son muchas las autoridades que se han revelado incapaces de distinguir de forma clara entre el teorema inverso que ideara originalmente Bayes y la ulterior generalización efectuada por Laplace. El teorema general viene a abarcar, o a reunir, tanto los datos obtenidos a partir de una serie de observaciones como toda la información “colateral” que pueda existir en relación con los resultados observados».[3.11] Como bien explicaba Molina, los estudiosos de la estadística aplicada se veían muy a menudo obligados a tomar decisiones rápidas basándose simplemente en unos datos observacionales muy escasos. Cuando se daban esas circunstancias, tenían que fundar sus análisis en un conjunto de conocimientos previos de carácter indirecto —conocimientos a los que se daba el nombre de información colateral—. Esos datos eran de muchas clases, pudiéndose considerar como tales desde las valoraciones de las tendencias nacionales o históricas a la estimación de la salud mental de un ejecutivo. Ésta era la razón de que se necesitara disponer de algún método para utilizar todos los tipos de pruebas disponibles, ya fueran estadísticos o no.

Valiéndose de la fórmula de Laplace, Molina combinaría la información previa que tenía a su disposición sobre la economía de la automatización de los sistemas de telefonía Bell con los datos vinculados con el tráfico de llamadas de teléfono, la longitud de las mismas y los respectivos tiempos de espera para el establecimiento de la conexión. De esta forma, Bell obtendría un método rentable para hacer frente a las incertidumbres asociadas con el uso del teléfono.

Hecho esto, Molina pasó a ocuparse de la automatización del Sistema Bell en el ámbito de la intensa utilización de mano de obra que éste requería. En muchas ciudades, la compañía proporcionaba empleo a la población femenina, contratando entre un ocho y un veinte por ciento de mujeres como operadoras telefónicas. El trabajo de éstas consistía en conectar las clavijas de las diferentes líneas de teléfono al objeto de dirigir las llamadas a las centralitas y posibilitar así la comunicación de los clientes que deseaban realizar llamadas de larga distancia. Había escasez de operadoras, y en algunas ciudades la tasa de rotación de personal se elevaba al cien por cien anual, llegándose a superar incluso esa cifra en algunas ocasiones —por no mencionar el hecho de que entre los años 1915 y 1920 los salarios se duplicaron—. Según el punto de vista que optemos por defender, esta situación laboral venía a constituir el ejemplo tipo de una de estas dos perspectivas: bien la de un mundo lleno de oportunidades para las mujeres, bien la de una tecnología moderna dispuesta a ejercer una presión cruel sobre las personas.

Para automatizar el sistema, Molina concibió el transmisor de relé, un dispositivo que convertía los números decimales marcados en el dial del teléfono en instrucciones para la redirección de la línea. Tuvo que emplear el teorema de Bayes para analizar la información técnica y la economía de las diversas combinaciones de clavijas, selectores y centralitas en cada establecimiento de llamada concreto. Dado que en el año 1920 las mujeres habían conseguido que se les reconociera el derecho a voto, la compañía Bell temía las repercusiones que podían producirse si despedía a todas sus operadoras, así que optó por un método de automatización que se limitaba a reducir a la mitad las cifras de personal. Entre las dos guerras mundiales, el número de operadoras cayó drásticamente, pasando de quince a siete por cada mil teléfonos, y esto a pesar de que se hubiera incrementado la cantidad de llamadas interurbanas y el número de conferencias. La probabilidad pasó a desempeñar un importante papel en el Sistema Bell, y se empezaron a utilizar métodos bayesianos para desarrollar teorías básicas de muestreo.

Molina sería galardonado con varios premios de prestigio, pero el uso que había hecho de la regla de Bayes no dejaría de suscitar controversias entre algunos de los matemáticos de la Bell —y lo cierto es que Molina se quejaría de haber tenido dificultades para publicar sus investigaciones—. Es posible que algunos de esos problemas se debieran al hecho de ser un personaje bastante pintoresco. Le encantaban las maquetas navales, acostumbraba a publicar artículos sobre el uso que Edgar Allan Poe hacía de la probabilidad, tocaba el piano con mano maestra y realizaba periódicas donaciones a la Ópera del Metropolitan de Nueva York. Siguió tan de cerca y tan apasionadamente la guerra ruso-japonesa que sus colegas terminaron adjudicándole el apodo de general Molina —y no precisamente por afecto—. Y él mismo, al descubrir de forma independiente la distribución de Poisson, habría de darle el nombre de distribución de Molina, hasta tener noticia, para notable turbación suya, de que uno de los protegidos de Laplace, Siméon Denis Poisson, ya había hablado de ella en la década de 1830.

Con todo, el entusiasmo que sentía Molina por la probabilística fundada en Bayes y Laplace no habría de extenderse a otras corporaciones estadounidenses. En la mayoría de las ocasiones, la compañía AT&T consideraría que los artículos que Molina escribía sobre Bayes constituían en realidad secretos de la propiedad industrial, de modo que sólo accedería a sacarlos a la luz por medio de publicaciones internas y años después de haberse implantado sus sistemas.

Por la misma época en que la regla de Bayes contribuía a salvar el Sistema Bell, los financieros del país se afanaban en tender tanto la red ferroviaria como las industrias estadounidenses. Sin embargo, no existía por entonces ninguna normativa gubernamental de seguridad en el trabajo, de modo que entre los años 1890 y 1910 la tasa de trabajadores industriales fallecidos en el desempeño de su labor era de uno por cada trescientos dieciocho, siendo el número de heridos notablemente superior. La mano de obra de la nación sufría más accidentes, más enfermedades, más procesos de discapacidad, mayores niveles de envejecimiento prematuro y peores cifras de desempleo que los trabajadores europeos. Sin embargo, y a diferencia de lo que sucedía en la mayor parte de Europa, los Estados Unidos no se habían dotado de ningún sistema de garantía social que permitiera proteger mediante una póliza de seguro a los trabajadores enfermos o a los que fueran víctima de algún accidente, de manera que lo único que separaba a la mayoría de las familias obreras de precisar la ayuda de las organizaciones benéficas era la paga de una sola mensualidad. Los jueces federales dictaminaron que los empleados que hubieran sufrido heridas sólo podrían demandar a la empresa en caso de que la culpa del incidente fuera directamente imputable a sus jefes. Para un estadístico perteneciente al Ministerio de Trabajo de los Estados Unidos no existía en el año 1898 un ámbito en el que se revelara más acuciantemente el retraso del país respecto de otras naciones que el de las reformas sociales o legales en esta materia.

La situación iría cambiando a medida que fuera creciendo el número de trabajadores afiliados a la Federación Estadounidense del Trabajo, pero también al constatarse que los jurados locales comenzaban a conceder generosas compensaciones a los obreros discapacitados a causa de un accidente laboral. Llegadas las cosas a ese punto, los empleadores llegaron a la conclusión de que resultaba más económico tratar la salud y la seguridad en el trabajo como un gasto empresarial predecible que quedar obligado a confiar en la postura que pudiesen adoptar los jurados o verse en la tesitura de tener que estimular la sindicalización. De este modo, entre los años 1911 y 1920 se desencadenaría una avalancha de leyes de responsabilidad objetiva en todos los estados, salvo en ocho —leyes cuya promulgación obligaría a los patronos a asegurar inmediatamente a sus empleados frente a la eventualidad de accidentes o de enfermedades laborales—. Ésta habría de ser la primera —y durante décadas la última— forma de seguridad social de los Estados Unidos.

Esta legislación disparó todas las alarmas. Por regla general, el precio de una prima de seguros es un reflejo de los datos acumulados en relación con una serie de factores como las tasas de siniestralidad laboral, los costes de la atención médica, los salarios, las tendencias constatables en el conjunto de la industria, y los detalles relativos a unas cuantas compañías específicas. En los Estados Unidos no se disponía de ninguno de esos datos. Ni siquiera los estados más industrializados contaban con el número de estadísticas ocupacionales que hubieran sido necesarias para poder cuantificar las pólizas de todas sus actividades industriales. El centro neurálgico de la industria del estado de Nueva York únicamente disponía de la experiencia precisa para fijar los precios de las pólizas de los operadores de las impresoras mecánicas y los trabajadores del sector textil; el estado de Carolina del Sur contaba únicamente con los datos justos para evaluar las pólizas de los hilanderos y los tejedores de algodón; y los condados de Saint Louis y Milwaukee no tenían más que la información relativa a los fabricantes de cerveza. En el año 1909, Nebraska contaba tan sólo con veinticinco pequeñas manufacturas —y esto sumando las de todos los tipos—. Resultaba indispensable responder a preguntas como las que se planteaba un experto en seguros: «¿cuándo logrará Nebraska determinar la prima neta que es preciso aplicar a los operarios que producen “tirantes sin hebillas”, o cuando alcanzará Rhode Island a establecer eso mismo en relación con los suministradores de “productos cárnicos”? Y sin embargo, es absolutamente necesario establecer cuotas para cada una de esas profesiones, y no sólo eso, sino que se hace imperioso fijar además unas cantidades que resulten adecuadas y equitativas».[3.12]

Los datos procedentes de otras zonas geográficas rara vez resultaban relevantes. Alemania llevaba treinta años reuniendo estadísticas de accidentes, pero las condiciones que reinaban en sus industrias eran más seguras, y además, al haberse recopilado los datos en el conjunto de la nación, los valores de las primas únicamente podían establecerse en función de una información que abarcaba la totalidad de la industria del país. Por el contrario, en los Estados Unidos la recopilación de datos se hacía estado por estado, de modo que las estadísticas de Massachusetts relativas a los fabricantes de calzado resultaban irrelevantes en el caso de los trabajadores de las minas de metal de Nevada y sus elevadas tasas de siniestralidad, dado que, como habría de informar un experto del ramo, «en Massachusetts las minas de menas metálicas son tan raras como en Irlanda las serpientes».[3.13]

No obstante, casi todas las compañías de dimensiones importantes del país se vieron obligadas a establecer mediante conjeturas las primas a aplicar —teniendo que hacerlo además de la noche a la mañana y prácticamente de la nada—. Aquello era una pesadilla capaz de mantener en vela noches enteras a todo estadístico con formación matemática —aunque en los Estados Unidos éstos fuesen muy escasos—. Los actuarios de seguros se oponían muy a menudo a las matemáticas de alto nivel, y un funcionario llegaría a expresar la queja de que el importe de las primas de riesgo de accidente o incendio solía establecerlo generalmente un conjunto de oficinistas carentes de toda formación específica, valiéndose de su propio parecer —al que ellos «denominan rimbombantemente “estimación aprobatoria”»—,[3.14] un poco al modo de la «intuición femenina […] (“No sé exactamente de dónde me viene esta seguridad, pero estoy convencida de estar en lo cierto”)».[3.15] Y para complicar todavía más la crisis, las legislaciones de los distintos estados ordenaban la creación de un sistema de seguros propio y singular para cada uno de ellos.

Además, el importe de las primas debía fijarse con precisión, puesto que tenía que ser lo suficientemente elevado como para garantizar la solvencia de la compañía durante la totalidad del período vital de sus asegurados y hallarse al mismo tiempo lo suficientemente individualizado como para conseguir que las empresas que tuvieran unos buenos índices de seguridad se vieran económicamente recompensadas. En una hazaña extraordinaria, y tras decretarse una moratoria provisional de dos o tres años hasta que los diferentes estados pudieran acumular las estadísticas correspondientes a sus respectivas tasas de siniestralidad laboral, Isaac M. Rubinow, un médico y estadístico de la Asociación Médica Estadounidense, lograría organizar de forma manual el análisis, la clasificación y la confección de tablas de un conjunto documental formado literalmente por millones de reclamaciones de seguros, procedentes de Europa en la mayoría de los casos. Debemos utilizar, diría, «hasta el último elemento de información, por minúsculo que sea».[3.16]

En el año 1914, Rubinow convocó a once actuarios de seguros con cierta formación científica y fundó la Sociedad Actuarial de Compañías Aseguradoras de Accidentes Laborales. De los once miembros de la recién creada asociación, sólo siete contaban con una licenciatura universitaria, pero el objetivo que iban a proponerse materializar era realmente imponente: establecer sobre un sólido fundamento matemático las compensaciones económicas que debían asignarse a las víctimas de los incendios y los accidentes laborales. Rubinow pasó a ser el primer presidente de la organización, aunque abandonaría casi inmediatamente su cargo al oponerse el sector asegurador y la Asociación Médica Estadounidense a que el sistema de garantías sociales se hiciera extensivo a los enfermos y los ancianos. Corrió el rumor de que Rubinow, que era un inmigrante judío venido de Rusia, tenía «tendencias socialistas».[3.17]

Albert Wurts Whitney, un estudioso de Berkeley especializado en la matemática aplicada al cálculo de seguros, sustituyó a Rubinow al frente del comité de seguros de accidentes laborales. Whitney era un ex alumno de la facultad de Beloit y carecía de titulación académica, pero había enseñado matemáticas y física en las universidades de Chicago, Nebraska y Michigan. En la Universidad de California, en Berkeley, había dado clases de probabilística a los futuros profesionales del sector asegurador. Pese a no estar tan versado como Molina, de los Laboratorios Bell, en la literatura matemática original existente sobre el particular, Whitney se hallaba tan familiarizado con los teoremas de Bayes como con los de Laplace y sabía que en esta ocasión debía recurrir a uno de ellos. Pero no habría de ser sólo eso lo que comprendiera, ya que también se daría cuenta de que las ecuaciones de ambos métodos resultaban excesivamente complicadas para el incipiente movimiento favorable al aseguramiento de los accidentes laborales.

Una tarde de la primavera del año 1918, librándose todavía en Europa los combates de la primera guerra mundial, Whitney y los miembros de su comité dedicaron varias horas a eliminar en la máxima medida posible todos los elementos matemáticos complejos que contenían las formulaciones originales, sustituyéndolos por un conjunto de simplificaciones dudosas. Llegaron al acuerdo de suponer que cada ramo de un particular sector industrial (por ejemplo, el de los instaladores de los tejados de las casas) se enfrentaba a los mismos riesgos. También aceptaron presuponer que todos los actuarios de seguros poseían la misma capacidad de completar los datos relativos a las heridas sufridas por el accidentado mediante una serie de valoraciones subjetivas de carácter «no estadístico» o con «material exógeno», como por ejemplo el hecho de que el propietario de un determinado negocio tuviera propensión a la bebida. Esto implicaba utilizar la regla de Bayes, empleando como fundamento de la probabilidad a priori la experiencia que tuviese en la materia el conjunto del sector industrial considerado y como datos nuevos los contenidos en el historial concreto de las empresas locales. Whitney advertiría no obstante lo siguiente: «Sabemos que no todas las valoraciones [subjetivas] que aparecen en según qué clasificaciones resultan igualmente fiables. [Pero] cabe dudar razonablemente de que, en la práctica, resulte operativo reconocer este hecho».[3.18]

Al morir la tarde, el comité llegó a la decisión de basar casi exclusivamente el precio de la prima imputable a un determinado cliente en los datos relativos a la clasificación de conjunto de ese tipo de consumidor. De este modo, la prima de un taller mecánico podía fundamentarse en datos extraídos de otros negocios similares, o, caso de ser lo suficientemente grande el taller en cuestión, en la casuística específica de la mencionada empresa. El hecho de combinar los datos de varias compañías relacionadas venía a concentrar las cifras que arrojaba el cálculo, aproximándolas a un valor medio y otorgándoles una mayor precisión, generándose así un leve «encogimiento» que Charles Stein vendría a explicar en la década de 1950. Lo que se obtenía por este medio era una fórmula de pasmosa sencillez, una fórmula que no sólo alcanzaba a calcular cualquier oficinista y a comprender cualquier asegurador, sino que resultaba fácil de explicar a los clientes de cualquier agente de ventas. Henchido de satisfacción, el comité daría a su creación el nombre de Credibilidad.

En el transcurso de los treinta años siguientes, el primer sistema de garantías sociales de los Estados Unidos habría de basarse en esta simplificación del sistema bayesiano. Según admitiría uno de los actuarios con clásica moderación, «es evidente que la definición de [credibilidad] Z = P/(P+K) no constituye un descubrimiento tan grande como el de E = mc2, ni expresa su misma verdad inalterable, pero desde luego lleva generaciones facilitando la vida de los agentes de seguros».[3.19] Casi cincuenta años más tarde, los estadísticos y los actuarios quedarían sorprendidos al descubrir que las raíces de esta Credibilidad mercantil nacían de un sustrato bayesiano.

Después de aquello, Whitney elaboraría diversos métodos para valorar cada uno de los datos disponibles en función de su respectiva credibilidad subjetiva. De este modo, los actuarios no tardarían en «aventurarse en un terreno alejado de todo cuanto haya podido probarse matemáticamente hasta ahora». Y como señalaría más tarde un actuario, «la única demostración que nos es dado realizar […] consiste en resaltar que, en la pura práctica del día a día, el sistema funciona».[3.20]

Ya fueran funcionarios estatales o tomadores de seguros, los escépticos se preguntarían en ocasiones de dónde procedían esas extrañas cifras de Credibilidad. En concreto, un inspector de seguros llegaría a formular la siguiente pregunta: «Han sustentado ustedes todos los demás elementos de la documentación en un conjunto de experiencias reales, ¿pero dónde están los datos que apoyan el factor de Credibilidad del que hablan?».[3.21] Los actuarios cambiaron rápidamente de tema. Y al preguntarle a Whitney de dónde había sacado los principios matemáticos en que descansaba la estimación de la Credibilidad, el aludido señalaría displicentemente haberla encontrado en casa de un colega: «En la sala de estar de Michelbacher», fue su respuesta.

La teoría de la Credibilidad no sólo era la respuesta práctica que daban los estadounidenses a un problema estrictamente propio de su país sino que acabaría convirtiéndose en la piedra angular de los seguros inmobiliarios y de accidentes. De este modo, al ir acumulándose las reclamaciones, los actuarios tenían la posibilidad de comprobar la idoneidad de las primas establecidas, comparándolas con las cifras de las demandas que efectivamente cursaban sus clientes. En el año 1922, los actuarios comenzaron a tener a su disposición un enorme fondo documental de datos laborales: el compilado por el Consejo Nacional de Compensación de Seguros. Y a medida que fuera pasando el tiempo, los actuarios prácticos empezarían a tener cada vez menos necesidad de entender la relación existente entre su noción de Credibilidad y la regla de Bayes.

Si los Estados Unidos estaban utilizando el teorema de Bayes para tomar decisiones de carácter empresarial y Francia lo había adaptado a fin de aplicarlo al ejército, la eugenesia iba a volver a trasladar la peripecia histórica de la regla de Bayes a Gran Bretaña, esto es, a su punto de partida. En dicho país, Karl Pearson y Ronald Fisher estaban convirtiendo la estadística —concretamente la matemática de la incertidumbre— en una primera forma de ciencia de la información. A principios del siglo XX, los teoréticos, embarcados en la creación de nuevas vías de acceso al estudio de la biología y la herencia, terminarían cambiando la actitud que el mundo científico había venido manteniendo en relación con la regla de Bayes —una actitud que de este modo pasaría de una tolerancia poco entusiasta a una patente hostilidad.

Karl Pearson (repito aquí su nombre porque su hijo Egon también habrá de formar parte del destino de la regla de Bayes) era un ferviente partidario del ateísmo, el socialismo, el feminismo, el darwinismo, la germanofilia y la eugenesia. Estaba convencido de que para salvar al imperio británico era preciso que el gobierno estimulara la reproducción de las clases medias altas y frenara en cambio las tasas de natalidad de los pobres. Karl Pearson habría de liderar durante mucho tiempo a los teóricos británicos de los años treinta y tantos del siglo XX. Y en ese período lograría familiarizar a dos generaciones de estudiosos de la matemática aplicada con el tipo de reyertas y acosos profesionales que, por regla general, solemos asociar con las riñas de patio de colegio.

Caracterizado por un temperamento discutidor, una insaciable ambición y una férrea determinación, pocas serían las cosas en que Karl Pearson se mostrara ambiguo, pero desde luego la regla de Bayes habría de ser una de ellas. La probabilidad uniforme a priori y la subjetividad de los supuestos le ponían nervioso. No obstante, al no disponer los estadísticos sino de muy pocas herramientas, Karl Pearson llegaría a la apesadumbrada conclusión de que «el hombre de espíritu práctico […] ha de aceptar los resultados de la probabilidad inversa que estudiaron Bayes y Laplace en tanto no disponga de algo mejor».[3.22] Y como diría Keynes en el año 1921, en su Tratado de probabilidad, «[La probabilidad] todavía tiene, para los científicos, un cierto regusto a astrología, a alquimia». De hecho, cuatro años más tarde, el matemático estadounidense Julian L. Coolidge vendría a confirmar esta impresión: «Empleamos la fórmula de Bayes con un suspiro de resignación, sabiendo que es el único instrumento que tenemos a nuestro alcance en esas circunstancias».[3.23]

Al final, Ronald Aylmer Fisher, otro genetista, disputaría el cetro estadístico a Karl Pearson y asestaría un mazazo prácticamente letal a la regla de Bayes. Si la peripecia vital del teorema de Bayes fuese un culebrón televisivo habría que identificar claramente al malo de la película, y en este sentido es muy probable que Fisher fuese el villano que el público diera en elegir por aclamación para el papel.

Sin embargo, no parecía ser el tipo adecuado para representar ese rol. Apenas alcanzaba a ver a un metro de distancia, ni siquiera con las gruesas gafas graduadas que llevaba, y era frecuente que tuviesen que apartarle rápidamente de la trayectoria de los autobuses que no lograba distinguir. Vestía unas ropas tan arrugadas que su familia le decía que tenía pinta de vagabundo. Fumaba en pipa incluso cuando se echaba a nadar, y de cuando en cuando, si una determinada conversación le aburría, no tenía el menor reparo en sacarse la dentadura postiza y ponerse a limpiarla en público.

Fisher tomaba cualquier pregunta que pudiera hacérsele como un ataque personal, de modo que hasta él mismo reconocía que su exaltado temperamento le amargaba la existencia. William Kruskal, uno de sus colegas, describiría la vida de Fisher diciendo que no había sido más que «una interminable ristra de altercados científicos —que en ocasiones llegaban incluso a simultanearse—, ya fuera en las reuniones de la profesión o en los artículos propios del oficio».[3.24] Y en el retrato fundamentalmente amable de la carrera de Fisher que habría de trazar Jimmie Savage, un teorético bayesiano, leemos lo siguiente: «a veces publicaba unos insultos que sólo un santo podría perdonar enteramente […] Fisher anhelaba alcanzar, con mayor ardor aún que el resto de nosotros, la originalidad, la exactitud, la relevancia, la fama y el respeto. Y en muy gran medida puede decirse que consiguió todos esos títulos, aunque nunca en medida suficiente como para alcanzar a sentirse sosegado».[3.25] Es muy posible que parte de la frustración de Fisher surgiera del hecho de que en muchas de las cuestiones estadísticas que estudiaba acostumbrara a dar en el clavo.

Fisher tenía dieciséis años cuando el negocio de la familia se vino abajo. Tiempo después conseguía estudiar en Cambridge con una beca, convirtiéndose no sólo en el mejor alumno de matemáticas de su curso sino en miembro fundador y presidente de la Sociedad Eugenésica de la Universidad de Cambridge —organización que crearía en el año 1911—. Un poco más tarde lograba resolver en una sola página un problema que Karl Pearson se había esforzado en solucionar durante años. Pearson juzgó que la solución de Fisher no tenía valor alguno y se negó a publicarla en la prestigiosa revista Biometrika, que él mismo había contribuido a crear. La enemistad entre ambos hombres no habría ya de abandonarles mientras vivieran. Sin embargo, al corregir las incoherencias presentes en los trabajos de Karl Pearson, Fisher sería el primero en pergeñar una teoría estadística de carácter tan general como riguroso, encarrilándola además por la senda matemática y antibayesiana que habría de seguir durante largo tiempo.

La discordia surgida entre estos dos hombres de tan explosivo temperamento resulta sorprendente porque lo cierto es que ambos eran fervorosos partidarios de la eugenesia y creían que si se procedía a una meticulosa selección para la generación de superhombres y supermujeres ingleses se lograría mejorar la población humana y el imperio británico. Al objeto de contribuir al sustento de su esposa y de sus ocho hijos, que regentaban una granja en régimen de mera subsistencia, Fisher aceptaría fondos procedentes de una polémica fuente, puesto que se los procuraba el hijo de Charles Darwin, Leonard, un hombre que en su calidad de presidente honorario de la Sociedad para la Educación en la Eugenesia abogaba por la detención de los «sujetos inferiores […] y la separación de ambos sexos» a fin de evitar que las clases sociales integradas por ese tipo de individuos pudiesen engendrar descendencia.[3.26] Entre los años 1914 y 1934, a cambio de aquella ayuda económica, Fisher publicaría más de doscientas reseñas en la revista de Leonard Darwin.

En 1919 no eran muchos los puestos de trabajo que pudieran encontrarse en el ámbito de la estadística o la eugenesia, pero Fisher consiguió un empleo como analista de fertilizantes en la Institución de Agricultura Experimental de Rothamsted. Otros precursores de la estadística trabajarían en fábricas de cerveza, en hilaturas de algodón, en factorías dedicadas a la producción de bombillas o en la industria lanera. El cometido de Fisher consistía en analizar los gruesos volúmenes de datos que se habían ido reuniendo durante décadas en relación con el estiércol de caballo, los abonos químicos, la rotación de cultivos, la pluviometría, la temperatura y la magnitud de las cosechas. Según sus propias palabras, se dedicaba a «rastrillar en un montón de mugre».[3.27] Como ya hiciera Karl Pearson antes que él, Fisher recurriría en un principio al teorema de Bayes. Sin embargo, en las conversaciones que mantendría mientras tomaba el té con los científicos de Rothamsted, los profesionales de la ciencia del suelo colocarían a Fisher frente a un conjunto de problemas nuevos que le harían poner los pies en la tierra —y esto en un sentido perfectamente literal—. Fascinado, Fisher comenzó a concebir una forma mejor de diseñar la realización de experimentos.

Con el paso de los años, Fisher se convertiría en un adelantado de la creación de métodos de distribución aleatoria y del estudio de la teoría del muestreo estadístico, avanzando asimismo en las pruebas de significación, la estimación de la máxima verosimilitud, el análisis de la varianza y la definición de métodos de diseño experimental. Gracias a Fisher, los científicos experimentales, que tradicionalmente habían hecho caso omiso de los métodos estadísticos, aprenderían a incluirlos en la concepción de sus proyectos. En su calidad de sumo pontífice de la estadística del siglo XX, Fisher acostumbraría a zanjar las prolijas discusiones teóricas con un escueto veredicto: «aleatoricen». En el año 1925 publicaría un revolucionario manual de técnicas novedosas titulado Métodos estadísticos para investigadores. Este texto —que venía a ser una especie de recetario repleto de procedimientos ingeniosos de utilidad para todos los profesionales ajenos a la estadística— convertiría de hecho a la frecuencia en el método estadístico por excelencia. Este primer manual lograría vender veinte mil ejemplares, y el segundo texto similar que daría en publicar habría de conocer nada menos que siete ediciones antes del año 1962, fecha del fallecimiento de Fisher. Sus análisis de la varianza, que indican la manera de separar los efectos de distintos tratamientos, ha terminado convirtiéndose en una de las herramientas más importantes de las ciencias naturales. Sus pruebas de significación y sus valores p habrían de emplearse millones de veces, pese a que, con el paso del tiempo, su utilización terminara revelándose cada vez más controvertida. En la actualidad, nadie puede abordar un debate sobre cuestiones estadísticas —esto es, sobre lo que el propio Fisher daría en llamar «la matemática aplicada a los datos observacionales»— sin recurrir a alguna de las voces acuñadas por él.[3.28] Muchas de sus ideas vendrían a proporcionar solución a los problemas computacionales provocados por las limitaciones de las calculadoras de sobremesa de la época. En los departamentos de estadística de las empresas no tardaría en resonar el característico tintineo metálico de las máquinas de calcular dedicadas a la mecanización de los distintos pasos necesarios para la realización del tipo de procesamiento de datos que propugnaba Fisher.

El propio Fisher terminaría convirtiéndose en un magnífico genetista capaz de completar sus estudios con estadísticas matemáticas. Llenó su domicilio de gatos, perros y miles de ratones a fin de efectuar experimentos de cruzamiento genético, dotándose de la posibilidad de documentar por espacio de varias generaciones el árbol genealógico de cada uno de sus animales. A diferencia de Bayes, Price y Laplace, Fisher no tenía necesidad de completar las observaciones que resultaran inadecuadas o conflictivas con corazonadas o juicios subjetivos. Sus experimentos generaban pequeños conjuntos y subconjuntos de datos estrictamente centrados en obtener una respuesta a una única pregunta mediante un riguroso análisis matemático. Fisher trabajaba con pocas incertidumbres y no se veía obligado a bregar con un gran número de lagunas en sus colecciones de datos, de modo que podía comparar, manipular o repetir sus experimentos a placer. Gracias a los problemas que se había puesto a estudiar, Fisher conseguiría que la redefinición de la mayoría de las incertidumbres no se efectuara en función de la relatividad de sus probabilidades sino de acuerdo con la relatividad de sus frecuencias. Lograría hacer fructificar las teorías de Laplace basadas en la frecuencia, esto es, los métodos que el propio Laplace juzgaría preferibles en los últimos años de su vida.

Tras pasar quince años en Rothamsted, Fisher se trasladaría primero a la Escuela Universitaria de Londres y más tarde a Cambridge, para dedicarse a la enseñanza de la genética. En la actualidad, los estadísticos le consideran una de las grandes mentes del siglo XX, así que tanto su persona como la figura de Karl Pearson aparecen rodeadas de un «halo mítico».[3.29] Sin embargo, hay que decir que el aura en que se halla envuelto Fisher ha quedado hoy un tanto empañada. Dejó a su familia en la granja, sin más recursos que los de un reducidísimo subsidio. Como diría uno de sus colegas: «Si al menos […] Si al menos hubiera sido Ronald Aylmer Fisher un hombre más agradable, si al menos se hubiera tomado la molestia de actuar con mayor claridad y no mostrándose tan enigmático, si al menos no hubiera sido víctima de una ambición obsesiva, si al menos no se hubiese visto corroída por la amargura su persona […] Si al menos no se hubiera comportado de ese modo […] Pero es posible que en tal caso no hubiésemos disfrutado de los magníficos logros que nos ha legado».[3.30]

En la desaforada arremetida que habría de desatar contra la regla de Bayes, Fisher dará en calificarla de «jungla impenetrable», añadiendo que constituía «un error, tal vez el único error con el que el mundo de la matemática se halla implicado jamás a fondo».[3.31] A su juicio, la igualdad de las probabilidades a priori constituía una «pasmosa falsedad».[3.32] «Tengo la convicción personal», declararía, «de que la teoría de la probabilidad inversa se funda en un error y de que ha de ser rechazada por entero.»[3.33] Anders Hald, un estadístico que desarrolló su actividad en la esfera académica, lamentará cortésmente «el arrogante estilo expositivo de Fisher».[3.34] Y a pesar de que la obra de Fisher contuviera un gran número de elementos bayesianos, lo cierto es que nuestro autor se dedicaría a combatir a Bayes durante décadas, convirtiendo virtualmente sus formulaciones en materia tabú para los estadísticos respetables. El hecho de que se mostrara constantemente dispuesto a la disputa determinaría que a sus oponentes les resultara muy difícil abordarle. De este modo, los bayesianos no serían los únicos que concluyeran que si Fisher adoptaba aquella postura se debía, al menos en algunos casos, «al simple deseo de evitar tener que mostrarse de acuerdo con sus adversarios».[3.35]

Aupados por la necesidad de hacer frente a las incertidumbres matemáticas y de ahorrar asimismo tiempo y dinero, los teóricos del muestreo estadístico de base frecuentista disfrutarían de una edad de oro a lo largo de las décadas de 1920 y 1930. Fisher dejaría las manos libres a los científicos, puesto que gracias a él quedarían en condiciones de resumir sus análisis y de extraer las conclusiones pertinentes sin tener que aceptar los confusos prejuicios y corazonadas de las probabilidades a priori. Además, gracias a su insistencia en el rigor matemático, la estadística empezaría a adquirir, si no el estatuto de una «verdadera matemática», sí al menos el carácter de una clara disciplina exacta, de una matemática aplicada al análisis de datos.

La interminable enemistad entre Karl Pearson y Ronald Fisher se extendería a una segunda generación al convertirse Egon Pearson, hijo de Karl, en una nueva víctima de la ira de Fisher. A diferencia de su padre, Egon Pearson era un caballero cuasi humilde a fuer de modesto. En un principio, como ya hicieran Fisher y su padre al inicio de sus carreras, también él habría de emplear con frecuencia la regla de Bayes. En 1925 publicaría la más extensa indagación en los métodos bayesianos que se hubiera publicado jamás entre la década de 1780, fecha en que lo hiciera Laplace, y los años sesenta del siglo XX. Valiéndose de las probabilidades a priori para realizar una serie de experimentos aparentemente caprichosos, Egon Pearson calculó esas probabilidades para casos como el de la fracción de taxis londinenses cuya placa de matrícula contuviera las letras LX; el de los hombres de la calle Euston aficionados a fumar en pipa; el de los vehículos de tracción animal utilizados en la calle Gower; el del número de potros castaños nacidos de yeguas de color zaino; o el de la cantidad de perros con abrigos de lunares beis. Pese a lo que pueda parecer, sus experimentos se proponían un objetivo serio. Se estaba centrando en el estudio de todas las clases de problemas binomiales, «realizando un análisis inverso» a fin de hallar «la probabilidad a priori correspondiente a la naturaleza del estado de incertidumbre analizado», esto es, aquella probabilidad que pudiera resultar útil a todo aquel que abordara un problema binomial. Llegaría así a la conclusión de que se hacía preciso reunir más datos, aunque sin conseguir que nadie recogiera el guante y se dedicara a ello. De este modo, al comprobar que no lograba obtener colaboradores, Egon Pearson se entregó en cuerpo y alma al empeño de tratar de incrementar el rigor matemático de los trabajos de Fisher, encolerizando de ese modo tanto a su padre como al propio Fisher.

En el año 1933, Egon Pearson y un matemático polaco llamado Jerzy Neyman unirían sus fuerzas al objeto de desarrollar la teoría o lema de Neyman-Pearson para la comprobación de hipótesis. Hasta entonces, los estadísticos se habían limitado a someter a prueba, una a una, sus hipótesis, aceptándolas o rechazándolas sin considerar la posibilidad de que existiera alguna alternativa. La idea que tuvo Egon Pearson consistió en afirmar que la única razón que podía juzgarse correcta para rechazar una hipótesis estadística pasaba por aceptar la validez de otra hipótesis más probable. A medida que él mismo, junto con Neyman y Fisher, fueran desarrollándola, la teoría acabaría convirtiéndose en uno de los más prestigiosos ejemplos de matemática aplicada de todo el siglo XX. No obstante, Egon Pearson tenía miedo de contradecir las conclusiones de su padre. El «temor que le inspiraban Karl Pearson y Ronald Aylmer Fisher» terminaría sumiéndole en una depresión nerviosa entre los años 1925 y 1926: «Tuve que superar la dolorosa fase derivada de la comprensión de que Karl Pearson podía haber cometido un error […], de modo que me sentí desgarrado por tres emociones encontradas: a) la provocada por el hecho de que me resultara difícil comprender a Ronald Aylmer Fisher; b) la asociada con el odio que sentía hacia él por haber lanzado ataques contra mi “deidad” paterna; y c) la vinculada con la convicción de que al menos en algunos puntos estuviera en lo cierto».[3.36] Para aplacar a su padre, Egon aceptó abandonar a la mujer que amaba, no casándose con ella sino muchos años después. De hecho, le intimidaba a tal punto la perspectiva de enviar artículos a la revista Biometrika de su progenitor, que él y Neyman optaron por fundar una publicación propia, la Statistical Research Memoirs, que habría de mantenerse activa entre los años 1936 y 1938, no dejando de publicarse sino después del fallecimiento de Karl Pearson.

Con el paso del tiempo, Ronald Fisher, Egon Pearson y Jerzy Neyman acabarían desarrollando un sinnúmero de potentes técnicas estadísticas. Fisher y Neyman se convirtieron en vehementes enemigos de los partidarios del bayesianismo, y en ese sentido no sólo decidieron limitar sus análisis a aquellos acontecimientos teóricamente susceptibles de poderse repetir un gran número de veces sino que optaron por no considerar válida ninguna fuente de información que no fuera la proporcionada por los muestreos, juzgando asimismo que cada nuevo conjunto de datos constituía un problema independiente que no debía usarse sino en caso de que dichos datos resultaran ser lo suficientemente sólidos como para generar un grupo de conclusiones estadísticamente significativas, descartándose en caso contrario. En su condición de antibayesianos, tanto Fisher como Neyman proscribieron el uso de a priori subjetivos, aunque en aquellos casos en que las probabilidades a priori fueran conocidas decidieran no poner pegas al teorema de Bayes. Las dificultades y las controversias habrían de surgir cuando las probabilidades a priori resultaran desconocidas. Neyman, por ejemplo, denunciaría el atajo bayesiano de la igualdad de las probabilidades a priori diciendo que se trataba de una acción matemáticamente «ilegítima».[3.37]

Por si fuera poco, había una profunda escisión filosófica entre uno y otro método, puesto que los frecuentistas se interrogaban acerca de la probabilidad de que un determinado conjunto de datos alcanzara a materializarse en caso de conocer plenamente sus causas probables, mientras que los bayesianos trataban de obtener un mejor conocimiento de las causas a la luz de los datos disponibles. Los bayesianos tenían además la posibilidad de estudiar la probabilidad de un único acontecimiento, como la asociada con la eventualidad de que al día siguiente pudieran producirse precipitaciones; podían condensar la información subjetiva en las probabilidades a priori; actualizar sus corazonadas al recibir nueva información; e incluir todos los datos posibles en sus análisis, dado que uno solo de esos datos podía alterar, siquiera mínimamente, la respuesta obtenida.

No obstante, con el paso de los años también los puntos de vista de Fisher y de Neyman acabarían escindiéndose, iniciándose así una nueva y muy jugosa enemistad llamada a perdurar por espacio de tres décadas. El hecho de que ambos defendieran planteamientos muy distintos en relación con la comprobación de hipótesis —unos planteamientos que en ocasiones mostraban diferencias enormes, de al menos un orden de magnitud— constituiría la clave de bóveda de su amargo enfrentamiento. No obstante, según Neyman, la disputa se inició porque Fisher exigía que las clases que daba Neyman en la universidad se nutrieran únicamente del libro de Fisher. Y al negarse Neyman a satisfacer esa pretensión, Fisher prometió oponerse a él «con todas sus fuerzas».

En el transcurso de un debate celebrado el 28 de marzo de 1934 con motivo de una reunión de la Real Sociedad de Londres, uno de los secretarios del acontecimiento dejaría constancia escrita y textual, como de costumbre, de los distintos cruces de argumentos, con vistas a la publicación literal de las actas del evento. Neyman presentaba en esa ocasión un trabajo en el que defendía que el cuadrado latino[3.ii] (una técnica inventada por Fisher y destinada a facilitar el diseño experimental) contenía sesgos analíticos que lo ponían en cuestión. Fisher se dirigió inmediatamente a un encerado, trazó un cuadrado latino y valiéndose de una sencilla argumentación, mostró que Neyman se equivocaba. Sin embargo, Fisher no se comportó ni mucho menos de forma educada. Se quejó sarcásticamente de haber «albergado la esperanza de que el trabajo del doctor Neyman versara sobre un tema con el que el autor se hallara plenamente familiarizado, y sobre el que pudiese disertar con autoridad […]. [Pero] el doctor Neyman ha mostrado escaso acierto al elegir sus temas». Daba la impresión de que ya no había nada que pudiera detener a Fisher, así que prosiguió: «el doctor Neyman ha llegado, o creído llegar, a [una conclusión]. […] Y al margen de sus defectos teoréticos […] la aparente incapacidad de aprehender el sencillísimo argumento […] ¿Cómo ha podido dejarse engañar a tal punto el doctor Neyman por su propia simbología, y en una cuestión tan simple como la que nos ocupa?»; etcétera, etcétera.[3.38]

Para el año 1936, la enemistad entre los partidarios de Neyman y los defensores de Fisher se había convertido ya en una cause célèbre. Pese a trabajar en el mismo edificio en la Escuela Universitaria de Londres, ambos grupos de matemáticos ocupaban dos plantas distintas del inmueble, sin llegar a interactuar jamás. El equipo de Neyman acostumbraba a reunirse entre las tres y media y las cuatro y cuarto de la tarde en la sala de profesores, donde sus integrantes saboreaban un té indio, mientras que los seguidores de Fisher degustaban té chino en el mismo lugar, aunque no sin cerciorarse antes de que sus adversarios lo hubieran abandonado ya. Los dos sectores luchaban en realidad por unas migajas de confort. El edificio de los estadísticos carecía de suministro de agua potable, contaba con tan escaso fluido eléctrico que al anochecer resultaba imposible leer lo que había en los encerados y disponía por añadidura de tan reducida calefacción que, en invierno, todo el mundo se veía obligado a trabajar en su interior con el abrigo puesto.

George Box, que pertenecía a ambos grupos (ya que había estudiado con Egon Pearson, se había pasado al bando bayesiano y había contraído matrimonio con una de las hijas de Fisher), diría que tanto Fisher como Neyman «podían mostrarse muy desagradables de cuando en cuando, pero también muy generosos». Dado que Neyman tendía a orientar sus análisis matemáticos en función de las decisiones que tuviera que adoptar y que Fisher en cambio se interesaba más por la inferencia científica, las metodologías y los tipos de aplicación que ambos hombres encontraban para sus respectivas formulaciones diferían notablemente. Cada uno de ellos se concentraba en aquello que más favorable pudiera resultar para los problemas en que se afanaba, pero ninguno de los dos bandos trataba de comprender en modo alguno las iniciativas científicas del otro. Un acertijo popular destinado al consumo interno de la profesión describía de este modo la situación: «¿Cuál es el sustantivo que se usa para denotar a un grupo de estadísticos?». «Disputa.»[3.39]

Poco antes de la segunda guerra mundial, Neyman se trasladó a la Universidad de California, en Berkeley, transformándola en uno de los centros neurálgicos del movimiento antibayesiano. La teoría de la verificación de hipótesis de Neyman-Pearson quedó convertida en máximo timbre de honor para Berkeley, hasta el punto de adquirir cualidades emblemáticas. Evidentemente, el elemento irónico reside en este caso en el hecho de que la persona que daba nombre a la universidad, el obispo George Berkeley, hubiera desaprobado sin duda a los matemáticos, desautorizando asimismo sus cálculos.

La edad de oro de la teoría de la probabilidad se había convertido de este modo en un campo de batalla bifronte en el que dos bandos de enemistados frecuentistas unían sus fuerzas animados por un único punto en común: el del compartido aborrecimiento de la regla de Bayes. Y en medio del turbión generado, la falta de un discurso razonado entre los cabecillas de la matemática estadística habría de retrasar varias décadas el desarrollo del teorema de Bayes. Atrapada en estas luchas intestinas, la formulación de Bayes se vería obligada a extirparse por sus propios medios del atolladero, cubierta de frustración y de menosprecio.

Sin embargo, y a pesar de que el ataque frecuentista tendiera a ir menguando, lo cierto es que de cuando en cuando se observaban, aquí y allá, los destellos de nuevas escaramuzas, aunque ahora la pugna resultara silenciosa y pasara prácticamente inadvertida. En un notable ejemplo de convergencia teórica, tres hombres de tres países distintos habrían de concebir de manera independiente una misma idea sobre el teorema de Bayes, al llegar a la conclusión de que, en realidad, el conocimiento es marcadamente subjetivo, pero podemos cuantificarlo por medio de un envite. Y el montante de la apuesta viene a revelar el grado de solidez de nuestra creencia en algo.

En el año 1924, Émile Borel, un matemático francés, quedaría convencido de que podía medirse el grado de creencia subjetiva de una persona en un determinado asunto en función de la importancia de la apuesta que dicho individuo estuviera dispuesto a realizar en defensa de la creencia en cuestión. Borel argumentaba que la aplicación del análisis probabilístico a los problemas reales, como los planteados por los seguros, la biología, la agricultura y la física, constituía una actividad mucho más importante que la derivada de la teorización matemática. Borel creía en la conducta racional, y su vida sería ejemplo de su doctrina. En la época en que más rabiosamente hervía el escándalo provocado por el posible devaneo amoroso de Marie Curie con otro científico, Borel proporcionaría cobijo a la célebre física y a sus hijas. La reacción del ministro de Instrucción Pública francés no se hizo esperar, ya que amenazó a Borel con expulsarle del puesto docente que ocupaba en la Escuela Normal Superior de París, un destacado centro educativo de matemáticas y ciencias.[3.40] En el período de entreguerras, Borel pasaría a formar parte de la cámara de diputados gala, siendo nombrado además ministro de Marina y contribuyendo a encauzar la política nacional hacia la investigación y la enseñanza. Durante la segunda guerra mundial, el gobierno pro nazi de Vichy le enviaría por poco tiempo a prisión, pero más tarde el general Charles de Gaulle le otorgaría la Medalla de la Resistencia.

Dos años después de que Borel planteara su sugerencia sobre la medición del grado de creencia subjetiva, un joven matemático y filósofo inglés llamado Frank P. Ramsey plantearía esa misma cuestión. Antes de su fallecimiento, sobrevenido a la edad de veintiséis años a consecuencia de una intervención quirúrgica provocada por un acceso de ictericia, Ramsey se interrogaría acerca de las fórmulas más adecuadas para tomar decisiones en circunstancias dominadas por la incertidumbre. En el año 1926, durante una charla informal con los estudiantes del Club de Ciencias Morales de la Universidad de Cambridge, Ramsey sugeriría que la probabilidad encontraba su fundamento en las creencias personales y que éstas podían cuantificarse en función de la apuesta que se efectuara en un determinado asunto. Aquel subjetivismo extremo venía a constituir una ruptura radical con algunos pensadores anteriores, como por ejemplo John Stuart Mill, muchos de los cuales habían denunciado las probabilidades subjetivas diciendo que no suponían sino una detestable forma de cuantificar la ignorancia.

Ramsey, que en su breve carrera profesional vendría a realizar también contribuciones a la economía, la lógica y la filosofía, creía que la incertidumbre debía describirse en términos de probabilidad y no por medio de comprobaciones y procedimientos. Y al afirmar que la cuantificación de la creencia podía constituir el fundamento de la acción e introducir la idea de una función de utilidad y de una maximización de la utilidad esperada conseguiría señalar una vía de actuación plausible en circunstancias presididas por la incertidumbre. Ni Bayes ni Laplace se habían aventurado a penetrar en el mundo de las decisiones y la conducta. Y dado que Ramsey trabajaba en la universidad inglesa de Cambridge, cabe decir que la historia de la regla de Bayes podría haber sido muy distinta de haber disfrutado de una vida más larga.

Prácticamente al mismo tiempo que Borel y Ramsey, un actuario de seguros y profesor de matemáticas italiano llamado Bruno de Finetti daría en sugerir igualmente que resultaba posible cuantificar las creencias subjetivas expresadas en las apuestas de un hipódromo. De Finetti, que optaría por denominar a su propuesta «el arte de la adivinación»,[3.41] se vería obligado a presentar su primer trabajo importante en París debido a que Corrado Gini, el más poderoso de los estadísticos italianos, juzgaba que sus ideas no eran más que un disparate. (Preciso es decir, en defensa de Gini, que De Finetti se había mostrado convencido ante sus colegas de que su adversario tenía «el mal de ojo».)[3.42] De Finetti, considerado el mejor matemático italiano del siglo XX, realizaría trabajos en el campo de la economía financiera, y también se le atribuye el mérito de haber proporcionado a la subjetividad bayesiana una sólida cimentación matemática.

Con todo, nadie habría de prestar oídos a estos arrebatos de subjetividad apostadora, ni siquiera los expertos en matemática probabilística. Durante las décadas de 1920 y 1930, el foco de la atención habría de dirigirse fundamentalmente al trío de antibayesianos formado por Ronald Fisher, Egon Pearson y Jerzy Neyman. Por consiguiente, los trabajos de Frank P. Ramsey, Émile Borel y Bruno de Finetti quedarían apartados de los círculos estadísticos del mundo de habla inglesa.

Otro erudito independiente daría en construir un refugio seguro para la regla de Bayes en el campo de la filiación jurídica, un pequeño y poco conocido recoveco del sistema judicial estadounidense. En el ámbito de la filiación jurídica surgen obviamente las siguientes preguntas: ¿Es este hombre el padre del niño aquí presente?, y en caso afirmativo: ¿qué cantidad deberá abonar en concepto de pensión alimenticia? En el año 1938, un profesor de genética y psiquiatría sueco llamado Erik Essen-Möller desarrollaría un índice de probabilidad que venía a ser una especie de equivalente matemático del teorema de Bayes. Antes de poder disponer de los actuales análisis de ADN, los abogados estadounidenses se verían en la obligación de utilizar durante cincuenta años el índice de Essen-Möller sin llegar a tener conciencia en ningún momento de que su paternidad era imputable a Bayes. Sin embargo, en la proposición de ley estadounidense sobre la paternidad, el teorema de Bayes llegaría a operar incluso a la manera de un modelo para la promulgación de leyes de ámbito estatal. Dado que los abogados que trabajaban en el ámbito de la paternidad comenzaban sus exámenes asignando una probabilidad del cincuenta por ciento a la relación de inocencia o culpabilidad del hombre encausado, el índice favorecía a los varones efectivamente responsables de la filiación investigada, pese a que Erik Essen-Möller creyese que «lo más frecuente era que la acusación de las madres recayera sobre los padres verdaderos y no sobre los falsos».[3.43] La ley de paternidad de base bayesiana se utilizaría también en casos relacionados con la inmigración y la asignación de herencias, así como en aquellos pleitos vinculados con el nacimiento de una criatura fruto de una violación. En la actualidad, las pruebas que proporcionan los análisis de ADN indican de manera muy característica que las probabilidades de paternidad son del orden de 0,999 o más.

No obstante, en el año 1936 un nuevo erudito independiente llamado Lowell J. Reed y dedicado a la investigación médica en la Universidad Johns Hopkins de Baltimore, escenificaría de forma bastante impactante las deficiencias del frecuentismo y el valor de la regla de Bayes. Reed, que era miembro del departamento de bioestadística de su facultad, quería determinar la dosis de rayos X precisa para destruir los tumores cancerosos de sus pacientes sin dañar la salud de éstos. Sin embargo, no contaba con ninguna tabla exacta de los tiempos de exposición necesarios, y en esa época no se conocían todavía los efectos de las dosis reducidas. Reed acostumbraba a emplear métodos frecuentistas, efectuando repetidas pruebas con moscas de la fruta, protozoos y bacterias. No obstante, para averiguar la dosis que podía revelarse adecuada en el caso de los seres humanos tenía que realizar sus pruebas con mamíferos, lo que resultaba económicamente muy costoso. Valiéndose del teorema de Bayes, Reed logró calcular las dosis dotadas de un mayor efecto terapéutico para los pacientes aquejados de cáncer sin tener que sacrificar un número de gatos excesivamente elevado —puesto que sólo empleó veintisiete de estos animales—. Sin embargo, Reed trabajaba al margen de las corrientes estadísticas dominantes, únicamente empleaba la regla de Bayes de manera ocasional y apenas tenía influencia en el ámbito de la probabilística. De hecho, los propios Ramsey, Borel, De Finetti y Essen-Möller tendrían que esperar varias décadas antes de ver reconocida la importancia de sus respectivos trabajos.

Sería un geofísico llamado Harold Jeffreys quien mantuviera con vida al teorema de Bayes, y prácticamente sin ninguna ayuda, durante la embestida antibayesiana de los años treinta y cuarenta del siglo pasado. Los estudiantes de la Universidad de Cambridge solían bromear diciendo que tenían a su disposición a los dos máximos representantes de la estadística mundial, aunque uno de ellos ejercía como profesor de astronomía y el otro de genética. Fisher era el genetista y Jeffreys un especialista en geociencia dedicado al estudio de los terremotos, los tsunamis y las mareas. Acostumbraba a decir que si estaba capacitado para trabajar en el departamento de astronomía «se debía al hecho de que la Tierra fuera un planeta».[3.44]

Gracias en gran medida a la discreta y caballerosa personalidad de Jeffreys, Fisher y él lograrían trabar una sólida amistad, pese a discrepar, de manera tan irremediable como vociferante, acerca de la regla de Bayes. Jeffreys contaba que en una ocasión le había dicho a Fisher lo siguiente: «usted y yo deberíamos coincidir en la mayoría de las cuestiones, y en los casos en que debamos disentir es más que probable que a ambos nos invada la duda». Después de aquello, proseguiría Jeffreys, «Fisher y yo nos convertimos en grandes amigos».[3.45] Jeffreys creía, por ejemplo, que el método que empleaba Fisher para calcular la máxima verosimilitud era de carácter fundamentalmente bayesiano, de modo que él mismo lo utilizaría a menudo, dado que en aquellos casos en que la muestra estudiada poseía una amplitud suficiente la probabilidad a priori carecía de importancia, de modo que ambas técnicas arrojaban prácticamente los mismos resultados. Sin embargo, el producto final difería si el análisis se efectuaba con un volumen de datos reducido. Años más tarde, otros autores vendrían a exponer un cierto número de situaciones en que las pruebas de significancia de Fisher y Jeffreys terminaban por mostrar diferencias de un orden de magnitud.

Dejando a un lado sus respectivos puntos de vista sobre Bayes, lo cierto es que Jeffreys y Fisher tenían mucho en común. Ambos eran científicos dedicados al ejercicio práctico de sus conocimientos y habituados a manejar datos estadísticos, pero ni el uno ni el otro contaban con una formación específica en matemáticas ni en probabilística. Los dos habían estudiado en Cambridge, y de hecho Jeffreys no llegaría a abandonar en ningún momento su alma mater, trabajando en ella en calidad de docente y miembro de su junta rectora por espacio de setenta y cinco años, es decir, más que cualquier otro profesor de esa institución. Ninguno de los dos se mostraba excesivamente sociable, y tanto Fisher como Jeffreys eran pésimos oradores, puesto que sus débiles vocecillas apenas alcanzaban a escucharse más allá de las primeras filas. De hecho, en una ocasión, un estudiante aseguraría que Jeffreys había llegado a proferir setenta y un «emmms…» en cinco minutos. Tanto el uno como el otro serían distinguidos con el título de sir por la corona británica.

Uno de ellos, Jeffreys, tenía no obstante una vida personal algo más sofisticada. Cumplidos ya los cuarenta y nueve años de edad contrajo matrimonio con la persona con quien había colaborado toda su vida, la matemática Bertha Swirles. Ambos dedicarían las noches a corregir las pruebas de su monumental obra titulada Methods of Mathematical Physics durante la segunda guerra mundial, puesto que durante la contienda prestaron sus servicios al ejército como oficiales del departamento de protección frente a las incursiones aéreas. Jeffreys se entretenía anotando las inexactitudes presentes en las novelas de detectives, era tenor de varias asociaciones corales y practicaba las aficiones de la botánica, los largos paseos, los viajes y la bicicleta —que habría de utilizar para acudir a la universidad hasta los noventa y un años.

Al igual que Laplace, Jeffreys se dedicaba al estudio de la formación de la Tierra y los planetas a fin de poder comprender el origen del sistema solar. Si terminó adentrándose en el terreno de la estadística fue debido a su interés por conocer la forma en que se propagan las ondas sísmicas por el interior y la superficie de nuestro planeta. Un gran movimiento telúrico genera unas ondas sísmicas que es posible registrar a miles de kilómetros de distancia. De este modo, tomando nota de los tiempos en que se producía su llegada a distintas estaciones sísmicas, Jeffreys podía proceder a la realización de una serie de cálculos inversos y determinar así el probable epicentro del terremoto y la composición más plausible de la Tierra. Se trataba justamente de un problema clásico en el ámbito de la probabilidad inversa de las causas. En el año 1926, Jeffreys extrajo la inferencia de que el núcleo central de nuestro planeta es líquido —siendo probablemente de hierro fundido, posiblemente combinado con pequeñas cantidades de níquel.

Según diría un historiador: «Quizá no exista ningún otro campo del conocimiento en el que se hayan realizado tantas inferencias notables partiendo de datos tan ambiguos e indirectos».[3.46] Muy a menudo, las señales resultaban de difícil interpretación, y por si fuera poco los registros de los diferentes sismógrafos solían diferir muy notablemente unos de otros. Resultaba prácticamente impensable contar con que un terremoto específico viniera a repetirse, dado que estos fenómenos acostumbran a producirse en puntos muy distantes y en condiciones muy diferentes. Por consiguiente, las conclusiones de Jeffreys conllevaban la asunción de un grado de incertidumbre muy superior al de los experimentos de cría de animales a que se dedicaba Fisher, puesto que éstos habían sido concebidos para proporcionar una respuesta concreta a un conjunto de interrogantes y de situaciones repetibles. Al igual que Laplace, Jeffreys dedicaría buena parte de su vida a la constante actualización de sus observaciones, modificándolas a medida que fuera obteniendo nuevos resultados. Así lo dejaría escrito él mismo: «Las proposiciones dudosas […] constituyen la parte más interesante de la ciencia; todo progreso científico lleva aparejado un proceso de transición que nos va extrayendo poco a poco de la ignorancia total, haciéndonos pasar previamente por una fase de conocimiento parcial basado en un conjunto de pruebas que gradualmente van adquiriendo un carácter cada vez más concluyente, y conduciéndonos finalmente a una fase presidida por una certeza prácticamente completa».[3.47]

Absorto en su despacho y rodeado de un maremágnum de papeles en el que se hundía hasta los tobillos, Jeffreys trabajaría afanosamente en la redacción de The Earth: Its Origin, History, and Physical Constitution, una obra de referencia en todo lo relacionado con la estructura del planeta hasta la década de 1960, es decir, hasta la formulación de la teoría de la tectónica de placas. (Lamentablemente, y a pesar de que Jeffreys se comportara heroicamente en su defensa de la regla de Bayes, lo cierto es que se opondría a la idea de la deriva continental hasta muy tarde, dado que en 1970, habiendo cumplido ya los setenta y ocho años de edad, seguía sin admitirla, convencido de que la aceptación de dicha deriva implicaba asumir que los continentes tenían que abrirse paso a través de la masa de líquido viscoso del núcleo terrestre).

Mientras analizaba las características de los terremotos y los tsunamis, Jeffreys logró desarrollar una novedosa forma objetiva del teorema de Bayes a fin de hallarle nuevas aplicaciones científicas, elaborando asimismo todo un conjunto de reglas formales para la selección de las probabilidades a priori. Por decirlo con sus propias palabras: «En lugar de tratar de determinar si existía o no alguna forma de probabilidad a priori que pudiera resultar más satisfactoria, los distintos autores que se han ido relevando en las críticas a Bayes se han limitado a decir que las probabilidades a priori constituyen un perfecto disparate, con lo que han venido a sostener igualmente que el principio de la probabilidad inversa, que queda inutilizado en caso de no recurrir a las [probabilidades a priori], también carece de sentido».[3.48]

Jeffreys consideraba que las probabilidades constituían un método apropiado para todos los tipos de incertidumbres, incluso aquellas presentes en algo tan aparentemente alejado de lo incierto como una ley científica, mientras que los frecuentistas acostumbraban a restringir las aplicaciones de la probabilidad a aquellas incertidumbres que estuvieran asociadas con datos teoréticamente repetibles. Puede decirse, por citar aquí un párrafo del estadístico Dennis Lindley, que Jeffreys «se mostraba dispuesto a admitir el empleo de las probabilidades en la determinación de la existencia o inexistencia de un efecto invernadero, cuando lo cierto es que la mayoría de los estadísticos [frecuentistas] no sólo se oponen a ese planteamiento sino que prefieren limitar el uso de las probabilidades a datos vinculados con el anhídrido carbónico, el ozono, el nivel de los océanos, etcétera».[3.49]

A Jeffreys le irritaban particularmente las estimaciones que hacía Fisher de la incertidumbre, así como sus «valores p» y sus grados de significancia. El valor p era una afirmación probabilística asociada con los datos disponibles, siempre en función de la historia que se estuviera considerando. Fisher los había desarrollado para poder manejar grandes volúmenes de datos agrícolas, puesto que necesitaba contar con algún método que le permitiera determinar cuáles debía descartar, cuáles tenían que quedar archivados para un uso posterior y cuáles se revelaban susceptibles de impulsar inmediatamente el análisis. De este modo, al comparar dos hipótesis podía distinguir el grano de la paja.

Desde un punto de vista técnico, los valores p permitían a los profesionales que trabajaban en los laboratorios afirmar que sus resultados experimentales poseían un carácter estadísticamente significativo que les facultaba para rechazar una hipótesis, o lo que es lo mismo, les dejaban aclarar si existía una probabilidad, siquiera muy pequeña (dada la hipótesis considerada), de que dichos resultados (u otros más extremos) se hubieran debido únicamente a los efectos del azar.

Jeffreys juzgaba muy extraño que un frecuentista tuviera en cuenta un conjunto de resultados posibles que de hecho no se habían producido. Quería conocer el grado de probabilidad que cabía asignar a su hipótesis sobre el epicentro de un particular terremoto, dada la información de que disponía acerca de los tiempos de llegada de los tsunamis provocados por dicho terremoto. ¿Por qué debería nadie rechazar una hipótesis en virtud de uno o más resultados posibles que sin embargo no se habían materializado? Eran muy pocos los investigadores que repetían una y mil veces un determinado experimento aleatorio —o que tuvieran siquiera la posibilidad de reiterarlo—. De hecho, un crítico daría en acuñar la expresión «repeticiones imaginarias» para describir este estado de cosas. Los bayesianos consideraban que los datos constituían pruebas inamovibles, no algo que pudiera hallarse sujeto a variaciones. Evidentemente, a Jeffreys le resultaba imposible repetir un terremoto en concreto. Más aún, el valor p es una afirmación relativa a los datos, mientras que lo que Jeffreys quería conocer eran las características de su hipótesis dada la información disponible. Por consiguiente, lo que Jeffreys proponía era no utilizar en el análisis con la regla de Bayes otra cosa que los datos observados a fin de calcular de ese modo las probabilidades de que la hipótesis fuera cierta.

Como señalaba el propio Jeffreys, Newton había deducido la ley de la gravedad cien años antes de que Laplace alcanzara a probarla al descubrir que la duración del ciclo de Júpiter y Saturno se cifraba en ochocientos setenta y siete años: «No hay en todo el período moderno una sola fecha en la historia de la ley de la gravitación universal en que no se haya constatado la existencia de una prueba de significación capaz de rechazar la totalidad de las leyes [relacionadas con la gravitación], dejándonos sin ley de tipo alguno».[3.50]

Por otra parte, continúa Jeffreys, el teorema de Bayes «permite modificar una ley que lleva siglos resistiendo todas las críticas sin necesidad de suponer que la persona que la concibió y sus seguidores fueran un hatajo de inútiles sin tino».[3.51]

Jeffreys llegaría así a la conclusión de que a lo único que contribuían los valores p era a introducir distorsiones de carácter radical en la ciencia. Según acostumbraba a expresar en sus quejas, los frecuentistas, decía Jeffreys, «parecen considerar que las observaciones les proporcionan la base necesaria para tener la posibilidad de rechazar las hipótesis, pero en ningún caso juzgan que les permitan defenderlas».[3.52] Sin embargo, existía la posibilidad, proseguía, de que valiera la pena ahondar en algunas de las hipótesis que Fisher optaba por rechazar, pudiendo llegar incluso a darse el caso de que se revelasen efectivamente ciertas, al menos en ocasiones.

Un frecuentista que someta a prueba una hipótesis concreta y obtenga un valor p de 0,04, por ejemplo, puede concluir que esa cifra implica la existencia de una prueba significativamente contraria a la hipótesis en cuestión. Sin embargo, los bayesianos sostienen que incluso con un valor p de 0,01 (cantidad que muchos frecuentistas considerarían una prueba extremadamente sólida contra la hipótesis) las probabilidades de que sea cierta siguen siendo de uno a nueve o de uno a diez —es decir, no esbozan «ningún escenario catastrófico», como dice Jim Berger, un teórico bayesiano de la Universidad Duke—. Todavía hoy siguen los valores p provocando la impaciencia de los bayesianos. Steven N. Goodman, un destacado bioestadístico bayesiano que trabaja en la Facultad de Medicina Johns Hopkins de Baltimore, expresa así su descontento: «El valor p no es en realidad algo que uno pueda juzgar sensato. Suelo decir a mis estudiantes que dejen de intentar hallarle sentido».[3.53]

Jeffreys había empezado a conseguir que la probabilidad de las causas de Laplace resultara útil para los científicos prácticos, pese a que Fisher estuviese logrando otro tanto con los métodos de base frecuentista de Laplace. La diferencia radicaba en el hecho de que Fisher empleaba la palabra «Bayes» a manera de insulto, mientras que Jeffreys decía que la regla que concibiera en su día el pastor presbiteriano venía a ser el teorema de Pitágoras de la teoría de la probabilidad. Y de este modo, al ser el primer profesional que optaba por aplicar la teoría formal de Bayes a un amplio conjunto de problemas científicos importantes desde los tiempos de Laplace, Jeffreys terminaría convirtiéndose en el fundador de la moderna estadística bayesiana.

En términos estadísticos, ambos teóricos habían definido sus respectivos dominios. Jeffreys y Fisher, dos profesores que por lo demás se trataban con cordialidad en Cambridge, se embarcarían durante dos años en un debate en el que las actas de la Real Sociedad de Londres habrían de oficiar como teatro de operaciones. Por muy tímido y poco comunicativo que se hubiera revelado Jeffreys, lo cierto era que si estaba seguro de su posición iba a por todas, y de un modo tan sereno como implacable. Fisher seguiría comportándose en cambio como el «volcánico y paranoico» individuo que siempre había sido.[3.54] Ambos hombres eran magníficos científicos, los más destacados estadísticos del mundo, y cada uno de ellos empleaba los métodos que mejor se adaptaban a su particular campo de estudio. Sin embargo, ninguno de ellos alcanzaba a comprender el punto de vista del contrincante. Como los gladiadores de épocas pasadas, dedicarían gran parte de su tiempo a lanzarse todo tipo de armas arrojadizas, no sólo a través de sus encendidos artículos, repletos de críticas recíprocas, sino también mediante la publicación de réplicas formales, sagaces refutaciones y brillantes aclaraciones —hasta que, finalmente, los directores de la Real Sociedad de Londres se llevaron las manos a la cabeza, exasperados, y ordenaron a los combatientes que depusieran las armas y abandonaran la lucha.

Tras el gran debate, Jeffreys escribiría una obra monumental titulada Theory of Probability, un libro llamado a convertirse durante años en la única explicación sistemática de las formas de aplicación de la regla de Bayes a los problemas científicos. Fisher lamentaría públicamente que Jeffreys hubiera cometido «en la primera página de su escrito un error lógico que viene a invalidar las trescientas noventa y cinco fórmulas del resto del libro».[3.55] El error, evidentemente, consistía en haber utilizado el teorema de Bayes. Dennis Lindley resumirá en pocas palabras el alcance de la obra: «De Finetti es un maestro de la teoría, Fisher un campeón de la práctica, pero Jeffreys se muestra deslumbrante en ambos terrenos».[3.56]

El debate entre Fisher y Jeffreys terminaría sin una conclusión clara. No obstante, en términos prácticos, puede decirse que fue Jeffreys quien salió perdedor. A lo largo de la década siguiente, y por toda una serie de razones, el frecuentismo acabaría por eclipsar de manera casi completa tanto las formulaciones de Bayes como la probabilidad inversa de las causas.

En primer lugar, Fisher resultaba muy convincente en sus intervenciones públicas, mientras que no podía decirse lo mismo del afable Jeffreys: la gente bromeaba diciendo que Fisher era capaz de llevarse el gato al agua en un debate aunque Jeffreys tuviera razón. Otro de los factores que explican esta circunstancia estriba en el hecho de que en la década de 1930 los científicos sociales y los estadísticos necesitaban métodos objetivos a fin de afianzar su propia posición como miembros creíbles del mundo académico. Para ser más concretos, ocurría que los físicos dedicados al desarrollo de la mecánica cuántica habían empezado a aplicar los análisis de frecuencia a sus datos experimentales al objeto de determinar la ubicación más probable de las nubes de electrones presentes en el núcleo del átomo. La mecánica cuántica constituía una disciplina nueva y distinguida, todo lo contrario de lo que sucedía con la regla de Bayes.

Además, la aplicación de las técnicas de Fisher se revelaba más sencilla que el empleo de los métodos de Jeffreys, dado que Fisher las expresaba en un estilo popular y con un mínimo recurso a la matemática compleja. Los biólogos y los psicólogos, por ejemplo, podían recurrir sin mayores problemas al manual de Fisher cuando querían determinar si los resultados que habían obtenido podían considerarse estadísticamente significativos o no. Para hacer uso del enfoque de Jeffreys, de carácter más bien opaco y fuerte densidad matemática, los científicos tenían que elegir una de las cinco categorías, sutilmente diferentes, que ofrecía el propio Jeffreys. De acuerdo con dichas categorías, las pruebas contrarias a una hipótesis podían «no merecer sino una simple mención», o resultar en cambio considerables, sólidas, muy sólidas o incluso decisivas.[3.57] En un gesto típicamente suyo, Jeffreys relegaría las cinco categorías al Apéndice B de su magnus opus.

El último y más relevante extremo que explica el triunfo de Fisher radica en el hecho de que a Jeffreys le interesara realizar inferencias a partir de las pruebas científicas, no emplear las estadísticas elaboradas para orientar las acciones futuras. A su juicio, la toma de decisiones resultaba irrelevante —cuando lo cierto era que no sólo habría de resultar una cuestión de enorme trascendencia para la promoción de la estadística matemática en tiempos de la segunda guerra mundial sino que continuaría siéndolo en el período posterior, marcado por las tensiones vividas con los países del Telón de Acero—. Ya antes habían desertado otros autores al enfrentarse a ese mismo dilema: uno de los grandes elementos subyacentes a la enemistad surgida entre Fisher y Neyman, por ejemplo, sería la teoría de la decisión.

Todos estos factores aislarían casi totalmente a Jeffreys, separándole de los demás estadísticos teóricos. Lo que le unía a Fisher era su común interés por la aplicación de la estadística a la ciencia. Jeffreys conocía a Ramsey y acudió a visitarle al saber que agonizaba en un hospital, sin embargo, ninguno de los dos llegaría a comprender que el otro estaba trabajando en la teoría de las probabilidades. Sea como fuere, a Jeffreys le interesaba la inferencia científica, mientras que a Ramsey le atraía la toma de decisiones. En el transcurso de los años treinta del siglo pasado, Jeffreys y De Finetti trabajarían en algunos problemas probabilísticos similares, pero Jeffreys tardaría medio siglo en tener siquiera noticia de la existencia del italiano, y desde luego habría rechazado la declarada subjetividad de De Finetti. La mayoría de los estadísticos habrían de pasar por alto durante años la obra que Jeffreys había publicado sobre la teoría de la probabilidad. Él mismo solía decir, refiriéndose a sus colegas, que «les satisfacían plenamente las teorías frecuentistas».[3.58] Jeffreys aceptó la condecoración que diera en ofrecerle la Real Sociedad Estadística, pero jamás acudió a ninguna de sus reuniones. Los geofísicos ignoraban que hubiera publicado trabajos relacionados con la probabilidad. En una ocasión, un sorprendido geólogo preguntaría a Lindley: «¿Quieres decir que tu Jeffreys es el mismo Jeffreys que yo conozco?».[3.59]

En el año 1930, Jeffreys se hallaba realmente predicando en el desierto. La mayoría de los estadísticos utilizaban ya el potente corpus conceptual desarrollado por el trío de autores antibayesianos. La Theory of Probability, la gran obra de Jeffreys, se publicaría en una colección de libros de física, no de textos estadísticos. Y también es preciso señalar que apareció en el último año de paz, justo antes de que estallara la segunda guerra mundial —que no obstante vendría a conceder una nueva oportunidad a la regla de Bayes.