5
Estadística, compromiso y sociedad

Hubo una vez un legislador del estado de Wisconsin que se oponía a que se estableciera el adelanto de la hora para ahorrar luz, a pesar de las buenas razones que dicha medida tenía en su favor. Sostenía sabiamente que la adopción de cualquier política implica siempre un compromiso, y que si se instituía el adelanto de la hora, las cortinas y otras telas se desteñirían más aprisa.

El sesenta y seis por ciento de los médicos consultados prefirieron X a Y. (No pudimos convencer a Jones).

Se estima que, debido al crecimiento exponencial de la población mundial, actualmente están vivos entre el 10 y el 20 por ciento de todos los seres humanos que han vivido en algún momento. Siendo así, ¿significa esto que no hay suficiente evidencia estadística para rechazar concluyentemente la hipótesis de la inmortalidad?

Prioridades: individuales versus sociales

Este capítulo se concentrará en los efectos sociales nocivos del anumerismo, y se enfatizará especialmente el conflicto entre sociedad e individuo. La mayoría de los ejemplos consideran alguna forma de compromiso o equilibrio de los intereses en conflicto, y mostraremos cómo el anumerismo contribuye a hacer que tales compromisos sean relativamente imperceptibles, o a veces, como en el caso del legislador de Wisconsin, a verlos donde no los hay.

Examinemos para empezar una importante singularidad probabilística, que fue descubierta por el estadístico Bradley Efron. Imaginemos cuatro dados, A, B, C y D, con las caras numeradas así: A tiene un 4 en cuatro caras y un 0 en las otras dos; B tiene un 3 en las seis caras; C tiene un 2 en cuatro caras y un 6 en las dos restantes, y D tiene un 5 en tres caras y un 1 en las otras tres.

Si juegan A contra B, el dado A ganará —sacando un número mayor— dos terceras partes de las veces; análogamente, si juegan el dado B contra el C, B ganará dos terceras partes de las veces; si se hace jugar el dado C contra el D, aquel ganará dos terceras partes de las veces; sin embargo, y ahí viene lo más impresionante, si hacemos jugar D contra A, también D ganará dos terceras partes de las veces. A gana a B, que gana a C, que gana a D, que gana a A, y en los cuatro casos, dos terceras partes de las veces. Hasta podríamos aprovechar esto para desafiar a cualquiera a elegir el dado que prefiriera y entonces tomar el dado que le gana dos tercios de las veces. Si esa persona escoge B, entonces tomamos A; si elige A, tomamos D, etc.

Quizás haya que explicar un poco el hecho de que el dado C gane al D. La mitad de las veces saldrá un 1 en el dado D, y entonces seguro que C gana. La otra mitad de las veces, el dado D sacará un 5, con lo que C ganará un tercio de las veces. Así pues, como C puede ganar de estos dos modos distintos, gana a D exactamente 1/2 + (1/2 × 1/3) = 2/3 de las veces. Análogamente, se demuestra que el dado D gana al A dos tercios de las veces. Esta clase de violación de la transitividad (donde X gana a Y, Y gana a Z, Z gana a W, y sin embargo W gana a X) es la base de la mayoría de paradojas de votación, desde las del marqués de Condorcet en el siglo dieciocho a las de Kenneth Arrow en el veinte.

La siguiente variante del ejemplo original de Condorcet nos sugiere la posibilidad de cierta irracionalidad social basada, sin embargo, en la racionalidad individual. Consideremos tres candidatos que se presentan para un cargo público, a los que llamaré Dukakis, Gore y Jackson en conmemoración de las elecciones primarias de los demócratas en 1988. Supongamos que la preferencia de un tercio de los electores ordena los candidatos así: Dukakis, Gore, Jackson; que otro tercio los ordena: Gore, Jackson, Dukakis, y que el tercio restante los prefiere en el orden Jackson, Dukakis, Gore. Hasta aquí, nada que decir.

Pero si examinamos los posibles emparejamientos de los candidatos, nos encontraremos con una paradoja. Dukakis se jactará de que dos tercios del electorado le prefieren a Gore, a lo que Jackson contestará que dos tercios del electorado le prefieren a Dukakis. Finalmente, Gore podrá decir que dos tercios del electorado le prefieren a Jackson. Si las preferencias sociales se determinan por votación, «la sociedad» prefiere Dukakis a Gore, Gore a Jackson, y Jackson a Dukakis. Así pues, aun en el caso de que las preferencias de todos los votantes sean consistentes (es decir, transitivas: cualquier elector que prefiera X a Y e Y a Z, prefiere también X a Z), no se infiere necesariamente que las preferencias sociales, determinadas por la regla de la mayoría, hayan de ser también transitivas.

En la vida real, naturalmente, las cosas pueden ser muchísimo más complejas. Mort Sahl decía acerca de las elecciones presidenciales de 1980, por ejemplo, que la gente no votaba tanto a favor de Reagan como contra Carter y que, si Reagan se hubiera presentado solo, habría perdido. (No se me ocurre cómo hacer un modelo de esta situación).

No quisiera que se quedaran con la impresión equivocada de que la paradoja de Condorcet es tan inverosímil como el chiste de Sahl. El economista Kenneth Arrow ha demostrado una generalización muy potente según la cual todos los sistemas de votación se caracterizan por presentar alguna situación parecida a la anterior. En concreto, demostró que no hay ningún modo de derivar las preferencias colectivas a partir de las individuales que garantice plenamente las cuatro condiciones mínimas siguientes: las preferencias colectivas han de ser transitivas; las preferencias individuales y sociales se han de limitar a alternativas asequibles; si todos los individuos prefieren X a Y, entonces la colectividad también ha de preferir X a Y, y las preferencias colectivas no son determinadas automáticamente por las preferencias de un solo individuo.

El laissez faire: Adam Smith o Thomas Hobbes

Otra clase distinta de conflicto entre individuo y sociedad es el planteado en un dilema inventado por el lógico Robert Wolf, y que guarda relación con el más conocido dilema del preso, sobre el que volveremos en breve. Ambos prueban que moverse sólo en función de los propios intereses no siempre es la mejor manera de salir ganando.

Imagine que está con otras veinte personas, a las que sólo conoce superficialmente, en una habitación en la que les ha reunido un filántropo excéntrico. Suponga que no pueden hablar entre ustedes y que se les da la posibilidad de elegir entre apretar un botoncito que hay frente a cada uno de ustedes o no hacerlo.

Si ninguno de los presentes aprieta su botón, el filántropo dará 10.000 dólares a cada uno. Pero si algunos lo aprietan, quienes lo hayan hecho recibirán 3.000 dólares cada uno, y quienes no lo hayan apretado se irán con las manos vacías. La pregunta es: ¿aprieta usted el botón para asegurarse los 3.000 dólares o se abstiene, con la esperanza de que todos hagan lo mismo, para así poder ganar 10.000 dólares cada uno?

Sea cual fuere la decisión que hubiera tomado en el caso anterior, se puede variar la cuantía de los premios o el número de participantes para hacer que su decisión sea distinta. Así, si decidió apretar el botón, probablemente habría decidido lo contrario si los premios hubieran sido 100.000 dólares contra 3.000. Y si decidió no hacerlo, probablemente no se hubiera abstenido si los premios hubieran sido 10.000 contra 9.500.

Hay otras maneras de aumentar los premios. Cambiemos el filántropo por un sádico muy poderoso. Si nadie del grupo aprieta su botón, les deja marchar a todos sanos y salvos. Pero si alguien lo aprieta, aquellos que lo hayan hecho serán obligados a jugar a la ruleta rusa con una probabilidad de sobrevivir del 95 por ciento, mientras que los que no lo hayan hecho serán matados en el acto. ¿Aprieta el botón, con lo que tiene un 95 por ciento de probabilidades de salvarse y carga con la responsabilidad de ser la causa indirecta de la muerte de otros, o resiste sus temores y no lo aprieta, con la esperanza de que nadie se deje arrastrar por el miedo?

El dilema de Wolf se da a menudo en situaciones en las que, si uno no mira por sí mismo, corre el peligro de que le dejen plantado.

Consideremos ahora el caso de dos mujeres que han de hacer una transacción breve y apresurada (supongamos que son dos traficantes de droga). La operación tiene lugar en una esquina, y se intercambian dos bolsas de papel oscuro llenas, separándose inmediatamente después, sin tiempo para comprobar el contenido de la bolsa recogida. Antes del encuentro, cada una tiene la misma opción: meter en la bolsa el objeto de valor que la otra espera encontrar en ella (esta es la opción cooperativa) o llenarla con papeles de periódico (la opción individualista). Si ambas cooperan, cada una recibirá lo que quería por un precio justo. Si A llena su bolsa con papeles de periódico y B no, A obtendrá gratis lo que quería y B habrá sido timada. Finalmente, si las dos llenan sus respectivas bolsas con papeles de periódico, ninguna habrá conseguido lo que quería, pero tampoco habrá sido timada.

El mejor resultado para ambas mujeres, consideradas colectivamente, es el que se obtiene de cooperar. Sin embargo, A puede razonar del modo siguiente: si B decide cooperar, puedo obtener gratis lo que quiero eligiendo la opción individualista. Y si, por el contrario, B se decide por la opción individualista, por lo menos no me timará si yo hago lo mismo. Así pues, independientemente de lo que haga B, me sale más a cuenta tomar la alternativa individualista y dejarle una bolsa llena de papeles de periódico. Naturalmente, B puede razonar del mismo modo, y lo más probable es que acaben por intercambiarse dos bolsas llenas de tiras de papel de periódico.

Situaciones semejantes pueden darse en negocios perfectamente legales, o en cualquier tipo de intercambio.

El dilema del preso debe su nombre a una trama, formalmente idéntica a la anterior, en la que dos hombres, sospechosos de haber cometido un delito importante, son detenidos en el momento de cometer una falta menor. Les interrogan por separado, y se da a cada uno la posibilidad de confesar el delito mayor implicando a su socio, o permanecer callado. Si ambos permanecen callados, sólo les caerá un año de prisión. Pero si uno confiesa y el otro no, el primero saldrá libre, mientras que al segundo le caerá una condena de cinco años. Si confiesan los dos, pueden esperar que les caigan tres años de cárcel a cada uno. La opción cooperativa es permanecer callado y la individualista, confesar.

El dilema es, como antes, que la mejor opción para ambos como colectivo, o sea, permanecer callados y pasar un año en la cárcel, deja a cada uno a merced de la peor de las posibilidades, a quedar como un tonto y a pasar cinco años en la cárcel. En consecuencia, lo más probable es que ambos confiesen y les caiga una condena de tres años de cárcel.

¿Y qué? Lo interesante del dilema no tiene nada que ver, por supuesto, con ninguna clase de interés que podamos tener por las traficantes de droga ni por el sistema penal, sino más bien en que nos da un esquema de muchas situaciones a las que nos enfrentamos en la vida cotidiana. Ya seamos ejecutivos en un mercado competitivo, esposas en un matrimonio, o superpotencias en una carrera armamentista, nuestras opciones pueden formularse a menudo en forma parecida al dilema del preso. No siempre hay una respuesta buena, pero las partes implicadas saldrán ganando siempre como colectivo si cada una resiste la tentación de traicionar a la otra y coopera con ella o le permanece leal. Si cada parte persigue exclusivamente su propio beneficio, el resultado es peor que si ambas cooperan. En tales ocasiones, la mano invisible de Adam Smith, como garante de que la búsqueda del provecho individual produce el bienestar de la sociedad en su conjunto, está totalmente paralizada.

Una situación un poco distinta la tenernos en el caso de dos autores que han de hacer una reseña pública del libro de otro. Si ambos libros van dirigidos al mismo público limitado, se saca alguna ventaja de dejar mal el libro del otro mientras el propio recibe elogios, y esta ventaja individual es mayor que la que se obtiene si ambos libros reciben una buena crítica, que a su vez es mayor que en el caso de que ambas críticas sean malas. Así pues, volvemos a encontrarnos con una elección entre dos opciones, elogiar o dejar mal, que se parece en algo al dilema del preso. (Digo «en algo» porque habría que tener en cuenta otras razones de más peso, como el mérito real de los libros en cuestión).

Hay una extensa literatura sobre el tema de los dilemas del preso. El dilema del preso con dos partes se puede generalizar a situaciones en las que haya muchas personas implicadas, donde cada una tiene la opción de aportar una contribución minúscula al bien común u obtener unos beneficios privados exorbitantes. Este dilema del preso con muchas partes implicadas puede servir para modelar situaciones en las que están en juego el valor económico de «intangibles» tales como el agua limpia, el aire puro y el espacio.

En otra variante, el especialista en ciencias políticas Robert Axelrod ha estudiado la situación del dilema del preso iterado, en la que nuestras dos narcotraficantes (o nuestros ejecutivos, nuestras esposas, nuestras superpotencias, o quienes sean) se encuentran repetidas veces para llevar a cabo su transacción. En este caso hay razones poderosas para cooperar y no engañar al oponente, pues es probable que haya de tener negocios con él o ella más de una vez.

Como en general casi todas las transacciones sociales tienen algún elemento en común con el dilema del preso, el carácter de una sociedad queda reflejado en qué transacciones llevan a la cooperación entre las partes implicadas y cuáles no. Si los miembros de una «sociedad» nunca se comportan cooperativamente, es muy probable que sus vidas sean, en palabras de Thomas Hobbes, «solitarias, pobres, rudas, brutas y cortas».

Cumpleaños, defunciones y ESP

La teoría de la probabilidad empezó en el siglo diecisiete con problemas de apuestas y juego, y conserva aún hoy algo del sabor y del atractivo del juego de azar. La estadística empezó también en el mismo siglo con la recopilación de tablas mortuorias y conserva también algo de sus orígenes. La estadística descriptiva, que es la parte más antigua del tema y la que la gente conoce más, es a veces (aunque no siempre) una disciplina aburrida, que nos habla monótona e incesantemente de percentiles, medias y desviaciones típicas. El campo más interesante de la inferencia estadística se sirve de la teoría de la probabilidad para hacer predicciones, estimar características importantes de una población y contrastar la validez de las hipótesis.

El último concepto —el contraste estadístico de hipótesis— no es más que un principio. Se formula una suposición (que a menudo, un poco severamente, se llama hipótesis nula), se diseña un experimento y se realiza, y luego se calcula si los resultados del experimento son suficientemente probables, en el supuesto de que la hipótesis sea cierta. Si no lo son se desecha la hipótesis, a veces aceptando provisionalmente una hipótesis alternativa. En este aspecto, la estadística es a la probabilidad lo que la ingeniería a la física: una ciencia aplicada que se basa en una disciplina fundamental más estimulante desde el punto de vista intelectual.

Consideremos el siguiente ejemplo, en el que el resultado inesperado de un simple test estadístico es una justificación suficiente para rechazar una hipótesis común y aparentemente obvia: que el cumpleaños de las personas no guarda ninguna relación con el día de su muerte. Concretando, parece natural suponer que aproximadamente el 25 por ciento de las muertes que se producen en una comunidad determinada tienen lugar en el trimestre siguiente al cumpleaños del difunto (y el otro 75 por ciento en los tres trimestres restantes).

Sorprendentemente, sin embargo, una muestra al azar de 747 reseñas necrológicas aparecidas en los periódicos de Salt Lake City, Utah, en 1977 indicaba que el 46 por ciento de las defunciones consideradas se produjeron en los tres meses siguientes al cumpleaños. Dada la hipótesis nula en cuestión, que aproximadamente el 25 por ciento de las muertes se habrían producido en el intervalo de tres meses siguientes al cumpleaños del difunto, la probabilidad de que el 46 por ciento o más hayan muerto dentro de este intervalo de tres meses es tan baja que se puede considerar cero. (Hemos de considerar la hipótesis alternativa de que hayan muerto el 46 por ciento o más, y no la de que hayan muerto exactamente el 46 por ciento. ¿Por qué?).

Así pues, podemos rechazar la hipótesis nula y aceptar provisionalmente que, por el motivo que sea, parece que las personas esperan a cumplir años para morirse. Tanto si esto se debe al deseo de alcanzar otro hito o al trauma de cumplir años («¡Oh, Dios mío, ya tengo noventa y dos!»), parece claro que el estado psíquico de una persona es un factor determinante del momento de su muerte. Sería interesante ver qué resultados daría un estudio similar en otra ciudad. Intuyo que el fenómeno es más marcado entre gente muy mayor, para la que un último cumpleaños podría ser el único tipo de meta importante a su alcance.

Como ilustración del importantísimo modelo de probabilidad binomial, y como ejemplo numérico de test estadístico, imaginemos el siguiente test en miniatura para la ESP. (Este es uno de los párrafos que dije que podían saltarse sin demasiada preocupación). Supongamos que se elige al azar un símbolo de entre tres posibles, se tapa con una cartulina y se pregunta al sujeto del experimento que lo identifique. Al cabo de veinticinco realizaciones del experimento, el sujeto ha acertado el símbolo oculto diez veces. ¿Da esto evidencia suficiente para rechazar justificadamente la hipótesis de que el sujeto no tiene ESP?

La respuesta la tenemos determinando la probabilidad de que el resultado se deba simplemente a la suerte. La probabilidad de acertar por chiripa exactamente diez veces es (1/3)10 (que es la probabilidad de contestar correctamente a las diez primeras preguntas) × (2/3)15 (la probabilidad de contestar equivocadamente a las quince restantes) × el número de conjuntos de diez preguntas que se puedan formar con las veinticinco preguntas que constituyen el test. Este último factor es necesario porque nos interesa saber la probabilidad de que haya diez respuestas acertadas, y no de que estas sean precisamente las diez primeras. Nos vale cualquier conjunto de diez respuestas correctas y quince equivocadas, y todos ellos tienen la misma probabilidad, (1/3)10 × (2/3)15.

Como el número de modos en que podemos escoger diez preguntas de entre veinticinco es 3.628.800 [(25 × 24 × 23 × … × 17 × 16)/(10 × 9 × 8 × … × 2 × 1)], la probabilidad de acertar diez preguntas de las veinticinco que componen el test es 3.628.800 × (1/3)10 × (2/3)15. Se pueden hacer cálculos similares para la probabilidad de acertar once, doce, trece, y así hasta veinticinco. Si sumamos todas estas probabilidades obtendremos la probabilidad de acertar por chiripa diez preguntas o más de las que componen el test, aproximadamente un 30 por ciento. Esta probabilidad no es, ni muchísimo menos, lo suficientemente baja, para justificar el rechazo de nuestra hipótesis de que el sujeto no tiene ESP. (Algunas veces es más difícil desechar resultados experimentales basándose en razones probabilísticas, pero en tales casos siempre se han encontrado defectos en el diseño experimental que daban pistas al sujeto).

Errores del Tipo I y errores del Tipo II: de la política a la apuesta de Pascal

Veamos ahora otro ejemplo más de test estadístico. Supongamos que formulo la hipótesis de que por lo menos el 15 por ciento de los coches de determinada región son Corvette, y que después de observar el paso de mil coches por unos cuantos cruces representativos de dicha región sólo he visto ochenta Corvette. Utilizando la teoría de la probabilidad, calculo que, en el supuesto de que mi hipótesis sea cierta, la probabilidad de este resultado es bastante inferior al 5 por ciento, cifra que comúnmente se usa como «nivel de significatividad». Así pues, rechazo mi hipótesis de que el 15 por ciento de los coches de la región son Corvette.

Hay dos tipos de errores que se pueden cometer al aplicar este test estadístico u otro cualquiera y se llaman, en un derroche de imaginación, errores del Tipo I y errores del Tipo II. Se produce un error del Tipo I cuando se acepta una hipótesis falsa, y uno del Tipo II, cuando se rechaza una hipótesis verdadera. Así, si una gran cantidad de Corvette procedentes de una exposición automovilística atravesara la región y esto nos llevara a aceptar la hipótesis falsa de que al menos el 15 por ciento de los coches de la región son Corvette, estaríamos cometiendo un error del Tipo I. Por el contrario, si no nos hubiéramos percatado de que la mayoría de los Corvette de la región no estaban en circulación, sino guardados en sus garajes, al rechazar la hipótesis verdadera estaríamos cometiendo un error del Tipo II.

Esta distinción admite también una presentación menos formal. Cuando se distribuye dinero, el liberal típico procura evitar como sea los errores del Tipo II (que el que ha hecho méritos no reciba su parte), mientras que el conservador típico se preocupa más por evitar los errores del Tipo I (que el que no lo merece reciba más de lo que le toca). Cuando se reparten castigos, el conservador típico se interesa más por evitar los errores del Tipo II (que el culpable no reciba el castigo que le toca), mientras que el liberal típico se preocupa más de evitar los errores del Tipo I (que el inocente reciba un castigo inmerecido).

Naturalmente, siempre hay gente que se quejará del exceso de rigor de la Federal Drug Administration al retardar la puesta en circulación del fármaco X que ahorraría tanto sufrimiento, y que se quejará también si el fármaco Y se pone en circulación prematuramente y como consecuencia de ello se derivan graves complicaciones. Al igual que la FDA, que ha de evaluar las probabilidades relativas de cometer un error del Tipo I (dando el visto bueno a un mal medicamento) o un error del Tipo II (negando la autorización a un buen fármaco), hemos de evaluar probabilidades similares para situaciones que nos afectan a nosotros directamente. ¿Hay que vender las acciones que están en alza y correr el riesgo de no beneficiarnos de que puedan subir más, o conservarlas y correr el riesgo de que vuelvan a bajar y perdamos lo que ya tenemos seguro? ¿Hemos de someternos a una operación o intentar arreglarnos con medicamentos? ¿Debería Henry pedirle a Myrtle que saliera con él arriesgándose a que le dijera que no, o no pedírselo y conservar su tranquilidad de ánimo, pero no enterarse de que ella le habría dicho que sí?

Consideraciones parecidas valen para los procesos de fabricación. Debido a que algún mecanismo fundamental se estropea por el fallo de alguno de sus componentes, o porque sale a la luz pública una anomalía de una serie de artículos que usualmente son de fiar (petardos, latas de sopa, chips informáticos, condones), a menudo se levantan voces reclamando unos controles más severos que garanticen que no se van a producir más fallos. Parece razonable, pero en la mayoría de los casos es sencillamente imposible o, lo que es equivalente, prohibitivamente caro. En los controles de calidad se analiza una muestra de cada lote de productos fabricados, para asegurarse de que la muestra no contiene artículos defectuosos o contiene muy pocos, pero no se analizan todos los artículos del lote (a veces estos ni tan siquiera son analizables).

Casi siempre hay un compromiso entre la calidad y el precio, entre los errores del Tipo I (aceptar una muestra con demasiados artículos defectuosos) y los de Tipo II (rechazar una muestra con muy pocos elementos defectuosos). Además, si no se reconoce explícitamente este compromiso, se tiende a negar o a encubrir los artículos defectuosos, que son inevitables, con lo que la tarea del control de calidad se hace mucho más difícil. A propósito de esto tenemos la Iniciativa de Defensa Estratégica, cuyos programas de ordenador, satélites, espejos, etc. serían tan tremendamente complejos que hay que ser un poco anuméricamente ingenuo para creer que funcionará sin llevar el tesoro a la bancarrota.

La Iniciativa de Defensa Estratégica trae aparejada una meditación sobre la destrucción y la salvación, pero incluso aquí los compromisos pueden jugar un papel importante. La apuesta de Pascal acerca de la existencia de Dios, por ejemplo, puede presentarse como una elección entre las probabilidades relativas de los errores de Tipo I y II, y sus posibles consecuencias. Deberíamos aceptar la existencia de Dios y actuar en consecuencia, arriesgándonos a cometer un error del Tipo I (que Dios no exista), o deberíamos negar su existencia y actuar también en consecuencia, corriendo el riesgo de cometer un error del Tipo II (que exista). Naturalmente, las frases anteriores se apoyan en un buen número de suposiciones sobreentendidas, y carecen de valor o de significado si no se aclaran estas primero. Pero lo que quiero señalar es que todas las decisiones se pueden presentar en estos términos y, de hecho, exigen una evaluación informal de las probabilidades. En ninguna parte dan duros por cuatro pesetas, y si los dieran, nadie nos asegura que no fueran falsos.

Haciendo encuestas fiables

Estimar las características de una población, como el tanto por ciento que prefiere a cierto candidato o a una marca concreta de comida para perros, es en principio simple, igual que el contraste de hipótesis. Se selecciona una muestra al azar (esto es más fácil decirlo que hacerlo) y luego se determina qué porcentaje de la muestra prefiere al candidato (pongamos, el 45 por ciento) o la marca de comida para perros (pongamos, el 28 por ciento), pero ¿qué porcentajes hemos de tomar como estimación de la opinión de la población total?

Sólo he trabajado efectivamente en una encuesta en una ocasión. Se trataba de una encuesta informal que pretendía resolver la cuestión candente: ¿qué proporción, entre las mujeres universitarias, se lo pasa bien viendo series con Los tres Stooge? Descartando aquellas que no conocían esa payasada tan poco culta de los Stooge, encontré que un sorprendente 8 por ciento de mi muestra confesaba tal satisfacción.

No se puso demasiado cuidado en la selección de la muestra, pero al menos el resultado, el 8 por ciento, tenía ciertos visos de credibilidad. Un problema evidente de afirmaciones tales como «el 67 por ciento (o el 75 por ciento) de los encuestados prefirieron la pastilla X» es que fácilmente podrían estar basadas en muestras pequeñas de tres o cuatro individuos. Más descarado aún es el caso en que una celebridad avala una dieta, un medicamento, o lo que sea, en tal caso tenemos una muestra de uno, que generalmente, además, ha cobrado por ello.

Así pues, más difícil que hacer cálculos estadísticos es decidir qué fiabilidad nos merecen los mismos. Si la muestra es grande, podemos confiar más en que sus características se aproximen a las de la población total. Si la distribución de la población no es demasiado dispersa ni variada, podemos también confiar más en que las características de la muestra sean representativas.

Con ayuda de unos pocos teoremas de teoría de la probabilidad y estadística, podemos sugerir lo que se conoce como intervalos de confianza para estimar la probabilidad de que una muestra característica sea representativa del conjunto de la población. Así, podríamos decir que un intervalo de confianza del 95 por ciento para el porcentaje de electores que votarán a favor del candidato X es el 45 por ciento más o menos el 6 por ciento. Es decir, que tenemos una seguridad del 95 por ciento de que el porcentaje de la población se desviará como mucho un 6 por ciento con respecto a la estimación realizada en la muestra; en este caso, entre un 39 y un 51 por ciento de la población votará por el candidato X. Análogamente, podríamos decir que el intervalo de confianza del 99 por ciento para la proporción de consumidores que prefieren la marca Y de comida para perro es del 28 por ciento más o menos el 11 por ciento; o sea que tenemos una seguridad del 99 por ciento de que la proporción de la población se desvía como mucho un 11 por ciento respecto de la muestra; en este caso, entre el 17 y el 39 por ciento de los consumidores prefieren la marca Y.

Como en el caso del contraste de hipótesis, sin embargo, en ninguna parte dan duros por cuatro pesetas. Para muestras de un tamaño dado, cuanto más estrecho es el intervalo de confianza —es decir, cuanto más precisa es la estimación—, menos fiable es. Y a la inversa, cuanto más ancho es el intervalo de confianza —esto es, cuanto menos precisa es la estimación—, más fiable es. Naturalmente, si aumentamos el tamaño de la muestra podemos afinar, al mismo tiempo, el intervalo de confianza y aumentar nuestra seguridad de que este contiene el porcentaje de la población (o cualquier parámetro o característica de la misma), pero tomar muestras mayores es más caro.

Los resultados de sondeos o de encuestas que no llevan los intervalos de confianza o márgenes de error son a menudo engañosos. Lo más frecuente es que los sondeos sí lleven tales intervalos de confianza, pero que estos no aparezcan en los reportajes de prensa. Las afirmaciones que no se comprometen demasiado y la incertidumbre rara vez son noticia periodística.

Si un titular dice que el desempleo ha disminuido del 7,1 al 6,8 por ciento, pero no dice que el intervalo de confianza es de más o menos 1 por ciento, uno puede llevarse la impresión equivocada de que algo bueno ha ocurrido. Sin embargo, dado el error del muestreo, esa «disminución» podría ser inexistente o, peor aún, podría haber habido un aumento. Si no se dan los márgenes de error, una buena regla empírica es que una muestra aleatoria de mil o más individuos da un margen suficientemente estrecho para la mayoría de fines, mientras que una muestra aleatoria de cien o menos da un margen demasiado ancho.

Mucha gente se sorprende de que el número de individuos que los encuestadores entrevistan para llegar a sus resultados sea tan pequeño. (La anchura del intervalo de confianza es inversamente proporcional a la raíz cuadrada del tamaño de la muestra). En realidad, el número de encuestados generalmente es mayor que el que sería necesario en teoría. Lo hacen así para compensar problemas relacionados con la dificultad de escoger una muestra aleatoria. Si la muestra aleatoria seleccionada consta de mil individuos, el intervalo de confianza teórico del 95 por ciento para la estimación de los votantes del candidato X o de quienes prefieren la comida para perro de marca Y es aproximadamente de más o menos el 3 por ciento. Los encuestadores toman a menudo más o menos el 4 por ciento en esta muestra, para corregir el efecto de los que no contestan y otros problemas.

Pensemos en los problemas que conlleva una encuesta telefónica. ¿Afectará al resultado el hecho de haber descartado de entrada las casas que no tienen teléfono? ¿Qué porcentaje de personas se negará a contestar o colgará sin más cuando se entere de que se trata de una encuesta? Como los números se seleccionan al azar, ¿qué pasa si el teléfono al que se llama es una oficina? ¿Qué pasa si no hay nadie en casa o si contesta un niño? ¿Cómo influye en las respuestas el sexo (la voz o los modales) del entrevistador telefónico? Cuando registra las respuestas, ¿el entrevistador es siempre cuidadoso? ¿Es siempre honesto? ¿Es aleatorio el método para escoger números y centrales telefónicas? ¿Sugieren las preguntas alguna de las posibles respuestas? ¿Son comprensibles? ¿Qué respuesta cuenta si hay más de un adulto en casa? ¿Qué método se sigue para ponderar los resultados? Si la encuesta se refiere a un tema respecto al cual las opiniones varían rápidamente, ¿cómo afecta a los resultados el hecho de que la realización de la encuesta haya durado cierto tiempo?

Las encuestas basadas en entrevistas personales presentan también dificultades parecidas. Entre los defectos más comunes de las encuestas basadas en entrevistas individuales tenemos el empleo de un tono insinuante o la influencia del tipo de preguntas sobre el encuestado. Por otra parte, una de las preocupaciones más importantes en las encuestas por correo es evitar que la muestra se autoseleccione, al ser más probable que contesten los individuos más comprometidos y estimulados, o los pertenecientes a cualquier otro grupo atípico. (Tales muestras autoseleccionadas reciben a veces el nombre más sincero de «grupo de presión»). La famosa encuesta de 1936 del Literary Digest que predijo que Alf Landon ganaría a Franklin Roosevelt por un margen de tres a dos estaba mal hecha, porque sólo el 23 por ciento de los que recibieron cuestionarios los contestaron, y estas personas eran generalmente de las clases más altas. Un error parecido sesgó la encuesta de 1948 que predijo que Thomas Dewey ganaría a Harry Truman.

Es escandalosa la inclinación de los diarios y revistas a publicar resultados sesgados basados en respuestas a cuestionarios que vienen en el mismo periódico. Estas encuestas informales rara vez van acompañadas de los intervalos de confianza u otros detalles de los métodos seguidos, con lo que el problema de las muestras autoseleccionadas no siempre está claro. Cuando autoras feministas como Shere Hite o la columnista Ann Landers informan que la proporción de sus encuestadas que tienen aventuras amorosas o que preferirían no haber tenido hijos es sorprendentemente alta, tendríamos que preguntarnos automáticamente quién va a contestar más probablemente a tales cuestionarios: una mujer que tenga una aventura o una que esté razonablemente satisfecha, una mujer desesperada por sus niños o una que esté contenta con ellos.

Las muestras autoseleccionadas no nos dan mucha más información que una lista de predicciones correctas hechas por alguien que supuestamente tiene poderes psíquicos. A menos que se tenga una lista completa de las predicciones, o un subconjunto escogido al azar, las predicciones correctas no significan nada. Es seguro que algunas de ellas son ciertas por casualidad. Del mismo modo, a menos que la muestra encuestada sea escogida al azar, y no autoseleccionada, los resultados de la encuesta no significarán gran cosa.

Además de ser consciente del problema de las muestras autoseleccionadas, el consumidor con cultura numérica debería comprender también el problema afín de los estudios autoseleccionados. Si una compañía Y encarga ocho estudios comparativos de las ventajas relativas de su producto y el de la competencia, y siete de los ocho señalan que el de la competencia es mejor, no hay que ser muy listo para adivinar cuál de los estudios citará la compañía Y en sus anuncios de televisión.

Como en los capítulos sobre las coincidencias y la pseudociencia, vemos que el deseo de filtrar y poner énfasis en la información está reñido con el de obtener una muestra aleatoria. Para los anuméricos especialmente, unas pocas predicciones o coincidencias vividas tienen a menudo más peso que una evidencia estadística que, aunque menos impresionante, es más concluyente.

Por todo ello, no comprendo por qué tan frecuentemente se llama encuesta a una colección de perfiles íntimos o de historias personales. Si se hace bien, tal colección es más atractiva (a pesar de que pueda ser menos convincente) que la típica encuesta, y pierde buena parte de su valor si se la envuelve en la mortaja de un sondeo científico.

Obteniendo información personal

La madre del cordero de la estadística está en deducir información sobre una población grande a partir de las características de una muestra pequeña seleccionada al azar. Todas las técnicas empleadas —desde la inducción enumerativa de Francis Bacon hasta las teorías del contraste de hipótesis y del diseño experimental de Karl Pearson y R. A. Fisher, padres fundadores de la estadística moderna— dependen de esta (ahora) evidente perspicacia. Siguen a continuación varias maneras de obtener información.

La primera de ellas, que quizá cobrará cada vez mayor importancia en una era inquisitiva que sin embargo proclama el valor de la intimidad, permite obtener información delicada de un grupo sin comprometer la intimidad de ninguno de sus miembros. Supongamos que tenemos un grupo grande de personas y queremos descubrir qué porcentaje de ellas ha mantenido cierto tipo de relación sexual, con objeto de determinar qué prácticas llevan al SIDA con mayor probabilidad.

¿Qué podemos hacer? Se pide al encuestado que tome una moneda del bolsillo o del monedero y que la lance al aire. Sin dejar que nadie vea el resultado, ha de mirar si ha salido cara o cruz. Si ha sido cara, ha de contestar con sinceridad a la pregunta: ¿ha mantenido tal relación sexual, sí o no? Y si sale cruz, simplemente ha de escribir sí. Así pues, una respuesta sí puede significar dos cosas, una totalmente inocua (que ha salido cruz), y la otra potencialmente embarazoso (haber mantenido esa relación sexual). Como el experimentador no puede saber qué significa el sí, es de esperar que los encuestados sean sinceros.

Supongamos que de 1.000 respuestas, 620 son afirmativas. ¿Qué nos dice esto acerca del porcentaje de personas que han mantenido la relación sexual? Aproximadamente 500 de los 1.000 encuestados habrán escrito sí porque les ha salido cruz. Quedan pues 120 personas que han contestado sí de entre las que contestaron con sinceridad a la pregunta (aquellas a las que les salió cara). Por tanto, la estimación del porcentaje de personas que han mantenido esa relación sexual es el 24 por ciento (120/500).

El método admite más refinamientos que pueden servir para conocer más detalles, por ejemplo, cuántas veces se ha tenido la relación sexual. También admite algunas variantes que se pueden realizar de modo informal, y podría servir a una agencia de espionaje para calcular el número de disidentes de cierta región, o a una agencia publicitaria para estimar el mercado de un producto cuyo atractivo la gente probablemente negará. Los datos en bruto para los cálculos se pueden obtener de fuentes públicas y, trabajados convenientemente, pueden llevar a conclusiones sorprendentes.

Otra manera un tanto poco común de obtener información es la que se conoce como método de pescar-repescar. Supongamos que queremos saber cuántos peces hay en cierto lago. Capturamos cien, los marcamos y los volvernos a soltar. Dejamos transcurrir un tiempo para que se dispersen por el lago, volvernos a pescar otros cien peces y miramos qué fracción de ellos están marcados.

Si los peces marcados son ocho, una estimación razonable es que el 8% de los peces de todo el lago están marcados. Y como este 8% lo forman los cien peces que pescamos y marcamos la primera vez, obtendremos el número de peces del lago resolviendo la siguiente regla de tres: 8 (peces marcados de la segunda muestra) es a 100 (el número de peces de la segunda muestra) igual que 100 (el número total de peces marcados) es a N (el número total de peces del lago). N es, aproximadamente, 1.250.

Hay que tener cuidado, naturalmente, de que el pez marcado no muera por el hecho de haber sido marcado, de que se distribuyan más o menos uniformemente por el lago, de que los marcados no sean sólo los más lentos o los más simplones de los peces, etc. Sin embargo, como manera de obtener una estimación aproximada, la pesca-repesca es un método eficiente, y más general de lo que pudiera sugerir el ejemplo de los peces.

Los análisis estadísticos de obras cuya autoría está en disputa (los libros de la Biblia, The Federalist Papers [«Documentos federalistas»], etc.) dependen también de métodos ingeniosos similares para recoger datos de fuentes que no están dispuestas a colaborar (porque han muerto).

Dos resultados teóricos

Buena parte del atractivo de la teoría de la probabilidad reside en la inmediatez y en el interés intuitivo de sus problemas prácticos y de los principios sencillos que nos permiten resolver muchos de ellos. Sin embargo, los dos resultados teóricos siguientes tienen una importancia tan fundamental que pecaría de negligencia si no dijera nada de ellos.

El primero es la ley de los grandes números, uno de los teoremas más importantes de la teoría de la probabilidad, a menudo mal entendido. Es un teorema que a veces se invoca para justificar todo tipo de conclusiones extrañas. Dice sencillamente que, a la larga, la diferencia entre la probabilidad de cierto suceso y la frecuencia relativa con la que este ocurre tiende a cero.

En el caso especial de una moneda no trucada, la ley de los grandes números —enunciada por primera vez por Jean Bernoulli en 1713— dice que la diferencia entre 1/2 y el cociente del número total de caras dividido por el número de tiradas se aproxima a cero tanto como queramos, a medida que aumenta el número de tiradas. Recuérdese, sin embargo, de cuando hablábamos sobre los perdedores y las monedas sin truco del capítulo 2, que esto no significa que la diferencia entre el número total de caras y cruces haya de disminuir a medida que aumenta el número de tiradas; generalmente sucede todo lo contrario. Las monedas sin truco se comportan bien en sentido relativo, pero no en sentido absoluto. Y, contrariamente a lo que se pueda decir en numerosas conversaciones de café, la ley de los grandes números no implica la falacia del jugador: que después de una larga serie de cruces es más probable que salga cara.

Entre otras cosas, esta ley justifica la creencia del experimentador de que la media de un conjunto de mediciones de la misma cantidad ha de aproximarse al verdadero valor de la misma a medida que aumentamos el número de mediciones. También proporciona una base racional a la observación lógica de que si se lanza un dado N veces, la probabilidad de que el número de veces que sale 5 difiera de N/6 es menor cuanto mayor es N.

Resumiendo: la ley de los grandes números proporciona una base teórica para la idea natural de que una probabilidad teórica es una especie de guía para el mundo real, para lo que realmente ocurre.

Según parece, la curva normal o campana describe muchos fenómenos naturales. ¿Por qué? Otro resultado muy importante de la teoría de la probabilidad, conocida como teorema del límite central, nos da la explicación teórica del predominio de esta distribución gaussiana normal (que debe su nombre a Carl Friedrich Gauss, uno de los más grandes matemáticos del siglo diecinueve y de todos los tiempos). El teorema del límite central dice que la suma o la media de un gran conjunto de mediciones sigue una curva normal, incluso en el caso de que cada medición por separado no lo haga. ¿Qué significa esto?

Imaginemos una fábrica que produzca pilas para juguetes, y supongamos que está dirigida por un ingeniero sádico que asegura que aproximadamente el 30 por ciento de las pilas se agota en sólo cinco minutos, y que el 70 por ciento restante tiene una duración de unas mil horas. Está claro que la distribución de las vidas de estas baterías no es descrita por una curva normal en forma de campana, sino más bien por una curva en U con dos picos, uno en los cinco minutos y el otro en las mil horas.

Supongamos ahora que estas pilas salen de la cadena de montaje ordenadas al azar y se empaquetan en cajas de treinta y seis. Si decidimos determinar la vida media de las pilas de una caja, encontraremos que nos da aproximadamente 700; pongamos 709. Si hacemos lo mismo con las pilas de otra caja de treinta y seis, veremos que da otra vez aproximadamente 700, quizá 687. De hecho, si examinamos muchas de estas cajas, la media de las medias será próxima a 700, y lo que es más impresionante, la distribución de dichas medias será aproximadamente normal (en forma de campana), con la proporción justa de paquetes con vidas medias entre 680 y 700, o entre 700 y 720, etcétera.

El teorema del límite central dice que, bajo una amplia variedad de circunstancias, siempre ocurre esto: las medias y las sumas de cantidades que no están distribuidas normalmente siguen sin embargo una distribución normal.

La distribución normal también aparece en los procesos de medida. Aquí el teorema nos proporciona la justificación teórica del hecho de que las medidas de cualquier cantidad tienden a seguir una «curva de error» normal en forma de campana centrada en el verdadero valor de la cantidad que estamos midiendo. Entre otras cantidades que tienden a seguir una distribución normal tenemos: los pesos y estaturas para una edad determinada, el consumo de agua de una ciudad en un día dado, el grosor de unas piezas mecanizadas, el CI (independientemente de lo que este signifique), el número de ingresos en un gran hospital en un día dado, las distancias de los dardos al blanco, el tamaño de las hojas, el tamaño del pecho o la cantidad de refresco servida por una máquina de venta automática. Todas estas cantidades pueden considerarse como suma o media de muchos factores (genéticos, físicos o sociales) y por tanto el teorema del límite central explica su distribución normal.

Resumiendo: las medias (o las sumas) de cantidades tienden a seguir una distribución normal, aun cuando las cantidades de las que son media (o suma) no la sigan.

Correlación y causalidad

Correlación y causalidad son dos palabras con significados completamente distintos, pero los anuméricos tienen una tendencia muy fuerte a confundirlas. Es muy frecuente que dos cantidades estén correlacionadas sin que una sea la causa de la otra.

Un modo bastante común de que esto pueda ocurrir es que los cambios en ambas cantidades sean consecuencia de un tercer factor. Tenemos un ejemplo bien conocido en la correlación moderada entre el consumo de leche y la incidencia del cáncer en distintas sociedades. La explicación de la correlación probablemente esté en la prosperidad relativa de dichas sociedades, que comporte tanto un mayor consumo de leche como más cáncer debido a una mayor longevidad. De hecho, cualquier práctica saludable, como beber leche, que tenga una correlación positiva con la longevidad probablemente la tenga también con la incidencia del cáncer.

En varias regiones del país hay una pequeña correlación negativa entre las defunciones por cada mil habitantes y las tasas de divorcio por cada cien matrimonios. A más divorcio, menos mortalidad. Aquí también un tercer factor, la distribución de edad de las distintas regiones, nos puede apuntar una explicación. Las parejas casadas de personas mayores tienen una probabilidad menor de divorciarse y una probabilidad mayor de morir que las parejas de jóvenes. De hecho, como el divorcio es una experiencia tan desgarradora y produce tanta tensión nerviosa, probablemente comporte un aumento del riesgo de muerte, con lo que en realidad ocurre algo completamente distinto de lo sugerido por esa correlación engañosa. Otro ejemplo en el que correlación se ha confundido con causa: en las islas Nuevas Hébridas, los piojos eran considerados causa de buena salud. Como muchas otras observaciones populares, esta se apoyaba en evidencias sólidas. Cuando la gente se ponía enferma, le subía la temperatura y esto hacía que los piojos buscaran un huésped más acogedor. Los piojos y la buena salud se marchaban con la llegada de la fiebre. Análogamente, la correlación entre la calidad de los programas de guarderías de un estado y la tasa de denuncias de abusos sexuales infantiles no es ciertamente causal, sino que simplemente indica que cuanto mejor es la supervisión, más diligentemente se denuncian unos incidentes que indudablemente ocurren.

Algunas veces dos cantidades correlacionadas tienen también una relación causal, pero esta es enmascarada por otros factores extraños. Una correlación negativa —por ejemplo, entre el grado académico alcanzado por una persona (licenciatura, master o doctorado) y su primer salario— se puede entender si se tiene en cuenta el factor enmascarante de las distintas clases de empleos. Es más probable que un doctor acepte un empleo académico relativamente mal pagado que personas con una licenciatura o un master, que seguramente irán a trabajar a la industria. De ahí que un grado académico más alto y este último factor expliquen que el primer salario sea inferior. Fumar es, sin la menor duda, una causa importante que contribuye al cáncer y a las enfermedades de pulmón y corazón, pero hay factores encubridores relacionados con el modo de vida y el entorno que enmascararon parcialmente este hecho durante algunos años.

Hay una pequeña correlación entre el hecho de que una mujer sea soltera y el haber ido a la universidad. Sin embargo, hay muchos factores enmascarantes, y no está claro si hay alguna relación causal entre ambos fenómenos y, de haberla, cuál de ellos es la causa y cuál el efecto. Podría ser que la tendencia de una mujer a la «soltería» sea una causa que contribuye a que vaya a la universidad, en vez de lo contrario. A propósito, en cierta ocasión Newsweek publicó que las probabilidades que tenía de casarse una mujer universitaria, soltera y con más de treinta y cinco años, eran menores que las de ser asesinada por un terrorista. Probablemente la observación era una hipérbole intencionada, pero la he oído también citada como una realidad por algunas personas que trabajan en los medios informativos. Si existiera el premio al «Anumerismo del año», la afirmación anterior sería una firme candidata.

Finalmente, hay muchas correlaciones puramente accidentales. Los estudios que dan pequeñas correlaciones no-nulas, lo que en realidad están dando en muchos casos son fluctuaciones del azar, y son poco más o menos tan significativas como el hecho de haber lanzado una moneda cincuenta veces y que no hayan salido exactamente veinticinco caras. Gran parte de la investigación que se hace en el campo de las ciencias sociales no es, en realidad, más que una recopilación estúpida de datos irrelevantes de este estilo. Si la propiedad X (por ejemplo, el sentido del humor) se define así (número de risas provocadas por una serie de chistes) y la propiedad Y (por ejemplo, el amor propio) se define asá (número de respuestas afirmativas a una lista de rasgos positivos), entonces el coeficiente de correlación entre el sentido del humor y el amor propio es 0,217. Paparruchas.

La regresión lineal, que tiene por objeto relacionar los valores de la cantidad X con los de la cantidad Y, es una herramienta muy importante en estadística, pero frecuentemente se emplea mal. Demasiado a menudo se obtienen resultados como los vistos en los ejemplos anteriores o algo por el estilo de Y = 2,3 X + R, donde R es una cantidad aleatoria con una variabilidad tan grande como para abrumar la supuesta relación entre X e Y.

Tales estudios defectuosos constituyen frecuentemente la base de los tests psicotécnicos para la prospección de empleo, las tarifas de las pólizas de seguros o el interés de un crédito. Uno puede ser un buen empleado, merecer primas bajas o ser digno de un crédito a bajo interés, pero si de algún modo se nota que no hay correlativos, lo tendrá también difícil.

Cáncer de mama, timos y salarios: errores estadísticos simples

El contraste de hipótesis y las estimaciones de fiabilidad, la regresión lineal, y la correlación son susceptibles de ser mal interpretados, pero en los solecismos estadísticos más comunes no intervienen cosas más complicadas que fracciones y porcentajes. En esta sección presentaremos unas cuantas ilustraciones típicas.

Un dato muy citado es que una de cada once mujeres contraerá cáncer de mama. Sin embargo, esta cifra puede inducir a error, pues sólo vale para una muestra imaginaria de mujeres que vayan a llegar a los ochenta y cinco años y para las que la incidencia de contracción del cáncer de mama, a cualquier edad, coincida con la tasa de incidencia actual para esa edad. Sólo una minoría de mujeres llega a los ochenta y cinco años, y las tasas de incidencia son variables, siendo mayores con la edad.

A los cuarenta años, aproximadamente una mujer de cada mil contrae cáncer de mama anualmente, mientras que a los sesenta, la tasa aumenta a una de cada quinientas. Una mujer típica de cuarenta años corre un riesgo aproximado del 1,4 por ciento de coger la enfermedad antes de los cincuenta, y un 3,3 por ciento de contraerla antes de los sesenta. Exagerando un poco, la cifra «una de cada once» es un poco como decir que a nueve de cada diez personas les saldrán manchas en la piel con la edad, cosa que no ha de ser un motivo de preocupación importante para quienes tengan treinta años.

Otro ejemplo de dato estadístico correcto y sin embargo mal interpretado es el hecho de que las enfermedades cardíacas y el cáncer son los dos principales asesinos de los Estados Unidos. No cabe duda de que es verdad, pero según los Centros de Control de Enfermedad, las muertes accidentales —por accidente de tráfico, envenenamiento, caída, ahogo, incendio y accidente con armas de fuego— son la causa de más años de vida potencial perdidos, pues la media de edad de estas víctimas es considerablemente inferior a la de las víctimas del cáncer y las enfermedades cardíacas.

El de los porcentajes es un tema de la escuela elemental que constantemente se aplica mal. A pesar de que muchos opinen lo contrario, el precio de un artículo que ha sufrido un aumento del 50 por ciento y luego un recorte del 50 por ciento, ha experimentado una reducción neta del 25 por ciento. Un vestido cuyo precio se haya rebajado en un 40 por ciento y luego en otro 40 por ciento, habrá sido rebajado en total en un 64, no en un 80 por ciento.

La nueva pasta dentífrica que reduce las caries en un 200 por ciento probablemente será capaz de eliminar dos veces todas las caries que uno tenga, quizá primero las rellene y luego deje bultitos sobre los dientes allí donde había caries. La cifra del 200%, si es que significa algo, quizás indique que la nueva pasta dentífrica reduce las caries en, pongamos, un 30 por ciento, y se la compare con determinada pasta dentífrica estándar que las reduzca en un 10 por ciento (una reducción del 30 por ciento significa un aumento del 200 por ciento sobre la reducción del 10 por ciento). La última frase, aunque menos engañosa, es también menos impresionante, y por esta razón no se usa.

Es bueno adoptar el simple recurso de preguntarse siempre: «¿Porcentaje de qué?». Si los beneficios son el 12 por ciento, por ejemplo, ¿se trata del 12 por ciento de los costes, de las ventas, de los beneficios del año anterior, o de qué?

Las fracciones son otra fuente de frustración para muchas personas anuméricas. Se dijo que un candidato a la presidencia en las elecciones de 1980 preguntó a su séquito de prensa si alguien sabía convertir 2/7 a tanto por ciento, diciendo que era un problema de los deberes de su hijo. Tanto si la anécdota es verídica como si no lo es, estoy convencido de que una minoría importante de norteamericanos adultos no pasaría un examen sencillo sobre porcentajes, decimales, fracciones y las conversiones entre los mismos. A veces, cuando oigo que una cosa se vende a una fracción de su precio normal, comento que probablemente esa fracción sea 4/3, y me encuentro con una mirada perdida.

Un hombre es atracado en el centro de la ciudad y afirma que el atracador es negro. Sin embargo, cuando un juzgado que investiga el caso reconstruye varias veces la escena, bajo unas condiciones de iluminación parecidas, la víctima sólo identifica correctamente la raza del asaltante aproximadamente el 80% de las veces. ¿Cuál es la probabilidad de que el asaltante fuera efectivamente negro?

Mucha gente dirá, naturalmente, que dicha probabilidad es del 80 por ciento, pero la respuesta correcta, aceptando ciertas suposiciones razonables, es considerablemente menor. Nuestras suposiciones son que aproximadamente el 90 por ciento de la población es blanca y sólo el 10 por ciento negra, que la población del barrio en el que se ha producido el atraco tiene esta composición racial, que no hay una raza más atracadora que la otra y que es tan probable que la víctima cometa errores de identificación en un sentido (blanco por negro) como en el otro (negro por blanco). Dadas estas premisas, en cien asaltos cometidos en circunstancias parecidas, la víctima identificará como negros a veintiséis de los asaltantes, 80 por ciento de los diez que eran efectivamente negros, es decir ocho, más el 20 por ciento de los noventa que eran blancos, es decir dieciocho, que da un total de veintiséis. Por tanto, como sólo eran negros ocho del total de veintiséis identificados como negros, la probabilidad de que la víctima fuera realmente asaltada por un negro, habiéndolo identificado así, es sólo 8/26, o aproximadamente ¡el 31 por ciento!

El cálculo es similar al de los falsos resultados positivos en la detección del consumo de drogas y, como aquel, demuestra que interpretar mal las fracciones puede a veces ser cuestión de vida o muerte.

Según datos del gobierno estadounidense publicados en 1980, una mujer gana el 59 por ciento de lo que gana un hombre. Aunque la cifra se ha citado muchísimo desde entonces, la estadística no es lo bastante sólida como para sostener toda la carga que se ha depositado en ella. Sin más datos detallados, que el estudio no incluía, no está claro qué conclusiones estaban justificadas. ¿Significa esa cifra que desempeñando exactamente el mismo empleo que un hombre, el salario de una mujer es el 59 por ciento del de este? ¿Tiene esa cifra en cuenta el número creciente de mujeres en el mercado de trabajo, así como su edad y experiencia? ¿Tiene en cuenta los empleos relativamente mal pagados que tienen muchas mujeres (recepcionistas, maestras, enfermeras, etc.)? ¿Tiene en cuenta el hecho de que generalmente el empleo del marido determina el lugar de residencia de una pareja? ¿Tiene en cuenta el alto porcentaje de mujeres que trabajan para un objetivo a corto plazo? La respuesta a todas estas cuestiones es no. La pura cifra publicada decía, simplemente, que los ingresos medios de una mujer trabajando a jornada completa eran el 59 por ciento de los de un hombre en las mismas condiciones.

La intención de las preguntas anteriores no es negar que haya sexismo, que es ciertamente bastante real, sino señalar un ejemplo de dato estadístico que, por sí solo, no es demasiado informativo. Sin embargo, siempre se cita y se ha convertido en lo que el estadístico Darrell Huff ha llamado cifra «semiagregada», un número que se saca de contexto con poca o ninguna información acerca de cómo se ha obtenido o de cuál es su significado.

Cuando los datos estadísticos se presentan tan desnudos, sin ninguna información del tamaño y composición de la muestra, de los protocolos metodológicos y las definiciones, de los intervalos de fiabilidad, los niveles de significación, etc., casi lo único que podemos hacer es encogernos de hombros o, si tenemos ganas, tratar de determinar el contexto por nosotros mismos. Otro tipo de dato estadístico que a menudo se presenta sin más acompañamientos tiene la forma siguiente: el X por ciento de la población posee el Y por ciento de la riqueza del país, siendo X chocantemente pequeño e Y chocantemente grande. La mayoría de estadísticas de este tipo son chocantemente engañosas, aunque tampoco ahora pretenda yo negar que en este país hay muchísimas desigualdades económicas. Los capitales de las familias y de los individuos ricos raramente son líquidos, y tampoco tienen un valor o una relevancia puramente personales. Los procedimientos contables empleados para medir estos capitales son, con frecuencia, muy artificiosos, y la situación se complica por otros factores que resultan evidentes a poco que uno piense en ello.

Ya sea pública o privada, la contabilidad es una combinación peculiar de realidades y procedimientos arbitrarios que normalmente hay que descifrar. Las cifras del gobierno acerca del nivel de empleo experimentaron un salto importante en 1983, pero esto no reflejaba otra cosa que la decisión de contabilizar a los militares entre los empleados. Análogamente, los casos heterosexuales de SIDA crecieron espectacularmente cuando la categoría haitiana fue absorbida en la categoría heterosexual.

Aunque sea lo más fácil y agradable, sumar no es siempre lo más apropiado. Si cada uno de los diez artículos necesarios para la manufactura de cierto producto ha aumentado en el 8 por ciento, el precio total ha aumentado sólo un 8 por ciento y no el 80. Como he contado antes, en cierta ocasión el hombre del tiempo de un canal local informó que la probabilidad de que lloviera el sábado era del 50 por ciento y la de que lloviera el domingo, el 50 por ciento también, y por tanto, concluyó, «parece que la probabilidad de que llueva este fin de semana es del 100 por ciento». Otro hombre del tiempo anunció que el día siguiente iba a hacer el doble de calor, pues la temperatura pasaría de 5 a 10 grados.

Hay una demostración graciosa según la cual a los niños no les quedan días para ir a la escuela. Una tercera parte del tiempo la pasan durmiendo, lo que da unos 122 días. Durante una octava parte del tiempo están comiendo (unas tres horas al día), lo que representa unos 45 días. Las vacaciones de verano y las otras que hay a lo largo del año representan una cuarta parte del tiempo, unos 91 días. Y dos séptimas partes del año, 104 días, son fin de semana. La suma da aproximadamente un año, con lo que no les queda tiempo para asistir a la escuela.

Sumas fuera de lugar como estas ocurren todos los días, aunque generalmente en situaciones no tan obvias. Al determinar el coste total de una huelga o la cuenta anual por cuidado de animales domésticos, por ejemplo, siempre hay una tendencia a añadir todo lo que se le ocurre a uno, aunque ello tenga como consecuencia que algunas cosas se cuenten varias veces bajo distinto nombre, o que no se tengan en cuenta ciertos ahorros que se derivan de la situación. Si usted se cree todas esas cifras, es muy probable que también crea que a los niños no les quedan días para ir a la escuela.

Si quiere impresionar a la gente, y en particular a los anuméricos, con la gravedad de una situación, al hablar de un fenómeno raro que afecte a una base amplia de población siempre puede seguir la estrategia de hablar de los números absolutos y no de las probabilidades. Esta actitud se conoce a veces como la falacia de la «base extensa», y ya hemos citado un par de ejemplos de la misma. Qué cifra conviene destacar, si el número o la probabilidad, depende del contexto, pero es útil saber pasar rápidamente del uno a la otra para que titulares como «500 muertos en un puente de cuatro días» (es aproximadamente el mismo número de personas que se matan en cualquier período de cuatro días) no nos abrumen.

Otro ejemplo lo tenemos en el torrente de artículos publicados hace pocos años acerca de la pretendida relación entre el suicidio de adolescentes y el juego de Dungeons and Dragons. La idea consistía en que los adolescentes se obsesionaban con el juego y, de un modo u otro, perdían el contacto con la realidad y acababan por suicidarse. La prueba que se presentaba era que veintiocho adolescentes que solían jugar a menudo a ese juego se habían suicidado.

El dato estadístico parece bastante impresionante, pero sólo hasta que se tienen en cuenta otros dos hechos. En primer lugar, se vendieron millones de ejemplares del juego y se estima que jugaron a él unos tres millones de adolescentes. Y en segundo lugar, la tasa anual de suicidio para este grupo de edad es aproximadamente de 12 por cada 100.000. Los dos hechos juntos sugieren que el número esperado de adolescentes que jugaban al Dungeons and Dragons y podían suicidarse era ¡aproximadamente 360 (12 × 30)! No pretendo negar que el juego pudiera ser un factor influyente en alguno de esos suicidios, sino sólo dejar las cosas en su justa perspectiva.

Probabilidades y adenda

En esta sección incluimos varios apéndices a temas que hemos tratado ya en este capítulo.

La tentación de sacar promedios puede llegar a ser irresistible. Recuérdese el viejo chiste del hombre que dice que, aunque tiene la cabeza en el horno y los pies en la nevera, en promedio está bastante cómodo. O considérese una colección de bloques cúbicos cuyas aristas varíen entre una y cinco pulgadas. La arista del cubo medio de esta colección vale, podemos suponer, tres pulgadas. El volumen de estos mismos bloques cúbicos varía entre 1 y 125 pulgadas cúbicas. Por tanto, podemos suponer también que el bloque medio tendrá un volumen de 63 pulgadas cúbicas [(1 + 125)/2 = 63]. Juntando las dos suposiciones, llegamos a la conclusión de que el bloque cúbico medio de la colección tiene la interesante propiedad de tener ¡tres pulgadas de lado y 63 pulgadas cúbicas de volumen!

A veces un exceso de confianza en los promedios puede tener consecuencias más graves que unos cubos deformes. El doctor le dice que tiene usted una enfermedad espantosa, cuyas víctimas viven una media de cinco años. Si esto es todo lo que sabe, cabe aún alguna esperanza. A lo mejor dos tercios de los que padecen la enfermedad mueren en menos de un año y resulta que usted la contrajo hace ya un par de años. Quizás el tercio «afortunado» de las víctimas sobrevive de diez a cuarenta años. La cuestión es que, si usted sólo conoce el tiempo medio de supervivencia y no sabe nada de la distribución de tiempos de supervivencia, es difícil hacer planes inteligentemente.

Un ejemplo numérico: el hecho de que el valor medio de cierta cantidad sea 100 puede significar que todos los valores de la misma están comprendidos entre 95 y 105; que la mitad de ellos están alrededor de 50 y la otra mitad alrededor de 150; que un cuarto de los valores son 0, la mitad están cerca de 50 y el cuarto restante aproximadamente de 300; o cualquier otra distribución con la misma media que uno quiera imaginar.

La mayoría de cantidades no tienen una curva de distribución en forma de campana, y su valor medio tiene una importancia limitada si no va acompañado de alguna medida de la variabilidad de la distribución y de una apreciación de la forma aproximada de dicha curva de distribución. Hay algunas situaciones cotidianas en las que la gente se forma una buena idea intuitiva de las curvas de distribución en cuestión. Los restaurantes de comida rápida, por ejemplo, sirven un producto de una calidad media moderada en el mejor de los casos, pero cuya variabilidad es muy pequeña (aparte de la rapidez en el servicio, su característica más atractiva). Los restaurantes tradicionales generalmente sirven un producto de una calidad media superior, pero con una variabilidad mucho mayor también, especialmente a peor.

Alguien le ofrece elegir entre dos sobres y le dice que uno contiene el doble de dinero que el otro. Usted toma el sobre A, lo abre y encuentra 100 dólares. Por tanto, el sobre B ha de contener 200 dólares o 50. Cuando el proponente le permite cambiar de sobre, usted piensa que tiene 100 dólares que ganar y sólo 50 que perder si acepta el cambio. Así que lo hace. La pregunta es: ¿por qué no tomó directamente el sobre B en primer lugar? Está claro que independientemente de la cantidad de dinero contenida en el sobre escogido en primer lugar, si le dieran permiso para cambiar, siempre lo haría y tomaría el otro sobre. Si no se tienen más datos acerca de la probabilidad con que las distintas cantidades de dinero están en los sobres, la situación anterior es un callejón sin salida. Variantes de la misma explican en parte la mentalidad de que «la hierba del vecino siempre es más verde» y que frecuentemente acompaña la divulgación de estadísticas sobre ingresos.

Otro juego más. Láncese al aire continuamente una moneda hasta que salga cruz por primera vez. Si esto no ocurre hasta el vigésimo lanzamiento (o después), usted gana mil millones de dólares. Si la primera cruz sale antes, paga 100 dólares. ¿Jugaría?

Tiene una posibilidad entre 524.288 (219) de ganar los mil millones de dólares y 524.287 entre 524.288 de perder 100. Aunque es prácticamente seguro que va a perder cualquier apuesta particular, cuando gane (cosa que según la ley de los grandes números ocurrirá una vez de cada 524.288 aproximadamente), las ganancias le resarcirán con creces de sus pérdidas anteriores. En concreto, la ganancia media o esperada en este juego es de (1/524.288) × (+ mil millones) + (524.287/524.288) × (− cien), que da aproximadamente 1.800 dólares por apuesta. Sin embargo, mucha gente opta por no jugar a este juego (que es una variante de lo que se conoce como paradoja de San Petersburgo) a pesar de que las ganancias medias sean de casi 2.000 dólares.

¿Qué ocurriría si pudiera jugar tan a menudo y tan seguido como quisiera y no hubiera que ajustar cuentas hasta que hubiera acabado la partida? ¿Jugaría entonces?

Obtener muestras aleatorias es un arte difícil y el encuestador no siempre lo consigue. Ni tampoco el gobierno. Es casi seguro que el sorteo del reemplazo de 1970 en los Estados Unidos, para el que se metieron los números del 1 al 366 en capsulitas para determinar quiénes iban a ser reclutados, fue injusto. Las 31 cápsulas correspondientes a las fechas de nacimientos del mes de enero se metieron en un gran arcón, a continuación se metieron las 29 correspondientes a febrero, y así sucesivamente hasta las 31 cápsulas de diciembre. Luego se mezclaron las cápsulas en el arcón pero, a lo que parece, no lo suficiente, pues las fechas de diciembre estaban desproporcionadamente representadas entre las primeras extracciones, mientras que las fechas de los primeros meses del año salieron casi al final, en una proporción significativamente mayor que la que habría correspondido al puro azar. El sorteo de 1971 ya se hizo con tablas de números aleatorios generadas por ordenador.

Tampoco es fácil obtener la aleatoriedad cuando se juega a las cartas, pues barajar un mazo de cartas dos o tres veces no es suficiente para destruir cualquier orden que pudiera haber previamente. Como ha demostrado el estadístico Persi Diaconis, normalmente es necesario barajar por completo de seis a ocho veces. Si un mazo de cartas con una ordenación conocida se baraja sólo dos o tres veces, se extrae una carta y se devuelve a algún otro lugar del mazo, un buen mago puede, casi siempre, acertar de qué carta se trataba. La mejor manera, aunque poco práctica, de ordenar una baraja al azar sería usar un ordenador para generar un ordenamiento aleatorio de las cartas.

Un modo gracioso empleado por las loterías ilegales para obtener cada día números aleatorios accesibles al público consiste en tomar la cifra de las centésimas (la última y más volátil) de los índices Dow Jones de Industrias, Transportes y Servicios Públicos, y ponerlas una tras otra en este orden. Por ejemplo, si las acciones de Industrias cerraran a 2.213,27, las de Transportes a 778,31 y las de Servicios Públicos a 251,32, el número del día sería el 712. Debido a su volatilidad, estas últimas cifras son esencialmente aleatorias, y cualquier número comprendido entre 000 y 999 tiene la misma probabilidad de salir. Y nadie tiene tampoco por qué temer que los números vayan a ser falsificados, pues aparecen en el prestigioso Wall Street Journal, y también en otros periódicos de menos alcurnia.

Además de garantizar apuestas no trucadas, encuestas no sesgadas y un buen trabajo en el contraste de hipótesis, la aleatoriedad es esencial también cuando se trata de hacer un modelo de una situación que tenga una fuerte componente probabilística. Para este fin hacen falta millones de números aleatorios. ¿Durante cuánto tiempo tendrá uno que hacer cola en un supermercado bajo determinadas condiciones? Se diseña un programa adecuado que reproduzca la situación del supermercado con sus distintos condicionamientos y se manda al ordenador que realice el programa unos pocos millones de veces para ver con qué frecuencia se dan los diferentes resultados. Muchos problemas matemáticos son tan intratables, y los experimentos que implican tan caros, que esta clase de simulación estadística es la única alternativa a renunciar a su resolución. Incluso cuando el problema es más fácil y se puede resolver completamente, muchas veces la simulación es más fácil y barata.

En la mayoría de los casos, los números pseudoaleatorios generados por ordenador son suficientemente buenos. Pero, aunque son aleatorios para la mayoría de fines prácticos, en realidad son generados por una fórmula determinista que impone demasiado orden en ellos, cosa que hace que no nos sirvan para otras. Una de esas aplicaciones es la teoría de la codificación, que permite a los funcionarios del gobierno, los banqueros y otros, pasar información secreta delicada sin temor a que vaya a ser descifrada. En estos casos se mezclan números pseudoaleatorios procedentes de varios ordenadores, y luego se le añade la indeterminación física de la fluctuación aleatoria del voltaje suministrado por una fuente de «ruido blanco».

Poco a poco va emergiendo la extraña idea de que la aleatoriedad tiene valor económico.

La significación estadística y la significación práctica son dos cosas distintas. Un resultado es estadísticamente significativo si la probabilidad de que se haya producido por casualidad es suficientemente baja. Esto solo no significa gran cosa. Hace varios años se realizó un estudio en el que un grupo de voluntarios recibía un placebo y a otro grupo se le suministraban grandes dosis de vitamina C. La incidencia de los resfriados en los individuos del segundo grupo era ligeramente inferior que en los del grupo de control. El tamaño de la muestra era lo bastante grande para que fuera del todo improbable que el efecto resultara fruto de la casualidad, pero la diferencia no era impresionante ni significativa en el sentido práctico.

Un buen número de medicamentos tienen la propiedad de que son demostrablemente mejores que nada, pero no mucho. La medicina X, que prueba tras prueba alivia inmediatamente el 3 por ciento de los dolores de cabeza, es ciertamente mejor que nada, pero ¿cuánto pagaría usted por ella? Puede dar por seguro que la anunciarían como fuente de alivio de un porcentaje «significativo» de casos, pero aquí significativo sólo quiere decir en el sentido estadístico.

Normalmente nos encontramos con la situación contraria: el resultado tiene una gran importancia práctica potencial pero casi ninguna significación estadística. Si algún famoso avala una marca de comida para perros, o algún taxista desaprueba el modo en que el alcalde ha manejado un dilema, es evidente que no hay razón alguna para asignar significado estadístico a estas expresiones personales. Lo mismo vale para los cuestionarios de las revistas femeninas: ¿cómo saber si él está enamorado de otra? ¿Padece su hombre de complejo de Boecio? ¿Cuál de estos siete tipos de amante es su hombre? La puntuación de estos cuestionarios casi nunca lleva ninguna validación estadística: ¿por qué una puntuación de 62 indica que un hombre es infiel? Quizá simplemente está acabando de superar su complejo de Boecio. ¿De dónde han sacado esta tipología de siete clases de amantes? Aunque las revistas masculinas presentan a veces idioteces peores, relacionadas con la violencia y los asesinos a sueldo, raramente llevan cuestionarios necios de esta clase.

Los humanos tenemos una marcada tendencia a quererlo todo y a negar que normalmente los compromisos sean necesarios. Debido a su posición, los políticos a menudo están más tentados que la mayoría a condescender con este pensamiento mágico. Los compromisos entre calidad y precio, entre rapidez y perfección, entre dar por bueno un fármaco posiblemente malo y vetar uno que posiblemente sea bueno, entre libertad e igualdad, etc., frecuentemente se difuminan y se ocultan tras una cortina de humo. Esta disminución de la claridad acaba por costarnos más cara a todos.

Por ejemplo, cuando los grupos de seguridad se opusieron a las recientes decisiones de algunos estados norteamericanos de aumentar a 65 millas por hora el límite de velocidad en algunas autopistas y no imponer castigos más duros a quienes condujeran en estado de embriaguez, se les contestó con la afirmación manifiestamente falsa de que no aumentaría la tasa de accidentes, en vez de reconocer abiertamente los factores económicos y políticos, que pesaban más que las probables muertes de más que se fueran a producir. Se podría citar una larga lista de otros incidentes, que en su mayoría tienen que ver con el medio ambiente y los residuos tóxicos (dinero frente a vidas).

Significan una burla a los sentimientos normales de que la vida de un ser humano no tiene precio. Las vidas humanas no tienen precio en muchos sentidos, pero para llegar a compromisos razonables, a veces se les debe asignar, efectivamente, un valor económico finito. Al hacerlo, sin embargo, con demasiada frecuencia lo acompañamos de una sonora algarabía piadosa cuya única finalidad es ocultar lo bajo del precio fijado. Yo preferiría menos falsa piedad y que el valor económico asignado a las vidas humanas fuera considerablemente mayor. En una situación ideal, este valor debería ser infinito, pero cuando no puede ser, nos hemos de guardar los sentimientos empalagosos. Si no somos plenamente conscientes de entre qué opciones estamos eligiendo, difícilmente podremos hacerlo bien.