4

Aleatoriedad

Cuando comencé a trabajar en Caltech en los años cincuenta, pensé en buscar un trabajo de asesoramiento para poder pagar algunas facturas. A los profesores de Caltech se les permitía ejercer de asesores un día a la semana, de manera que indagué entre mis colegas para ver qué posibilidades había. Dos de ellos me sugirieron la RAND Corporation, en Santa Mónica, cerca del muelle y la famosa Muscle Beach.

La RAND Corporation comenzó su andadura poco después de la segunda guerra mundial a raíz del proyecto RAND (acrónimo de research and development, investigación y desarrollo en inglés) de las fuerzas aéreas, con el objeto de asesorar a este cuerpo en materias tales como el ajuste de las misiones (es decir, las tareas asignadas al servicio) a la estrategia y el diseño de métodos racionales para su cumplimiento. Al poco tiempo su papel se extendió hasta incluir el asesoramiento sobre diversos asuntos gubernamentales, muchos de ellas relacionados con la defensa estratégica. Sin perder importancia, el proyecto RAND se limitó a suministrar una parte de los recursos financieros que precisaba la organización, que acabó convirtiéndose en una corporación sin ánimo de lucro, ramificada en múltiples conexiones con las actividades civiles. La RAND da empleo a especialistas en muchas áreas, entre ellas las ciencias políticas, la economía, la física, las matemáticas y la investigación operativa.

El departamento de física, constituido en su mayor parte por físicos teóricos, me contrató como asesor y comencé a tener algunos ingresos extras realizando estudios no clasificados. Tres profesores del Caltech compartíamos coche y nos pasábamos todos los jueves en la RAND.

Los significados de «aleatorio»

Una de las cosas que mejor recuerdo de mis primeras visitas a la RAND es un pequeño montón de memorias recientes que me fue entregado para que pudiese familiarizarme con el trabajo que se estaba llevando a cabo. Una de las memorias era la RAND Table of Random Numbers, algo indudablemente útil, aunque de lectura poco emocionante (me dijeron, sin embargo, que el subtítulo And 100 000 Normal Deviates indujo a muchos bibliotecarios a guardarla en el estante de psicología patológica).

Lo que me pareció realmente interesante de aquella memoria fue un papelito que cayó revoloteando al suelo de entre sus hojas. Lo recogí y descubrí que era una fe de erratas. ¡Los matemáticos de la RAND daban correcciones de algunos de sus números aleatorios! ¿Habían detectado errores aleatorios en sus números aleatorios? Durante mucho tiempo contemplé esta anécdota como una escena más de la comedia humana, pero más tarde, reflexionando sobre ella, reparé en un hecho importante: la palabra «aleatorio» tiene más de un significado, incluso entre matemáticos y científicos.

Tal como hemos estado empleándola, aplicada por ejemplo a una única cadena de un millar de bits, aleatorio significa que la cadena es incompresible. En otras palabras, es tan irregular que no puede expresarse de manera más corta. No obstante, un segundo significado es que ha sido generada por medio de un proceso aleatorio, es decir, por un proceso azaroso semejante al acto de lanzar al aire una moneda, en el que se asignara un 1 a las caras y un 0 a las cruces. Estos dos significados no son exactamente iguales. Una secuencia de mil monedas lanzadas al aire podría producir una secuencia de mil caras, representada por una cadena de bits formada por mil unos, la cual distaría de ser una cadena de bits aleatoria. Por descontado, una secuencia de mil caras no es en absoluto probable; de hecho, la posibilidad de obtenerla es sólo de una entre un enorme número de trescientos dígitos. Dado que la mayoría de las cadenas de bits son incompresibles (aleatorias), o prácticamente incompresibles, una serie de mil monedas lanzadas al aire producirá con mucha frecuencia una cadena de bits aleatoria, pero no siempre. Una manera de evitar esta confusión consiste en referirse a los procesos azarosos como «estocásticos» en lugar de aleatorios, reservando este último término de modo preferente para las cadenas de bits incompresibles.

¿Qué significa entonces aleatorio en el contexto de la tabla de números aleatorios de la RAND? ¿Cómo podría darse una fe de erratas para una tabla de este tipo? Y, para empezar, ¿para qué sirve una tabla de números aleatorios?

Una de las actividades del departamento de física de la RAND entre 1956 y 1957 era un proyecto no clasificado con aplicaciones en astrofísica que requería cálculos de física básica. Me encargué de él contando con la ayuda de otro asesor, un viejo amigo llamado Keith Brueckner. Una parte de los cálculos consistía en determinar de manera aproximada un par de sumas muy difíciles. Uno de los físicos más interesantes de la RAND, Jess Marcum, se ofreció a hacerla por medio del método de Monte Carlo, empleando la tabla de números aleatorios.

Los números aleatorios y el método de Monte Carlo

Este método resultaba muy apropiado para Jess, porque era tan buen tahúr como físico. En su juventud había ganado un buen dinero jugando al blackjack en los casinos. Su estrategia para ganar era el «método del estudiante», consistente en apostar flojo en la mayoría de manos, cuando las probabilidades estén ligeramente en contra, y apostar fuerte cuando las probabilidades estén a favor, por ejemplo cuando todas las cartas de valor 10 (los dieces y las figuras) estén en una cierta parte del mazo. Este método sólo resulta practicable cuando se juega con un único mazo de cartas; al poco, los casinos ajustaron sus procedimientos (adaptándolos a los «estudiantes») y comenzaron a emplear varios mazos a la vez. Jess se dedicó entonces a otros menesteres.

Una vez pidió un permiso de varios meses a la RAND para apostar en las carreras. Su método era hacer pronósticos sobre los pronosticadores. No pretendía ser un experto en caballos, simplemente estudiaba los folletos de las carreras para constatar cómo cuadraban los puntos que otorgaban los pronosticadores con los resultados reales, y después seguía las sugerencias de los pronosticadores que más acertaban. Añadió además otra mejora: justo antes de la carrera, comprobaba en la tabla de apuestas si los puntos referidos (que reflejaban las apuestas recibidas hasta ese momento) se correspondían con los de los buenos pronosticadores. Si no era así, es que la gente estaba siguiendo otros consejos, probablemente malos. Jess se abalanzaba a la ventanilla y apostaba mucho dinero. Siguiendo este método consiguió ganar regularmente en el hipódromo; sin embargo, al poco tiempo decidió que su salario en la RAND le proporcionaba prácticamente lo mismo y con menos riesgo, de modo que regresó a su trabajo. Así es como Jess acertó a estar disponible para ayudarme.

El método de Monte Carlo de sumar se aplica cuando el número de sumandos es realmente grande. Se tiene una ley (¡un algoritmo!) para calcular la primera cantidad a partir del número 1, la segunda cantidad a partir del número 2, y así sucesivamente; la ley es tal que el total varía de forma regular de un número al siguiente, y el cálculo de cada cantidad a partir del número correspondiente es largo y tedioso, por lo que nadie está dispuesto a hacer más cálculos de este tipo que los estrictamente necesarios. (En la actualidad, gracias a los rápidos y potentes ordenadores de que disponemos, muchas de tales sumas pueden hacerse directamente, pero los ordenadores de hace treinta y cinco años necesitaban de trucos como el método de Monte Carlo.)

Supongamos que tenemos que sumar 100 millones de sumandos, después de calcular cada uno de ellos a partir del número entero correspondiente, que, por supuesto, va de 1 a 100 millones. Para aplicar la aproximación de Monte Carlo, se emplea una tabla de números aleatorios para obtener, por ejemplo, 5000 números elegidos al azar entre 1 y 100 millones. Todos los números tienen la misma probabilidad de ser elegidos. Calculamos entonces los sumandos correspondientes a los 5000 números y los sumamos. Tomándolos como una muestra representativa del conjunto de los 100 millones de cantidades a sumar, obtenemos nuestra aproximación multiplicando el resultado por 100 millones y dividiéndolo por 5000 (es decir, multiplicándolo por 20 000). De este modo, hemos aproximado un cálculo muy largo por otro mucho menor.

¿Aleatorio o pseudoaleatorio?

Una tabla de números aleatorios es un conjunto de números enteros comprendidos entre 1 y un valor fijo grande en el que cada número ha sido elegido por un proceso estocástico en el que todos los números en el intervalo elegido tienen la misma probabilidad de aparecer. De hecho, tales tablas no se suelen generar de este modo, sino que son en realidad tablas de números pseudoaleatorios. Estos números los produce un ordenador mediante alguna ley matemática definida, pero tan confusa que pueda suponerse que simula un proceso azaroso (por ejemplo, podría emplearse una ley caótica, en el sentido técnico del término). La lista de números resultante puede comprobarse para determinar si satisface los criterios estadísticos que una tabla producida por un proceso estocástico auténtico satisfaría en la mayoría de casos. En el caso de la tabla de la RAND, ¿eran los números realmente pseudoaleatorios? ¿Reveló una comprobación de última hora que uno de tales criterios no se satisfacía lo suficiente? ¿Fue por eso por lo que se adjuntaba la fe de erratas? Pues bien, la respuesta a todas estas preguntas es «no». Después de todo, es posible generar una tabla de números aleatorios por medio de un proceso verdaderamente estocástico, como, por ejemplo, un fenómeno mecanocuántico. En efecto, la tabla de la RAND fue generada estocásticamente por medio del ruido producido en un tubo de vacío. Más aún, la fe de erratas se refería a los 100 000 números con distribución normal, y no a la propia tabla de números aleatorios. El misterio que resultó tan instructivo no era, después de todo, ningún misterio. No obstante, los métodos estocásticos requieren una gran cantidad de trabajo, y resulta más práctico dejar que un ordenador genere una secuencia siguiendo una ley determinista y asegurarse después de que las indeseables regularidades introducidas sean relativamente inofensivas en las situaciones en que va a utilizarse la tabla. Hay que tener en cuenta, no obstante, que puede resultar peligroso el empleo de secuencias pseudoaleatorias como si fuesen verdaderamente aleatorias.

Hace poco leí que una tabla de números pseudoaleatorios empleada en muchos laboratorios había resultado ser seriamente no aleatoria. Como consecuencia, ciertos cálculos efectuados con esos números estaban muy equivocados. Este incidente nos demuestra que las secuencias de números provenientes de procesos deterministas caóticos o cuasicaóticos pueden contener muchas regularidades.

El caos determinista en los mercados financieros

En ocasiones, secuencias que parecían estocásticas resultan ser en realidad parcialmente pseudoaleatorias. Por ejemplo, muchos economistas neoclásicos han predicado durante años que, en los mercados financieros, las fluctuaciones de precios en torno a los valores establecidos por los principios de mercado eran un «paseo aleatorio», es decir, un cierto tipo de proceso estocástico. Al mismo tiempo, es posible obtener asesoramiento financiero por parte de asesores bursátiles, que estudian concienzudamente en las gráficas las variaciones de los precios en función del tiempo y pretenden derivar de ellas predicciones sobre si los precios subirán o bajarán en un futuro próximo. Una vez leí un artículo de un economista que mostraba su ira ante la idea de que alguien pretendiese utilizar tal método para desafiar la fe de los economistas en que las fluctuaciones no son más que un proceso aleatorio.

En la actualidad ha quedado probado que la idea del carácter azaroso de las fluctuaciones financieras es errónea. De hecho, son en parte un proceso pseudoaleatorio, como el caos determinista; en principio contienen suficientes regularidades para que pueda ganarse dinero aprovechándolas. Ello no significa que uno pueda hacer fortuna con todas las panaceas financieras que ofrecen los asesores bursátiles; muchos de sus consejos no valen probablemente para nada. No obstante, la idea de que las fluctuaciones de precios son algo más que un proceso estocástico no es tan descabellada como creía el irritado economista del artículo. (Doyne Farmer y Norman Packard, dos físicos miembros de la familia del Instituto de Santa Fe, han abandonado su trabajo como investigadores para fundar una empresa de inversiones. Emplean técnicas derivadas de la teoría del caos determinista y los sistemas cuasicaóticos para descubrir las regularidades presentes en las fluctuaciones mercantiles e invertir de acuerdo con ellas. Comenzaron practicando sobre el papel unos cuantos meses, y más tarde invirtieron dinero procedente de un préstamo bancario. Hasta hoy, las cosas les han ido bastante bien.)

Resumamos los tres usos técnicos de la palabra aleatorio con los que nos hemos encontrado:

  1. Una cadena aleatoria de bits es una cadena tal que no existe ninguna regla para comprimir su descripción.
  2. Un proceso aleatorio es un proceso azaroso o estocástico. Si lo empleamos para generar una cadena de bits de cierta longitud, producirá a menudo secuencias aleatorias completamente incompresibles; sin embargo, ocasionalmente producirá cadenas con unas pocas regularidades que puedan comprimirse algo, y muy raras veces producirá secuencias muy regulares, altamente compresibles y en absoluto aleatorias.
  3. Una tabla de números aleatorios está generada normalmente por un proceso pseudoaleatorio —un proceso informático determinista que no es realmente un proceso estocástico, pero que es lo suficientemente confuso (por ejemplo, caótico) como para simular bastante bien un proceso realmente estocástico en la mayoría de aplicaciones, satisfaciendo algunos de los criterios estadísticos que cumpliría un proceso estocástico—. Cuando se emplean procesos pseudoaleatorios para producir cadenas de bits, las secuencias generadas se parecen mucho a los resultados obtenidos por un proceso azaroso.

Shakespeare y los monos escritores

Ya estamos preparados para comprender por qué la incertidumbre algorítmica (o contenido de información algorítmica) no se ajusta plenamente a nuestra idea intuitiva de complejidad. Consideremos el conocido ejemplo de los monos escritores, que golpean las teclas de sus máquinas de escribir de manera estocástica, con la misma probabilidad de teclear cualquier símbolo o un espacio en blanco cada vez. Me cuesta creer que algún mono de verdad se comporte nunca de esta manera, pero esto no importa aquí. Lo que nos preguntamos es cuál será la probabilidad de que, en un determinado período de tiempo, consiguiesen teclear las obras completas de Shakespeare (o, si se prefiere, todos los libros del Museo Británico, lo que ahora se llama la Biblioteca Británica). Naturalmente, si cierto número de monos teclease un número suficientemente grande de páginas, habría una probabilidad distinta de cero de que en la totalidad del texto escrito estuviese contenido un pasaje con las obras completas de Shakespeare (pongamos la edición Folio). Sin embargo, esta probabilidad sería inimaginablemente pequeña. Si todos los monos del mundo tecleasen sin descanso ocho horas al día durante diez mil años, la probabilidad de que compusiesen de modo conexo la edición Folio de las obras de Shakespeare seguiría siendo completamente despreciable.

En un cuento de Russell Maloney titulado «Inflexible Logic» (Lógica inflexible), aparecido en la revista The New Yorker hace algunos años, seis chimpancés comienzan a teclear sistemáticamente, sin dudas ni errores, los libros del Museo Británico, uno detrás de otro. Los pobres monos tienen un final desdichado: un científico los mata para preservar sus concepciones sobre las leyes de la probabilidad. El último chimpancé, agonizante, «se dejó caer ante su máquina de escribir. Penosamente, con su mano izquierda, sacó la última página terminada del Florio de Montaigne. Buscó a tientas un folio en blanco, lo puso en el carro y tecleó con un dedo: “LA CABAÑA DEL TÍO TOM, por Harriet Beecher Stowe, Capít…”. Luego, él también murió».

Consideremos un mono escritor, no del tipo descrito por Maloney, que escriba un texto de longitud igual a la edición Folio, y comparemos un producto típicamente simiesco con las obras de Shakespeare. ¿Cuál tiene un mayor contenido de información algorítmica? Obviamente, la obra del mono. A través de un proceso azaroso (el segundo significado que dimos a la palabra aleatorio), es muy probable que el mono componga una cadena aleatoria o cuasialeatoria de símbolos (en el primer sentido de aleatorio). Si de alguna manera codificásemos el trabajo del mono en una cadena de bits, sería muy probable que tal secuencia exhibiese una incertidumbre algorítmica máxima, o prácticamente máxima, para una cadena de su longitud. Las obras de Shakespeare no son tan aleatorias. Las reglas de la gramática inglesa, la ortografía (pese al uso descuidado que Shakespeare hacía de un método ya de por sí poco sistemático), la necesidad de componer oraciones con sentido lógico y muchos otros factores, contribuyen a la regularidad en los textos de Shakespeare, haciendo que éstos posean un contenido de información algorítmica (o incertidumbre algorítmica) mucho menor que cualquier pasaje razonablemente probable de la misma longitud tecleado por un mono. Y esto es cierto para cualquier autor de habla inglesa: ¡todavía no hemos tenido en cuenta la genialidad de Shakespeare!

Complejidad efectiva

Resulta evidente que el contenido de información algorítmica o incertidumbre algorítmica, aunque a veces reciba el nombre de complejidad algorítmica, no se corresponde en la mayoría de situaciones con lo que entendemos por complejidad. Para definir la complejidad efectiva precisamos algo distinto de una magnitud que se hace máxima en las cadenas aleatorias. De hecho, son los aspectos no aleatorios de un sistema o una cadena los que contribuyen a su complejidad efectiva; ésta puede caracterizarse de modo aproximado por la longitud de una descripción concisa de las regularidades de dicho sistema o cadena. La complejidad bruta y el contenido de información algorítmica no se corresponden con lo que entendemos habitualmente por complejidad, porque se refieren a la longitud de una descripción concisa de la totalidad del sistema o cadena —incluyendo sus características aleatorias—, y no únicamente de sus regularidades.

Para discutir con mayor profundidad el concepto de complejidad efectiva es esencial examinar detalladamente la naturaleza de los sistemas complejos adaptativos. Veremos que el aprendizaje y la evolución requieren, entre otras cosas, la capacidad de distinguir lo aleatorio de lo regular. De esta forma, la complejidad efectiva de un sistema está relacionada con la descripción de sus regularidades por parte de otro sistema complejo adaptativo que lo esté observando.