21
El azar como útil en la confección de modelos

Aunque los temas fractales básicos impliquen únicamente construcciones deterministas, el significado pleno y la relevancia práctica de los mismos no se manifiestan claramente hasta que no se abordan los fractales aleatorios. Y a la inversa, el estudio de los fractales parece, a mí por lo menos, aumentar la propia comprensión del azar.

Aunque la primera razón para introducir el azar es algo familiar para cualquier científico, merece un comentario aparte en este capítulo, entre otras observaciones de naturaleza genérica y no tan familiares. El capítulo siguiente abre nuevas perspectivas y muestra cómo el azar es también necesario por razones propias del estudio de las fractales.

X denota un valor esperado; Pr es la abreviatura de probabilidad

Parece como si en cada disciplina se emplee una notación distinta para el valor esperado de la variable aleatoria X. En este ensayo adoptaremos la notación de los físicos, 〈X〉, pues tiene la virtud de llevar su propio paréntesis portátil.

Dada una función B(t) y su ΔB(t) = B(t + Δt) − B(t), la delta media significará 〈ΔB(t)〉, y la delta variancia significará 〈[ΔB(t) − 〈ΔB(t)〉]2〉.

El papel estándar de los modelos estocásticos

Volvamos a la pregunta «¿cuánto mide la costa de Bretaña?» Por mucho que nos pueda recordar un mapa real, la curva de Koch tiene grandes defectos que volvemos a encontrar en prácticamente todos los modelos primitivos de los otros fenómenos estudiados en este ensayo. Sus partes son idénticas entre sí, y la razón de autosemejanza r debe pertenecer a una escala de la forma b−k, donde b es un entero, a saber, 1/3, (1/3)2, etc.

El modelo podría mejorarse invocando otros algoritmos deterministas más complejos. Sin embargo, además de tedioso, este enfoque estaría condenado al fracaso, pues una costa es moldeada a lo largo del tiempo por múltiples influencias que ni están registradas ni se pueden reconstruir con todo detalle. La tarea de conseguir una descripción completa es imposible, y no tiene sentido ni siquiera planteársela.

En física, por ejemplo en la teoría del movimiento browniano, la salida a esta dificultad reside en la estadística. En geomorfología, la estadística es aún más difícil de evitar. En efecto, mientras las leyes de la mecánica afectan directamente al movimiento molecular, su efecto sobre las estructuras geomorfológicas se ejerce a través de muchos intermediarios mal conocidos. Por tanto, el geomorfólogo se ve obligado, más aún que el físico, a renunciar a una descripción precisa de la realidad y a usar la estadística. En otros campos que exploraremos, el conocimiento actual de las interacciones locales está en alguna parte entre la física y la geomorfología.

Búsqueda de la proporción correcta de irregularidad aleatoria

¿Puede el azar producir el marcado grado de irregularidad que uno encuentra, digamos, en las costas? No sólo puede, sino que muchas veces va más allá del objetivo deseado. Dicho de otro modo, el poder del azar se acostumbra a subestimar. El concepto de azar de los físicos nace de teorías en las que el azar es esencial a nivel microscópico, mientras que a escala macroscópica es insignificante. Por el contrario, en el caso de los fractales aleatorios escalantes que nos interesan, la importancia del azar es la misma a todos los niveles, incluido el macroscópico.

Una utilización pragmática del azar

La relación entre impredictibilidad estadística y determinismo plantea preguntas fascinantes, pero en este ensayo poco tenemos que decir al respecto. En él la expresión «at random» vuelve a tener la connotación intuitiva que tenía cuando el inglés medieval la tomó prestada del francés. No creo que la frase «un cheval á randon» tuviera que ver con la axiomatización matemática ni con la psicología equina, sino que simplemente denotaba un movimiento irregular que el jinete no podía predecir.

Así pues, mientras el azar evoca toda clase de ansiedades cuasimetafísicas, este ensayo está decidido a preocuparse muy poco de sí, en palabras de Einstein, «Dios juega a los dados» o no. La teoría de la probabilidad es el único útil matemático disponible que nos puede servir para representar lo desconocido e incontrolable. Es una suerte que este útil, aunque complicado, sea extraordinariamente poderoso y adecuado.

De la recurrencia al azar

Además, la teoría de la probabilidad se puede introducir de modo que se adapte sin sobresaltos a los métodos recurrentes que predominan en este ensayo. En otras palabras, la segunda mitad de este ensayo sigue a la primera sin solución de continuidad. Seguiremos concentrándonos en casos donde tanto la definición matemática como el algoritmo gráfico se pueden traducir en un «programa procesador» con un bucle interno, y cada repetición del bucle añade nuevos detalles a lo que había sido dibujado anteriormente.

El conocido bucle que genera la curva triádica de Koch se reduce a este programa procesador. Pero otros fractales no aleatorios implican además un «programa de control» que ahora conviene subrayar, y cuyas funciones evolucionan de manera interesante y progresiva hacia una generalidad cada vez mayor. En un primer paso, el pie de figura de la lámina 76 observa que ciertos generadores de Koch se pueden usar en sentido directo (D) o inverso (I), con lo que el procesador necesita de un controlador que le indique antes de cada bucle si éste debe ser (D) o (I). En general, distintas sucesiones de control dan fractales distintos. De ahí que, para cada elección de M y de la D correspondiente, el circuito fractal de la lámina 76 no sea en realidad una curva sino una familia infinita (numerable) de curvas, una para cada sucesión de control. El controlador puede, bien leer esta sucesión de una cinta, bien interpretar una instrucción compacta del tipo «alternar (D) con (I)», o «úsese (D) [o (R)] en el k-ésimo paso si el k-ésimo decimal de n es par [o impar]».

Azar / pseudoazar

Muchos fractales aleatorios comportan precisamente la misma estructura: un controlador intérprete seguido de un procesador. Este hecho a menudo queda oculto (a veces para hacer que las cosas parezcan más difíciles), pero está clarísimo en todos aquellos casos en los que, como es de desear, la definición es explícitamente recurrente.

El controlador más simple es lo que se llama «sucesión de tiradas de una moneda no trucada», pero yo nunca lo he usado. En el entorno de los ordenadores actuales, el controlador es un «generador de números aleatorios». El dato de entrada, que se denomina semilla, es un entero con un número predeterminado M de dígitos binarios. (M viene determinado por el equipo, y si se introducen menos de M dígitos, éstos se completan por la izquierda con ceros). El resultado del controlador es una sucesión de ceros y unos. En simulaciones de un juego de Bernouilli, cada dígito representa el resultado de la tirada de una moneda no trucada. Así, un juego de 1.000 tiradas es realmente una sucesión de 1000 dígitos pseudoaleatorios individuales.

Pero uno podría también imaginar que en algún lugar existe un libro de 21.000 páginas en el que están registrados todos los posibles resultados de una tanda de 1.000 lanzamientos de una moneda, con un resultado en cada página. De este modo se podría especificar cualquier tanda de 1.000 lanzamientos indicando la página correspondiente del libro. El parámetro de azar es simplemente el número de página, esto es, la semilla.

En general, el resultado del controlador se presenta a menudo cortado en pedazos de A enteros. Luego se añade una coma decimal al principio y cada pedazo se convierte así en un número fraccionario U. De este número se dice que es una «variable aleatoria uniformemente distribuida entre 0 y 1».

En la práctica, el resultado de un generador de conjuntos aleatorios no es una función ni una figura, sino una «gran carpeta» virtual de 2A páginas, correspondiendo cada una a una sola figura. Como antes, los números de las páginas son las semillas.

La analogía botánica implica naturalmente que las semillas son todas de la misma especie y variedad. Se permite que haya algunas «semillas anormales» que produzcan plantas atípicas, pero se espera que la gran mayoría de plantas sean esencialmente iguales y que difieran sólo en los detalles.

El generador de números aleatorios es el eje de cualquier simulación. Al principio están las operaciones que implican en cada caso la misma interfase entre la teoría de los números y la teoría de la probabilidad, y son independientes de los objetivos del programa. Son ejemplares de transformaciones deterministas que imitan el azar tal como se describe en la teoría de la probabilidad. Al final están las operaciones que varían según el objetivo de la simulación.

El paso de este entorno práctico a la probabilidad recurrente hecha y derecha es de lo más natural. El cambio principal consiste en que fracciones con un número finito de dígitos se sustituyen por números reales. Las semillas se convierten en los misteriosos «sucesos elementales» que los probabilistas matemáticos denotan por la letra ω. ▯ Para «traducir» ω en una sucesión infinita de variables de control reales, Payley y Wiener (1934) sugieren la diagonalización inversa de Cantor. ▮

Invocación vacía del azar contra descripción real

En la sección anterior se argumenta que la teoría del azar no es realmente difícil. Por desgracia, tampoco es realmente fácil. Uno se siente tentado de decir que, para lograr un modelo de costa que no tenga los defectos de la curva de Koch y que conserve sus virtudes, basta con deformar las distintas porciones de la curva y modificar sus tamaños, todo ello al azar, y luego encadenarlas todas en un orden aleatorio.

Esa clase de invocación del azar se puede permitir en los estudios preliminares, y en nuestros primeros capítulos esto se consentía sin mayor problema. No es pecado, a menos que se oculte al lector, o que el autor no lo confiese. Y en muchos casos se puede realizar. En otros, sin embargo, la simple invocación del azar es un gesto vacío. En efecto, las reglas que generan curvas aleatorias aceptables son muy difíciles de describir, ya que los conjuntos geométricos están contenidos en un espacio. Si sólo se varían al azar las formas, los tamaños y el orden de las partes de una costa, uno suele encontrarse al final con unas piezas que no encajan entre sí.

Azar sin ligaduras y azar con autoligaduras

Nos topamos, pues, inmediatamente con una distinción informal de gran importancia práctica. Algunas veces nuestro controlador, seguido por un procesador, puede recorrer los bucles sin necesidad de ir teniendo que comprobar los efectos de los bucles anteriores, pues no hay temor de que se produzca un mal emparejamiento. Se puede decir que tales modelos implican una forma de azar sin ligaduras. Otras veces, por el contrario, los estadios posteriores de la construcción están condicionados por el resultado de estadios anteriores y/o el azar está sometido a fuertes autoligaduras por la geometría del espacio.

Como ejemplo de este contraste, los polígonos de 2n lados de una red, incluyendo los que se autointersecan, plantean un problema fácil de combinatoria. Y se puede generar uno de esos polígonos mediante azar sin ligaduras. Pero las costas no deben autointersecarse, y el recuento de las aproximaciones poligonales a una costa es un problema de azar con fuertes autoligaduras, que sigue escapando a las mejores inteligencias.

Como los problemas en los que interviene el azar con autoligaduras son difíciles, los evitaremos, excepto en el capítulo 36.

Variables aleatorias hiperbólicas

Una variable aleatoria no uniforme X es simplemente una función monótona no decreciente x = F−1(u). La función inversa U = F(x) se denomina la probabilidad Pr(X>x). (Para las discontinuidades de F(x) o de F−1(u) hace falta hilar un poco más fino).

La expresión Nr(U>u) ∝ uD tiene un papel muy importante en los capítulos 6, 13 y 14. Su homóloga en probabilidad, Pr(U>u) ∝ uD, se denomina distribución hiperbólica, y tiene un papel central en muchos de los capítulos que siguen. La propiedad de que Pr(U>u) = ∞ es curiosa pero no debe causar pánico. Resulta ser exactamente tan deseable y manejable como lo era Nr(U>0) = ∞ en el capítulo 13. Tendrá que manejarse con cuidado, pero los aspectos técnicos pueden y deben evitarse.

La D y la DT típicas de un conjunto aleatorio

Cuando se trata con conjuntos aleatorios, los conceptos de dimensión tienen que elaborarse un poco más. En nuestra «gran carpeta», que reúne una gran población de conjuntos aleatorios, cada página es un conjunto, con unos valores determinados de D y DT, igual que en los capítulos anteriores. Dichos valores varían de una muestra (= página) a otra, pero en todos los casos nos encontramos con que su distribución es simple.

Hay un grupito de muestras aberrantes («semillas defectuosas») para las que D toma todo tipo de valores, pero la probabilidad total correspondiente a este grupito es nula. Todas las demás muestras se caracterizan por un cierto valor común D al que llamamos «valor casi seguro».

Creo que lo mismo vale para DT y espero que el tema atraiga la atención de los matemáticos.

Los valores casi seguros son, en todos los sentidos, «típicos» de la población. Así, por ejemplo, el valor esperado de D coincide con el valor casi seguro.

Por otra parte, se debería evitar pensar siquiera en la dimensión del «conjunto promedio». Por ejemplo, suponiendo que el lector se haya hecho una imagen mental de un paseo aleatorio simétrico, intentemos definir el paseo promedio. Si es un proceso cuyas posiciones son las medias de todos los paseos que constituyen la población, entonces este promedio no pasea sino que se está quieto; nunca abandona la posición inicial, y por tanto D = 0, ▯ mientras que para casi todos los paseos se demuestra (capítulo 25) que D = 2. ▮ El único conjunto promedio «seguro» a efectos de tratar con dimensiones es el conjunto caracterizado por D = 2; y esta definición es segura porque es circular.

Cualquier método aplicable a fractales no aleatorios puede ser útil en la evaluación de D. Pero no hay que olvidar una advertencia que se hizo en el capítulo 13: si la porción de un conjunto fractal contenida en una bola de radio R centrada en un punto del conjunto tiende a tener una medida («masa») que cumpla M(R) ∝ RQ, el exponente Q no tiene por qué ser una dimensión.