Con esfuerzo deliberado he eliminado de este ensayo cualquier fórmula «complicada», pero espero que muchos lectores querrán saber algo más. Para facilitarles la transición a las obras especializadas, este apéndice reúne algunas pequeñas discusiones, combinando las principales definiciones con algunas referencias. Por razones de comodidad, el orden en que se presentan aquí los conceptos es distinto de aquél con que han ido apareciendo a lo largo del texto.
¿Es necesaria una definición matemática de las fractales?
Es necesario justificar la determinación adoptada de antemano en el texto de caracterizar los objetos fractales de un modo intuitivo y laborioso, evitando definirlos de una manera matemática y compacta, por medio de figuras o conjuntos que se habrían llamado fractales. Si he procedido así ha sido por miedo a enredarme en detalles que no tuvieran una contrapartida concreta. En efecto, aunque esté perfectamente dispuesto a contradecir a mis antepasados científicos (de los que hay que exceptuar a Jean Perrin), declarando que una parte de aquello que ellos solían clasificar como patología matemática se ha de clasificar en lo sucesivo como la expresión de la robusta complejidad de la realidad, pienso que en general tenían toda la razón. La mayoría de los refinamientos analíticos no tienen una contrapartida concreta, y no harían sino complicar la vida inútilmente a aquellos que se los encontraran en el curso de una teoría científica. Más concretamente, una vez definido un concepto cualquiera de dimensión D, se puede tratar de definir un conjunto fractal como aquél para el cual, o bien D es un número real no entero, o bien D es un entero, pero el conjunto, globalmente, es «irregular», como en el caso en que, siendo D = 1, no se trata de una curva continua y rectificable. Sin embargo, la teoría de la rectificabilidad es demasiado confusa para decidirse a depender de ella; además, puede suceder a menudo que perturbando un conjunto muy clásico en el entorno de un solo punto, su dimensión se haga fraccionaria. Desde el punto de vista de las aplicaciones concretas, tales ejemplos serían insostenibles. Es a fin de evitarlos por lo que renuncio a definir el concepto de conjunto fractal.
Dimensión (fractal) de contenido o dimensión de Hausdorff- Besicovitch
Entre las numerosas definiciones de dimensión fraccionaria, la primera es la propuesta por Hausdorff (1919). Se aplica a figuras muy generales, que no tienen por qué tener una homotecia interna. Para clarificarla, es conveniente descomponerla en partes. Se parte, de entrada de un espacio métrico Ω de puntos ω, es decir, un espacio en el que se ha definido, de manera conveniente, la distancia entre dos cualesquiera de sus puntos, y por consiguiente la bola de centro ω y radio ρ; Ω puede ser, por ejemplo, un espacio euclídeo. Consideremos un conjunto θ en Ω cuyo soporte sea acotado, es decir, esté contenido en una bola finita. Es posible aproximar θ por exceso, mediante un conjunto finito de bolas de Ω tales que cualquier punto de Ω esté contenido por lo menos en una de ellas. Sean sus radios ρm. En un espacio euclídeo de dimensión d = 1, el contenido de una bola de radio ρ es 2ρ; si la dimensión euclídea es d = 2, es πρ2, y en general, es γ(d)ρd, en donde
γ(d) = [Γ(1/2)]d/Γ(1 + d/2)
Esta expresión γ(d)ρd resulta de una interpolación natural que permite definir el «contenido» formal de una bola de dimensión d no entera. Por extensión, la suma γ(d)∑ρmd constituye una aproximación natural del «contenido» de θ, desde el punto de vista de la dimensión formal d. Sin embargo, dicha aproximación es muy arbitraria. Para hacerla intrínseca, es razonable, en una primera etapa, fijar un radio máximo ρ y considerar todos los recubrimientos tales que ρm < ρ. Diremos que la aproximación es tanto más «económica» cuanto más se acerque al límite inferior infρm<ργ(d)Σρmd. La segunda etapa consiste en hacer que ρ tienda a cero. Al hacerlo, la limitación impuesta a los ρm es cada vez más restrictiva, por lo tanto el infρm<ρ no puede sino aumentar y la expresión
γ(d)limρ→0infρm<ρ∑ρmd
está bien determinada. Se demuestra finalmente que existe un valor D de d tal que
para d < D, limρm→0infρm<ρ = ∞,
mientras que,
para d > D, limρ→0infρm<ρ = 0
(De hecho, en este caso se tiene que infρm<ρ = 0 para todo ρ, pues el mejor recubrimiento se hace con bolas mucho más pequeñas que ρ). El D así definido es lo que se llama «dimensión de Hausdorff-Besicovitch».
Cuando Ω es un espacio euclídeo de dimensión E, la expresión infγ(E)∑ρmE relativa a θ es finita, siendo como mucho igual al resultado de la misma expresión para la bola finita en la que θ está contenido. Así pues, D ≤ E. Para más detalles, se puede consultar: Kahane y Salem 1963, Federer 1969 o Rogers 1970.
Medida de Hausdorff-Besicovitch
El «contenido» que corresponde al exponente D en la expresión γ(d)limρ→0inf0<ρΣρmd de la sección precedente se llama «medida de Hausdorff». Puede ser, bien degenerada (nula o infinita) o bien no degenerada; únicamente es interesante este último caso, que incluye, en particular, el conjunto de Cantor, la curva de von Koch y el universo de Fournier. Si la medida de Hausdorff es degenerada, resulta que la potencia ρD mide el «contenido intrínseco» de θ de manera imperfecta. Esto es lo que ocurre típicamente cuando el conjunto θ es aleatorio, como por ejemplo la trayectoria del movimiento browniano, o el de Cauchy o el de Lévy. En todos estos casos, el concepto de dimensión se da por bueno, pero conviene profundizar más en el de «contenido». Besicovitch tuvo la idea de sustituir γ(D)ρD por una función h(ρ) más general que satisfaga h(0) = 0. Si es verdad —pues muy bien pudiera no ser así— que existe una función h(ρ) tal que el limρ→0infρm<ρ∑h(ρm) sea positivo y finito, dicho lim inf se denomina «medida de Hausdorff-Besicovitch», y se dice que el citado h(ρ) mide el contenido del conjunto θ de manera exacta. Véase, por ejemplo, Kahane y Salem 1963 o Rogers 1970.
Dimensiones (fractales) de recubrimiento
Sea otra vez un conjunto en un espacio métrico Ω, y un radio máximo ρ > 0. Pontijagin y Schnirelman 1932 recubren θ por medio de bolas de radio igual a ρ según el método que exige el menor número de bolas N(ρ) (sin modificar N(ρ), se puede reemplazar la condición de «radio igual a ρ» por la de «radio menor o igual que ρ»). Haciendo tender a continuación ρ hacia cero, se define la dimensión de recubrimiento por
lim infρ→0[log N(ρ)/log (1/ρ)].
Kolmogorov y Tihomirov 1959 han estudiado en detalle el log N(ρ), designándolo como la ρ-entropía de θ. Esto lleva a designar la dimensión de recubrimiento como la dimensión de entropía. Kolmogorov definió también otras cantidades que pueden servir para definir dimensiones fractales. Por ejemplo, sea M(ρ) el mayor número de puntos de θ, tales que la distancia entre dos cualesquiera de ellos es superior a ρ. Por definición, la capacidad de θ será log M(ρ), y la expresión lim infρ→0 log M(ρ)/log (1/ρ) será una dimensión que no hay que confundir con la dimensión de capacidad de Frostmann.
Tomemos como espacio Ω el espacio euclídeo de dimensión E. Para estudiar los conceptos de longitud y de área de un conjunto θ de Ω, Minkowski 1901 sugirió que se empezara por regularizarlo y engrosarlo, sustituyéndolo por el conjunto θ(ρ) de todos aquellos puntos cuya distancia a θ fuera como máximo ρ. Se puede obtener θ(ρ) por reunión de todas las bolas de radio ρ centradas en todos los puntos de θ. Por ejemplo, una línea es sustituida por un «hilo», cuyo volumen dividido por 2πρ2, proporciona una nueva evaluación de la longitud aproximada de la línea. Análogamente, una superficie es reemplazada por un «velo», cuyo volumen dividido por 2ρ, nos da una nueva evaluación del área aproximada de la superficie. En general, Minkowski definió, para cualquier entero d, los contenidos superior e inferior de θ, los cuales son respectivamente iguales a los límites superior e inferior (para ρ → 0) de la «densidad», que a su vez es igual al cociente:
volumen E-dimensional de θ(ρ), dividido por γ(E − d)ρE−d
La idea está comentada y discutida en detalle en Federer 1969. Cuando resulta que los contenidos superior e inferior son iguales, su valor común define el contenido (a secas).
La extensión de todas estas definiciones a los valores no enteros de d es completamente natural y se debe a Georges Bouligand. En otras palabras, si existe un valor D de d, tal que el contenido superior de θ se anule para d > D y que el contenido inferior diverja para d < D, decimos que este valor de D es la dimensión de Minkowski-Bouligand de θ.
Dimensiones (fractales) de concentración para una medida (Mandelbrot)
Sea Ω siempre un espacio métrico, y supongamos además que para subconjuntos apropiados de Ω tenemos definida una medida μ(θ), que satisfaga μ(Ω) = 1 y que sea «densa por doquier», en el sentido de que para toda bola A se tenga que μ(A) > 0. Dado que «el conjunto en el que μ > 0» es idéntico a Ω, la dimensión de homotecia (si es aplicable) y la dimensión de recubrimiento son ambas idénticas a la dimensión de Ω, y por consiguiente, no aportan nada nuevo al estudio de μ. Puede ocurrir que podamos decir que μ se concentra sobre un conjunto abierto, cuya dimensión de Hausdorff-Besicovitch es menor que la de Ω; desgraciadamente, en el caso de conjuntos abiertos, dicha dimensión no puede ser interpretada concretamente de un modo natural, y se precisaría, por lo tanto, de una nueva definición más directa. Al no haber encontrado nada al respecto en la literatura, he introducido (para mi uso personal) las siguientes definiciones, poco exploradas aún, pero que pudieran tener un interés más general.
Dados ρ > 0 y 0 < λ < 1, consideremos todos los recubrimientos de Ω que utilizan bolas de radio menor o igual que ρ, y dejan sin cubrir un conjunto de μ-medida menor o igual que λ. Sea N(ρ,λ) el mínimo del número de tales bolas. Las expresiones
lim infλ→0 lim infρ→0 log N(ρ,λ)/log (1/ρ)
lim infρ→0 log N(ρ,ρ)/log (1/ρ)
definen una dimensión cada una de ellas. Para la primera, el caso más interesante es aquél en que la operación lim infρ→0 es independiente de λ, con lo que la operación lim infλ→0 puede ser eliminada.
Dimensión topológica
Las dimensiones de homotecia, de recubrimiento y de medida están referidas todas ellas a espacios métricos. Las tres difieren en gran manera de un concepto mucho más común, el de dimensión en el sentido topológico. Esta cae absolutamente fuera de lo que nos ocupa, pero hay que mencionarla, ya que, si no, el papel casi exclusivo que juega en los tratados de matemáticas nos podría inducir a confusión. Se dice que dos espacios topológicos tienen la misma dimensión si entre sus puntos existe una aplicación continua e inyectiva. La leyenda de la Figura 49, que representa la curva de Peano, da algunos detalles al respecto; un libro curioso (tan útil como completamente desorganizado) de Gelbaum y Olmsted 1964 contiene gran cantidad de referencias a este tema; finalmente, entre los tratados, cabe citar el de Hurewicz y Wallman 1941.
Vemos pues cómo el concepto intuitivo de dimensión es multiforme: la dimensión de Hausdorff-Besicovitch, la de homotecia y la topológica no representan más que un aspecto particular cada una; además, puede muy bien darse el caso de que tomen valores distintos. Sabemos, por ejemplo, que la curva de von Koch y sus variantes tienen la dimensión de Hausdorff-Besicovitch igual a la de homotecia, las cuales toman un valor comprendido entre 1 y 2 (1 < D < 2); por otra parte, al tratarse de curvas continuas y sin puntos dobles, tienen todas ellas la dimensión topológica igual a 1. El conjunto de Besicovitch del Capítulo 9 tiene una dimensión de Hausdorff-Besicovitch que satisface 0 < D < 1, mientras que su dimensión de homotecia es igual a 1.
Variables aleatorias Lévy-estables
Será cómodo definir la variable aleatoria gaussiana reducida X como aquella que tiene la densidad
2−1π−1/2 exp (−x2/4),
lo que nos permite asegurar que su función característica (transformada de Fourier) es exp(−ζ2). La media de X es nula y su varianza es σ2 = 2. Pongamos de relieve la propiedad siguiente. Sean G' y G'' dos variables gaussianas independientes, con 〈G〉 = 〈G'〉 = 0, 〈G'2〉 = σ'2 y 〈G''2〉 = σ''2; entonces la suma G = G' + G'' es también gaussiana con 〈G〉 = 0 y 〈G2〉 = σ'2 + σ''2. Por consiguiente, la variable gaussiana reducida X es la solución de la ecuación funcional siguiente:
(S): s'X' + s'X'' = sX,
a la que se añade la condición subsidiaria
(A2): s'2 + s''2 = s2.
La ecuación (S) define la estabilidad en el sentido de Lévy. Desde el punto de vista de (S) y de (A2), s' y s'' son simplemente factores de escala. Aquí resultan ser proporcionales a σ' y σ'', pero en otros casos no ocurre lo mismo.
Para la distribución de Cauchy, tenemos
Pr(X>x) = Pr(X←x) = 2−1 − π−1 arctg x
Su densidad es π−1(1 + x2)−1, la transformada de Fourier de la función característica exp(−|ζ|). Tiene la particularidad de que 〈|x|〉 = ∞, y forzosamente todos sus momentos de orden entero son infinitos. La ecuación funcional (S) sigue siendo aplicable, pero el exponente en la condición subsidiaria es ahora igual a 1:
(A1): s' + s'' = s.
Aquí el factor de escala no puede estar ya definido por medio de los momentos, pero resulta ser igual a la distancia entre la mediana de X y sus cuartiles.
Finalmente, conservando la condición de estabilidad (S), es posible generalizar la condición subsidiaria en la forma:
(AD): s'D + s''D = sD.
El caso D = 1 se debe en realidad a Poisson (!), pero la extensión para D ≠ 1 es debida a Cauchy. Este creía que D podía ser cualquier número real positivo, pero Lévy —que reemprendió este estudio y lo concluyó— demostró que es necesario y suficiente tener 0 < D < 2. En el caso simétrico (y por tanto isótropo), la densidad de probabilidad correspondiente toma la forma
π−1∫0∞exp(−uD) cos(ux) du.
Esto es, la transformada de Fourier de la función característica exp(−|ζ|D). Salvo en el caso D = 2 (Gauss) y D = 1 (Cauchy), dicha densidad no puede ser expresada en forma analítica cerrada. Si D < 2, el momento (|X|h) únicamente es finito si h < D.
Vectores aleatorios Lévy-estables
Nos limitamos al caso isótropo. Lévy ha demostrado que si el vector aleatorio isótropo X satisface
(S): s'X' + s''X'' = sX
entonces se ha de tener que
(AD): s'D + s''D = sD.
La función característica es aún exp(−|ζ|D). Se puede definir explícitamente este vector X como integral de contribuciones vectoriales, cuyas direcciones cubren uniformemente toda la esfera unidad y cuyas longitudes son escalares aleatorios infinitesimales e independientes que siguen la misma distribución estable. O bien por otro método: X se representa como la integral extendida a todos los volúmenes elementales dxdydz del espacio, de vectores definidos del modo siguiente: son nulos con una probabilidad de 1−dxdydz, y si no, tienen una longitud de |OP|−3/D, siendo P el centro del volumen elemental y O el origen de coordenadas; todos estos vectores están además dirigidos de P hacia O. Hay distintos problemas de convergencia, pero se resuelven sin dificultad, como se ve fácilmente interpretando cada vector elemental como una fuerza gravitatoria. Su ley se hace newtoniana para D = 3/2, en cuyo caso se tiene la distribución de Holtsmark; una discusión particularmente sencilla, dirigida a los físicos, es la de Chandrasekhar 1943. Los problemas de convergencia se resuelven por neutralización mutua de las pequeñas atracciones de las estrellas muy lejanas, orientadas en direcciones opuestas.
Varias funciones brownianas
Si el movimiento browniano ha sido el primer objeto fractal que se ha estudiado es por ser el más simple, no sólo desde el punto de vista físico, sino también desde el de las matemáticas (Wiener, Lévy). Además, un gran número de otros objetos fractales pueden ser obtenidos modificando la definición del movimiento browniano de una manera completamente natural. Vamos a dar aquí una lista de las más importantes de entre estas generalizaciones. El prototipo irreducible es el movimiento browniano escalar ordinario. Una vez normalizado, consiste en una función aleatoria gaussiana, del escalar t al escalar B, tal que (B(t) − B(0))2 = t2H, con H = 0,5.
La primera generalización afecta a la B, sustituyendo el escalar por un vector, o también —cosa que lleva al mismo resultado— considerando un punto cuyas coordenadas son movimientos brownianos independientes.
Una segunda generalización vuelve al punto de partida de un B escalar y sustituye a continuación el H = 0,5 por otro valor comprendido entre 0 y 1, con lo que se cambia t por t2H. Esto conduce al movimiento browniano fraccionario, cuyas principales propiedades —incluida una construcción efectiva— están descritas por Mandelbrot y Van Ness 1968. Naturalmente, como ya se ha dicho en el Capítulo 6, ambas generalizaciones pueden combinarse.
Una tercera manera de generalizar B(t), debida a Paul Lévy, se refiere a la t, y sustituye este escalar por un punto P. Una construcción efectiva de B(P), a partir del ruido gaussiano blanco, ha sido dada por Tchentsov. La combinación de las generalizaciones segunda y tercera ha sido llevada a cabo por R. Gangolli, debiéndose a Mandelbrot 1975b la construcción efectiva.
Una cuarta generalización sustituye la distribución gaussiana por otra distribución Lévy-estable; sirve mucho en el Capítulo 5.