El investigador especial dice que no se ha contado todo

Compresibilidad y horizonte de complejidad

La complejidad de las expectativas interactivas (creí que ella te había dicho que estábamos meditando la invitación de su marido…) y la intrincada trama organizativa que conforman me llevan al «horizonte de complejidad», el límite o borde más allá del cual las leyes, los acontecimientos y las normativas sociales se complican tanto que son insondables, aparentemente aleatorios. Aplicado libre e informalmente es un concepto útil para referirse a sutilezas que resultan inescrutables para un grupo dado en un momento dado.

Si, por ejemplo, se diera una colección de gruesos volúmenes que contara la historia completa de, digamos, la guerra fría, a personas que sólo fueran capaces de entender una pelea a puñetazos, podría decirse que la historia completa del conflicto está más allá de su horizonte de complejidad. Una historia en profundidad del escándalo de las cajas de ahorro estaría más allá del horizonte de complejidad de las personas cuya experiencia económica se limitara a ganar calderilla. Una diferencia longitudinal de unos cuantos ångström estaría igualmente más allá del horizonte de complejidad de los hombres de la tribu que medían objetos con ramas.[26]

Por suerte para nosotros, casi todas las leyes y normativas esenciales para la vida no están más allá de nuestro horizonte de complejidad y se pueden comprimir hasta hacerse accesibles. Compresión y simplificación parecen esenciales para el éxito político a corto plazo. James Fallows ha llegado a sugerir en un artículo de Los Angeles Times que los presidentes que analizan demasiado fracasan, mientras que tienen éxito los que simplifican en exceso.

Estas ideas informales, la complejidad y la compresibilidad, se pueden aplicar hasta cierto punto a las noticias de prensa. El objeto principal de la segunda, a fin de cuentas, es comprimir la compleja serie de hechos que articulan un acontecimiento hasta hacerlos comprensibles. Hay conflictos legales sin resolver en relación con las formas de conseguirlo. La técnica compresora que Janet Malcolm, colaboradora de New Yorker, empleó en su retrato del psicoanalista Jeffrey Masson, nos viene como anillo al dedo. Malcolm, por lo visto, cogió palabras y expresiones de diversas entrevistas que había hecho al doctor Masson y las integró en una sola frase, con lo que se realzaba su contundencia. Aunque la siguiente incursión en la formalización de estas ideas no soluciona el conflicto legal, permite echar una ojeada a otras limitaciones de la compresión.

Suponiendo que tengamos interés por esto, ¿cómo describiríamos estas series a un conocido que no pudiera verlas?

Salta a la vista que la serie numérica 1 es la más sencilla, pues consiste en una simple repetición de ceros y unos. La serie 2 posee cierta regularidad, un solo 0 alterna unas veces con un 1 y otras con dos, mientras la serie 3 es la más difícil de describir, puesto que no parece seguir ninguna pauta. El sentido exacto de la elipsis final de la primera serie resulta comprensible; no tanto en la serie segunda y de ningún modo en la tercera. A pesar de esta dificultad, supongamos que cada serie tiene un billón de bits de longitud (un bit es un 0 o un 1) y que siempre es igual.

Sigamos ahora el ejemplo del científico informático Gregory Chaitin y del matemático ruso A. N. Kolmogorov y definamos la complejidad de una serie de ceros y de unos como la extensión del programa informático más corto que puede generar (o hacer un listado de) la serie en cuestión.

Adviértase que un programa que hace un listado de la primera serie puede consistir en esta sencilla receta: imprimir dos veces 0, luego un 1 y repetir. La información de esta serie de un billón de bits se puede comprimir en un brevísimo programa que genere la serie. Así, la complejidad de esta primera serie podría ser sólo de mil bits, o la extensión que tenga el programa generador más corto (extensión que depende, hasta cierto punto, del lenguaje informático empleado para escribir el programa).

Un programa capaz de generar la segunda serie diría en lenguaje informático lo siguiente: Imprimir un 0 seguido de un 1 o dos 1, donde las apariciones de 1 siguen la pauta uno, dos, uno, uno, dos, uno, dos, uno, etc. Si esta pauta continúa, el programa que hiciese el listado de la serie tendría que tener la extensión que hiciera falta para especificar como es debido la pauta del «etc.» de las apariciones de 1. Sin embargo, a causa de la alternancia regular de 0 y 1, la información de la serie de un billón de bits se puede comprimir en un programa más breve que la serie que genera. Así, la complejidad de esta segunda serie pudiera ser sólo de medio billón de bits, o de la extensión que tenga el programa más corto que la genere.

Con la tercera serie, la más frecuente, la situación es distinta. Supongamos que es tan desordenada en todos los tramos del billón de bits que ningún programa que la generase sería menos extenso que la serie misma: la información de la serie es incompresible. Lo único que puede hacer un programa en este caso es listar como un necio los bits de la serie: Imprimir 1, luego 0, luego 0, luego 0, luego 1, luego 0, luego 1, luego… Un programa así sería como mínimo tan extenso como la serie que genera, con lo que la tercera serie tiene una complejidad aproximada de un billón. ¿Por qué son útiles en ocasiones los métodos mnemónicos que alargan lo que tenemos que recordar?[27]

De una serie como la tercera, para cuya generación hace falta un programa tan extenso como ella, se dice que es aleatoria. Las series aleatorias no manifiestan pauta, regularidad ni orden y los programas que las generan han de contentarse con ordenar que se copien enteras: imprimir 10001011011… Estos programas no se pueden condensar ni abreviar.

Las series como la segunda son, en cierto modo, las más interesantes, puesto que, al igual que los seres vivos, tienen elementos tanto de orden como de azar. Su complejidad es inferior a su extensión, pero ni tan pequeña como para estar completamente ordenada ni tan grande como para ser aleatoria. La primera serie podría quizá compararse, por su regularidad, con una piedra preciosa o un cristal salino, mientras que la tercera es comparable, por su aleatoriedad, a una nube de moléculas gaseosas o una sucesión de dados rodando. Lo comparable con la segunda serie podría ser una rosa o, por recurrir a algo menos poético, un periódico, ya que ostenta a la vez orden y aleatoriedad entre sus partes. (Viene aquí al caso una cita del poeta Paul Valéry: «Dos peligros amenazan al mundo, el orden y el desorden»).

Estas comparaciones son algo más que símiles retóricos. El motivo es que casi todos los fenómenos se pueden describir por medio de un código y un código así —ya sea el alfabeto molecular de los aminoácidos reunidos en textos redactados por moléculas de ADN, las cadenas de símbolos que representan las operaciones de un ordenador ideal o el alfabeto inglés integrado en los artículos de un periódico— se puede digitalizar y reducir a series de ceros y unos. Expresados en sus códigos respectivos, tanto el ADN como las noticias son series como la segunda y evidencian orden y compresibilidad, así como complejidad y aleatoriedad. Del mismo modo, casi todas las melodías están entre el golpeteo reiterativo y la amorfa electricidad estática (semejantes, respectivamente, a series como la primera y la tercera).

Esta idea de complejidad se llama complejidad algorítmica porque nos da la extensión del programa más corto (algoritmo, receta) que se necesita para generar una serie determinada. Sirviéndose de ella, Chaitin demostró que cualquier ordenador (en realidad, cualquier aparato humano) tiene límites en lo que se refiere a la complejidad de las series que puede generar. En concreto, ningún ordenador puede producir series más complejas que él mismo. Imaginemos que un ordenador (cuyo funcionamiento podría codificarse en una serie C de ceros y unos) fuera capaz de generar una serie aleatoria S más compleja que él. Luego para generar S podríamos limitamos a escribir un programa relativamente breve que generase C, la serie de complejidad mínima que representa al ordenador, la cual, a su vez, podría generar S. Esto significaría que S, en contra de lo supuesto, no es más compleja que C; ni sería aleatoria, puesto que habría sido generada por un programa más breve que ella.

Afín a estas cuestiones es la llamada paradoja de Berry: «Dar con el menor número entero para cuya definición se necesiten más palabras de las que hay en esta frase». El número de cabellos de mi cabeza, el número de posiciones distintas del cubo de Rubik y la velocidad de la luz expresada en milímetros por siglo describen, con menos palabras que en la frase anterior (veinte), un número entero concreto. Hasta aquí, ningún problema. La naturaleza paradójica del planteamiento de Berry salta a la vista cuando advertimos que la frase describe un número entero particular cuya descripción consta, por definición, de un número demasiado pequeño de palabras.

El teorema de Chaitin, que es una generalización del teorema de incompletitud de Gödel,[28] no es una paradoja, aunque sí un extraño e insondable efecto matemático. Parafraseándolo muy libremente, dice que todo ordenador, todo sistema formalizable y toda producción humana están limitados; siempre habrá series demasiado complejas para generarse, resultados demasiado complejos para predecirse y acontecimientos demasiado densos para comprimirse. De las series, resultados y acontecimientos que son así de complejos se puede decir que están más allá del horizonte de complejidad del sistema procesador de información en cuestión.

Estaríamos aquí ante un ejercicio de lógica académica si no fuera por el hecho (creo por lo menos que es un hecho) de que cada vez son más los aspectos de la vida moderna que se han enredado y complicado hasta el punto de ser incompresibles y estar más allá de nuestro horizonte de complejidad. No podemos entenderlos totalmente. Lo máximo que podemos hacer es lo que cualquiera haría con la serie número tres: esperar a ver qué ocurre y, acaso, especular sobre la presencia de un orden subyacente. Una vez en nuestro horizonte de complejidad, o más allá de él, los hechos nos obligan relativamente poco y podemos interpretar el amorfo remolino de datos disponibles con un amplio margen de parcialidad (un poco como los juegos de sociedad). Son muy pocas las cosas futuras que se pueden predecir más allá de un corto plazo, En el dominio público, lo mejor que podemos hacer en muchísimas ocasiones es cruzamos de brazos y ver cómo se desarrollan los acontecimientos.