4
Entre el significado y la información

Como es lógico, todo consiste en ponerse fuera del alcance normal de eso que llamamos estadística.

Stephen Spender

El negro abismo que hay entre un cuento de Chéjov y una serie de ceros y unos no puede salvarse, pero sí iluminarse un poco con algunas ideas corrientes de la teoría de la información. Mezcla de probabilidad e informática, la teoría de la información esclarece algunas de las conexiones entre las historias, las estadísticas y nuestro yo haciendo una especie de radiografía del esqueleto de estas relaciones más corpóreas.

Esta idea puede ilustrarse señalando la naturalidad (o antinaturalidad) con que una secuencia única de ceros y unos puede codificar un texto arbitrariamente largo. Pensemos que un cuento típico de Chéjov, por ejemplo, puede contener unos 25.000 símbolos: letras mayúsculas y minúsculas, números, espacios en blanco y signos ortográficos. Todos estos símbolos pueden representarse mediante una secuencia de ceros y unos de longitud 8 (la P tiene la clave 01010000; la V, 01010110; la b, 011000010; las comillas “, 00100010; la t, 01110100; el signo &, 00100110, etcétera). Así, concatenando estas series, nos encontramos al final con una secuencia de unos 200.000 ceros y unos que puede tomarse por una representación del cuento.

Podemos ser mucho más ambiciosos y organizar todos los libros de la Biblioteca del Congreso de Washington por orden alfabético de autores y por fecha de publicación, y concatenar sus secuencias correspondientes, con lo que al final obtendremos una secuencia gigantesca que representará toda la información de la biblioteca. Como cualquier serie de ceros y unos puede considerarse un único número binario, toda la información de la Biblioteca del Congreso estará codificada por ese número.

La teoría de la información ofrece ideas muchísimo más útiles en cuanto al contenido informativo de las historias, la complejidad limitada de los cerebros, la cautela a la hora de buscar supuestas pautas y el extraño concepto de orden gratuito. Antes de abordar estos asuntos, sin embargo, sugiero a los lectores que recuerden la relación entre (un sentido informal de) la información y (nuestra idea de) el yo.

El síndrome del falso recuerdo permite hacerse una idea preliminar e indirecta de la relación entre la información y el yo. Últimamente se ha hablado mucho en la prensa de la facilidad con que los terapeutas (y otros) pueden injertar recuerdos falsos en las personas sugestionables. Pero todos somos sugestionables en mayor o menor medida, y sospecho que el cine, las revistas y la televisión pueden hacer con nosotros lo que algunos terapeutas bienintencionados hacen a veces con sus pacientes. Bombardeados sin cesar por multitud de escenas vividas y memorables, acabamos haciéndolas nuestras en algunos casos.

Los recuerdos individuales están siendo reemplazados por retazos de información que pertenecen a todos y a nadie. Una de las invenciones más importantes de la humanidad es la idea de un yo poseedor de recuerdos e historias personales. Al sustituirse una cantidad importante de recuerdos individuales por recuerdos a la deriva, con frecuencia saturados de gente famosa, en un mundo fragmentado de individuos con escasa autodefinición, se degrada algo valioso (nuestro yo y nuestras historias individuales) y se potencia otra cosa de valor dudoso: un yo colectivo mediatizado por la televisión y el cine.

Naturalmente, el concepto mismo de yo puede haberse quedado anticuado en esta época de la megalópolis planetaria informatizada. ¿Qué es un yo en esta época a la vez colectiva y fracturada? ¿Tal vez la ocurrencia de Steven Wright de escribir una autobiografía emblemática no autorizada? Algunos teóricos, como el informático Marvin Minsky, el filósofo Daniel Dennett y el psicólogo cognitivo Steven Pinker, argumentan de manera más o menos convincente que el yo es «simplemente» una reunión o asamblea de pequeños procesos semisoberanos cuyos choques y regateos desembocan, a través de una extraña especie de deliberación poco conocida, en una totalidad personalizada. El Yo es el parlamento de la nación, un congreso, una dieta, un sanedrín. Somos las leyes que aprobamos. Somos las historias que oímos. Somos la información que procesamos.

Ya no recuerdo adonde quería llegar con esto, pero sí la vez que estuve con Madonna en un adornado balcón de Buenos Aires desde donde ella dirigía en secreto las actividades del FBI en Waco, Texas.

Información: perspicacia de un conferenciante, distracciones de una niña

¿Qué es exactamente la información? Por hacer una pregunta menos ambiciosa, ¿qué es más informativo, oír por casualidad el monólogo más o menos ebrio de un individuo (llamémoslo Cliff) en un bar o una sola imagen de televisión generada aleatoriamente? Supongamos que Cliff tiene un vocabulario de 20.000 palabras y que pronuncia 1000. Supongamos además que una pantalla de televisión tiene 400 filas y 600 columnas de píxeles, cada uno de los cuales adopta uno de 16 matices de gris. Así pues, ¿qué contiene más información, las mil palabras o la imagen de televisión?

La respuesta, de acuerdo con la definición habitual de cantidad de información (debida a Claude Shannon, que no sin razón fue ingeniero de comunicaciones en los Laboratorios Bell durante los años cuarenta), es que las palabras de Cliff contienen a lo sumo 14.288 bits (pronunciadas al azar), mientras que la imagen de televisión contiene hasta 960.000 bits. Pasaré por alto la definición probabilística de la cantidad de información y me limitaré a indicar que depende del número de estados posibles de un sistema (en este caso el monólogo de Cliff o la imagen de televisión) y de la probabilidad de dichos estados. Si un mensaje consiste en uno de dos estados, «sí» o «no», ambos con probabilidad 1/2, la cantidad de información del mensaje es de 1 bit. En términos más generales, la cantidad de información de un mensaje es el número de preguntas tipo «sí-no» que hay que hacer para determinar el mensaje.

No hace mucho asistí a una conferencia de un conocido economista, durante la cual se me ocurrieron ejemplos y cálculos parecidos. Mientras el orador estaba comentando con perspicacia la falsedad de ciertos aspectos del saber económico convencional, una niña que estaba sentada con sus padres en la primera fila no hacía más que flexionar el dedo índice, toquetearse el pelo, hojear un cuaderno de colorear y mirar con indiferencia a su alrededor. Sus gestos veleidosos contenían mucha más información que las palabras del orador, hasta el punto de hacerme perder el hilo de la argumentación.

Uno se subleva contra la idea de que los gestos de la niña (involuntariamente absorbentes), una sola imagen de televisión o un listado de números aleatorios contengan mucha más información que la tesis del conferenciante, los juicios alcohólicos de Cliff o «La dama del perrito» de Chéjov. El hiato entre nuestras intuiciones sobre lo significativo y las matemáticas de la información tiene dos causas.

La primera es la proliferación de definiciones matemáticas de información, que abarcan desde la idea de Shannon de la cantidad de información como una medida de incertidumbre o sorpresa hasta la definición de complejidad de Gregory Chaitin, que examinaremos luego. Estas ideas son útiles y aptas en según qué contextos (y en algunos es innegable que los movimientos de la niña tienen más contenido informativo que la conferencia del economista).

La segunda, más fundamental, tiene que ver con las unidades que se consideran atómicas en los diferentes campos de actividad. En los contextos formales, las unidades del discurso son dígitos, pasos de programa, elementos de tiempo o distancia, mientras que en la vida cotidiana son acciones básicas, detalles argumentales y elementos de historias. A diferencia de estas últimas unidades, que son de orden superior, ni la matriz arbitraria de píxeles grises en una pantalla de televisión, ni los detalles de la inocente gesticulación de la niña, ni las secuencias de dígitos más o menos aleatorias en una guía telefónica significan gran cosa para nosotros, ni en sí ni por sí mismos. Sin un arraigo natural en un contexto humano reconocible, significan incluso menos que las cifras citadas por el imaginario locutor deportivo de George Carlin: «Amigos, aquí Nick. Vamos faltos de tiempo, así que ahí van los resultados: 4 a 2, 6 a 3, 15 a 3, una auténtica fiesta, 8 a 5, 7 a 4, 9 a 5, 6 a 2, y 2 a 1, con un final de infarto. Y acabamos de recibir un resultado parcial, 6».

¿Podemos conseguir que las unidades narrativas (las acciones, los guiones, las historias y tramas simples) sirvan de «átomos» en algún análogo de orden superior de la teoría de la información? Aunque sean más intrínsecamente significativas que los píxeles y los números, las unidades narrativas siguen necesitando cierto contexto, cierta relación significativa con nosotros. La empresa no es necesariamente imposible, pero no carece de dificultades. Una relación parecida es la que existe entre los lenguajes informáticos como el Pascal y el C++ con un lenguaje máquina de ceros y unos. Así como estos lenguajes de alto nivel contienen términos relativos a procesos aritméticos corrientes, los «lenguajes historia» contendrían términos relativos a acciones básicas como moverse, golpear, tomar, entrar y salir, etcétera.

Mark Turner, teórico de la literatura, comenta en The literary mind algunas de estas acciones básicas y elementos argumentales, y muestra que las correspondencias parabólicas entre estos elementos y las historias más complicadas están en la esencia misma no sólo de las obras literarias, sino también del pensamiento cotidiano y la creación de sentido. Así como la coletilla «Éramos pocos y parió la abuela» adquiere sentido en una situación en la que, con el coche repleto, aparece un rezagado pretendiendo que le llevemos, la comprensión, dice Turner, surge de proyectar historias atomizadas y combinadas sobre situaciones nuevas. Puede que algunas de las nociones de la teoría de la información que tan útiles resultan en contextos técnicos sean, cuando conozcamos mejor la lógica intensional, igual de fructíferas para la comprensión y análisis de las historias, las estadísticas y la mente humana.

ΩΩΩ

Aunque admitamos que hay un campo muy amplio para la formalización de la literatura y la identificación de unidades atómicas de orden superior, también deberíamos admitir que habrá más formalizaciones dependientes de nuestro modo natural y tentativo de descodificar las narraciones de sucesos. Así como las ideas probabilísticas y estadísticas se destilaron a partir de concepciones familiares previas y la lógica matemática estándar surgió de la argumentación y el diálogo informales, primero vienen los destellos de la intuición, luego la depuración de las ideas resultantes y, por último, un sistema formal con reglas y categorías bien definidas.

El informático David Gelernter ha escrito que el estudio del Talmud con su superposición de historias, parábolas, enigmas y comentarios llenos de matizaciones y referencias cruzadas, es una preparación tan buena como la que más para el razonamiento científico y matemático riguroso. Esta observación puede generalizarse de dos maneras. Creo que es muy probable que pueda decirse lo mismo de cualquier texto suficientemente rico que se estudie con intensidad y minuciosidad. Más aún, el análisis de tales textos es una buena preparación no sólo para el razonamiento científico y matemático, sino también para la construcción de una concepción más formal de la literatura desde el punto de vista de la teoría de la información.

Alguien podría decir que deberíamos acabar con estos polisémicos estudios hermenéuticos; que bastaría con potenciar todo el partido de las maravillosas herramientas formales (lógicas, estadísticas, informáticas, las que sean). No obstante, y al margen (repito) de qué herramientas usemos, los aspectos de la comprensión de historias ligados al procesamiento de información dependerán de los oscuros aspectos interpretativos. No podemos inventarnos una teoría formal arbitraria y aplicarla sin ton ni son. Por razones parecidas, un programa informático de estadística es peligroso en manos de quien no conozca algo las diversas medidas estadísticas que el programa permite calcular o no tenga ni idea de las variables, las poblaciones o las estructuras sociales pertinentes. Adviértase que no tener ni idea, pertinentes y estructuras sociales son expresiones intensionales e informales.

Hace poco me crucé con un antiguo alumno mío en la puerta de un laboratorio informático del campus. Le había dado un generoso aprobado en un curso de probabilidad, y estaba haciendo afirmaciones absurdas a un compañero sobre unos datos que había analizado y largando términos técnicos de un modo lamentablemente confuso, pero impresionante en la superficie. Podrían hacerse advertencias parecidas sobre las interpretaciones estrechas y desorientadoras de la teoría de la información.

El hueco existente entre significado e información (de la clase que sea) se cierra hasta cierto punto si se concibe la segunda como una destilación del primero, destilación que para germinar necesita la tierra y el agua del contexto. Antes de pasar a construir un sistema formal útil que permita cuantificar de manera razonablemente aproximada la cantidad de información de una historia, por ejemplo, es necesario comprender bien las situaciones o clases de situaciones. Se trata de evitar el equivalente conceptual del uso de una sierra mecánica para cortar un papel o, peor aún, para coser un botón de la camisa.

En cualquier caso, la fuente inagotable de información es el mundo inmediato que nos rodea. Reduciendo partes del mismo de manera inteligente a cálculos y sistemas formales, cada vez conquistaremos más terreno. No obstante, aunque consigamos hacer efectivamente la reducción, sólo habremos puesto orden en nuestro cuidado seto celestial. Nuestras casas cognitivas son por lo general tan antinaturalmente confortables y limpias como nuestras casas físicas.

Conocer algo del desorden más allá de nuestras puertas y domesticarlo es misión no sólo de la ciencia, sino también del arte y la literatura; incluso puede decirse que eso es lo que se propuso el vanguardismo.[17] El puntillismo de Seurat, el atonalismo de Schonberg, las abstracciones de Kandinsky y el flujo de conciencia de Joyce son sólo algunos ejemplos de esta ampliación de nuestra morada psíquica para abarcar más del caos exterior. Aunque vinieron un poco más tarde, lo mismo puede decirse de los bits de información de Shannon.

Criptografía y narrativa

La teoría de la información nos conduce de manera natural al campo afín de los códigos y la criptografía, un tema que ha suscitado el interés de numerosos autores. Edgar Allan Poe dedicó parte de su labor periodística a descifrar claves, y éstas desempeñan un papel fundamental en «El escarabajo de oro» y otros cuentos. Julio Verne, William Thackeray y Conan Doyle escribieron también sobre codificaciones en algunas de sus obras, al igual que muchos autores modernos, como Richard Powers en The goldbug variations. Los códigos, al igual que las coincidencias y los trucos de magia, atraen tanto a nuestro espíritu racional y analítico como a nuestro sentido del miedo y lo místico, por lo que muchas de mis observaciones sobre la insignificancia de las coincidencias valen también, como es lógico, para las codificaciones. Hay bastante diferencia, por ejemplo, entre advertir que Poe y yo tenemos el mismo segundo nombre (aunque con grafías diferentes), que hay también alguna conexión con mi primer nombre, dado que Poe fue adoptado por un tal John Allan, que su apellido y el mío comienzan por P, y que él vivió y yo vivo en Filadelfia, y atribuir un significado a estas coincidencias.

Mi interés por la criptografía en este libro es, sin embargo, bien diferente. Se trata de ver qué resulta de considerar la criptografía como algo análogo a la crítica literaria; es decir, suponer que la codificación de un mensaje se corresponde con escribir una historia de significado no manifiesto y que el descifrado de un mensaje se corresponde con desentrañar el secreto de la historia. (No estoy diciendo que una cosa pueda reducirse a la otra).

Una de las codificaciones más sencillas y fáciles de descifrar es la llamada sustitución lineal, en la que cada letra se sustituye por otra que esté, por ejemplo, 9 letras por delante en el alfabeto. En vez de N, Ñ y O, por ejemplo, pondríamos F, G y H. Las últimas letras del alfabeto las anudaríamos con las del comienzo, y pondríamos B, C y D en vez de U, V y W. Dada la superior abstracción de las historias, la irremediable vaguedad referencial de sus unidades de información y su lógica aún por desarrollar, la mejor representación de una codificación por sustitución lineal podría ser un román á clef (novela en clave) al pie de la letra, con sustituciones sencillas de personajes, lugares y momentos, o quizá una alegoría o parábola de escasa flexibilidad.

En el extremo opuesto de las dificultades descodificadoras están las conocidas notas entre espías que se autodestruyen en cinco segundos; en ellas, un mensaje de N letras se codifica cambiando cada letra del mensaje por una letra elegida al azar y situada entre 1 y 28 letras por delante en el alfabeto (castellano en este caso). El mensaje secreto tiene, pues, una longitud de N letras. Supongamos, por ejemplo, que el mensaje es «Olvida ese dichoso pleito o hemos terminado» y que la clave es una serie de 46 números elegidos al azar entre el 1 y el 28, por ejemplo 2, 3, 8, 19, 1, 23, 5, …, números que indican las letras que hay que saltarse hacia delante para encontrar las del mensaje verdadero. El mensaje en clave sería entonces «Qndzev j…», ya que Q es O más 2, n es l más 3, d es v más 8, z es i más 19, e es d más 1, etcétera. Si asignamos un símbolo a los espacios entre las letras, estos mensajes que se autodestruyen son prácticamente indescifrables, sea cual fuere su longitud. Su único defecto es que el código debe ser tan largo como el mensaje que hay que codificar y que hay que comunicar la clave al descodificador de alguna manera.

Una vez más, la representación de la historia tiene en cuenta la abstracción, las referencias confusas y la lógica alternativa de las historias. No obstante, este método codificador de los espías no puede considerarse una codificación, puesto que de dos mensajes cualesquiera con la misma cantidad de letras se puede decir que se codifican mutuamente, del mismo modo que cualquier historia puede considerarse una codificación de otra con la misma cantidad de elementos narrativos. Sólo un enloquecido teórico de la conspiración es capaz de leer un reportaje sobre los últimos avances en el tratamiento de la diabetes y afirmar que en el fondo es un artículo sobre los esfuerzos del Contubernio Trilateral para socavar la Hermandad Aria.

En algún lugar entre los mensajes autodestructibles, tan indescifrables como poco prácticos, y las sencillas pero ocasionalmente útiles sustituciones lineales se sitúan otras codificaciones más modernas que dependen de lo que se conoce como funciones trampa, llamadas así porque se «abren» fácilmente en un sentido pero no en el otro. Un ejemplo es el producto de dos números primos muy grandes: es fácil calcularlo dados los números, pero es muy difícil hallar los números dado el producto. Averiguar si una factorización propuesta realmente funciona es también más fácil que encontrarla. Los productos de números primos se emplean en bancos, empresas y centros militares para codificar datos, pero se necesitan los factores primos para descodificarlos. El desciframiento de una clave de este estilo se parece mucho a la buena crítica literaria o a la investigación biográfica (como en Pnin de Nabokov, por ejemplo, que refleja, transforma y exalta parte de la vida del propio autor). Hacer crítica esclarecedora es tan difícil como factorizar un producto, pero reconocerla es relativamente fácil, como lo es comprobar una factorización.

Sospecho que cuanto más desarrollada y mejor estructurada esté una historia, más se resistirá su descodificación. (Los «números primos» que hacen falta aquí son muy grandes). La narrativa no admite las sustituciones directas ni las descontextualizaciones y atomizaciones que facilitan la descodificación; las mismas palabras o expresiones significan cosas distintas conforme avanza el relato. Si se borran unas cuantas frases de una novela de John Updike y de otra de Tom Clancy, por ejemplo, es casi seguro que el lector tendrá que hacer más suposiciones en el primer caso que en el segundo.

Una última analogía entre la descodificación numérica y la exégesis literaria puede expresarse también en términos de conjeturas y preguntas. En el juego de las veinte preguntas, un jugador elige un número entre uno y un millón y el otro trata de averiguarlo haciéndole preguntas tipo sí-no, del estilo de ¿es mayor que N? Siempre bastan veinte preguntas, puesto que 220 es algo más de un millón. Más claramente: una pregunta basta para reducir las posibilidades a medio millón, dos preguntas para reducirlas a un cuarto de millón, y así sucesivamente hasta que las veinte preguntas reducen las posibilidades a un solo número.

Hasta aquí todo es sencillo. Pero ¿qué ocurre si al jugador que elige número se le permite mentir una, dos o más veces? Incluso con la estrategia correcta (que dista de ser evidente), la cantidad de preguntas necesarias para determinar el número incógnito sube como la espuma, y el problema deja de ser trivial. Surgen más complicaciones si se permite que las preguntas y las mentiras sean más sutiles. Una moraleja que podrían extraer los novelistas (los equivalentes de los selectores y codificadores de números) de este botón de muestra matemático es que hay que recurrir con moderación a los narradores poco fiables. A menos que se pretenda que las historias sean radicalmente incomprensibles y ambiguas, o que se busque un «realismo mágico» para crear una grata cantidad de duda e indeterminación en la mente de los lectores (los adivinadores de números y descodificadores), suelen bastar unas cuantas «mentiras» en boca de un protagonista-narrador.

Sin embargo, como luego veremos, incluso cuando todos los narradores merecen plena confianza uno debe refrenar la tendencia a obsesionarse por descodificar historias o descubrir significados ocultos en ellas.

De Occam y las historias de dos dígitos

¿Cómo describiríamos las siguientes secuencias a alguien que no pueda verlas?

(1) 0010010010010010010010010…

(2) 0101101101101101011011010…

(3) 1000101101101100010101100…

Salta a la vista que la primera secuencia es la más sencilla, pues no es más que la repetición de dos ceros y un uno. La secuencia siguiente tiene cierta periodicidad: un solo cero alterna unas veces con un uno y otras con dos; la tercera secuencia es la más difícil de describir, pues no parece seguir ninguna pauta. Observemos que el significado exacto de […] no presenta dudas en la primera secuencia, presenta algunas en la segunda y muchísimas en la tercera. A pesar de ello, supongamos que cada secuencia tiene una longitud de un millón de bits (un bit es un cero o un uno) y continúa «de la misma forma».

Sin perder de vista estos ejemplos, sigamos ahora al matemático ruso A. N. Kolmogorov, famoso en el campo de la probabilidad, y al informático Gregory Chaitin, autor de The limits of mathematics, y definamos la complejidad de una secuencia de ceros y unos como la longitud del programa informático más corto capaz de generar (es decir, de presentar en pantalla o imprimir) la secuencia en cuestión. (En vez del término complejidad, muchas veces se emplea la expresión cantidad de información algorítmica).

La primera secuencia puede generarse mediante la siguiente minirreceta: imprimir dos 0, luego un 1, y repetir 1/3 de millón de veces. Un programa de lo más breve, sobre todo si se compara con la secuencia de un millón de bits que genera. Esto quiere decir que la secuencia tiene muy poca complejidad.

Para generar la segunda secuencia podrían seguirse los siguientes pasos: imprimir un 0 seguido de uno o dos 1, donde la pauta de los unos sea uno, dos, dos, dos, dos, uno, dos, etcétera. El programa que imprimiera la secuencia tendría que ser lo bastante largo para especificar completamente la complicada pauta denotada por «etc.». Sin embargo, a causa de la alternancia periódica de ceros y unos, el programa más breve sería bastante más breve que la secuencia de un millón de bits que generaría. Así pues, la segunda serie tiene más complejidad que la primera, pero no la máxima posible dada su longitud.

La tercera secuencia (la más corriente con diferencia) es de otra naturaleza. Supongamos que hace gala de tanto desorden a lo largo del millón de bits que ningún programa capaz de generarla pueda ser más corto que la secuencia misma. Lo único que haría el programa en este caso sería listar como un tonto los bits de la secuencia: imprimir 1, luego 0, luego 0, luego 0, luego 1, luego 0, luego 1, etc. Una secuencia así, que requiere un programa tan largo como ella misma, se dice que es aleatoria, y tiene la máxima complejidad posible dada su longitud. (El mensaje autodestructible de antes, cuya clave es tan larga como el propio mensaje que se quiere cifrar, es igualmente aleatorio).

En ciertos aspectos, las secuencias del estilo de la segunda son las más interesantes, porque, a semejanza de los seres vivos, manifiestan elementos de orden y de azar. Su complejidad (la longitud del programa más pequeño que las genera) es menor que su extensión, ni tan pequeña como la de una secuencia completamente ordenada ni tan grande como la de una secuencia aleatoria. La primera secuencia sería comparable por su regularidad a un diamante o un cristal de sal, mientras que la tercera sería comparable por su aleatoriedad a una nube de moléculas de gas o una sucesión de lanzamientos de una moneda. El símil de la segunda podría ser un lirio o una cucaracha, ya que ambos seres manifiestan a la vez orden y aleatoriedad entre sus partes.

ΩΩΩ

Estas comparaciones entre secuencias diversas y otras entidades van más allá de lo que podríamos calificar de simple metáfora. (Puede que simple no sea el adjetivo más apto para una metáfora potencialmente tan poderosa). Poco a poco hemos llegado a la conclusión, hoy ampliamente compartida, de que todo puede reducirse a información, a ceros y unos, a bits y bytes, no a átomos y moléculas. La introducción de un numeral arábigo para denotar el cero, de símbolos para señalar pausas o silencios en el pentagrama, de espacios vacíos en la pintura medieval tardía o de la idea del no ser en la metafísica de Leibniz son ejemplos de esta misma convicción.

Casi todos los fenómenos pueden describirse provechosamente mediante algún código, y este código, sea el lenguaje molecular de los aminoácidos, las letras del alfabeto o los elementos de un «lenguaje historia» aún por definir, se puede digitalizar y reducir a secuencias de ceros y unos. Las proteínas, los mensajes secretos y las novelas policíacas, expresados en sus códigos respectivos, son series afines a la segunda del ejemplo, ya que manifiestan orden y redundancia junto con complejidad y desorden. Del mismo modo, las melodías complejas se sitúan entre la simple repetición de golpes y el ruido blanco. (Incluso los programas que generan secuencias de ceros y unos pueden codificarse a su vez como secuencias de ceros y unos).

También la ciencia entera puede concebirse así. Ray Solomonoff, Chaitin y otros han sugerido que las observaciones de los científicos podrían codificarse en secuencias de ceros y unos conforme a algún protocolo. El objetivo de la ciencia entonces no sería otro que encontrar buenas teorías (programas breves) capaces de predecir (generar) las observaciones (secuencias). Cada uno de estos programas, añaden estos autores, sería una teoría científica, y cuanto más breve fuera en relación con los fenómenos observables que predijese, más poderosa sería. Se trata, obviamente, de una reformulación del principio de la «navaja de Occam», la conveniencia de eliminar las entidades y complicaciones innecesarias.

Un programa que se limitase a listar sucesos aleatorios no podría explicarlos ni predecirlos, salvo a la manera de Mr. Pickwick. Adviértase que esto es precisamente lo que ocurre cuando la gente propone teorías increíblemente retorcidas para dar cuenta de observaciones básicamente aleatorias. Ante un tablero de ajedrez agrandado con las casillas pintadas aleatoriamente de rojo o negro, por ejemplo, algunas personas inventarían una explicación ptolemaica mucho más extensa que un sencillo listado de la pauta rojinegra. Si la explicación que se ofrece es tan compleja en su esencia como el fenómeno mismo, el esfuerzo no merece la pena.

Además, si el fenómeno en cuestión no es aleatorio (y casi ningún fenómeno interesante lo es), aún hay menos motivo para buscarle explicaciones largas e innecesariamente complicadas. Las reglas mnemotécnicas, como las teorías, no pueden ser más difíciles de memorizar que aquello a lo que se refieren.

El principio de tacañería lógica (o parsimonia) también es de alguna utilidad en los análisis y deconstrucciones literarios. Me apresuro a conceder que lo que nos atrae de un cuento, por ejemplo, es mucho más que su cantidad de información o su complejidad. Sin embargo, las exégesis que son bastante más largas que el cuento mismo comienzan a entrar en conflicto con las ideas que acabo de describir. No hacen falta trucos de magia para generar una secuencia con un programa de complejidad superior a la de la secuencia. Las críticas mastodónticas que a veces se dedican a un cuento o el maremoto que organizan los medios informativos alrededor de ciertos hechos dicen más de los críticos y comentaristas, o de otros asuntos, que del cuento o el hecho en cuestión. También pueden ser reiterativos hasta el aburrimiento.

En el capítulo anterior hablé de las infinitas continuaciones posibles de una secuencia numérica cuando se permite que las reglas empleadas para generarlas tengan cualquier longitud. Por ejemplo, la sencilla sucesión 2, 4, 6… puede tomarse como un presagio del milenio que viene, ya que siempre podemos hacer que el número siguiente sea el 2000. Los cuatro primeros términos de la sucesión dada por la complicada regla [332(N − 1)(N − 2)(N − 3) + 2N] son 2, 4, 6 y 2000 (para N = 1, 2, 3, 4). Dado un lenguaje apropiado que las contenga, las mismas restricciones sobre la longitud y la complejidad son válidas para los estudios literarios. Una explicación de 400 páginas de un cuento de 25 sería lo bastante larga para sacar casi cualquier conclusión que se quiera. Es muy probable que la mayor parte de la explicación versara sobre la sensibilidad del autor, o pretendiera relacionar el cuento con otras obras o temas, o fuese, vuelvo a repetir, pura repetición.

Nuestros horizontes de complejidad

Si el ámbito de la respuesta a una obra literaria se amplía para abarcar detalles de la vida del autor, obras relacionadas e influencias, y cuestiones históricas, estéticas y políticas, entonces la cantidad y longitud de los libros y artículos dedicados a un relato concreto no parecen tan irrazonables. Una historia con sustancia siempre suscitará comentarios, porque, como dice Boris Pasternak, «Lo determinado, lo ordenado, lo fáctico, nunca es suficiente para comprender toda la verdad». Habría que admitir, sin embargo, que el contenido informativo y la complejidad de una historia tienen sus límites, y que el origen del comentario que suscita y las preguntas abiertas que invita a formular existen fuera de la historia.

La observación de Pasternak y los límites del contenido informativo y de la complejidad de una obra nos traen a la memoria el célebre primer teorema de Gödel sobre la incompletitud de los sistemas matemáticos formales: en cualquier sistema formal lo bastante rico habrá siempre proposiciones que no serán ni demostrables ni refutables. Chaitin ha demostrado que el teorema de Gödel se deriva del hecho de que ningún programa puede generar una secuencia de mayor complejidad que la del propio programa. (Sin embargo, al igual que los retorcidos fractales generados a partir de ecuaciones breves y sencillas, una secuencia puede parecer mucho más compleja que el programa que la genera). Como señala Chaitin,[18] no podemos demostrar un teorema de diez kilos (generar una serie muy compleja) con cinco kilos de axiomas (con un programa menos complejo) y esta limitación afecta a todas las entidades portadoras de información, humanas, electrónicas o de cualquier otra naturaleza.

La concepción de las teorías científicas como programas generadores de secuencias de bits tiene muchas otras limitaciones; es bastante simplista y sólo empieza a tener sentido en relación a un marco científico bien definido y ya fijado. Para aplicar estas ideas a la ciencia o la literatura reales se requeriría un nivel analítico cuyas unidades no serían dígitos, sino regularidades de orden superior, diferentes según los dominios.

En su libro El quark y el jaguar, Murray Gell-Mann recomienda adoptar una definición de complejidad efectiva que se corresponda mejor con nuestras intuiciones sobre el significado y la cantidad de información. Gell-Mann señala que lo que solemos valorar no es el programa (o teoría o análisis) más breve capaz de generar cierta secuencia (u observación o entidad), sino más bien el programa más breve capaz de generar las «regularidades» de la secuencia. Así, define la complejidad efectiva de una secuencia como el programa más corto capaz de generar sus regularidades. Si la entidad de interés fuera una historia y no una secuencia, las regularidades se derivarían presumiblemente de hilvanar acciones básicas y elementos argumentales en un relato coherente.

La definición de complejidad de Gell-Mann asigna a las secuencias aleatorias de dígitos u otros elementos básicos (que, recordémoslo, no contienen ninguna regularidad) una complejidad efectiva nula (a pesar de su complejidad máxima). Aunque la noción de regularidad es problemática, la propuesta me parece acertadísima por razones extramatemáticas. La asignación de una complejidad elevada a las series aleatorias no sólo es contraria a la intuición, sino que parece implicar la antipática idea de que el deseo de vida (complejidad creciente) conduce inevitablemente a la muerte (complejidad máxima o aleatoriedad).

Por otra parte, la idea de complejidad efectiva sintoniza bien con nuestra convicción de que las secuencias que manifiestan simultáneamente orden y aleatoriedad tienen la máxima significación y, por tanto, la máxima complejidad efectiva (a pesar de su complejidad intermedia). Al fin y al cabo, nadie caracterizaría una acumulación aleatoria de palabras como una historia con un contenido informativo máximo. (Para completar el tema añadiré que las secuencias de baja complejidad tienen también poca complejidad efectiva).

ΩΩΩ

La complejidad de nuestro cerebro y del ADN vincula estas ideas con el interés del presente libro por la idea del yo. Si concebimos el ADN como una suerte de programa informático que dirige la construcción de un embrión, las estimaciones aproximadas de la complejidad del programa embrionario (que pasaré por alto) revelan que es escandalosamente insuficiente para trazar los billones de conexiones neuronales del cerebro humano. Estas conexiones proceden en gran medida de las experiencias de una época y una cultura concretas, de manera que buena parte de nuestra identidad es fruto de sucesos que tienen lugar fuera de nuestro cráneo. Los intrincados detalles del laberinto cerebral tienen demasiada complejidad para ser el resultado del programa genético, que sólo determina la estructura a grandes rasgos del cerebro y sus pautas generales de respuesta al medio.

Otra conclusión de mayor alcance es que, como quiera que la información se codifica en el cerebro, la complejidad de éste (su conocimiento fáctico, sus asociaciones, su capacidad razonadora) tiene por fuerza un límite. De nuevo podemos atribuirle un valor aproximado (se ha estimado que es del orden de tres mil millones de bits), pero la existencia de esta cota es más importante para nosotros que su valor. La razón es que cualquier fenómeno natural que supere en complejidad al cerebro humano estará, por definición, más allá de nuestra comprensión. Alternativamente, no podemos hacer predicciones (generar secuencias binarias) de complejidad mayor que (la información codificada en) nuestro cerebro. Puede que haya regularidades que nos den la clave para comprender el universo, pero también es posible que estén más allá de lo que denomino «horizonte de complejidad» del cerebro humano (una idea que con el tiempo seguramente me hará rico).

En otras palabras, podría existir un programa del «secreto del universo» relativamente corto, una teoría de todo con una complejidad de diez mil millones de bits, por decir algo, que no estaríamos en condiciones de entender a causa de nuestra limitación cerebral (es decir, de nuestra estupidez). Aunque sean radicalmente distintas, las concepciones científica y religiosa de la anhelada teoría de todo comparten los supuestos, tal vez ingenuos, de que se puede encontrar una teoría semejante y de que su complejidad estará dentro de los límites de nuestra comprensión. ¿Por qué deberíamos suponer tal cosa?

La idea de la limitación cerebral del ser humano siempre me ha obsesionado. Cuando era niño solía tener miedo de que se anunciara un gran avance científico o filosófico y que «por siete neuronas» no alcanzase a comprenderlo. Por culpa de aquel terror irracional, y tras leer que el alcohol destruye las células cerebrales, decidí ser abstemio de por vida. Mi conocimiento del cerebro y de los progresos conceptuales ha mejorado algo con los años, pero mi actitud ante el alcohol no ha cambiado.

(Tengo que decir que, además de nuestra complejidad cerebral limitada, hay otra razón para que ciertas regularidades escapen a nuestras facultades. Esta vez la restricción no tiene que ver con la teoría de la información, sino con la física. En su libro El fin de la ciencia, John Horgan habla del carácter inevitablemente especulativo de buena parte de las teorizaciones de la ciencia moderna, sobre todo de la física. Las energías necesarias para comprobar las teorías son demasiado grandes y las distancias y masas implicadas demasiado pequeñas para que puedan obtenerse resultados experimentales verificables. Horgan llama a esto «ciencia irónica», y la compara con el arte, la filosofía y la crítica literaria, en el sentido de que sólo ofrece formas posibles, aunque interesantes y novedosas, de concebir el mundo. ¿Es nuestro universo uno entre muchos? ¿Tienen partes los quarks? ¿Cuál es el significado auténtico de la mecánica cuántica? Estas preguntas no pueden responderse empíricamente y, según Horgan, conducen a una variedad de historias ad hoc y conjeturas ociosas).

Por último, puesto que toda entidad comprensible es, de acuerdo con la teoría de la complejidad, menos compleja que nosotros, tal entidad no es, por eso mismo, una buena representación de la divinidad. Las personas no suelen rendir culto a aquello que es más simple que ellas. Esta resistencia natural a deificar lo simple (excepto, tal vez, cuando se trata de un símbolo) es coherente con la tendencia a identificar a Dios con lo insondable y lo inescrutablemente complejo. La palabra God («Dios» en inglés) al revés se lee dog (perro); si invertimos el sentido de la reflexión anterior advertiremos que también es coherente con la deificación canina del amo (en el caso, naturalmente, de que el amo tenga más complejidad que el perro).

Puede prepararse un menú gratuito si el vertedero (de Ramsey) es lo bastante grande

Si se define a Dios como lo inescrutablemente complejo, entonces incluso un agnóstico o un ateo podrían decir que creen en una divinidad así. Esta trampa verbal tiene cierto atractivo, el de obtener algo (Dios en este caso) por nada.

Siempre me ha fascinado el pensamiento de que, sea cual fuere el caos del collage de la vida, tiene que haber inevitablemente alguna clase de pauta u orden a algún nivel. Puesto que la ausencia de orden es asimismo una clase (superior) de orden, afirmar la inevitabilidad del orden es vacuo y tautológico, aunque yo diría que es una tautología fructífera. Es imposible que no podamos señalar ninguna regularidad, ninguna invariante en ningún sitio, al margen del desbarajuste de un estado de cosas concreto. Esta concepción del mundo que los matemáticos parecen alentar, en principio de forma desinteresada, es en parte responsable de mi atracción por el tema.

La idea de la inevitabilidad del orden no carece de eco en la literatura. En Alicia en el País de las Maravillas, por ejemplo, tras recitar una cómica y confusa versión del poema «Padre William», Alicia parece intuir la imposibilidad lógica de un mundo totalmente desordenado.

—Eso no está bien dicho —dijo la Oruga.

—No del todo bien, me temo —dijo Alicia con timidez—; se han cambiado algunas palabras.

—Está mal de principio a fin —dijo la Oruga con firmeza, y se produjo un silencio que duró unos minutos.

También viene al caso el incisivo comentario de Pico Iyer, autor de libros de viajes, a propósito de la ciudad de Bombay: «Todo está mal y todo está bien».

En física, la idea de la inevitabilidad del orden aparece en la teoría cinética de los gases. El desorden que se asume en cierto nivel formal de análisis (el movimiento aleatorio de las moléculas gaseosas) conduce a un orden de nivel superior, las relaciones entre variables macroscópicas como la temperatura, la presión y el volumen que se conocen como leyes de los gases; estas relaciones se siguen de la aleatoriedad al nivel inferior junto con unas cuantas suposiciones menores. En términos más generales, cualquier estado de cosas, sea cual fuere su grado de desorden, puede describirse tranquilamente como aleatorio, y automáticamente, a un nivel superior de análisis, tenemos por lo menos una «metaley» útil: hay aleatoriedad en el nivel inferior.

Aparte de las variantes de la Ley de los Grandes Números que se estudian en estadística, hay una idea que pone de manifiesto un aspecto diferente de la misma, y es el comentario del estadístico Persi Diaconis de que si observamos una población lo bastante numerosa, «pasará casi todo lo que puede pasar». Otro hecho mal percibido, incluso por algunos científicos sociales que deberían conocerlo bien, es que si uno busca correlaciones estadísticas significativas entre pares de variables aleatorias dentro de una población, casi siempre las encontrará. Importa poco que las variables correlacionadas sean la confesión religiosa y la circunferencia del cuello, o (alguna medida de) el sentido del humor y la condición laboral, o el consumo anual de palomitas de maíz y el nivel de estudios. Más aún: a pesar de su significación estadística (esto es, la improbabilidad de que sea casual), es poco probable que una correlación sea significativa en la práctica, a causa de la presencia de multitud de variables desorientadoras. Tampoco la correlación valida necesariamente la historia, a menudo ad hoc, que la acompaña y pretende explicar por qué las personas que comen muchas palomitas llegan lejos en la escuela. Siempre podemos echar mano de alguna fábula superficialmente plausible: es más probable que los devoradores de maíz sean de la parte septentrional del Medio Oeste, donde los índices de abandono de los estudios son bajos.

Una versión más profunda de esta línea de pensamiento se debe al matemático británico Frank Ramsey, quien demostró un teorema que establece que en un conjunto lo bastante grande y tal que cada par de elementos (personas, números o puntos geométricos) pueda estar o no conectado, habrá siempre un subconjunto amplio cuyos elementos compartirán una propiedad especial: o todos estarán conectados o todos estarán mutuamente desconectados. Este subconjunto es una inevitable isla de orden (las hay más interesantes en el archipiélago) en el desordenado conjunto inicial; si el vertedero es lo bastante grande, tenemos garantizado un almuerzo gratis.

El problema puede plantearse a propósito de un grupo de invitados que acude a una cena. La pregunta de Ramsey para la isla ordenada de tamaño 3 es como sigue: ¿cuál debe ser el número mínimo de invitados para que pueda asegurarse que al menos tres se conocerán entre sí o que al menos tres se desconocerán? (Se supone que si Martha conoce a George, entonces George conoce a Martha). Se puede ver que la respuesta es 6. Puesto que cada invitado conoce o desconoce a cada uno de los otros 5, entonces conocerá al menos a 3 o desconocerá al menos a 3. ¿Por qué? Supongamos que cierto invitado conoce a otros 3 (el argumento es el mismo si cambiamos conocidos por desconocidos). Si 2 se conocen entre sí, junto con nuestro invitado formarán un grupo de 3 conocidos. Si no se conocen, entonces formarán un grupo de 3 desconocidos. Así pues, 6 invitados serán suficientes. Para comprobar que no basta con 5, supóngase que nuestro invitado conoce a 2 de los otros 4 invitados, cada uno de los cuales conoce a 1 de las 2 personas desconocidas para él.

Para la isla ordenada de tamaño 4 harán falta 18 invitados, y para la de tamaño 5 entre 43 y 55. Para tamaños mayores el análisis se complica mucho, hasta el punto de que el problema sólo ha podido resolverse para unos pocos valores.

Desde la muerte de Ramsey en 1930, se ha desarrollado toda una industria doméstica dedicada a demostrar teoremas que tienen la misma forma general: ¿qué tamaño debe tener un conjunto para que siempre haya un subconjunto con alguna pauta regular, una isla ordenada del tipo que sea? El prolífico y peripatético matemático Paul Erdös ha descubierto muchas de estas islas, algunas intangiblemente bellas. Los detalles de las islas concretas son complicados, pero en general la respuesta a la pregunta del tamaño mínimo del conjunto se reduce a lo dicho por Diaconis: si es lo bastante grande, pasará casi de todo. Como ya he sugerido al hablar de las claves bíblicas, los teoremas como el de Ramsey podrían explicar en parte algunas de las secuencias de letras equidistantes que resultan. Cualquier secuencia de símbolos lo bastante larga, sobre todo si se escribe con el restringido vocabulario del hebreo antiguo, contendrá subsecuencias en apariencia significativas.

En su libro At home in the universe: the search for laws of self-organization and complexity, Stuart Kauffman ha propuesto la idea de «orden gratuito» en biología. Motivado por la imagen de cientos de genes activando y desactivando otros genes de un mismo genoma y las pautas que resultan de ello, nos pide que pensemos en un cajón con 10.000 bombillas que conectaremos al azar, con la única condición de que cada bombilla esté conectada a otras dos. Supongamos también que hay un reloj que marca intervalos de un segundo, y que las bombillas se encienden o se apagan según una norma arbitraria. Para unas la norma podría ser apagarse a menos que en el instante anterior se reciba corriente de las otras dos bombillas. Para otras podría ser encenderse si en el instante anterior no se recibe corriente de al menos otra bombilla. Dada la aleatoriedad de las conexiones y de la asignación de reglas, es de esperar que las bombillas parpadeen caóticamente, sin orden ni concierto aparentes. Lo que se observa, sin embargo, es un «orden gratuito», ciclos más o menos estables de configuraciones luminosas, que variarán según las condiciones iniciales. Por lo que sé, el resultado no ha pasado del plano empírico, pero sospecho que podría ser consecuencia de un teorema estilo Ramsey demasiado difícil de demostrar. Kauffman propone que ciertos fenómenos de esta clase complementan o acentúan los efectos de la selección natural. Aunque no creo que se necesiten más argumentos contra la idiotez, al parecer inextinguible, del «creacionismo científico», experimentos como el descrito y el orden inesperado que surge de forma tan natural parecen proporcionar uno más.

En filosofía encontramos una variante de la idea de orden gratuito en la justificación pragmática de la inducción. Ya he hecho referencia al problema de la inducción planteado por David Hume al final del capítulo 3. Todos los días hacemos un uso confiado de argumentos inductivos (argumentos cuyas conclusiones desbordan, contienen más información que, las premisas). ¿Por qué, se preguntaba Hume, estamos tan seguros de que tales argumentos casi siempre permitirán sacar conclusiones verdaderas de premisas verdaderas? No es ningún argumento deductivo decir que como el sol ha salido regularmente en el pasado, seguramente saldrá mañana, o que como hasta hoy ha llovido siempre hacia abajo, no es probable que llueva hacia arriba en el futuro.

Se diría que el argumento en favor de la continuidad de todas estas regularidades es de carácter inductivo: como tales regularidades no han dejado de observarse en el pasado, seguramente seguiremos observándolas en el futuro. Sin embargo, justificar el uso de argumentos inductivos con argumentos inductivos no resuelve el problema. Por decirlo lisa y llanamente, la pregunta «¿Por qué el futuro será como el pasado en ciertos aspectos relevantes?» no parece tener mejor respuesta que: «Porque en el pasado los futuros siempre han sido como los pasados en esos aspectos». Lo cual sólo sirve si tenemos la garantía de que el futuro será como el pasado, que es lo que hay que demostrar.

Ha habido muchos intentos de limpiar este llamado escándalo de la filosofía. Uno consiste simplemente en admitir un principio no empírico de uniformidad de la naturaleza en el tiempo. El problema de esta «solución» es que tampoco resuelve el problema: es equivalente a aquello que se quiere demostrar; como dijo Russell, tiene la ventaja que tiene «el robo sobre el trabajo honrado». Otro intento de salir del embrollo se basa en que los argumentos inductivos no están todos al mismo nivel; se trata de hacer uso de esta jerarquía (de argumentos inductivos, metainductivos, metametainductivos, etcétera) para justificar la inducción. Esto tampoco funciona o, mejor dicho, funciona demasiado, porque «justifica» muchas prácticas extrañas, entre ellas la contrainducción. Otros han querido disolver el problema aduciendo que obedecer nuestras reglas inductivas de sentido común es lo que se entiende por racionalidad, y que no hacen falta más justificaciones.

Charles Saunders Peirce y Hans Reichenbach propusieron una justificación pragmática de la inducción distinta de las anteriores. Reza más o menos así: puede que la inducción no funcione, pero si algo funciona, la inducción también. Puede que no haya un orden duradero en el universo, pero si existe algún orden en cualquier nivel de abstracción, la inducción finalmente lo encontrará (el orden o su ausencia) en el nivel inmediatamente superior. Aunque el término finalmente es algo problemático, este enfoque no deja de ser meritorio y atractivo. Aunque diferente de la idea de la inevitabilidad del orden, no deja de ser compatible con ella.

Historias, analogías y orden gratuito

Como uno de los temas del presente libro es tender puentes analógicos para salvar abismos culturales, no estará de más preguntarse qué interés puede tener todo esto para las historias. Seguro que también encontramos elementos de orden o pautas recurrentes que corretean libremente por ellas. No hace falta acudir a ningún teórico de la literatura para que nos explique la preponderancia natural de la historia de amor básica: chico conoce chica, hay obstáculos, chico y chica se juntan. La sexualidad, la naturaleza perturbadora del mundo y la perseverancia normal bastan para explicarlo. Lo mismo cabe decir de la preponderancia natural de las historias de nacimiento, viajes y muerte.

¿Hay en la literatura y en las ciencias humanas equivalentes más cercanos del orden gratuito de los sistemas físicos? Desde luego que sí. Tenemos un equivalente natural de las leyes de los gases que además, como suele suceder con muchas ideas técnicas, es muy anterior a ellas. El poeta y filósofo latino Lucrecio escribió lo que sigue hace más de dos mil años:

Porque seguramente los principios

de la materia no se han colocado

con orden, con razón ni inteligencia,

ni han pactado entre sí sus movimientos;

antes diversamente combinados

desde la eternidad por el espacio

agitados por choques diferentes,

juntas y movimientos van probando,

hasta que se colocan de manera

que la suma creada se mantiene.

Otro equivalente natural de las leyes de los gases es una versión más numérica de la idea básica de Lucrecio. Adolphe Quetelet, investigador belga del siglo XIX, sostenía que la probabilidad y los modelos estadísticos podían emplearse para describir fenómenos sociales, económicos y biológicos; de nuestras idas y venidas sin rumbo surge cierta pauta y cierta frecuencia delictiva (entre otras regularidades). Escribió:

«Así avanzamos de año en año con la triste perspectiva de ver que los mismos delitos se reproducen en el mismo orden y que solicitamos los mismos castigos en la misma proporción. […] Podemos enumerar por adelantado cuántos individuos se mancharán las manos con la sangre de sus semejantes, cuántos serán falsificadores y cuántos envenenadores, casi como podemos enumerar por adelantado los nacimientos y defunciones que se producirán».

Desde Quetelet hemos tenido un diluvio de análisis estadísticos sobre nuestros nacimientos, defunciones, salud, ingresos y gastos.

No hace falta ir muy lejos para encontrar pruebas de la afirmación de Diaconis. La confirman los noticiarios de la noche y las entrevistas de la tarde, donde casi todos los días se nos cuentan historias espeluznantes con toda naturalidad. Y un ejemplo humano de la teoría de Ramsey es que, dada una población lo bastante grande, tenemos garantizada la existencia de colectivos con conjuntos de relaciones mutuas inusuales.

Me parece notable que hallazgos matemáticos tan esotéricos como los de Ramsey y Chaitin tengan una repercusión creciente en el «mundo real». Una repercusión derivada de artículos sobre teoremas estilo Ramsey se refiere a las llamadas transiciones de fase. Lo que vienen a decir estos trabajos es que ciertos fenómenos combinatorios ocurren raras veces hasta que se alcanza cierto número crítico, y desde entonces raras veces dejan de ocurrir. Intriga saber si ciertas disfunciones contemporáneas se deben a que se ha alcanzado el número crítico de conexiones interpersonales requerido (a través de los medios informativos). Como parece ser el caso entre los genes, esta interconexión podría ser decisiva. En un nivel de abstracción suficientemente alto, esta interconexión podría poner de manifiesto un sinfín de curiosas periodicidades que están implícitas en nuestra «evolución social» o en la recurrencia de modas y tendencias, incluso en la formación repentina de embotellamientos de tráfico aparentemente inexplicables. No hace falta decir que se necesita más investigación para dilucidar y establecer estas regularidades.

¿Tiene algún paralelo social la justificación pragmática de la inducción? Una justificación equivalente, me parece a mí, se encuentra en la negativa actual, tanto en las ciencias sociales como históricas y, sobre todo, en la literatura de ficción, a postular cualquier clase de orden grandioso. Nos contentamos con picotear migajas de pautas cuando y donde puedan encontrarse. Me vienen a la cabeza las obras de Samuel Beckett, que siempre me han parecido vagamente matemáticas, y la traducción de Hugh Kenner de un pasaje del Watt de Beckett al lenguaje informático Pascal. Las historias minimalistas de Raymond Carver o Ann Beattie también me parecen imbuidas de esta visión inductiva, al igual que muchas novelas y cuentos de metaficción. Por emplear la metáfora de Isaiah Berlin (pasando por Arquíloco), es más probable que seamos zorras que saben muchas cosas pequeñas que erizos que sólo saben una grande. A decir verdad, la estructura episódica y asistemática del presente libro responde a una impaciencia parecida ante las afirmaciones grandilocuentes y las teorías simplistas.

Las obras literarias que nos impresionan por su coherencia, como las novelas de Tackeray, parecen ingenuas en comparación. Como ya he dicho, las novelas de flujo de conciencia escritas por James Joyce y Virginia Woolf a principios de siglo pueden considerarse un primer intento de discernir pautas a un nivel mediante la descripción de actos y pensamientos mundanos a un nivel inferior. La historia en cuanto tal se desarrolla con naturalidad a partir de fragmentos de experiencia, de idas y venidas. Podrían buscarse equivalentes narrativos de la temperatura (carga emocional), la presión (densidad detallística) y el volumen (extensión), pero habría que ser tolerante con las analogías algo tenues.

ΩΩΩ

Otra correspondencia entre historias e información es la que sugiere la noción de «entropía física», definida por el físico Wojciech Zurek en un artículo titulado «Thermodynamic cost of computation, algorithmic complexity, and the information metric», publicado en el número de septiembre de 1989 de la revista Nature. La entropía física de Zurek es la suma de la cantidad de información de Shannon, que mide la improbabilidad o sorpresa inherente a una entidad no del todo revelada, más la complejidad de Chaitin, que mide la cantidad de información algorítmica de lo ya revelado. Como expone el escritor científico George Johnson en Fire in the mind, esta definición se ideó para aclarar ciertos problemas clásicos de la termodinámica (en particular el del demonio de Maxwell); pero la entropía física puede emplearse también para modelar el sistema historia-mente. Imaginemos a dos lectores ante una obra literaria que no han leído. Mientras que uno es un lector avezado, el otro es bastante ingenuo. La historia depara pocas sorpresas al primer lector, sus giros y sus tropos están muy vistos. El segundo lector, en cambio, se queda boquiabierto ante la trama, los personajes, la maestría verbal. La pregunta es: ¿cuánta información hay en la historia?

A la hora de responder conviene tener en cuenta también a los lectores, que aportan un trasfondo muy diferente en cada caso. Mientras el primer lector tiene ya codificada en su mente gran parte de la complejidad de la historia, la mente del otro lector está desprovista de esta carga de complejidad. La cantidad de información (de Shannon) de la historia, su improbabilidad o la sorpresa que engendra, es por lo tanto menor para el primer lector, cuya complejidad mental es mayor en este sentido, que para el segundo. Conforme leen, los juicios de improbabilidad o sorpresa de ambos lectores van menguando, aunque a velocidad diferente, mientras que su complejidad mental va aumentando, también a velocidad distinta. La suma de ambos conceptos (la entropía física) permanece constante y es una medida de la cantidad de información del sistema historia-mente.

Esta especulación innegablemente vaga tiene tres aspectos que me gustan. Uno es que las ideas en juego están en la misma cancha conceptual que la segunda ley de la termodinámica, de la que C. P. Snow echó mano para ilustrar el abismo existente entre la elite científica y la elite literaria, a la que suponía ignorante del significado de la segunda ley. Puesto que este libro es también en parte una mirada más de soslayo al vacío entre las dos culturas, la resonancia histórica es satisfactoria. (Para los interesados, la definición probabilística de la cantidad de información de Shannon es semejante a la de la entropía termodinámica de la segunda ley, aunque el punto de vista que se adopta en cada caso es opuesto: la entropía termodinámica aumenta en un sistema cerrado, mientras que la cantidad de información de un mensaje mengua conforme se descodifica).

Un segundo aspecto más importante de esta especulación es que aporta una dimensión (no incompatible con algunas teorías neurológicas, por ejemplo, ni con la metafórica frase hamletiana «Dentro del libro y volumen de mi cerebro») en la que las historias forman parte física de nosotros, codificándose de algún modo en fragmentos de rutinas mentales capaces de generarlas a voluntad e integrándose en nuestro mapa conceptual y emocional del mundo. Somos las historias que contamos.

El tercer aspecto que me atrae de esta línea de pensamiento es que parece subrayar la necesidad de un contexto (en este caso el sistema historia-mente en vez de la historia sola) a la hora de emitir juicios. Una historia carecerá de sentido para toda persona que carezca de los conocimientos lingüísticos y psicosociales relevantes que la historia misma presupone. Sin una matriz científica y cultural en la que se apoye este conocimiento esencial pero implícito, las teorías y las historias carecen de sentido.

Quizá se refieren a esto los teóricos literarios del posmodernismo cuando hablan de la «muerte del autor». Su negativa a aceptar la opinión del autor sobre su propia obra como un veredicto definitivo (y a veces ni siquiera como un juicio importante) puede indicar cierta conciencia (o sobrevaloración) del hecho de que el significado es un fenómeno mediatizado socialmente que el acervo cultural común hace posible. Wittgenstein observó en cierta ocasión, con mucha propiedad, que «el hecho de que la mecánica newtoniana pueda usarse para describir el mundo no nos dice nada sobre el mundo, aunque sí nos dice que podemos usarla para describir el mundo tal como la usamos». Lo mismo podría afirmarse de las novelas de Henry James y de las telecomedias al estilo de Seinfeld. Pero ninguna supone la muerte del autor. El autor, para la cultura en general, es algo más que el escritor fantasma que está detrás del nombre famoso, aunque los nombres famosos y las culturas en general tienden a ser más bien incoherentes.

Complejidad, caos y calderilla

Dentro de un cajón tengo una caja para la calderilla que siempre amenaza con desbordarse, así que todas las mañanas cojo un puñado de monedas y salgo decidido a gastarlas en el curso del día. Me fastidia no tener suelto cuando la cajera me dice que le dé 2 dólares con 61 centavos o de lo contrario me endosará los cuatro temibles peniques del cambio. A veces, cuando hago una compra particularmente hábil y en una sola transacción me las arreglo para deshacerme de toda la calderilla que llevo en el bolsillo, me siento más contento que si hubiera hecho algo importante aquel día. También me pongo a hacer suposiciones sobre el precio de los artículos (el predominio de artículos de 99 centavos, por ejemplo), la cantidad de monedas que llevo en el bolsillo, su valor, la aplicabilidad del teorema del límite central y otros arcanos de las matemáticas, y a continuación derivo pequeños teoremas sobre la frecuencia con que se vaciará mi bolsillo. Ahorro los detalles.

Más minucias. Mañana se me acaba el plazo para entregar un artículo que prometí pero que no tengo ganas de escribir, o para pagar unos recibos de la casa, o para otros asuntos igual de estimulantes. Como está mandado, aunque sin ganas, me pongo en acción cuando me viene a la cabeza algún detalle insignificante de algún asunto irrelevante. Puede ser la etimología de una palabra, o el colega al que durante una reunión de departamento se le vio una revista pornográfica entre sus papeles, o por qué mi «busca» confundió al titular de un número de teléfono, de modo que paso la siguiente media hora intentando aclarar mi confusión sobre el asunto. Lo del «busca» despistado me recuerda a una secretaria que se buscó el despido porque mientras hablaba con su jefe por teléfono se dedicaba a echar pestes de él tras pulsar el botón de interrupción, hasta que un día el jefe oyó sus comentarios. Esto me trae a la memoria los mensajes de correo electrónico que se envían al corresponsal que no corresponde, la endeble excusa del colega que alega que se confundió de cartera, el origen de endeble, etcétera. (Siempre me ha gustado La vida y opiniones del caballero Tristram Shandy, de Laurence Sterne, novelista inglés del siglo XVIII, que trata de la vida del propio narrador, un mago de la anécdota cuyas digresiones son tan largas que tarda dos años en contar todo lo que se le ocurre sobre sus dos primeros días de vida. Y como suelo impacientarme pronto, también me parece un libro de lo más pesado).

Estos prosaicos episodios sugieren con fuerza que nunca habrá una ciencia exacta de la felicidad, de la eficacia, o de la conducta humana en general, a pesar de los esfuerzos de los filósofos utilitaristas, los psicómetras del hedonismo, los expertos en ergonomía y los científicos cognitivos. Las novelas y las conversaciones, de jardín o de salón, saldrán ganando siempre que estén en juego las particularidades humanas.

La precisión de estas presuntas ciencias tropieza con el obstáculo que representa la tremenda complejidad de las asociaciones y nexos de nuestro cerebro y el consiguiente caos que originan en ocasiones. Viene al caso una técnica ideada por el topólogo Steve Smale para comprender la evolución del caos matemático. Imaginemos un pedazo de plastilina blanca de forma cúbica, con una delgada franja de tinta roja en el centro. Estiremos hasta doblar la longitud y pleguémoslo para volverle a dar forma cúbica. La franja roja tendrá ahora forma de herradura. Repitamos el estiramiento y plegado varias veces y advertiremos que la franja roja se ha extendido por toda la plastilina formando una filigrana. Puntos de la tinta que antes estaban próximos están ahora alejados; con otros puntos sucede al revés. Lo mismo cabe decir de los puntos de la plastilina. Se ha argumentado que toda forma de caos (con su caprichosa impredecibilidad, sus respuestas desproporcionadas y su efecto mariposa) procede de estiramientos y plegamientos en un espacio lógico adecuado.

Como he dicho en otra parte, leer revistas y periódicos, ver la televisión o, simplemente, fantasear y asociar ideas son medios eficaces para hacer con nuestra cabeza lo que los estiramientos y plegamientos hacen con la franja roja. El estiramiento corresponde a nuestra percepción de sucesos lejanos, personas muy diferentes y situaciones inusuales (como las observaciones ociosas que he mencionado). Los plegamientos corresponden a la conexión de dichos sucesos, personas y situaciones con los de nuestra propia vida. Todos los días se ensancha nuestro paisaje mental y, si queremos, se pliega, y el efecto es parecido a la distorsión de la franja roja. Ideas, asociaciones y convicciones que estaban próximas se alejan, y viceversa. Las personas que sintonizan bien con el mundo, con lo que leen y lo que ven, son mucho más difíciles de prever, supongo, que las personas con un radio de acción y un ámbito más limitados.

Para que tenga algún valor científico, esta metáfora tendría que desarrollarse y, como ya he dicho, es prácticamente inverificable. Pese a todo es sugestiva, y creo que es coherente con la idea ya esbozada de que somos sistemas dinámicos no lineales, sometidos a veces a la misma caótica imprevisibilidad que el clima de Nueva Inglaterra. Uno diría, por ejemplo, que la tristeza nos sobreviene de la misma forma que los aguaceros que acaban radicalmente con los paseos por el parque.

En cualquier caso, no somos tan insondables, así que debe de haber estadísticas compensatorias y otras consideraciones que promuevan la predictibilidad y la estabilidad. No obstante, no me siento totalmente infeliz cuando interrumpo un trabajo para curiosear en algún oscuro rincón de Internet o en una página de noticias, del mismo modo que consigo unos gramos de satisfacción gastando toda la calderilla del bolsillo.

ΩΩΩ

El saldo positivo de estas analogías es un conjunto de referentes científicos y literarios más amplio y sugestivo. En nuestra morada cognitiva individual debería reinar el biculturalismo, y los recuerdos de viajes y peripecias por disciplinas lejanas son una forma de fomentarlo. Sé que buena parte de lo dicho hasta aquí puede tomarse por una mezcla infame y desechable de campos discordantes; incluso yo lo pienso los martes y los sábados. Pero los cinco días restantes creo que vale la pena que un científico se esfuerce por explorar la frontera entre las dos culturas. La alternativa es rendirse sin esperanza ante los posmodernos, los fenomenólogos, los teóricos del binomio raza-género, los posestructuralistas, los marxistas, los historicistas y los deconstruccionistas psicoanalíticos. Esta gente no carece de encanto e interés, por lo menos los martes y los sábados; pero, como nos enseña la impostura que publicó el físico Alan Sokal en una prestigiosa revista, es muy probable que los cinco días restantes no digan más que tonterías disfrazadas de profundidad.[19]