La impronta más característica de los estudiosos de Santa Cruz en el caos afectó a una muestra de matemáticas y filosofía denominada teoría de la información. La inventó, a fines de la década de 1940, Claude Shannon, investigador de los Bell Telephone Laboratories. Dio a su obra el título de The Mathematical Theory of Communication (Teoría matemática de la comunicación), que, como concernía a una entidad bastante particular llamada información, se conoció en adelante como teoría de la información. Fue producto de la era electrónica. Las líneas de comunicación y las transmisiones de radio transportaban cierta cosa que los ordenadores pronto almacenarían en fichas perforadas o en cilindros magnéticos, y la cosa no era conocimiento ni significado. Sus unidades básicas no se componían de conceptos, ideas, palabras o números. Sería o no sería una insensatez, pero los ingenieros y matemáticos tenían la posibilidad de medirla, transmitirla y comprobar lo correcto de su transmisión. Información fue un nombre tan bueno como cualquier otro, mas la gente debía recordar que usaba un vocablo libre de significado, sin las connotaciones corrientes de hechos, erudición, sabiduría, comprensión e ilustración.
El equipo físico o hardware determinaba la forma de la teoría. Como la información se almacenaba en interruptores binarios, que recibían la denominación reciente de bits, se convirtieron en la medida fundamental de la información. Desde el punto de vista técnico, la teoría se transformó en un medio de entender cómo los ruidos parásitos, con la apariencia de errores fortuitos, se entremetían en el flujo o secuencia de los bits. Suministró un método para pronosticar la capacidad de transporte de las líneas de comunicación, discos compactos o cualquier técnica que registrase lenguaje, sonidos o imágenes. Ofreció medios teóricos para calcular la efectividad correctora de errores de los distintos esquemas; por ejemplo, emplear bits para verificar otros. Atacaba de lleno la noción básica de «redundancia». Según la teoría de Shannon, el lenguaje ordinario contiene algo más del cincuenta por ciento de elementos redundantes, sonidos o letras innecesarios para transmitir un mensaje. Se trata de una idea bastante generalizada; la comunicación, en un mundo de personas que mascullan las palabras y de errores tipográficos, depende de la redundancia. Lo ilustraba el famoso anuncio de la enseñanza de la taquigrafía —si std pd Ir st mnsj…—, y la teoría de la información permitía medirlo. La redundancia es una desviación pronosticable del azar. Parte de ella, en el habla ordinaria, radica en el significado, y la cantidad de esa parte se expresa con dificultad, puesto que estriba en el conocimiento del lenguaje y del mundo que la gente comparte. Eso permite resolver las palabras cruzadas o completar idealmente una frase inacabada. Había, no obstante, redundancias de otra clase, más accesibles a las medidas numéricas. Estadísticamente, la probabilidad de que, en inglés, una letra sea «e» supera la proporción de uno a veintiséis. Además, las letras no deben contarse como unidades aisladas. Saber que una, en un texto anglosajón, es «t» ayuda a predecir que la siguiente será «h» u «o». Auxilia más aún conocer dos, etc. La tendencia estadística de varias combinaciones de dos y tres letras a aparecer en un lenguaje sirve de gran ayuda para captar alguna esencia característica de éste. El ordenador que se guíe sólo por la relativa probabilidad de las secuencias posibles de tres letras produce, llegado el caso, una corriente fortuita de disparates reconocible como inglesa. Los criptólogos hace mucho tiempo que recurren a tales pautas estadísticas para descifrar códigos secretos sencillos. Los ingenieros de comunicaciones las emplean ahora para ingeniar técnicas de condensación de datos, con el fin de eliminar la redundancia en provecho del ahorro de espacio en una línea de transmisión, o en un disco de almacenamiento. A juicio de Shannon, el modo correcto de considerar aquellas pautas era el siguiente: una corriente de datos, en el lenguaje ordinario, no depende por completo del azar; cada bit está obligado por los anteriores; por ello, cada uno nuevo contiene algo menos del valor de un bit, en cuanto a información real. Esta formulación encerraba un atisbo de paradoja: cuanto más dependiera del azar una corriente de datos tanta más información aportaría cada bit nuevo.
Aparte de su utilidad técnica en el comienzo de la era de los ordenadores, la teoría de Shannon cobró modesta talla filosófica. Una porción del atractivo que ejerció sobre personas ajenas a la informática pudo atribuirse a la elección de un vocablo: entropía. Como Warren Weaver expresó en una exposición clásica de la teoría de la información: «Cuando encuentra el concepto de entropía en la teoría de la comunicación, uno tiene derecho a sentir alguna excitación, tiene derecho a sospechar que ha encontrado algo que acaso sea fundamental e importante». El concepto procede de la termodinámica, en la que aparece como aditamento a la segunda ley: la tendencia inexorable del universo, y de todo sistema aislado que haya en él, a encaminarse a un estado de desorden creciente. Divídase una piscina por la mitad con una barrera; llénese una parte de agua y otra de tinta; espérese a que se aquieten; retírese la barrera; por el movimiento azaroso de las moléculas, el agua y la tinta acabarán por mezclarse. La mezcla jamás se invierte, aunque se espere hasta el fin del cosmos, razón por la cual se dice tan a menudo que la segunda ley es la parte de la física que convierte el tiempo en calle de dirección única. La entropía define la cualidad de los sistemas que aumenta según dicha ley: mescolanza, desorden, azar. El concepto es más fácil de comprender intuitivamente que de medir en cualquier situación de la vida real. ¿Cómo se efectuará una comprobación fidedigna del índice de mezcla de dos sustancias? Quizá contando las moléculas de cada una. ¿Y si se dispusieran en sí-no-sí-no-sí-no-sí-no? A duras penas la entropía se consideraría intensa. Se podrían contar las moléculas pares. ¿Y si la disposición fuese sí-no-no-sí-sí-no-no-sí? El orden se entromete de suerte que disminuye la eficacia de todo algoritmo honrado. Y, en la teoría de la información, las cuestiones de significado y representación incluyen complicaciones adicionales. Una serie como 01 0100 0100 0010 111 010 11 00 000 0010 111 010 11 0100 0 000 000…, parecerá ordenada sólo al observador familiarizado con el alfabeto Morse y Shakespeare. ¿Y qué pensar de las pautas, topológicamente perversas, de un atractor extraño?
Éstos eran máquinas de información para Robert Shaw. En su primera y más ambiciosa concepción, el caos brindaba la oportunidad lógica de devolver a las ciencias físicas, en forma revigorizada, las ideas que la teoría de la información había tomado de la termodinámica. Los atractores extraños, por unir orden y desorden, daban un sesgo desafiante a la cuestión de medir la entropía de un sistema. Algunos eran mezcladores eficientes. Creaban impredecibilidad. Suscitaban entropía. Y, en opinión de Shaw, proporcionaban información donde no existía.
Norman Packard, mientras leía cierto día la revista Scientific American, notó el anuncio de un concurso de ensayos llamado Certamen de Louis Jacot. Parecía bastante disparatado: un premio lucrativo, dotado por un financiero francés, que había criado a sus pechos una teoría sobre la estructura cósmica, galaxias dentro de galaxias. Proponía ensayos sobre el oscuro tema de Jacot. («Sonaba a cosa de chiflados», dijo Farmer). Pero el jurado del certamen era un catálogo de nombres impresionantes de científicos franceses, y el galardón monetario no le iba a la zaga. Packard mostró el anuncio a Shaw.
El día final del plazo de presentación de originales era el de año nuevo de 1978.
En aquellas fechas el colectivo se reunía con regularidad en un enorme caserón de Santa Cruz, a poca distancia de la playa. El edificio acumulaba mobiliario, adquirido en los traperos, y un equipo de ordenador, mucho del cual se consagraba al problema de la ruleta. Shaw disponía de un piano, en el que interpretaba música barroca o improvisaba combinaciones particulares de la clásica y la moderna. Los físicos, en sus encuentros, crearon un estilo propio de trabajo, una rutina de proponer ocurrencias y cribarlas con el tamiz del sentido práctico, de leer la bibliografía y concebir artículos originales. Habían aprendido a colaborar en las revistas con artículos que firmaban por orden rotatorio. El inicial fue de Shaw, uno de los pocos que escribiría, y que siguió escribiendo mentalmente, rasgo suyo muy característico. Y, también característicamente, lo envió demasiado tarde.
En el mes de diciembre de 1977, Shaw se fue de Santa Cruz para asistir a la primera reunión de la New York Academy of Sciences (Academia de Ciencias de Nueva York) dedicada al caos. Financió el viaje su profesor de superconductividad. Shaw, sin haber sido invitado, escuchó en carne y hueso a quienes conocía por sus escritos. David Ruelle. Robert May. James Yorke. Se sintió intimidado no sólo por aquellas personalidades, sino también por el astronómico precio de treinta y cinco dólares que pagó por su habitación del Barbizon Hotel. Mientras atendía a las charlas, se balanceó entre la sensación de que había reinventado, en su ignorancia, cosas que aquellos hombres habían estudiado muy a fondo, y la de que él podía contribuir a ellas con un importante y nuevo punto de vista. Llevaba consigo el borrador inconcluso de su artículo sobre la teoría de la información, papeles garrapateados, metidos en una carpeta, y buscó en vano un mecanógrafo en el hotel y luego en los talleres de reparación de máquinas de escribir. Por último, renunció a su intento. Más tarde, cuando sus amigos quisieron saber detalles de la conferencia, les explicó que el punto culminante había sido el banquete en honor de Edward Lorenz, quien recibía el reconocimiento que se le había negado durante tantos años. Lorenz entró en el comedor, cogido tímidamente de la mano de su esposa, y los científicos se pusieron de pie para dedicarle una ovación. La expresión de espanto del meteorologista chocó a Shaw.
A las pocas semanas, durante un viaje a Maine donde sus padres tenían una casa de recreo, remitió por fin su artículo al Certamen Jacot. Había pasado ya el día de año nuevo, pero el empleado de correos estampó en el sobre una generosa fecha atrasada. El artículo —mezcla de matemáticas esotéricas y filosofía especulativa, ilustrada con dibujos de su hermano Chris, semejantes a los de historietas— obtuvo mención honrosa. Shaw recibió un premio en metálico suficiente para trasladarse a París y recoger el galardón. No fue un éxito importante, pero llegó cuando eran tensas las relaciones del colectivo con la facultad. Necesitaba desesperadamente todos los signos de credibilidad que pudieran encontrar. Farmer renunciaba a la astrofísica, Packard abandonaba la mecánica estadística y Crutchfield no estaba aún preparado para convertirse en estudiante graduado. El claustro pensaba que la situación se había salido de madre.