3
El descubrimiento del límite del caos

«El límite del caos». Una expresión enigmática. «Es más que enigmática», dijo Stu Kauffman cuando volvimos a su despacho para continuar una conversación interrumpida constantemente por llamadas telefónicas concluyendo lo que parecían complejos acuerdos inmobiliarios. A Stu le gusta hacer malabarismos con diferentes cosas al mismo tiempo. «Es una expresión hermosa y puede ser fundamental para nuestra ciencia de la complejidad». Y puede ser fundamental para el mundo de ahí fuera, añadió agitando un brazo en dirección a una ventana que la Universidad de Pennsylvania no había lavado aparentemente en muchos años. Con «ahí fuera» Stu se refería a la naturaleza. Toda la naturaleza.

¿Cómo pasamos de las redes booleanas aleatorias a ese territorio de ecos misteriosos, al límite del caos?, pregunté. «Es una larga historia», replicó. «¿Recuerdas que te conté que había pasado tres meses en el MIT, con Warren McCulloch? Fue una época estupenda, de lo más intensa y estimulante. Yo era sólo un estudiante de medicina, y toda esa gente era inteligentísima y famosa». Stu también era inteligente, McCulloch supo reconocerlo y guió al joven Kauffman a través de lo que era, para él, un territorio matemático virgen. «Warren era lo que uno necesita como mentor: entusiasmado por mi ciencia, dispuesto a ayudar cuando era necesario, dispuesto a retirarse en el momento de la distribución de los honores, dispuesto a compartir la autoría de un artículo si consideraba que me protegería». Algo bastante inusual según mi experiencia, observé.

McCulloch firmó junto con Stu un trabajo, técnicamente el primer informe de los resultados sobre redes booleanas; pero fue un documento interno del MIT, no un artículo científico tradicional. «Warren, ¿se va a interesar alguien por esto?», preguntó Stu a su mentor mientras preparaban el informe. «Sí, pero pasarán veinte años antes de que nadie se fije en él», contestó McCulloch sin vacilar. «No podía creerlo», me dijo Stu, al recordar la conmoción del momento, unas dos décadas atrás. «Veinte años me sonaban a una eternidad. Sabía que había encontrado algo profundo, que tenía implicaciones profundas en el modo en que estaban constituidos los organismos, y que eso sacudiría la biología. La gente, pensaba, empezará a dar saltos y a gritar “¡Aleluya!”. Recuerda que sólo tenía veintiocho años en esa época. Y era ingenuo».

Tras conseguir el diploma médico en San Francisco en 1968, con una de las notas más bajas de su promoción, Stu trabajó un año de interno en el Hospital General de Cincinnati, fue luego profesor de biología teórica en la Universidad de Chicago durante cuatro años, en los Institutos Nacionales de la Salud, en Bethesda, y llegó a la Universidad de Pennsylvania en 1975, donde permaneció dieciséis años, antes de instalarse con dedicación más o menos completa en el Instituto de Santa Fe en 1991. La odisea lo había llevado desde la biología teórica a la biología práctica, de las abstractas redes booleanas a la genética de las moscas de la fruta, Drosophila. «Me convertí en un biólogo de verdad», dijo con bastante sorna. (Sabía que Stu no tenía gran reputación como científico experimental).

Durante una breve visita a la Universidad de Chicago en 1970, John Maynard Smith se ofreció para enseñarle «cómo hacer algunas sumas». John estaba fascinado por las redes booleanas, a pesar de que —para él— estaban alejadas de la realidad biológica. De forma que, con el aliento del considerable saber hacer matemático de John, Stu analizó las redes con mayor detenimiento. Ya sabía que cuando cada elemento de la red tenía sólo una conexión con otros elementos, no ocurría nada interesante. El sistema prácticamente se congelaba. También sabía que con cuatro o más conexiones el sistema se volvía inestable, caótico. Nada interesante, tampoco.

Y, por supuesto, sabía que con sólo dos conexiones, ocurría algo muy importante: se generaba un pequeño número de atractores, que él consideraba análogos a los tipos celulares. Pero no se dio cuenta de la importancia de ese territorio intermedio —entre una y cuatro conexiones—. Stu había atravesado el límite del caos, pero no se percató de ello. Como consecuencia, el interés por las redes booleanas aleatorias languideció durante casi dos décadas.

***

Mientras Stu hacía de biólogo de verdad, los mundos de los ordenadores, las matemáticas y la física dirigieron firmemente su atención colectiva hacia los sistemas dinámicos. Los arcanos nuevos mundos de las redes neuronales, los espejos giratorios, los algoritmos genéticos y la teoría del caos abrieron horizontes intelectuales que ofrecían fugaces visiones de la complejidad, así como formas de comprenderla. En este esfuerzo disperso, fueron esenciales para hacer frente técnicamente a las exigencias de los sistemas dinámicos el desarrollo de nuevas técnicas matemáticas y la necesaria potencia de cálculo. Sin embargo, igual importancia tuvo el nacimiento de un punto de vista según el cual, de modo fundamental, estas múltiples actividades trataban conceptos comunes. Este nuevo clima intelectual alimentó un lento reavivamiento del interés por las redes booleanas y un renacer de la fascinación por un fenómeno conocido como autómatas celulares. Ambas cosas acabarían conduciendo al descubrimiento del límite del caos.

John von Neumann, el brillante matemático húngaro, inventó los autómatas celulares en la década de 1950 en su búsqueda de máquinas autorreproductoras. Los autómatas celulares, el equivalente informático de una casa de fieras, son una clase de sistema dinámico complejo. Imaginemos una plantilla infinita de cuadrados, como un interminable papel cuadriculado. Cada uno de los cuadrados, o células, puede ser blanco o negro, en función de la actividad de las células vecinas. Unas reglas simples rigen el estado de cada célula, por ejemplo, si cuatro o más de las ocho células contiguas a una célula son blancas, la célula central cambia de estado. Como las redes booleanas, los autómatas celulares progresan por medio de una serie de estados, en los cuales cada célula examina la actividad de las vecinas y reacciona de acuerdo con sus reglas. Por toda la plantilla se desarrollan y vagan pautas dinámicas y complejas cuya naturaleza está influida, pero no estrictamente determinada en detalle, por las reglas de actividad. Hay que observar que la estructura global surge de las reglas de actividad local, una característica de los sistemas complejos.

Cuando se encontró por primera vez con los autómatas celulares y su potencial de autorreproducción, Chris Langton quedó fascinado. Eso ocurrió mientras estaba en la Universidad de Arizona, Tucson, en 1979. Chris se había obsesionado con la creación de vida artificial, y el ordenador iba a ser su medio.

Educado en Lincoln, Massachusetts, y el mayor de tres hijos de padres científicos, Chris era el prototipo de rebelde de los años sesenta. Con pelo largo, vaqueros y guitarra, había cursado una carrera universitaria de manera tan fragmentaria como es posible imaginar: asistió al Rockford College, la Universidad de Boston, la Universidad de Arizona y la Universidad de Michigan, donde su carrera se vio interrumpida por diversas protestas contra de la guerra de Vietnam; un trabajo en el Hospital General de Massachusetts como resultado de su objeción de conciencia; una temporada como colaborador en una colonia de investigación sobre primates en Puerto Rico; un gratificante empleo como carpintero con un contratista de obras; y una breve asociación en un taller de vidrios coloreados. Y mucho tiempo en la carretera.

En 1975 un accidente casi fatal en la escalada del monte Grandfather, Carolina del Norte, le hizo trizas un montón de huesos, entre ellos las dos piernas, casi le seccionó el brazo derecho, le perforó un pulmón, le aplastó la cara contra una rodilla y le provocó un traumatismo cerebral generalizado. Cuando consiguió recuperarse se dirigió a Tucson, en otoño de 1976, donde se proponía estudiar astronomía, pero enseguida decidió que deseaba combinar una serie de cursos de biología evolutiva, cálculo y antropología. De modo inconsciente, Chris, como Stu Kauffman, también estaba buscando los secretos del Viejo. «Ahí estaba, con el cuerpo maltrecho, casi un esqueleto, entusiasmado por las ideas que tenía de poder hacer un modelo de la evolución cultural con un ordenador», me dijo cuando nos conocimos poco antes en el Instituto de Santa Fe. «Sí señor, tenía el aspecto de un lunático desquiciado».

Incluso entonces, quince años después, las ideas fluían más deprisa que las palabras, de modo que una conversación con Chris constituye de modo inevitable una serie de excursiones primero en una dirección, interrumpida de pronto por una cuestión secundaria, luego en otra, una breve visita al tema principal y luego más digresiones. Con tiempo suficiente, el territorio cubierto es enorme, y al oyente no le queda ninguna duda de que tiene ante sí una mente que no puede evitar buscar y encontrar conexiones. Conocí a Chris en el congreso sobre prehistoria sudoccidental en el instituto, y me explicó que después de Tucson había ido a la Universidad de Michigan, en 1982, oficialmente para hacer un doctorado sobre la dinámica de los autómatas celulares, aunque seguía poseído por la noción de vida artificial. Continúa vistiendo vaqueros, llevando el pelo largo y tocando la guitarra, pero ha añadido los adornos de plata y turquesa del Sudoeste: hebilla, brazalete y corbata de lazo. Tiene en la cara las marcas de la vida a la intemperie, sin vestigios del tremendo accidente sufrido.

Antes de abandonar Tucson, Chris ya había estado siguiendo en la medida de sus fuerzas la senda de Von Neumann con los autómatas celulares, desarrollando otras vías que parecían similares, siempre en busca del objetivo de la autorreproducción y la complejidad en el ordenador. Lo que lo atrajo a Michigan fue la declaración de principios del departamento de Ciencia Computacional: «El ámbito adecuado de la ciencia informática es el procesamiento de la información en toda la naturaleza». ¿En toda la naturaleza? «Sí, en cualquier parte donde se procese información», dijo Chris. «La información es la clave».

Contando con los recursos técnicos del marco académico de Michigan —una estación de trabajo Apollo en lugar del Apple que había estado utilizando— y el legado intelectual de Von Neumann, Chris se sumergió en la dinámica de los autómatas celulares. «Así es como me metí en lo del límite del caos… conocí a Steve Wolfram… oí hablar de sus cuatro clases… el significado del procesamiento universal de información… la dinámica no lineal, el caos… Wolfram no había establecido una relación entre las clases…». Un momento, supliqué. ¿Quién es Wolfram, y qué son esas cuatro clases? «Wolfram es muy brillante y, en parte, es el responsable del resurgimiento del interés por los autómatas celulares», explicó Chris, más lentamente. «Es un empresario y en CalTech [Instituto Tecnológico de California] eso no gustaba —era un joven profesor sin plaza fija en aquella época—, de modo que se marchó y se fue a Princeton, al Instituto de Estudios Avanzados. Allí inventó esa clasificación del comportamiento de los autómatas celulares».

Los matemáticos ya sabían que muchos sistemas dinámicos presentan tres clases de comportamiento: fijo, periódico y caótico. Cuando Wolfram experimentó con el comportamiento de los autómatas celulares, encontró esas mismas tres clases, que etiquetó uno, dos y tres. Pero también dio con un cuarto tipo —la clase cuatro—, intermedia entre el comportamiento caótico y el fijo o periódico. «El comportamiento de clase cuatro es el más interesante», dijo Chris. «Ahí obtienes el procesamiento universal de información».

Para alguien como yo, para quien procesamiento de información es aquello que ocurre cuando se le dice a la computadora que haga algo específico, la noción de un diseño proteico procesando información en una pantalla de ordenador constituye todo un desafío. «Piensa en términos de manipulación de la información, de manipulación compleja», intentó ayudarme Chris. Me habló del juego de la vida, un auténtico conjunto de reglas para autómatas celulares que genera pautas interminables, extrañas y, a menudo, muy reales. Inventado por el matemático británico John Conway a finales de la década de 1960, Vida, como se lo suele llamar, se ajustaba a una predicción teórica realizada por otro británico, Alan Turing, veinte años atrás. Turing había ideado el principio del procesamiento universal de información y logró demostrarlo con un sencillo artefacto llamado máquina de Turing. La máquina de Turing, al encarnar los principios de todas las computadoras posibles —de ahí el término de procesamiento universal de información—, era capaz de manipular la información de forma compleja. Y, también, Vida, sin ninguna ayuda. Es verdaderamente fascinante ver cómo va evolucionando en una pantalla de ordenador, y no conozco a nadie, pertenezca o no al «mundillo», que pueda contemplarlo con indiferencia.

Si Steve Wolfram había identificado las cuatro clases de comportamiento de los autómatas celulares, ¿cómo conseguiste ir más allá?, pregunté a Chris. «Steve estaba trabajando con un sistema bastante limitado y sólo consiguió muestrear comportamientos discretos», explicó. «Piénsalo en estos términos. Utilizaba una sonda, la clavaba aquí, luego allí, luego más allá, y analizaba el comportamiento de cada punto». Como siempre, Chris estaba atareado en la pizarra haciendo dibujos, dándome descripciones verbales y visuales al mismo tiempo. «Sabía que con los sistemas dinámicos a veces puedes identificar un parámetro para hacer que el sistema muestre todo el espectro de comportamiento, explorándolos todos. Quería hacer lo mismo con los autómatas celulares, moverme suavemente por el espacio de reglas, observando al mismo tiempo el cambio del comportamiento». Un gran trazo atravesó las cuatro clases, uno, dos, cuatro, tres. «Así», dijo Chris, describiendo lo que había acabado por encontrar.

Chris desarrolló algo que denominó parámetro lambda para conseguir lo que se proponía. Difícil de convertir en una analogía tangible, lambda es un instrumento matemático que establece las reglas del autómata celular y permite seguir las consecuencias a lo largo de un continuo. ¿Como un demonio dentro de la máquina?, insinué. «Podrías decirlo así». Chris prefiere la precisa notación matemática y siempre se sorprende cuando el público no tiene ni idea de lo que está hablando. («¿Una distribución exponencial? ¿Con palabras? Oh, es tal que la probabilidad de que algo vaya a ocurrir sea de uno dividido por cierto número elevado a cierta potencia. La pregunta es ¿cuál es la potencia?». No, no, Chris. Con palabras…). Esa vez, sin embargo, sólo estaba recordando uno de esos golpes de suerte de los que a veces brotan profundos descubrimientos. «Puse lambda al 50 por ciento, generé algunas tablas de reglas y esperaba verlas salir en la región caótica. Pero cada una de ellas era como el juego de la vida, un comportamiento de lo más interesante. Me dije: “No puede ser verdad; algo va mal en el sistema”. Resulta que, por error, había colocado lambda al 30, no al 50 por ciento».

Por accidente, Chris había entrado directamente en la región de la clase cuatro de Wolfram, la región en la que reside la máxima capacidad de procesamiento de la información. Pero ¿no había Wolfram demostrado ya eso?, pregunté. «Steve sabía que esa clase de comportamiento existía, pero no tenía una estructura general de los comportamientos en el espacio de reglas», dijo Chris. «Pude pasearme por el espacio de reglas y encontrar dónde estaban las diferentes clases de comportamiento, dónde estaba esa clase de comportamiento particularmente interesante, la clase cuatro». Chris había logrado producir una topografía del comportamiento de los autómatas celulares y del comportamiento de los sistemas dinámicos en general. Porque lo máximo que se había podido predecir era que las diferentes clases de comportamiento —congelado, caótico e intermedio— podían estar salpicando fortuitamente el sistema. Pero Chris había visitado ese espacio de reglas, lo había explorado y había visto que, al abandonar el territorio ordenado y entrar en la región del caos, se atraviesa la máxima capacidad de procesamiento de la información, la máxima manipulación de la información. «Descubrí que era una región muy estrecha situada entre el comportamiento de clase dos y de clase tres», dijo Chris.

En este mundo más intangible que ningún otro, el espacio de reglas de los autómatas celulares, hablábamos de ir de una región a otra, cruzar una tierra de nadie, donde el caos y la estabilidad tiran en direcciones contrarias. Parecía un mundo como el de Alicia en el país de las maravillas, irreal, extraño, un lugar en el que ocurren cosas raras. Chris se refirió a esta tierra de nadie como «el arranque del caos». Pero, según pude comprobar, no era simplemente un mundo irreal, digno de Alicia en el país de las maravillas. Era un mundo real. Empezó a ver la transición del orden al régimen caótico en los sistemas dinámicos como una analogía de las transiciones de fase de los sistemas físicos, del cambio de un estado a otro; del estado sólido al estado gaseoso, por ejemplo, quizá con un estado intermedio fluido. En la mente de Chris se abrió camino la noción de una fenomenología análoga entre el procesamiento universal de información y esas transiciones de fase físicas. Había ahí una traslación de la computación abstracta a la realidad del mundo físico.

«En el mundo físico se ven todo el tiempo transiciones de fase», dijo Chris. «¿Sabías que las membranas celulares están en precario equilibrio entre un estado sólido y uno líquido?». Lo sabía, pero no lo había pensado en términos dinámicos. «Da un ligerísimo tirón, cambia un poco la composición del colesterol, cambia sólo un poco la composición del ácido graso, deja que una única molécula proteínica se una con un receptor de la membrana y puedes producir grandes cambios, cambios biológicamente útiles». Le pregunté si estaba diciendo que las membranas biológicas estaban en el límite del caos, y que no era por accidente. «En efecto. Estoy diciendo que el límite del caos se encuentra donde la información llega al umbral del mundo físico, donde consigue ventaja sobre la energía. Estar en el punto de transición entre el orden y el caos no sólo te proporciona un perfecto control —pequeña entrada/ gran cambio—, sino que también proporciona la posibilidad de que el procesamiento de información pueda llegar a ser una parte importante de la dinámica del sistema».

Chris hizo su afortunado descubrimiento poco después de ser contratado por Michigan. Pasó allí dos años explorando todo tipo de combinaciones de parámetros, para conocer el espacio, para conocer el poder que surge del encuentro entre el orden y el caos. No sabía que, pisándole de cerca los talones, estaba Norman Packard, otro aventurero en esa tierra extraña.

Norman Packard, oriundo de Montana, había formado parte de un atrevido grupo de físicos y matemáticos de la Universidad de California, Santa Cruz, que, en la década de 1970, resolvió efectivamente el enigma del caos. Muchos colegas más viejos y supuestamente más sabios consideraban que el grupo, conocido como el Colectivo de Sistemas Dinámicos, malgastaba el tiempo y el talento al ocuparse del caos, algo que, «como todo el mundo sabía», era matemáticamente irresoluble y poco interesante. Norman, su amigo íntimo Doyne Farmer y otros integrantes del grupo también dedicaban horas a desarrollar métodos asistidos por ordenador para ganar a la ruleta, confirmando así la opinión de mentes más convencionales según la cual los miembros del Colectivo de Sistemas Dinámicos estaban, en el mejor de los casos, desencaminados en sus intereses académicos. Al final, cuando apareció la teoría del caos, el colectivo acabó por obtener reconocimiento y respeto, y sus miembros se dispersaron por centros de investigación respetables; Doyne se fue al Laboratorio Nacional de Los Alamos, y Norman al Instituto de Estudios Avanzados de Princeton.

Steve Wolfram había invitado a Norman para que se le uniera en Princeton, cosa que hizo entusiasmado. «Me interesaba la dinámica evolutiva y los aspectos creativos del caos», me dijo Norman. «Hay una analogía entre ellos. El caos crea una infinidad de pautas y nunca sabes lo que va a pasar después. Y está la creatividad de la evolución, que empieza con una sopa química hace miles de millones de años, y aquí estamos ahora, reflexionando sobre ello». Nos encontrábamos hablando en la oficina de Santa Fe de la Prediction Company, una sociedad recién creada cuyo objetivo es aplicar el poder de la investigación sobre sistemas dinámicos al análisis y la predicción del movimiento de los mercados financieros, las bolsas, los bonos y la moneda. Norman y Doyne Farmer son los codirectores científicos de la empresa. La oficina es una modesta casa de madera junto al centro histórico de la ciudad, con paredes blancas, suelos de madera, pilas de The Wall Street Journal sobre una mesa baja y un retrato enmarcado de Einstein colgado de una puerta. «Los autómatas celulares poseen una abundante gama de comportamientos dinámicos posibles», explicó Norman, después de que una llamada telefónica le diera la noticia de un nuevo apoyo financiero para la aventura técnica de la compañía.

Norman llegó a Princeton en 1983, un año después de que Chris Langton empezara su tesis en Michigan, Como Chris, Norman también empezó a estudiar las reglas de los autómatas celulares, «paseándome por ese espacio de reglas posibles». Utilizando un enfoque diferente al del parámetro lambda de Chris, Norman también exploró la topografía del comportamiento de los autómatas celulares. También él descubrió la estrecha región de transición entre el orden y el caos y se dio cuenta de su potencial para la manipulación de la información compleja. Dos investigadores, explorando un territorio similar, ignorantes el uno del otro, pero alcanzando el mismo destino.

«Nos encontramos en el congreso sobre Evolución, Juegos y Aprendizaje», dijo Norman. «Al principio no entendí del todo el parámetro lambda de Chris, pero me dio la impresión de que ambos examinábamos el mismo fenómeno». Norman había sido, junto con Doyne Farmer, coorganizador del congreso celebrado en mayo de 1985 en el Laboratorio Nacional de Los Alamos. Ambos escribieron después una introducción al volumen que recogió las participaciones y, en ella, describieron los posibles puntos comunes entre la dinámica evolutiva y los sistemas dinámicos, en especial los sistemas complejos adaptativos. Norman fue también coautor de otros dos artículos. Pero no publicó su conferencia sobre el trabajo con autómatas celulares. «Tengo demasiadas cosas en marcha», explicó. «Siempre voy a toda máquina cuando hago investigación y luego no la publico. Me temo que ocurre con demasiada frecuencia». Chris sí que escribió un artículo titulado «Studying Artificial Life with Cellular Autómata», que reflejaba su continuado interés por la vida artificial, pero donde describía también el parámetro lambda y el descubrimiento del arranque del caos.

Al carecer de material escrito sobre la presentación de Norman, no hay forma objetiva de comparar el estado de desarrollo de las dos investigaciones en esa época. Sin embargo, según lo recuerda Chris, él iba por delante, Norman no había hecho todavía la conexión vital entre el comportamiento de clase cuatro y la transición entre orden y caos. «Recuerdo que mientras volvía del encuentro pensaba: “Les he contado algo importante a esos tipos”». En cualquier caso, ambos hombres estaban en la misma pista intelectual y llegaron al mismo lugar. Mientras que Chris había llamado al punto de transición «el arranque del caos», Norman acuñó la expresión «el límite del caos». Es mucho más evocadora, y sugiere la idea de estar en equilibrio en el espacio, de una provisionalidad incluso peligrosa, aunque plagada de potencial. Como todas las expresiones poderosas, el límite del caos ha cuajado y se ha convertido en un icono de la inmanente creatividad de los sistemas complejos.

El descubrimiento de que el procesamiento universal de información está en equilibrio entre el orden y el caos en los sistemas dinámicos fue importante en sí mismo, con sus analogías con las transiciones de fase del mundo físico. Sería harto interesante que los sistemas complejos adaptativos estuvieran inevitablemente situados en el límite del caos, el lugar de máxima capacidad para el cómputo de la información; podría considerarse entonces que el mundo explota la dinámica creativa de los sistemas complejos, pero sin elección en la materia. Pero ¿y si realmente tales sistemas se colocaran ellos solos en el límite del caos, se movieran por el espacio de parámetros hasta el lugar de procesamiento máximo de la información? Eso sí que sería interesante: casi parecería que el fantasma de la máquina tiene poder de decisión, pilotando el sistema hasta la creatividad máxima.

«Tenía la intuición, y también la tenía Chris, de que el límite del caos podía ser útil para propósitos evolutivos», explicó Norman. «Quería demostrar que eso era verdad, que los sistemas se adaptan hacia el límite del caos. La lógica era que si los procesamientos de información eran considerados buenos en un contexto evolutivo, llegabas a las interacciones dinámicas en el límite del caos». Decidió jugar a Dios, aunque con unos objetivos modestos.

Estableció un conjunto de reglas para un autómata celular, dejó que mutaran usando un algoritmo genético y les impuso la tarea de un cómputo particular. Le pregunté si había esperado que las reglas mejoraran por medio de la selección natural. «Ésa era la idea», dijo Norman. ¿De modo que asignarías a esas reglas «mejoradas» una eficacia biológica superior en el juego? ¿Y esperabas que las reglas más aptas se generaran en el límite del caos? «Sí. Era consciente de que controlaba las cosas más de lo deseado, pero sabía que eso podría demostrar lo que estaba buscando». Así fue. «Se ha visto que la población de reglas se desplaza hacia una región del espacio de todas las reglas que marca el límite entre las reglas caóticas y las reglas no caóticas», escribió Norman en un artículo científico que describía el trabajo y que se publicó en 1988. El artículo se tituló «Adaptation Toward the Edge of Chaos». Es un hito en la aparición de la ciencia de los sistemas complejos adaptativos.

El descubrimiento del límite del caos en el comportamiento de los autómatas celulares fue un paso vital en este proceso, pero, en cierto sentido, fue simplemente un eco de lo que los matemáticos ya sabían sobre los sistemas dinámicos en general. Sin embargo, lo que era nuevo era la noción de procesamiento universal de información en el límite. Y, conceptualmente, el hecho de hacer una analogía explícita entre la dinámica del límite del caos y las transiciones de fase del mundo físico, como había hecho Chris, suponía un gran avance. Pero, sin duda, el logro capital fue la demostración de que un sistema complejo adaptativo (los autómatas celulares de Norman con la tarea de cómputo asignada) no sólo se desplazaba hacia el límite del caos, sino que también refinaba la eficacia de sus reglas a medida que lo hacía.

***

Poco antes de publicar su artículo, Norman visitó a Stu Kauffman en Santa Fe. «Estábamos tomando un baño caliente una noche y empecé a contarle esos resultados, el procesamiento de información en el límite del caos», explicó Norman. «Stu se entusiasmó y gritó: “Todo esto encaja con mis redes booleanas… Todo es lo mismo, todo es lo mismo”».

En 1985, Stu había pasado un año sabático en Ginebra y visitado París, donde conoció a Gérard Weishbuch, un físico de la École Nórmale Superieure. Stu había empezado hacía poco a trabajar otra vez con redes booleanas, intrigado por ver si lograba descubrir adaptación. Resultó que las redes booleanas estaban experimentando un renacimiento, al menos en Europa. Weishbuch compartía despacho con Bernard Derrida, otro físico que trabajaba en lo que llamaba «redes de Kauffman». Debió de ser toda una sorpresa, dije. «Sí. Toda esa actividad en marcha, en ebullición. Quedé encantado».

Tiempo atrás, en San Francisco, Stu había «adaptado» su red cambiando el número de conexiones que cada elemento recibía, uno, dos, tres, cuatro, a veces con tantas conexiones como elementos. Algo bastante poco refinado, pero eficaz para lo que estaba haciendo entonces. Había visto estados de orden generalizado, con una conexión, donde la mayoría de las «bombillas» estaban congeladas como una isla de color rojo. Había visto caos, con muchas conexiones, donde las pautas caleidoscópicas de rojo y azul aparecían desordenadamente por el sistema. Y había visto que, con dos conexiones, surgía una estructura interesante, titilantes islas azules en un mar rojo. Pero, como en el caso de Wolfram y sus cuatro clases de comportamiento de los autómatas celulares, Stu no se había hecho una idea de la topografía general y su importancia. París cambiaría eso. «Bernard estaba adaptando un parámetro diferente del mío, más sutil», explicó Stu. «Había empezado a ver el mismo fenómeno que Chris Langton había visto con los autómatas celulares, el límite del caos. Islas azules, brillando, cambiando, en tenue contacto entre sí».

Ese mismo año Stu trabajó con Weishbuch, refinando el enfoque de Derrida, y empezó a desarrollar una idea de la topografía de los diferentes estados del sistema, de la compleja capacidad de procesamiento existente entre los regímenes ordenados y caóticos. «Gérard y yo no escribimos el trabajo», se lamentó Stu. «A nadie le habría importado». Sin embargo, a él sí. Y con razón, ya que es probable que la idea del límite del caos sea de suma importancia en el mundo de los sistemas complejos adaptativos. La prioridad del descubrimiento es, como mínimo, una cuestión de orgullo profesional y muy probablemente un logro merecedor de reconocimiento serio. La única referencia bibliográfica explícita a la afirmación de Stu de haber descubierto de modo independiente el límite del caos está en su propio libro, The Origins of Order, publicado en el verano de 1992. En una versión final de la obra, se menciona un debate sobre la importancia del límite del caos: «Esta sugerencia había sido hecha por mí (1985), C. Langton (1990), N. Packard (1988) y de modo más reciente por J. Crutchfield (comunicación personal, 1990)». Esta cita de 1985 a él mismo hace referencia a las discusiones que Stu afirma que se produjeron en París ese año, no a una publicación.

Al citar en este pasaje un artículo de 1990 de Chris Langton en lugar del artículo de 1986, Stu parecía dar prioridad al descubrimiento de Norman Packard. Norman admite que Chris fue el primero. En cualquier caso, ni Chris ni Norman recuerdan que Stu se hubiera referido explícitamente al fenómeno del límite del caos hasta haberlo hecho ellos de modo independiente y haber hablado a Stu del tema. «Sencillamente me olvidé de que el límite del caos era un lugar interesante para estar», me dijo Stu.

***

Cuando volvió a Filadelfia tras su estancia en Europa, Stu dirigió una parte de su atención a la evolución, en concreto a la adaptación. Siguieron cuatro años de investigación febril, que llevaron la noción del límite del caos a las fronteras de la biología real y que se iniciaron con los relieves adaptativos, un concepto desarrollado en los años treinta por el genético de la Universidad de Chicago Sewell Wright. La imagen es engañosamente simple.

Hay que pensar en la «eficacia biológica» de un individuo en términos de las diferentes combinaciones de las variantes génicas que podría tener. Pensemos ahora en un paisaje, en el que cada punto represente dotaciones ligeramente diferentes de esas variantes. Por último, si imaginamos que algunas dotaciones son más aptas que otras, podemos convertirlas en picos.

Cuanto más aptas sean las dotaciones, más elevado el pico. El relieve general será rugoso, con picos de diferente altura separados por valles. No olvidemos que este paisaje representa probabilidades de eficacia biológica, lugares en que podrían estar los individuos de una especie en función de la combinación de variantes genéticas presentes en sus cromosomas. Si un individuo está en un valle de eficacia biológica, la mutación y la selección podrían empujarlo hasta un pico local, lo cual representaría un aumento en la eficacia biológica. Una vez en lo alto, podría, metafóricamente, contemplar con envidia un pico cercano, aunque sería incapaz de alcanzarlo porque ello exigiría cruzar un valle de eficacia biológica inferior.

«Es una imagen hermosa», dijo Stu. «Me gusta». Stu desarrolló más la idea y le impuso la estructura de las redes booleanas: la eficacia biológica estaba determinada por el número de genes de las especies (los elementos de la red) y sus interacciones (el número de conexiones entre los elementos). Ajustando la conectividad de los genes, cambiaba la eficacia biológica de diversas combinaciones, cambiando así la topografía del paisaje. Trabajando con Simón Levin, un biólogo de la Universidad de Cornell, Stu utilizó el concepto de paisaje de eficacia biológica adaptable para demostrar que, por poderosa que pueda ser en ocasiones la selección natural, con frecuencia es incapaz de trasladar una especie hacia los picos de eficacia biológica, y que en ello puede ejercer una fuerte influencia la dinámica del propio sistema genético. «Así que le estoy agradecido a John [Maynard Smith] por hacerme pensar en la selección», dijo Stu, «pero me alegro de ver que tiene sus límites, como siempre había sospechado».

La noción de relieve adaptativo logró imbuir aún más el límite del caos de realidad biológica cuando Stu unió dos paisajes. «Imagina una mosca», dijo Stu. «Tiene un relieve adaptativo. Ahora imagina una rana. También tiene un relieve adaptativo. Pero no son independientes. La rana saca la lengua y, zap, se acabó la mosca. Es parte de la vida. Supón ahora que la mosca desarrolla patas resbaladizas para que la lengua de la rana no la atrape. La rana se queda sin cena y su pico en el paisaje de eficacia biológica desciende: es menos apta. La mosca es más apta, de modo que su pico se eleva. Así que los paisajes acoplados cambian, cada uno en respuesta al otro». El siguiente paso es que la rana desarrolle pelos en la lengua —o algún otro recurso— y sea capaz de volver a atrapar la mosca. Las eficacias biológicas cambian, los paisajes cambian. «Es la clásica carrera de armamentos biológica», explicó Stu. «Depredador y presa intentan constantemente estar un paso por delante del otro».

Los biólogos conocen este fenómeno como el efecto reina roja, bautizado así por Leigh Van Valen de la Universidad de Chicago en referencia a Alicia a través del espejo: las especies del depredador y la presa tienen que correr (evolutivamente) para conseguir permanecer en el mismo sitio. Es una analogía adecuada, porque las especies viven en relieves adaptativos cuyas topografías están en constante cambio, de manera muy parecida a lo que ocurriría en un mundo «a través del espejo». El efecto reina roja es de lo más pertinente en biología, porque sirve de recordatorio de que las especies no llevan vidas aisladas, sino que están inextrincablemente unidas unas a otras. Así, el éxito evolutivo de una especie puede ser tanto una función de lo que hacen otras especies como de lo que hace ella misma. Algunos biólogos llegan incluso a afirmar que el efecto reina roja es la fuerza motriz de la historia evolutiva, en la que el cambio medioambiental desempeña un papel menor. La noción contiene claros ecos de la dinámica de los sistemas complejos, un motor más interno que externo del cambio de las especies en tanto comunidad.

«Imagina ahora que en lugar de dos especies tenemos un centenar», dijo Stu, dando paso a la complejidad potencial de semejante sistema. «Tenemos un centenar de paisajes acoplados, interacciones por todas partes». Intenté imaginarlo, pero la simple y vivida imagen de la mosca y la rana se evaporó y quedó reemplazada por la confusión. Cualquier cosa podría ocurrir, dije. «Cualquier cosa, pero no es así», replicó Stu. «Adaptamos las interacciones —internas, entre los genes de las especies, y externas, el modo en que una especie choca con otra—, vemos cómo funciona el sistema, cómo cambia la eficacia biológica media con las diferentes combinaciones de interacciones. Imagina lo que ocurre». No tuve que hacerlo. «El sistema se desplaza a través de estados de actividad, quizá congelados, quizá caóticos, pero al final llega a una posición de reposo, con la eficacia biológica optimizada, en equilibrio en el límite del caos».

Eso, dije con escepticismo, suena a selección de grupo. «Suena a eso, pero no lo es», respondió Stu. Durante un tiempo se creyó que los individuos dentro de las especies, o las especies en un grupo, podían conformar su comportamiento en bien del grupo. En la actualidad, los biólogos saben que los individuos actúan de forma limitada, darwinista y egoísta y que harán trampas si pueden. La sugerencia de que un grupo de especies pudiera adaptarse colectivamente, teniendo como objetivo el beneficio del grupo, provoca sonrisas de conmiseración en las caras de los biólogos. «Pero resulta que los individuos de mi grupo se comportan egoístamente», dijo Stu. «Eso es lo que tiene de hermoso. La adaptación colectiva con fines egoístas produce la máxima eficacia biológica promedio, cada especie dentro del contexto de las otras. Como si por medio de una mano invisible —la expresión de Adam Smith para referirse a los mercados en una economía capitalista—, se garantizara el bien colectivo».

Parecía demasiado perfecto para ser cierto. Intenté imaginar de nuevo un ecosistema en el que interaccionan muchas especies, cada una persiguiendo sus propios fines evolutivos, adaptando evolutivamente sus propias conexiones genéticas y las interacciones con las demás especies, con el resultado de que la comunidad alcanza una posición de máxima eficacia biológica sostenida. Algunas especies quedarían en una especie de equilibrio evolutivo mientras que otras participarían en las travesuras de la reina roja; pero todas forman parte de un sistema en delicado equilibrio. De repente vi que adaptando sus interacciones, las especies estarían refinando efectivamente su capacidad para evolucionar. Eso sería asombroso. ¿Me estás diciendo que tus criaturas evolucionan mejor en medio de toda esta actividad, que mejoran su evolutividad? «Sí», dijo con una extraña sonrisa. «¿No es maravilloso?».

Desde luego, parecía maravilloso. Entonces Stu me sorprendió con algo completamente inesperado. «¿Sabes lo que me dijo Phil Anderson cuando le hablé de esto en el instituto?», preguntó Stu. «Me dijo: “Esto es mini-Gaia”». ¿Es qué? «Mini-Gaia». ¿En serio?, pregunté. Philip Anderson es un Nobel de Física de Princeton, con estrechos lazos con el instituto. A él no le toman el pelo. Y la idea de Gaia, la diosa Tierra, entendida como superorganismo que mantiene un equilibrio global, para muchos científicos no es ni mucho menos respetable. «Claro que lo digo en serio. Phil dijo mini-Gaia, y creo que tiene razón». En mi exploración de la complejidad y del modo en que podría iluminar algunas de las grandes pautas de la naturaleza, había desarrollado ciertas expectativas de adónde podría llegar. El desarrollo embrionario, la evolución, los ecosistemas, la complejidad social… pero nunca se me había cruzado ni una sola vez por la cabeza Gaia. Y, sin embargo, enseguida adquirió sentido: ahí, en el complejo mundo de los modelos informáticos de Stu, un ecosistema alcanzaba por sí mismo un estado colectivamente beneficioso, el control por medio de vastas redes de interacciones. Sin duda sonaba a Gaia. Hice una nota mental para seguir esa pista más adelante.

Le pregunté cómo podía estar seguro de que su ecosistema informático alcanzaba el límite del caos. «Seguimos la dinámica, contemplamos el sistema cuando está congelado, cuando es caótico, y podemos ver que se estabiliza en ese estado intermedio, con una elevada eficacia biológica», explicó Stu con paciencia, repitiendo lo que había dicho antes. Luego volvió de nuevo a la analogía de las bombillas, para terminar con el ecosistema representado por unas islas azules brillantes y apenas cambiantes, tocándose tenuemente entre sí. Su familiaridad era tranquilizadora. «Lo maravilloso es que puedes realmente ver que la adaptación lleva el sistema al límite del caos», continuó Stu. «Es una idea tan poderosa que tiene que ser cierta».

Pero, añadió, aún hay más. «¿Has oído hablar de Per Bak y la criticalidad autoorganizada?». No había oído hablar, pero Stu ya me estaba hablando de ello antes de que pudiera responder. «Ése es otro ramal de la historia. Tengo la sensación de que todo esto encaja de un modo maravilloso».

***

Per, físico en el Laboratorio Nacional de Brookhaven, Nueva York, es a la vez una figura jovial e imponente. Majestuosamente alto, tiene la cara redonda, gafas redondas y, aunque propenso a ser despistado, posee una inteligencia agudísima. Recientemente ha desarrollado la hipótesis de que los grandes sistemas interactivos —los sistemas dinámicos— evolucionan de modo natural hacia un estado crítico. El sistema puede ser biológico, como un ecosistema en coevolución, o físico, como en la interacción de las placas tectónicas y su papel en los terremotos. Todo esto suena un poco como la frontera del caos, aventuré. ¿No? «Es lo que pienso», contestó. «Estamos hablando de la misma clase de fenómeno».

Los sistemas que han alcanzado el estado crítico exhiben una propiedad muy característica, explicó Per. Si se perturba un sistema de ésos, podríamos obtener una respuesta pequeña. Perturbándolo otra vez, con el mismo grado de perturbación, podría colapsarse por completo. Si se perturba muchas veces cuando se halla en equilibro en un estado crítico, obtenemos una gama de respuestas que puede describirse con una ley exponencial; es decir, las respuestas grandes son escasas, las respuestas pequeñas son comunes y en medio se sitúan las respuestas intermedias. «Eso se ve en los terremotos, los incendios forestales, el juego de la vida de Conway», explicó Per. ¿Esperarías verlo en los episodios de extinción, en el tipo de cosas que ves en el registro fósil?, pregunté. «Sí». ¿Y en los episodios de especiación? Si se alterara el medio ambiente, ¿eso daría lugar al origen de nuevas especies? «También».

Per tenía una asombrosa analogía visual para un sistema en estado crítico: un montón de arena. Se tira un pequeño chorro de arena sobre una bandeja circular. El montón crece firmemente, pronto alcanza el límite. Lo que era un montón pequeño va elevándose cada vez más, hasta que, de repente, más arena puede desencadenar una pequeña avalancha y luego una grande, avalanchas de todas las clases. El montón, cuando no recibe más arena adicional, representa el sistema en equilibrio en el estado crítico. Y las avalanchas de toda la gama de tamaños, provocadas por perturbaciones de la misma magnitud (otro grano de arena), representan una distribución exponencial de la respuesta: la marca de un sistema que ha alcanzado él solo el estado crítico. Que ha alcanzado él solo, quizás, el límite del caos.

***

Si el estado crítico y el límite del caos eran fenómenos equivalentes, surgía entonces una pregunta obvia. ¿Puedes poner a prueba tus modelos de ecosistemas para ver lo que ocurre cuando los perturbas?, pregunté a Stu. «Fue una cosa fácil», dijo. «Lo único que hicimos fue hacer del mundo exterior —el mundo abiótico— otra conexión aleatoria». Si el relieve adaptativo de una especie se deforma por una perturbación externa, es probable que la especie se vuelva menos apta. Entonces, por medio de la mutación y la selección volverá a escalar el pico, o un nuevo pico, un cambio que con toda probabilidad deformará el paisaje de eficacia biológica de la especie o las especies con las que interaccione. Si la conectividad entre especies dentro del sistema es baja, los efectos de la perturbación inicial enseguida se agotarán. Eso ocurre cuando el sistema está cerca del estado congelado. Con una conectividad elevada, es probable que cualquier cambio se propague con fuerza por todo el sistema, con muchas avalanchas grandes. Es el estado caótico. En el estado intermedio, el límite del caos —con interacciones internas y entre las especies cuidadosamente adaptadas—, algunas perturbaciones provocan pequeñas cascadas de cambio, otras desencadenan avalanchas completas, equivalentes a extinciones en masa. «Con nuestro sistema en el límite del caos, vimos una distribución exponencial del cambio», dijo Stu a propósito del experimento que había ejecutado en el ordenador. «No creo que sea trivial. Pienso que nos está diciendo algo profundo sobre el mundo de ahí fuera».

Ese «algo profundo» es esto: los sistemas en coevolución, obrando como sistemas complejos adaptativos, se adaptan solos en el punto de máxima capacidad de procesamiento de la información, máxima eficacia biológica, máxima evolutividad. No pude evitar pensar de nuevo en «el fantasma de la máquina», la hoy desacreditada expresión que solía utilizarse para describir una «mente» autónoma en el interior del cerebro. Una especie de fantasma habita en los sistemas complejos adaptativos, me pareció. Al menos, no era posible describir la historia evolutiva como «una maldita cosa tras otra». Si el límite del caos es más que un producto seductor de complejos modelos informáticos, el mundo «de ahí afuera» adquiere un tinte de provocadora inevitabilidad. Quizás algo más que un tinte. ¿Pero es eso cierto?

Tendría que averiguarlo.