Apéndice matemático
Independencia de la incertidumbre del entorno

Un concepto clave para entender los sistemas complejos adaptativos y la evolución de los sistemas vivos es el de independencia de la incertidumbre del entorno, definible formalmente en los términos de la teoría matemática de la comunicación (Wagensberg, 2000).

Cualquier objeto real divide el mundo en dos partes: él mismo y el resto del universo. Ambas partes se influencian mutuamente a través de una frontera real o imaginaria, de manera que los cambios en una parte inducen cambios en la otra. Los objetos vivos se caracterizan por su tendencia a independizarse de la incertidumbre del entorno, lo que equivale a la perpetuación de alguna identidad. Llamemos individualidades a estos objetos vivos: una individualidad viva es una parte del mundo con cierta identidad que tiende a independizarse de la incertidumbre del resto del mundo.

Una individualidad viva es un sistema abierto que intercambia materia, energía e información con su entorno. Lo que nos interesa aquí es la tercera de estas magnitudes. Si la termodinámica del no equilibrio nos proporciona una ecuación fundamental para el intercambio de materia y energía, la teoría matemática de la comunicación nos proporciona una ecuación fundamental para el intercambio de información. Para simplificar, supondremos un conjunto finito de estados a los que puede acceder un sistema vivo observable. Un sistema abierto es una partición particular del universo que puede describirse mediante la tripleta

donde B es el conjunto de probabilidades de los estados del sistema, E es el conjunto de probabilidades de los estados del entorno, y es el esquema de transición a través de la frontera del sistema, es decir, la matriz de probabilidades conjuntas de los estados de sistema y entorno (Conrad, 1983), a saber

Las consabidas relaciones entre estas probabilidades son

siendo todos números positivos que satisfacen las condiciones de normalización

La matriz de transición define el canal de información que puede establecerse entre el sistema vivo y su entorno. El caso extremo de ruido nulo corresponde a una matriz de probabilidades condicionadas que viene dada por la delta de Kronecker

y el extremo opuesto de incomunicación absoluta viene dado por

Un canal real, de ruido no nulo, quedará representado por una matriz de números entre estos dos límites. Por estructura entenderemos una colección particular de estados, {β1, β2,…, n} para el sistema vivo y {ε1, ε2,…, εm} para el entorno, accesibles con probabilidades {p(β1), p(β2),…, p(βn)} y {p(ε1), p(ε2),…, p(εn)}. Las probabilidades condicionadas p(βi / εj) determinan la relación entre un entorno dado y la estructura compatible del sistema vivo. Inversamente, las probabilidades p(εj / βi) dan cuenta de los estados disponibles del entorno para una estructura dada del sistema vivo. Introduzcamos ahora un par de funciones de entropía. Por un lado, llamaremos complejidad del sistema a la entropía de la estructura del sistema vivo:

que mide la riqueza de alternativas del sistema. Por otro lado, definiremos la incertidumbre del entorno como la entropía de la estructura del entorno

También podemos definir la entropía del sistema vivo para un estado εj del entorno

Para obtener la entropía de la estructura del sistema para una estructura del entorno dada, promediamos las entropías del sistema para cada estado del entorno:

Esta entropía es la tolerancia potencial para el «ruido» del comportamiento del sistema vivo en relación al del entorno, es decir, la incapacidad de anticipación del sistema. Así, la máxima capacidad de anticipación del sistema vivo corresponde a H(B / E) = 0 y la mínima a H(B / E) = log2m. Similarmente, definimos la entropía de la estructura del entorno para una estructura del sistema dada como

Esta entropía es la tolerancia potencial para el «ruido» del comportamiento del entorno en relación al del sistema, es decir, la indiferencia del entorno respecto de un sistema vivo particular. Así, la máxima sensibilidad del entorno corresponde a H(E / B) = 0 y la mínima a H(E / B) = log2n.

Estas cuatro entropías son fáciles de reconocer en el contexto de la teoría matemática de la comunicación. Ahora podemos considerar la interacción entre el sistema vivo y su entorno como un canal de información. La magnitud I(B, E) definida como

es el flujo de información del sistema vivo al entorno. Similarmente, el flujo de información del entorno al sistema viene dado por

De aquí se sigue una bien conocida identidad fundamental (Shannon, 1948):

que, traducida en términos de interacción sistema-entorno, viene a decir que la complejidad del sistema vivo menos su incapacidad de anticipación (respecto de su entorno) equivale a la incertidumbre del entorno menos su indiferencia (respecto de ese sistema vivo en particular).

Para mantener su identidad con independencia de las veleidades del entorno, una individualidad viva puede optar por aislarse. Pero esta independencia pasiva sólo puede ser una solución parcial o provisional, porque un sistema aislado tiende al equilibrio termodinámico. Evitar la extinción requiere una independencia activa, porque implica mantener un estado estacionario alejado del equilibrio termodinámico. Para ello el sistema vivo debe intercambiar información con su entorno, lo que implica un flujo de información I(B, E) entre ambas partes. En otras palabras, cualquier fluctuación relevante de la fuente E debe inducir alguna respuesta del sistema que perturbe la estructura del entorno y/o la de la matriz de interacción para restaurar la estructura de la fuente B. Nos interesan las situaciones tales que las variaciones de la incertidumbre del entorno no alteran la complejidad del sistema, lo que puede plantearse mediante la forma variacional de la identidad fundamental

junto con las condiciones

lo que equivale a

si aumenta la incertidumbre del entorno, y

si disminuye.

Ésta es la expresión matemática de la idea de independencia de la incertidumbre del entorno. De estas relaciones se deduce que el sistema vivo puede responder a un incremento de la incertidumbre del entorno de dos maneras: (1) haciendo aumentar H(E / B) o (2) haciendo disminuir H(B / E). La primera estrategia corresponde a un incremento de los estados del entorno compatibles con la estructura del sistema vivo (lo que puede conseguirse incrementando la movilidad o modificando el entorno local, por ejemplo). La segunda estrategia (en la cual se enmarca la reproducción sexual) consiste en incrementar la capacidad de anticipación, lo que equivale a reducir H(B / E).