La complejidad de la fluctuación de la información es un valor teórico de la información definido como la fluctuación de la información con respecto a la entropía de la información . Se deriva de las fluctuaciones en la prevalencia del orden y el caos en un sistema dinámico y se utiliza en varios campos del conocimiento para medir la complejidad . La teoría fue presentada en el trabajo de Bates y Shepard en 1993 [1] .
La complejidad de la fluctuación de la información de un sistema dinámico discreto es una función de la distribución de probabilidad de los estados de este sistema sujeto a entradas de datos aleatorias. El objetivo de controlar un sistema con una rica fuente de información, como un generador de números aleatorios o una señal de ruido blanco , es explorar la dinámica interna del sistema de la misma manera que se usa un pulso rico en frecuencia en el procesamiento de señales .
Si el sistema tiene estados posibles y se conocen las probabilidades de los estados , entonces su entropía de información es igual a
donde está la información del propio estado .
La complejidad de la fluctuación de la información de un sistema se define como la desviación estándar o la fluctuación de su valor medio :
o
La fluctuación de la información de estado es cero en un sistema máximamente desordenado con todo ; el sistema simplemente simula entradas de datos aleatorias. también es cero cuando el sistema está perfectamente ordenado y tiene un solo estado fijo , independientemente de las entradas. es distinto de cero entre estos dos extremos cuando tanto los estados de alta probabilidad como los de baja probabilidad son posibles para llenar el espacio de estados.
A medida que un sistema dinámico complejo se desarrolla en el tiempo, pasa de un estado a otro. Cómo se producen estas transiciones depende de estímulos externos de forma irregular. En algunos casos, el sistema puede ser más sensible a los estímulos externos (inestable), mientras que en otros puede ser menos sensible (estable). Si un estado particular tiene varios estados siguientes posibles, la información externa determina cuál será el siguiente y el sistema obtiene esta información siguiendo una determinada trayectoria en el espacio de estado. Pero si varios estados diferentes conducen al mismo estado siguiente, al entrar en él, el sistema pierde información sobre qué estado lo precedió. Así, a medida que evoluciona con el tiempo, un sistema complejo presenta ganancias y pérdidas de información alternas. Las alternancias o fluctuaciones de información equivalen a recordar y olvidar, el almacenamiento temporal de información o memoria, esta es una característica esencial de los cálculos no triviales.
La ganancia o pérdida de información que acompaña a las transiciones de estado puede asociarse con su propia información de estado. La ganancia neta de información durante la transición de un estado a otro es la información obtenida al salir del estado menos la información perdida al entrar al estado :
Esta es la probabilidad condicional directa de que si el estado actual es , entonces el estado siguiente será y es la probabilidad condicional inversa de que si el estado actual es , entonces el estado anterior fue . Las probabilidades condicionales están relacionadas con la probabilidad de transición , la probabilidad de que ocurra una transición de estado a estado , por:
Eliminando las probabilidades condicionales, obtenemos:
Por lo tanto, la información neta que obtiene el sistema como resultado de la transición depende únicamente del aumento de la información de estado desde el estado inicial hasta el estado final. Se puede demostrar que esto es cierto incluso para varias transiciones consecutivas [1] .
La fórmula se asemeja a la relación entre la fuerza y la energía potencial . es similar a la energía potencial , y es la fuerza en la fórmula . La información externa "empuja" el sistema "hacia arriba", a un estado con un mayor potencial de información para la preservación de la memoria, al igual que empujar un cuerpo con cierta masa cuesta arriba, a un estado con un mayor potencial gravitatorio, conduce a la acumulación de energía. La cantidad de energía almacenada depende únicamente de la altura final y no del camino cuesta arriba. Asimismo, la cantidad de información almacenada es independiente del camino de transición entre dos estados. Una vez que un sistema alcanza un estado poco común de alto potencial de información, puede "recaer" en un estado normal, perdiendo información previamente almacenada.
Puede ser útil calcular la desviación estándar de su media (que es cero), es decir, la fluctuación de la ganancia de información neta [1] , pero tiene en cuenta los ciclos de memoria de espacio de estado de transición múltiple y, por lo tanto, debería ser una forma más precisa indicador de la potencia de procesamiento del sistema. Además, es más fácil de calcular, ya que puede haber muchas más transiciones que estados.
Un sistema dinámico que es sensible a la información externa (inestable) exhibe un comportamiento caótico , mientras que un sistema que es insensible a la información externa (estable) exhibe un comportamiento ordenado. Bajo la influencia de una rica fuente de información, un sistema complejo exhibe ambos comportamientos, oscilando entre ellos en un equilibrio dinámico. El grado de fluctuación se mide cuantitativamente con ; captura la alternancia del predominio del caos y el orden en un sistema complejo a medida que se desarrolla con el tiempo.
Se demuestra que una variante del autómata celular elemental según la regla 110 es capaz de realizar cálculos universales . La prueba se basa en la existencia e interacción de configuraciones celulares conectadas y autoconservadas conocidas como "planeadores" o " naves espaciales ", el fenómeno de emergencia , que implica la capacidad de grupos de células autómatas para recordar que un planeador pasa a través de ellas. Por lo tanto, debe esperarse que se produzcan bucles de memoria en el espacio de estado, como resultado de la alternancia de ganancia y pérdida de información, inestabilidad y estabilidad, caos y orden.
Considere un grupo de tres celdas adyacentes de un autómata celular que obedece la regla 110:extremo-centro-extremo. El siguiente estado de la celda central depende de su estado actual y de las celdas hoja, como se especifica en la regla:
grupo de 3 células | 1-1-1 | 1-1-0 | 1-0-1 | 1-0-0 | 0-1-1 | 0-1-0 | 0-0-1 | 0-0-0 |
---|---|---|---|---|---|---|---|---|
siguiente celda central | 0 | una | una | 0 | una | una | una | 0 |
Para calcular la complejidad de la fluctuación de la información de este sistema, se conectaría una celda controladora a cada extremo de un grupo de 3 celdas para proporcionar un estímulo externo aleatorio, p.controlador→extremo-centro-extremo←controlador, para que la regla se pueda aplicar a las dos celdas finales. Luego necesita determinar cuál es el próximo estado para cada estado actual posible y para cada combinación posible de contenido de celda de controlador para calcular las probabilidades condicionales directas.
El diagrama de estado de este sistema se muestra a continuación. En él, los círculos representan estados y las flechas representan transiciones entre estados. Los ocho estados de este sistema, desde1-1-1antes de0-0-0están numerados con equivalentes decimales de los contenidos de 3 bits de un grupo de 3 celdas: del 7 al 0. Cerca de las flechas de transición, se muestran los valores de las probabilidades condicionales directas. El esquema muestra la variabilidad en la divergencia y convergencia de las flechas, lo que corresponde a la variabilidad en el caos y el orden, la sensibilidad y la insensibilidad, la adquisición y pérdida de información externa de las células conductoras.
Las probabilidades condicionales directas están determinadas por la proporción de los posibles contenidos de la celda conductora que gobierna una transición particular. Por ejemplo, para cuatro combinaciones posibles del contenido de dos celdas de control, el estado 7 conduce a los estados 5, 4, 1 y 0, por lo que , y son 1/4 o 25 %. Del mismo modo, el estado 0 conduce a los estados 0, 1, 0 y 1, por lo que corresponde 1/2 , o 50% . Y así.
Las probabilidades de estado están relacionadas por la fórmula
yEstas ecuaciones algebraicas lineales se pueden resolver manualmente o con un programa de computadora para probabilidades de estado, con los siguientes resultados:
p0 _ | p1_ _ | p2_ _ | pág . 3 | p4_ _ | p5 _ | p6 _ | pág . 7 |
2/17 | 2/17 | 1/34 | 5/34 | 2/17 | 2/17 | 2/17 | 4/17 |
La entropía y la complejidad de la información se pueden calcular a partir de las probabilidades de estado:
murciélago, un poco.Cabe señalar que la máxima entropía posible para ocho estados es igual a un bit, lo que corresponde al caso en que los ocho estados son igualmente probables, con probabilidades 1/8 (caótico). Por lo tanto, la regla 110 tiene una entropía o uso de estado relativamente alta de 2,86 bits. Sin embargo, esto no descarta una fluctuación significativa de la información de estado con respecto a la entropía y, en consecuencia, una gran complejidad. Mientras que la máxima entropía descartaría la complejidad.
Se puede usar un método alternativo para obtener probabilidades de estado cuando el método analítico descrito anteriormente no es factible. Consiste en conducir el sistema a través de sus entradas (células conductoras) con una fuente aleatoria durante muchas generaciones y observar empíricamente las probabilidades de estado. Cuando se hace con simulaciones por computadora durante 10 millones de generaciones, los resultados son los siguientes: [2]
número de celdas | 3 | cuatro | 5 | 6 | 7 | ocho | 9 | diez | once | 12 | 13 |
---|---|---|---|---|---|---|---|---|---|---|---|
(un poco) | 2.86 | 3.81 | 4.73 | 5.66 | 6.56 | 7.47 | 8.34 | 9.25 | 10.09 | 10.97 | 11.78 |
(un poco) | 0,56 | 0,65 | 0.72 | 0.73 | 0.79 | 0.81 | 0.89 | 0.90 | 1.00 | 1.01 | 1.15 |
0.20 | 0.17 | 0.15 | 0.13 | 0.12 | 0.11 | 0.11 | 0.10 | 0.10 | 0.09 | 0.10 |
Dado que ambos parámetros, y , aumentan con el tamaño del sistema, para una mejor comparación de sistemas de diferentes tamaños, se propone una relación adimensional , relativa Información-fluctuación complejidad. Tenga en cuenta que los resultados empíricos y analíticos son consistentes para un autómata de 3 celdas.
En el trabajo de Bates y Shepard [1] , se calcula para todas las reglas de los autómatas celulares elementales, y se notó que aquellos que exhiben "planeadores" de movimiento lento y posiblemente objetos estacionarios, por ejemplo, la regla 110, están estrechamente asociados con valores grandes de . Por lo tanto, puede usarse como filtro al elegir reglas capaces de computación universal, lo cual es tedioso de probar.
Aunque la derivación de la fórmula de complejidad de la fluctuación de la información se basa en las fluctuaciones de la información en un sistema dinámico, la fórmula en sí depende solo de las probabilidades de estado y, por lo tanto, también se puede aplicar a cualquier distribución de probabilidad, incluidas las derivadas de imágenes estáticas o texto.
A lo largo de los años, el artículo original [1] ha sido referenciado por investigadores de muchos campos diferentes: teoría de la complejidad [3] , ciencia de sistemas complejos [4] , dinámica caótica [5] , ingeniería ambiental [6] , complejidad ecológica [7] , análisis de series temporales ecológicas [8] , resiliencia de los ecosistemas [9] , contaminación del aire [10] y del agua [11] , análisis hidrológico de ondículas [12] , modelado de flujos de agua en el suelo [13] , humedad del suelo [14] , cuenca hidrográfica escorrentía [15] , profundidad de las aguas subterráneas [16] , control del tráfico aéreo [17] , patrón de flujo [18] , topología [19] , pronóstico de mercado de los precios de los metales [20] y la electricidad [21] , informática de la salud [22] , cognición humana [23] , cinemática de la marcha humana [24] neurología [25] análisis EEG [26] análisis del habla [27] educación [28] inversión [29] estética [30] .