La capacidad de Shannon ( Capacidad de Shannon ) es una característica de un gráfico no dirigido que describe la máxima densidad de codificación con la posibilidad de seguimiento de errores garantizado en el canal de comunicación, cuyo modelo representa este gráfico.
En este modelo, los vértices del gráfico corresponden a los caracteres del alfabeto , y la presencia de una arista entre dos vértices hace que durante la transmisión el primer carácter pueda ser sustituido por el segundo y el segundo por el primero. Las probabilidades o la frecuencia con la que esto sucede no se consideran en el modelo, el objetivo es construir un método de codificación óptimo que sea resistente a errores arbitrariamente impredecibles de este tipo.
A pesar de la formulación "práctica", la tarea de determinar la capacidad de Shannon de un gráfico es actualmente puramente teórica .
Permita que un texto transmitido utilizando un alfabeto de cinco caracteres se transmita a través de un canal de comunicación : Debido a errores en la transmisión de la señal, los caracteres adyacentes pueden confundirse, así como el último ( ) con el primero ( ). El gráfico que describe los posibles errores de este canal de comunicación será un ciclo de longitud 5.
Si el texto se transmite "tal cual", luego de haber recibido el carácter , el destinatario no podrá comprender si el carácter fue transmitido por el remitente o si fue el carácter transmitido por el remitente , durante cuya transmisión un se produjo un error y se convirtió en un carácter .
Tal ambigüedad siempre puede ocurrir cuando se usan al menos dos caracteres, conectados por un borde en el gráfico de error. Para evitar que esto suceda, puede elegir un conjunto independiente de vértices de este gráfico y codificar el texto solo con los caracteres correspondientes a estos vértices. Al mismo tiempo, para que el valor de la información de cada carácter sufra lo menos posible, es apropiado tomar el tamaño máximo de dichos conjuntos (su tamaño se denota como ).
En el ejemplo considerado, es obvio y, por lo tanto, el texto debe codificarse con dos caracteres (por ejemplo, y ). Si la longitud del texto transmitido (el número de caracteres del alfabeto original) es igual a , entonces existen todas las variantes de este texto, y para codificarlas todas con caracteres del alfabeto de dos letras, se necesitarán al menos bits , es decir, el tamaño del texto aumentará al menos una vez.
Este resultado puede mejorarse si consideramos no el conjunto de errores en la transmisión de cada carácter individual, sino los errores en la transmisión de un par de caracteres. La gráfica de pares de caracteres que pueden sustituirse entre sí (se denota como ) tendrá no menos número de independencia.
En el ejemplo bajo consideración, y uno de los conjuntos independientes máximos es . Esto significa que los cinco caracteres se pueden usar en el mensaje transmitido, pero con la condición de que cuando se combinen en pares consecutivos, solo se formarán pares de este conjunto (por ejemplo, no se puede usar texto, porque se puede formar a partir de text , que también se utiliza ). Si inicialmente había caracteres en el texto transmitido, cada uno de ellos se puede traducir a uno de estos pares y obtener un texto largo con las propiedades de seguimiento de errores requeridas. Dado que , este método de codificación es más eficiente que el primero.
Surge naturalmente la pregunta de si este resultado se puede mejorar considerando triples, cuádruples y más caracteres sucesivos en lugar de pares, y cuál es el mejor resultado que se puede lograr con este método. La formalización de esta pregunta conduce al concepto de capacidad de Shannon.
Para determinar la capacidad de Shannon se utiliza una definición auxiliar del producto directo de gráficas:
, dónde
Esta operación, salvo isomorfismo , es asociativa y conmutativa, por lo que se puede definir naturalmente el grado de un grafo :
Definición La capacidad de Shannon del gráfico es [1] |
La última igualdad se debe al hecho de que [2] .
No siempre se alcanza el límite de secuencia . Por ejemplo, cuando es la unión de un ciclo de longitud 5 ( ) y un vértice aislado, entonces , pero
Esto se debe a que y , por lo que lo mismo es cierto para la unión de un vértice aislado con cualquier grafo para el cual
Una pregunta relevante es qué tan rápido se acercan los valores . En 2006, Alon y Lyubetsky mostraron. que para un tamaño de gráfico suficientemente grande, un número finito de valores no es suficiente para saber con una precisión de al menos hasta . En el mismo trabajo, plantean varias hipótesis sobre este tema. [3]
Teorema Para cualquier número entero , existe un gráfico arbitrariamente grande y de tamaño tal que a
|
La demostración de Alon y Lyubetsky era probabilística (es decir, no se puede deducir de ella una construcción específica de un solo grafo , pero se ha probado la existencia de tal).
Consideraron un gráfico completo de vértices ( -un número entero suficientemente grande), cuyas aristas se dividen en grupos y se elimina aleatoriamente una arista de cada grupo (equiprobablemente a lo largo de todas las aristas del grupo).
Si indexamos los vértices del grafo en pares , entonces dos aristas y pertenecen al mismo grupo si:
Visualmente, esto se puede representar cuando se representa un gráfico en un toroide como una agrupación de bordes obtenidos entre sí por traslación paralela a lo largo de una línea recta (ver imagen).
Los algoritmos generales para calcular la capacidad de Shannon se desconocen a partir de 2019. Esto se debe no solo al hecho de que el problema del número de independencia en sí mismo es NP-completo y, por lo tanto, computacionalmente difícil, sino también al hecho de que, para los valores calculados para small , el problema de predecir el crecimiento adicional de estos las cantidades tampoco son triviales.
Además, ni siquiera se conoce el valor exacto de la capacidad para un ciclo de longitud 7 o mayor de longitud impar. [4] [5] Sin embargo, para ciclos de longitud impar, se conoce la ley límite [6] :
Laszlo Lovas demostró en 1979 que . [7] Como prueba, derivó un límite superior general para la capacidad de Shannon en términos de una característica de un sistema de vectores cuya estructura está relacionada con la del gráfico , a saber
Con este enfoque, para obtener una estimación superior, basta presentar al menos un sistema de vectores con las propiedades necesarias, es decir, se pasa del problema de demostración al problema de presentación de un contraejemplo .
En la construcción de Lovas, solo el número de vectores debe coincidir con el tamaño del gráfico, pero no la dimensión del espacio . Por ejemplo, se usaron vectores tridimensionales para la prueba .
Haemers obtuvo una estimación de capacidad en términos del rango de matrices de estructura similar a la matriz de adyacencia , a saber
donde el mínimo se toma sobre todas las matrices de tamaño en un campo arbitrario tal que:
Por lo tanto, para la estimación superior también es suficiente proporcionar al menos una matriz que tenga un rango pequeño. [ocho]