La teoría de la información es una rama de las matemáticas aplicadas , la ingeniería de radio ( teoría del procesamiento de señales ) y la informática , relacionada con la medición de la cantidad de información , sus propiedades y el establecimiento de relaciones limitantes para los sistemas de transmisión de datos. Como toda teoría matemática, la teoría opera con modelos matemáticos , y no con objetos físicos reales (fuentes y canales de comunicación ). Utiliza principalmente el aparato matemático de la teoría de la probabilidad y la estadística matemática .
Las ramas principales de la teoría de la información son la codificación de fuente (codificación compresiva ) y la codificación de canal ( corrección de ruido ). La teoría de la información está estrechamente relacionada con la entropía de la información , los sistemas de comunicación, la criptografía y otras disciplinas afines.
El campo se encuentra en la intersección de las matemáticas , la estadística , la informática , la física , la neurociencia , la ingeniería de la información y la ingeniería eléctrica . La teoría también ha encontrado aplicaciones en otros campos, incluida la inferencia estadística , el procesamiento del lenguaje natural , la criptografía , la neurociencia [1] , la visión humana [2] , la evolución [3] y la función [4] de códigos moleculares ( bioinformática ), modelo estadístico selección [5] , física térmica [6] , computación cuántica , lingüística , detección de plagio [7] , reconocimiento de patrones y detección de anomalías [8] . Los subcampos importantes de la teoría de la información incluyen la compresión de datos , la codificación de canales , la teoría de la complejidad algorítmica , la teoría de la información algorítmica , la seguridad de la teoría de la información, el análisis relacional de Gray y la medición de la información.
El surgimiento de la teoría de la información está asociado con la publicación por parte de Claude Shannon de la obra " Teoría matemática de la comunicación " en 1948 . Desde el punto de vista de Shannon, la teoría de la información es una rama de la teoría matemática de la comunicación. La teoría de la información establece los límites principales de las posibilidades de los sistemas de transmisión de información, establece los principios iniciales para su desarrollo e implementación práctica. La gama de problemas de la teoría de la información se presenta utilizando un diagrama de bloques, un sistema típico para transmitir o almacenar información.
En el esquema, una fuente es cualquier objeto en el universo que genera mensajes que deben moverse en el espacio y el tiempo . Independientemente de la naturaleza física original, todos los mensajes que se transmiten generalmente se convierten en señales eléctricas , tales señales se consideran como la salida de la fuente. El codificador fuente representa la información en la forma más compacta. El codificador de canal procesa la información para proteger los mensajes de interferencias durante la transmisión por el canal de comunicación o posibles distorsiones durante el almacenamiento de la información. El modulador convierte los mensajes generados por el codificador de canal en señales consistentes con la naturaleza física del canal de comunicación o el medio de almacenamiento de información. El medio de difusión de información ( canal de comunicación ) introduce ruido aleatorio en el proceso de transmisión de información, lo que distorsiona el mensaje y, por lo tanto, dificulta su lectura. Los bloques ubicados en el lado receptor realizan las operaciones inversas y brindan información al destinatario en un formato fácil de entender .
El nacimiento de la teoría de la información a menudo se asocia con la publicación en julio-octubre de 1948 por parte de Claude Shannon de un trabajo en la revista de la compañía telefónica estadounidense Bell System bajo el título "Teoría matemática de la comunicación". Pero vale la pena mencionar que la contribución a la formulación y construcción de la teoría de la información también fue realizada por muchos otros científicos destacados. El propio Shannon al comienzo de su artículo escribió: “Algunas de las disposiciones principales de esta teoría se encuentran en las importantes obras de Nyquist y Hartley . En la actualidad, la teoría se ha ampliado para incluir una serie de nuevos factores, en particular, la influencia del ruido en el canal.
Básicamente, Shannon desarrolló la dirección del trabajo de Hartley, utilizando el concepto de "información", pero el término en sí no explica, solo estipula que los mensajes pueden tener algún tipo de "significado", es decir, se refieren a un sistema que tiene su propia esencia física o especulativa ( sistema cibernético ). La teoría de Shannon se consideró inicialmente como un problema matemático formulado con precisión y permitió determinar el rendimiento de un canal de comunicación ruidoso.
La codificación es el proceso de transición de un mensaje en la entrada de un canal de comunicación a un código de mensaje en la salida, mientras que el valor informativo del mensaje debe permanecer sin cambios. En la teoría de la información, se pueden distinguir las siguientes secciones:
1. Codificación de fuentes discretas (modelo de codificación de datos sin pérdidas).
2. Codificación de datos que garantiza su transmisión sin errores a través de un canal ruidoso.
Un código es decodificable de forma única si cualquier secuencia de caracteres del alfabeto del código (y en su mayoría 0 y 1) se divide en palabras separadas. Si ninguna de las palabras clave es el comienzo de otra, el código se denomina código de prefijo y es decodificable de forma única. Por lo tanto, tener un prefijo es una condición suficiente pero no necesaria para la decodificación única. El requisito del prefijo limita el conjunto de longitudes de las palabras de código y no permite elegir palabras de código demasiado cortas. Una condición necesaria y suficiente para la existencia de un código de volumen de prefijo con longitudes de palabra de código es el cumplimiento de la desigualdad de Kraft:
También se requiere considerar el código Shannon-Fano , un algoritmo para la codificación no uniforme de prefijos. Este método de codificación aprovecha la redundancia del mensaje, que radica en la distribución de frecuencia no uniforme de los caracteres de su alfabeto, es decir, reemplaza los códigos de caracteres más frecuentes por secuencias binarias cortas, y los códigos de caracteres más raros por secuencias binarias más largas. secuencias binarias. Considere una fuente que selecciona letras de un conjunto con probabilidades . Suponemos que las letras están ordenadas en orden descendente de probabilidades ( ). La palabra clave del código de Shannon para un mensaje con un número es una secuencia binaria, que son los primeros dígitos después del punto decimal en la notación binaria del número :
3. La codificación de datos para sistemas con muchos usuarios describe la interacción óptima de los suscriptores que utilizan un recurso común, por ejemplo, un canal de comunicación.
diccionarios y enciclopedias | ||||
---|---|---|---|---|
|
de la informática. | Las principales direcciones|
---|---|
Fundamentos Matemáticos | |
Teoría de Algoritmos | |
Algoritmos , estructuras de datos | |
Lenguajes de programación , compiladores | |
Concurrencia y computación paralela , sistemas distribuidos | |
ingeniería de software | |
Arquitectura del sistema | |
Telecomunicaciones , redes | |
Base de datos | |
Inteligencia artificial |
|
Gráficos de computadora | |
Interacción humano-computadora |
|
computación científica | |
Nota: La informática también se puede dividir en diferentes temas o ramas según el Sistema de Clasificación de Computación ACM . |