Teoría matemática de la comunicación. | |
---|---|
Una teoría matemática de la comunicación | |
Género | Artículo de investigación |
Autor | claude shannon |
Idioma original | inglés |
Fecha de la primera publicación | 1948 |
DOI | 10.1002/J.1538-7305.1948.TB01338.X y 10.1002/J.1538-7305.1948.TB00917.X |
" A Mathematical Theory of Communication " es un artículo publicado por Claude Shannon en 1948 en la revista de resúmenes de la compañía telefónica estadounidense "Bell System" [1] y que le dio fama mundial. Contiene una gran cantidad de ideas innovadoras y fructíferas, este trabajo inició muchos estudios científicos en todo el mundo que continúan hasta el día de hoy, sentando las bases para el desarrollo de métodos para procesar, transmitir y almacenar información.
Claude Elwood Shannon es un matemático e ingeniero estadounidense , fundador de la teoría de la información , autor de numerosos libros y artículos sobre cibernética .
El concepto mismo de teoría de la información apareció mucho antes de la publicación de este artículo. Muchos autores sentaron las bases de una nueva teoría con su trabajo. Por ejemplo, en la misma revista del Bell System en 1924, había una publicación de Nyquist que contenía algunas de las disposiciones subyacentes a este artículo [2] .
Shannon no creía que estuviera haciendo un descubrimiento cuando lo publicó. Se basó en gran medida en la experiencia de sus predecesores; al principio del artículo, escribió que “Algunos de los puntos principales de esta teoría se encuentran en las importantes obras de Nyquist y Hartley . En este artículo, ampliaremos la teoría para incluir una serie de nuevos factores, en particular, la influencia del ruido en el canal”.
Shannon generalizó las ideas de Hartley usando el concepto de "información" contenida en mensajes transmitidos a través de un canal de comunicación. No explica el concepto en sí, solo menciona que los mensajes pueden tener algún “significado”, es decir, referirse a un sistema que tiene su propia esencia física o especulativa. También comenzó a considerar conjuntos continuos de mensajes, no solo finitos. Su trabajo permitió resolver los principales problemas de la teoría de la información: codificación, transmisión de mensajes y eliminación de redundancia; También se investigó la inmunidad al ruido .
El libro introduce la función logarítmica como medida de información y muestra su conveniencia:
También se introduce el concepto de un sistema de comunicación generalizado, que consta de una fuente de información, un transmisor, un canal, un receptor y un destino. Shannon divide todos los sistemas en discretos, continuos y mixtos.
[2] Mucho después de su aparición, contrariamente a la creencia popular, el trabajo de Shannon era casi desconocido. Esto es lo que escribe el académico A. N. Kolmogorov , por ejemplo, sobre esto :
— Recuerdo que allá por el Congreso Internacional de Matemáticos de Amsterdam (1954), mis colegas americanos, especialistas en teoría de la probabilidad, consideraron un tanto exagerado mi interés por la obra de Shannon, ya que es más técnica que matemática.A. Kolmogorov [4]
Pero poco a poco, los científicos de varios campos de la ciencia comenzaron a mostrar más y más interés en el artículo. Ahora bien, es difícil nombrar un área del conocimiento humano en la que no intentarían aplicar esta maravillosa fórmula de una forma u otra. El número de publicaciones creció, lo que no pudo sino provocar una respuesta del mismo Shannon, ya que en un principio esta medida estaba pensada únicamente para problemas puramente aplicados de la tecnología de la comunicación. En 1956, publicó un breve artículo "Bandwagon", en el que instó ardientemente a escribir más modestamente sobre la teoría de la información, a no considerar esta teoría omnipotente y universal, a no exagerar su significado:
Muy raramente es posible abrir varios secretos de la naturaleza al mismo tiempo con la misma llave. El edificio de nuestro bienestar un tanto artificial puede derrumbarse con demasiada facilidad, tan pronto como un día resulta que con la ayuda de algunas palabras mágicas, como "información", "entropía", "redundancia", es imposible para resolver todos los problemas no resueltos.C. Shannon [5]
Como resultado, aparecieron dos conceptos: "teoría de la información" y "teoría de la transmisión de información". El primero define conceptos tan fundamentales como "la cantidad de información" y se utiliza para resolver una amplia variedad de problemas en diversas ramas de la ciencia. La segunda -ya por su nombre refleja el adecuado alcance de sus ideas [6] .
Con el desarrollo de la teoría de la transmisión de información, comenzaron a enfrentarse al problema de encontrar métodos fiables de codificación y decodificación. Esto condujo al surgimiento de una nueva gran parte de la teoría de la transmisión de información: la teoría de la codificación. Sabemos que, en primer lugar, la conclusión importante que se deriva de la teoría de la información de Shannon es que construir canales demasiado buenos es un desperdicio; es más económico usar codificación. En segundo lugar, debido al hecho de que el teorema de codificación principal de Shannon no es constructivo, es decir, solo prueba la existencia de un código de corrección de errores óptimo que proporciona la máxima coincidencia de señal con el canal, solo corrobora la posibilidad fundamental de construir códigos de corrección de errores. códigos que proporcionan transmisión ideal, pero no indica el método de su construcción. Como resultado, la teoría de Shannon movilizó los esfuerzos de los científicos para desarrollar códigos específicos. [7]
En la década de 1950, se invirtió mucho esfuerzo en intentar construir explícitamente clases de códigos para lograr la probabilidad de error arbitrariamente pequeña prometida, pero los resultados fueron escasos. En la década siguiente, se prestó menos atención a este fascinante problema; en cambio, los investigadores de código lanzaron un ataque sostenido en dos frentes principales:
En la decodificación secuencial, se introduce una clase de códigos sin bloques de longitud infinita, que pueden describirse mediante un árbol y decodificarse mediante algoritmos de búsqueda de árboles. Los códigos de árbol más útiles son los códigos de estructura fina conocidos como códigos convolucionales [8] .
También en los años setenta, debido a las dificultades técnicas que surgieron, la teoría de los algoritmos comenzó a desarrollarse activamente. Fue necesario desarrollar algoritmos para comprimir los datos a transmitir. Posteriormente, se comenzaron a desarrollar algoritmos de compresión de datos en bancos de información, compresión de imágenes para transmisión por cable coaxial, entre otros.
Hoy en día, la teoría de la transmisión de información es una teoría compleja, principalmente matemática, que incluye la descripción y evaluación de métodos para extraer, transmitir, almacenar y clasificar información . Consiste en teoría de codificación, algoritmos y muchos otros.
El artículo en sí sigue siendo relevante, siendo fundamental para muchos trabajos.
![]() |
---|