Claude Elwood Shannon | |
---|---|
Claude Elwood Shannon | |
Fecha de nacimiento | 30 de abril de 1916 [1] [2] [3] […] |
Lugar de nacimiento | |
Fecha de muerte | 24 de febrero de 2001 [1] [2] [3] […] (84 años) |
Un lugar de muerte | |
País | |
Esfera científica | ingeniería eléctrica , teoría de la información , cibernética , matemáticas , criptografía |
Lugar de trabajo | |
alma mater |
|
Titulo academico | PhD [8] ( 1940 ), Licenciatura en Ciencias [6] ( 1936 ) y Maestría en Ciencias [d] [6] ( 1937 ) |
consejero científico |
Vanivar Bush Frank Hitchcock |
Conocido como | autor de obras fundamentales sobre teoría de la información, ingeniería eléctrica y criptografía |
Premios y premios |
|
Archivos multimedia en Wikimedia Commons |
Claude Elwood Shannon ( en inglés Claude Elwood Shannon ; 30 de abril de 1916 , Petoskey , Michigan , EE . UU . - 24 de febrero de 2001 , Medford , Massachusetts , EE . UU .) es un ingeniero , criptoanalista y matemático estadounidense . Considerado "el padre de la era de la información " [9] .
Es el fundador de la teoría de la información , que ha encontrado aplicación en los modernos sistemas de comunicación de alta tecnología. Aportó conceptos e ideas fundamentales y sus formulaciones matemáticas, que actualmente forman la base de las modernas tecnologías de la comunicación. En 1948, propuso utilizar la palabra " bit " para referirse a la unidad más pequeña de información (en el artículo " Teoría matemática de la comunicación "). Además, el concepto de entropía fue una característica importante de la teoría de Shannon. Demostró que la entropía introducida por él es equivalente a la medida de la incertidumbre de la información en el mensaje transmitido. Los artículos de Shannon " Teoría matemática de la comunicación " y " Teoría de la comunicación en sistemas secretos " se consideran fundamentales para la teoría de la información y la criptografía [10] . Claude Shannon fue uno de los primeros en abordar la criptografía desde un punto de vista científico, fue el primero en formular sus fundamentos teóricos e introdujo muchos conceptos básicos en consideración. Shannon hizo contribuciones clave a la teoría de esquemas probabilísticos, teoría de juegos , teoría de autómatas y teoría de sistemas de control , áreas de la ciencia incluidas en el concepto de " cibernética ".
Claude Shannon nació el 30 de abril de 1916 en Petoskey, Michigan , Estados Unidos . Su padre, Claude Sr. (1862–1934), fue un hombre de negocios, abogado y durante algún tiempo juez. La madre de Shannon, Mabel Wolfe Shannon (1890–1945), fue profesora de lenguas extranjeras y más tarde se convirtió en directora de la escuela secundaria Gaylord. El padre de Shannon tenía una mentalidad matemática. El amor por la ciencia fue inculcado en Shannon por su abuelo. El abuelo de Shannon fue inventor y agricultor. Inventó la lavadora junto con otros equipos agrícolas útiles [11] . Thomas Edison era un pariente lejano de los Shannon [12] [13] .
Claude pasó los primeros dieciséis años de su vida en Gaylord, Michigan, donde se graduó de Gaylord Comprehensive High School en 1932. En su juventud, trabajó como mensajero de Western Union . Al joven Claude le gustaba diseñar dispositivos mecánicos y automáticos. Coleccionó maquetas de aviones y circuitos de radio, creó un barco controlado por radio y un sistema de telégrafo entre la casa de un amigo y la suya. A veces tuvo que reparar estaciones de radio para los grandes almacenes locales [10] .
Shannon, en sus propias palabras, era una persona apolítica y atea [14] .
En 1932, Shannon se matriculó en la Universidad de Michigan , donde en uno de los cursos se familiarizó con la obra de George Boole . En 1936, Claude se graduó de la Universidad de Michigan , obtuvo una licenciatura en dos especializaciones (matemáticas e ingeniería eléctrica), y tomó un trabajo en el Instituto Tecnológico de Massachusetts (MIT), donde trabajó como asistente de investigación. Actuó como operador en un dispositivo informático mecánico, una computadora analógica llamada "analizador diferencial", desarrollado por su supervisor de tesis Vanivar Bush . Al estudiar los circuitos complejos y altamente especializados de un analizador diferencial , Shannon vio que los conceptos de Boole podían aprovecharse. Después de trabajar en el verano de 1937 en Bell Telephone Laboratories , escribió un artículo basado en su tesis de maestría de ese año, "El análisis simbólico de relés y circuitos de conmutación". Cabe señalar que Frank Lauren Hitchcock supervisó la tesis de maestría, brindó útiles consejos y críticas. El artículo en sí fue publicado en 1938 en una publicación del Instituto Americano de Ingenieros Eléctricos (AIEE) [15] [16] . En este trabajo, Shannon demostró que los circuitos de conmutación podrían usarse para reemplazar los circuitos de relés electromecánicos que luego se usaban para enrutar llamadas telefónicas. Luego amplió este concepto al mostrar que estos circuitos podían resolver todos los problemas que puede resolver el álgebra de Boole . Además, en el último capítulo, presenta los espacios en blanco de varios circuitos, por ejemplo, un sumador de 4 bits [16] . Por este artículo, Shannon recibió el Premio Alfred Nobel del Instituto Americano de Ingenieros Eléctricos en 1940. La capacidad comprobada para implementar cualquier cálculo lógico en circuitos eléctricos formó la base para el diseño de circuitos digitales. Y los circuitos digitales son, como saben, la base de la informática moderna, por lo que los resultados de su trabajo se encuentran entre los resultados científicos más importantes del siglo XX. Howard Gardner , de la Universidad de Harvard, se refirió al trabajo de Shannon como "posiblemente el trabajo del maestro más importante y también el más famoso del siglo".
Siguiendo el consejo de Bush, Shannon decidió trabajar en su doctorado en matemáticas en el MIT . Bush fue nombrado presidente de la Carnegie Institution de Washington e invitó a Shannon a participar en el trabajo sobre genética, que estaba dirigido por Barbara Burks . Fue la genética, según Bush, la que podría servir como tema de los esfuerzos de Shannon. El mismo Shannon, después de pasar un verano en Woods Hole, Massachusetts , se interesó en encontrar el fundamento matemático de las leyes de la herencia de Mendel . La tesis doctoral de Shannon, titulada "El álgebra de la genética teórica", se completó en la primavera de 1940 [17] . Sin embargo, este trabajo no vio la luz hasta 1993 cuando apareció en Collected Papers de Shannon. De lo contrario, su investigación podría haber sido muy importante, pero la mayoría de estos resultados se obtuvieron independientemente de él. Shannon está cursando un doctorado en matemáticas y una maestría en ingeniería eléctrica. Después de eso, no volvió a investigar en biología [18] .
Shannon también estaba interesado en la aplicación de las matemáticas a los sistemas de información como los sistemas de comunicación. Después de pasar otro verano en Bell Labs , en 1940, Shannon se convirtió en asistente de investigación en el Instituto de Estudios Avanzados en Princeton , Nueva Jersey , EE . UU. durante un año académico [18] . Allí trabajó con el famoso matemático Hermann Weyl , y también tuvo la oportunidad de discutir sus ideas con científicos y matemáticos influyentes, entre los que se encontraba John von Neumann . También tuvo encuentros casuales con Albert Einstein y Kurt Gödel . Shannon trabajó libremente en varias disciplinas, y esta habilidad puede haber contribuido al mayor desarrollo de su teoría matemática de la información [19] .
En la primavera de 1941, regresó a Bell Labs como parte de un contrato con la Sección D-2 (Sección de Sistemas de Control) del Comité de Investigación de la Defensa Nacional de los Estados Unidos (NDRC), donde trabajaría hasta 1956. Con la entrada de los Estados Unidos en la Segunda Guerra Mundial, T. Fry dirigió el trabajo de un programa de sistemas de control de fuego para la defensa aérea. Shannon se unió al grupo de Fry y trabajó en dispositivos para detectar aviones enemigos y apuntarles instalaciones antiaéreas. También desarrolló sistemas criptográficos, incluidas las comunicaciones gubernamentales, que proporcionaron negociaciones entre Churchill y Roosevelt a través del océano. Como dijo el propio Shannon, el trabajo en el campo de la criptografía lo impulsó a crear una teoría de la información.
También en Bell Labs, Shannon, mientras investiga circuitos de conmutación, descubre un nuevo método de organización de circuitos que reduce la cantidad de contactos de relé necesarios para implementar funciones lógicas complejas. Publicó un artículo titulado "Organización de circuitos de conmutación bipolares". A fines de 1940, Shannon recibió el Premio Nacional de Investigación.
A Shannon se le atribuye la invención de los gráficos dirigidos por señales en 1942. Dedujo la fórmula límite para la amplificación en el estudio del funcionamiento funcional de una computadora analógica [20] .
A principios de 1943, Shannon entró en contacto con el destacado matemático británico Alan Turing . Turing llegó a Washington para compartir con el Servicio Criptonalítico de EE. UU. los métodos que se usaban entonces en el Centro de Comunicaciones del Gobierno en Bletchley Park para descifrar el cifrado utilizado en los submarinos de la Kriegsmarine en el Océano Atlántico Norte [21] . También se interesó en el cifrado de voz y dedicó algún tiempo a " Bell Labs " a este fin. Shannon y Turing se reunieron para tomar el té [21] . Turing le mostró a Shannon el documento ahora conocido como la " Máquina Universal de Turing " [22] . Esto impresionó a Shannon, ya que muchas de las ideas de Turing complementaron las suyas.
En 1945, cuando la guerra llegaba a su fin, el Comité de Investigación de la Defensa Nacional de EE. UU. emitió un resumen de informes técnicos como último paso antes de su cierre definitivo. Incluía un ensayo especial titulado "Promedio de datos y predicción para sistemas de control de incendios" en coautoría de Shannon, Ralph Beebe Blackman y Hendrik Bode , refiriéndose formalmente al problema del promedio de datos en sistemas de control de incendios por analogía con la "señal del problema de separación de la interferencia en los sistemas de comunicación". En otras palabras, modelaron este problema en términos de procesamiento de datos y señales y así marcaron el comienzo de la era de la información [23] .
Al final de la guerra, preparó un memorando secreto para Bell Labs titulado "La teoría matemática de la criptografía", con fecha de septiembre de 1945. Este artículo fue desclasificado y publicado en 1949 como " Teoría de la comunicación en sistemas secretos " en Bell System Technical Journal. No sería exagerado decir que este artículo, por su apariencia, marcó la transición de la criptografía de arte a ciencia en toda regla [18] . Shannon demostró que los criptosistemas de un solo uso son criptográficamente irrompibles. También demostró que cualquier sistema criptográficamente irrompible debe tener esencialmente las mismas características que un bloc de notas de un solo uso: la clave debe elegirse al azar, debe ser tan grande como el texto sin formato y nunca debe reutilizarse en su totalidad o en parte. supuesto, mantenido en secreto [24] . La teoría de la comunicación y la criptografía se desarrollaron simultáneamente, y "estaban tan cerca una de la otra que era imposible separarlas" [25] . Shannon anunció su intención de "desarrollar estos resultados... en un próximo memorando de comunicación" [26] .
En 1948, el memorando prometido apareció como el artículo "Una teoría matemática de la comunicación" en dos partes, respectivamente, en julio y octubre en el Bell System Technical Journal. Este trabajo está dedicado al problema de la codificación de la información transmitida. En este trabajo seminal, Shannon utilizó las herramientas de la teoría de la probabilidad desarrolladas por Norbert Wiener , que estaban en pañales en cuanto a su aplicación a la teoría de la comunicación en ese momento. Shannon también introdujo una importante definición de entropía de la información como una medida de la incertidumbre de la información en los mensajes. Este artículo marcó esencialmente el comienzo de una ciencia como la teoría de la información [18] [27] .
Después de 1948, Shannon realizó una gran cantidad de investigaciones importantes en teoría de la información.
Shannon también estudió teoría de juegos. Trató de crear todo tipo de máquinas, que siempre debían seguir las estrategias más ganadoras. Por ejemplo, Shannon participó en el desarrollo de principios para la construcción de programas de ajedrez (mucho antes de que tales programas comenzaran a ser implementados en la práctica por especialistas de varios países) [28] . A fines de la década de 1940 y principios de la de 1950, propuso dos estrategias para encontrar la mejor jugada en una posición determinada. Uno determinó la enumeración total de posibles movimientos con la construcción de un árbol ramificado de opciones, y el segundo - el uso del conocimiento del ajedrez para cortar opciones poco prometedoras [27] .
Otro campo de aplicación de los intereses de Claude Shannon en la teoría de juegos fue el juego de la ruleta . Junto con Ed Thorp , profesor del MIT , en 1961 Shannon creó un dispositivo informático analógico del tamaño de un paquete de cigarrillos, controlado por cuatro botones para ingresar información sobre la velocidad de una rueda de ruleta, que ayudaba al jugador a colocar "correctamente" un apuesta. Según Ed Thorpe, este dispositivo fue probado por ellos en 1961 en un casino de Las Vegas, proporcionando una ganancia del 44% (mientras que los autores mantuvieron en secreto la existencia misma de dicho dispositivo hasta 1966). Algunos (pero no todos) de los detalles de este dispositivo se describen en un artículo publicado en Review of the Statistical Institute, 1969, vol. 37:3 [27] .
En la misma década de 1950, Shannon creó una máquina que "leía la mente" al jugar "monedas": una persona adivinaba "águilas" o "cruces", y la máquina adivinaba con una probabilidad superior a 1/2, porque una persona no puede evitar ninguna. patrones que la máquina puede utilizar [29] .
De 1950 a 1956, Shannon estuvo involucrado en la teoría de juegos, incluida la creación de máquinas lógicas, continuando así los esfuerzos de von Neumann y Turing . En 1952, Shannon desarrolló un ratón mecánico entrenable que podía encontrar la salida de un laberinto [30] . También implementó la máquina de bromas "Ultimate Machine", otro nombre para el cual es "Useless Machine". La idea de esta máquina es que cuando el interruptor se cambia a la posición de “Encendido”, aparece un “dedo”, que devuelve este interruptor de palanca a su posición original de “Apagado” [31] . Además, construyó un dispositivo que puede resolver un cubo de Rubik [12] .
Shannon también es considerado el fundador de la idea de la compresión y descompresión de información sin pérdidas. Desarrolló teorías que permiten eliminar toda redundancia innecesaria en los mensajes del destinatario. Además, si se envían a través de un canal ruidoso, entonces todo tipo de información, destinada únicamente a encontrar errores en la transmisión de un mensaje, se puede volver a agregar al mensaje.
Shannon deja Bell Labs en 1956, pero continúa consultando con ellos. Interesado en la aplicación de la teoría de la información a la teoría de juegos y las matemáticas financieras. También continuó trabajando en el MIT hasta 1978. Shannon dejó atrás una escuela de aprendices. Había un grupo de teoría de la información en el MIT que supervisaba Shannon. Los estudiantes lo vieron como un ídolo. Sin embargo, Shannon no impartía cursos universitarios de conferencias, sino que a menudo organizaba seminarios, en los que tampoco le gustaba dar cosas estándar que había aprendido por sí mismo. Sin embargo, improvisó sobre ellos y cada vez recibió algo nuevo o consideró viejos problemas desde un lado diferente, nuevo [18] . Por cierto, a Shannon no le gustaba escribir artículos científicos por la misma razón, pero entendía que era necesario hacerlo para el desarrollo de la ciencia [18] .
A fines de la década de 1960 - 1970, se dedicó fructíferamente a las matemáticas financieras [18] . Primero, estudió datos publicados sobre pensiones y otros fondos, y finalmente construyó un circuito eléctrico que mostraba el "flujo de dinero" en los Estados Unidos. Pero estaba particularmente interesado en la teoría de la selección de carteras de inversión . En esta disciplina, Shannon, junto con John Kelly , trató de resolver el problema de la asignación de activos , cuya esencia es: "Cómo diversificar mejor una cartera de inversiones con diferentes oportunidades de inversión".
Después de jubilarse en 1978, Shannon dedicó mucho tiempo a su antigua pasión: los malabares. Construyó varias máquinas de malabares e incluso creó una teoría general de los malabares (en la década de 1940 montó un monociclo por los pasillos de Bell Labs mientras hacía malabares ) [27] . Por ejemplo, en 1983, Shannon diseñó una máquina de malabares, hecha literalmente con materiales de desecho, que estaba vestida para parecerse a Fields William . La máquina podía hacer malabarismos con tres bolas de metal [18] .
En 1985, Claude Shannon y su esposa Betty asisten al Simposio Internacional sobre Teoría de la Información en Brighton. Shannon no asistió a conferencias internacionales durante bastante tiempo y al principio ni siquiera fue reconocido. En el banquete, Claude Shannon pronunció un breve discurso, hizo malabarismos con tres bolas y luego firmó cientos y cientos de autógrafos a científicos e ingenieros asombrados por su presencia, quienes se ubicaron en la fila más larga, sintiendo estremecimientos hacia el gran científico. Uno de los participantes dijo entonces: "Fue como si Sir Isaac Newton apareciera en una conferencia sobre física" [32] .
En 1993 publicó los Collected Papers, en los que recopila 127 artículos que escribió entre 1938 y 1982 [13] .
Shannon desarrolló la enfermedad de Alzheimer y pasó los últimos años de su vida en un hogar de ancianos en Massachusetts. Toda la familia se hizo cargo de él [33] . Claude Shannon falleció el 24 de febrero de 2001. Su esposa, Mary Elizabeth Moore Shannon, declaró en su obituario que si no fuera necesario investigar tratamientos para el Alzheimer, "él estaría avergonzado" por todo esto [34] .
El 27 de marzo de 1949, Shannon se casó con Mary Elizabeth Moore Shannon . La conoció cuando ella trabajaba como analista en Bell Labs . Mary y Claude tuvieron tres hijos: Robert James, Andrew Moore y Marguerite Katherine.
El trabajo de Shannon " Teoría de la comunicación en sistemas secretos " (1945), clasificado como "secreto", que fue desclasificado y publicado solo en 1949, sirvió como el comienzo de una extensa investigación en la teoría de la codificación (cifrado) y transmisión de información. Fue Claude Shannon quien primero comenzó a estudiar criptografía utilizando un enfoque científico. Este artículo describe los sistemas de comunicación desde un punto de vista matemático y ha sido un gran éxito en criptografía [10] .
También en el artículo, Shannon definió los conceptos fundamentales de la teoría de la criptografía, sin los cuales la criptografía ya es impensable. Un mérito importante de Shannon es el estudio de sistemas absolutamente criptorresistentes y la prueba de su existencia, así como la existencia de cifrados criptorresistentes y las condiciones requeridas para ello [18] . Shannon también formuló los requisitos básicos para cifrados sólidos. Introdujo los conceptos ya familiares de dispersión y mezcla, así como métodos para crear sistemas de encriptación criptográficamente fuertes basados en operaciones simples.
El artículo " Teoría matemática de la comunicación " se publicó en 1948 e hizo mundialmente famoso a Claude Shannon. En él, Shannon esbozó sus ideas, que luego se convirtieron en la base de las teorías y técnicas modernas para procesar, transmitir y almacenar información. Antes de escribir el artículo, Shannon se familiarizó con el trabajo de Hartley y Nyquist [18] . En el artículo, Shannon generalizó sus ideas, introdujo el concepto de información contenida en los mensajes transmitidos. Hartley y Nyquist propusieron utilizar la función logarítmica como medida de la información del mensaje transmitido .
Shannon dividió los sistemas de comunicación en varias partes de la siguiente manera :
Shannon agrupó los sistemas de comunicación en tres categorías: discretos, continuos y mixtos, argumentando que el caso discreto es la base de los otros dos, pero tiene más aplicación [37] .
Shannon fue el primero en considerar los mensajes transmitidos y el ruido en los canales de comunicación en términos de estadísticas, considerando conjuntos de mensajes finitos y continuos. Shannon comenzó a considerar la fuente de mensajes como el conjunto de todos los mensajes posibles, y el canal como el conjunto de todos los ruidos posibles [18] .
Shannon introdujo el concepto de entropía de la información , similar a la entropía de la termodinámica , que es una medida de la incertidumbre de la información. Shannon también definió un bit como la cantidad de información recibida (o entropía reducida) al encontrar una respuesta a una pregunta en la que solo son posibles dos respuestas posibles (por ejemplo, "sí" o "no"), ambas con la misma probabilidad ( si no, entonces el número de información recibida será menor a un bit) [18] .
El primer teorema de su artículo describe la comunicación a través de un canal ruidoso de la siguiente manera [37] :
Deje que la fuente del mensaje tenga entropía (bits por símbolo) y ancho de banda del canal (bits por segundo). Entonces es posible codificar información de tal manera que la tasa de transmisión promedio a través de un canal dado sea igual a símbolos por segundo, donde es un valor arbitrariamente pequeño. Además, la tasa de datos promedio no puede ser mayor que
La idea principal de este teorema es que la cantidad de información que se puede transmitir depende de la entropía o, en otras palabras, de la aleatoriedad de los mensajes fuente. Por lo tanto, en base a la característica estadística de la fuente del mensaje, es posible codificar la información para lograr la velocidad máxima que puede alcanzar el canal, es decir, la capacidad de canal deseada. Esta fue una declaración revolucionaria, ya que los ingenieros creían anteriormente que la máxima información de la señal original que se puede transmitir a través del medio depende de factores como la frecuencia, por ejemplo, pero no de las propiedades de la señal [37] .
El segundo teorema de Shannon describe la comunicación en un canal ruidoso. Shannon afirma [37] :
Deje que la fuente del mensaje tenga entropía durante un segundo y - capacidad del canal. Si , entonces tal codificación de información es posible en la que los datos fuente se transmitirán a través del canal con un número arbitrariamente pequeño de errores. Si , entonces es posible la codificación, en la que la ambigüedad de la información recibida será menor que , donde es un valor arbitrariamente pequeño. Además, no hay métodos de codificación que den una ambigüedad inferior a .
La idea que expresó Shannon es que no importa qué tan “ruidoso” sea el canal, todavía hay un método de codificación que le permite transmitir información con precisión a través del canal (while ). Y esta idea es revolucionaria, ya que antes se creía que había algún umbral del valor del ruido en el canal, que la transmisión de la información deseada se hacía imposible [37] .
Derivó una fórmula para la tasa de transmisión de información por la fuente del mensaje y para el ancho de banda del canal , la dimensión de cada velocidad es bits por segundo . Como consecuencia del teorema anterior, se cumple el siguiente enunciado:
Sea la tasa de transferencia de información de la fuente del mensaje y sea la capacidad del canal. Entonces , y que tal codificación de información sea posible, en la que el número de bits erróneos por unidad de tiempo será menor que cualquier constante positiva preseleccionada . Su prueba implica un conjunto de posibles codificaciones de mensajes de origen en flujos de bits, y mostró que una codificación elegida al azar de este conjunto tendrá la propiedad deseada indicada anteriormente con alta probabilidad [18]
.
En otras palabras: cualquier canal con ruido se caracteriza por una tasa máxima de transferencia de información, este límite lleva el nombre de Shannon. Cuando se transmite información a velocidades superiores a este límite, se producen distorsiones de datos inevitables, pero este límite se puede abordar desde abajo con la precisión necesaria, proporcionando una probabilidad arbitrariamente pequeña de error de transmisión de información en un canal ruidoso.
Desde la publicación de este artículo, los científicos han estado tratando de encontrar codificaciones que funcionen tan bien como la codificación aleatoria de Shannon [18] . Por supuesto, actualmente hay codificaciones que brindan un rendimiento cercano al límite de Shannon.
La teoría de la información desarrollada por Shannon ayudó a resolver los principales problemas asociados con la transmisión de mensajes, a saber: eliminar la redundancia de los mensajes transmitidos, codificar y transmitir mensajes a través de canales de comunicación con ruido. Resolver el problema de la redundancia del mensaje a transmitir permite el uso más eficiente del canal de comunicación. Por ejemplo, las modernas técnicas de reducción de redundancia comúnmente utilizadas en los sistemas de transmisión de televisión permiten la transmisión de hasta seis programas de televisión digital en la banda de frecuencias ocupada por una señal de televisión analógica convencional [38] .
La solución al problema de transmitir un mensaje a través de canales de comunicación con ruido a una relación dada de la potencia de la señal útil a la potencia de la señal de interferencia en el punto de recepción hace posible transmitir mensajes a través del canal de comunicación con un arbitrariamente pequeño probabilidad de transmisión errónea. Además, esta relación determina el ancho de banda del canal. Esto se garantiza mediante el uso de códigos resistentes a las interferencias, mientras que la tasa de transmisión de mensajes en un canal determinado debe ser inferior a su capacidad [38] .
En sus trabajos, Shannon demostró la posibilidad fundamental de resolver los problemas identificados, lo que fue una verdadera sensación en los círculos científicos a fines de la década de 1940. Este trabajo, así como los trabajos en los que se estudiaba la potencial inmunidad al ruido, dio lugar a un gran número de estudios que han continuado hasta el día de hoy durante más de medio siglo. Científicos de la URSS y los EE . UU . (URSS - Pinsker , Khinchin , Dobrushin , Kolmogorov ; EE. UU. - Gallagher , Wolfowitz , Feinstein ) dieron una interpretación estricta de la teoría presentada por Shannon [38] .
Hasta la fecha, todos los sistemas de comunicación digital están diseñados sobre la base de los principios y leyes fundamentales de transmisión de información desarrollados por Shannon. De acuerdo con la teoría de la información, primero se elimina la redundancia del mensaje, luego la información se codifica utilizando códigos resistentes al ruido y solo entonces el mensaje se transmite a través del canal al consumidor. Fue gracias a la teoría de la información que la redundancia de los mensajes de televisión, voz y fax se redujo significativamente [38] .
Se ha dedicado una gran cantidad de investigación a la creación de códigos resistentes al ruido y métodos simples para decodificar mensajes. Las investigaciones realizadas durante los últimos cincuenta años formaron la base de la Recomendación de la UIT sobre el uso de métodos de codificación de corrección de errores y de codificación de fuentes de información en los sistemas digitales modernos [38] .
En la teoría de la información, según la tradición, enunciados como “para cualquier código tiene cierta propiedad” se denominan teoremas inversos, y enunciados como “ Existe un código con una propiedad dada” se denominan teoremas directos [39] .
|
|
Victor Shestakov de la Universidad Estatal de Moscú formuló la teoría de los circuitos de relés basada en el álgebra booleana en 1935, antes que Shannon. Sin embargo, la publicación de los trabajos de Shestakov tuvo lugar en 1941, es decir, más tarde que la publicación de las tesis de Shannon (1938) [43] [44] .
La comparación de Shannon con Einstein sería muy mala. Las contribuciones de Einstein son intimidantes. Sin embargo, no vivimos en la era del relativismo, sino en la era de la información. Shannon ha dejado su huella en cada dispositivo digital que usamos, cada monitor que miramos, cada medio de comunicación digital. Es una de esas personas que cambian tanto el mundo que, después de los cambios, el viejo mundo es olvidado por todos [45] .
Texto original (inglés)[ mostrarocultar]Sería cursi compararlo con Einstein. Einstein ocupa un lugar preponderante, y con razón. Pero no estamos viviendo en la era de la relatividad, estamos viviendo en la era de la información. Es Shannon cuyas huellas dactilares están en cada dispositivo electrónico que poseemos, cada pantalla de computadora que miramos, cada medio de comunicación digital. Es una de esas personas que transforman el mundo de tal manera que, después de la transformación, el viejo mundo se olvida.
James Gleick, El neoyorquino
Claude Shannon era más ingeniero que matemático, y muchas de sus obras tenían una base física más que matemática. En la URSS , las obras de Shannon se clasificaron como secciones de la cibernética, que entonces se consideraba "la pseudociencia de los oscurantistas". Incluso la publicación de las traducciones requirió un esfuerzo considerable. Pero el gran matemático A. N. Kolmogorov estaba encantado después de leer los trabajos de Shannon y organizó un seminario informal sobre las ideas de Shannon en 1954 [18] . En el prefacio a la traducción rusa de las obras de Shannon, A. N. Kolmogorov escribió [27] :
La importancia del trabajo de Shannon para las matemáticas puras no se apreció lo suficiente de inmediato. Recuerdo que incluso en el Congreso Internacional de Matemáticos de Amsterdam (1954), mis colegas norteamericanos, especialistas en teoría de la probabilidad, consideraron un tanto exagerado mi interés por la obra de Shannon, ya que es más técnica que matemática. Ahora tales opiniones difícilmente necesitan refutación. Cierto, en algunos casos difíciles, Shannon dejó una estricta "justificación" matemática de sus ideas a sus sucesores. Sin embargo, su intuición matemática es asombrosamente precisa...Andrei Nikoláyevich Kolmogorov
sitios temáticos | ||||
---|---|---|---|---|
diccionarios y enciclopedias | ||||
Genealogía y necrópolis | ||||
|