La información semántica es el aspecto semántico de la información, reflejando la relación entre la forma del mensaje y su contenido semántico.
Partiendo de los trabajos de Claude Shannon , generalmente se acepta [1] que el concepto de información consta de tres aspectos: sintáctico , semántico y pragmático . El sintáctico está relacionado con los problemas técnicos de almacenamiento y transmisión de información, el semántico está relacionado con el significado y el significado de la verdad de los mensajes, el pragmático toca los temas de la influencia de la información en el comportamiento de las personas. La teoría de la información semántica explora el campo del conocimiento humano y es parte integral del desarrollo de la inteligencia artificial [2] .
El surgimiento de la semiótica en el siglo XIX creó los requisitos previos para el surgimiento del concepto de información semántica [3] . Finalmente tomó forma tras el advenimiento de la Teoría Matemática de la Comunicación , creada por Claude Shannon en 1948 [4] . La teoría de Shannon, ahora considerada como una teoría de la información sintáctica, ignora por completo el significado del mensaje. Fue entonces cuando se percibió la necesidad de crear una teoría de la información semántica.
En 1952, Yehoshua Bar-Hillel y Rudolf Carnap propusieron una teoría de la información semántica basada en el concepto de probabilidades lógicas [5] . La información semántica es interpretada por los autores como sinónimo de contenido semántico, que tienen tanto las expresiones verdaderas como las falsas. Se consideran dos medidas principales de la cantidad de información semántica en una oración . El primero se define así:
,donde es la probabilidad lógica absoluta de la oración . La segunda medida es una función no lineal de la primera:
.Es interesante que para dos oraciones lógicamente independientes y tenemos la desigualdad: , donde " " es el signo del conectivo lógico "Y", mientras que:
, (*)que es más adecuado para medir la cantidad de información.
Para determinar los valores de las probabilidades lógicas de las oraciones, Bar-Hillel y Carnap construyen un lenguaje formal y lo utilizan para componer descripciones de todos los estados posibles del universo (el llamado " conjunto de mundos posibles "). Demos un ejemplo de un lenguaje simple en el que hay una constante (por lo que nos referimos a la niña Alicia) y dos predicados : y , que denota las propiedades "hermosa" e "inteligente". Entonces la expresión significa la oración "Alice es hermosa", y la expresión significa "Alice es inteligente". Ahora usamos el conectivo lógico "NOT", que denotamos con el símbolo: " ". Entonces la expresión significará la oración "Alice no es hermosa", y la expresión - "Alice no es inteligente". Ahora podemos componer todas las descripciones posibles de los estados del universo para nuestro humilde lenguaje. Serán cuatro en total.
Como puede verse, cada mundo del universo consiste en oraciones atómicas (y sus negaciones) lógicamente independientes, llamadas básicas. Por lo general, los lenguajes formales usan muchas constantes y muchos predicados, y no necesariamente solos . Así que el número de mundos puede ser muy grande.
Si no se dan condiciones previas, entonces las probabilidades lógicas de todos los mundos son las mismas. En este caso, la magnitud de la probabilidad lógica absoluta del enunciado es igual a la relación entre el número de mundos en los que es verdadero y el número total de mundos del universo. En la teoría de Bar-Hillel y Carnap, las probabilidades lógicas de las expresiones analíticas son iguales e iguales a uno (ya que son verdaderas en todos los mundos), y la probabilidad lógica de contradicción es cero. Los valores de probabilidades lógicas de expresiones sintéticas están en el rango de cero a uno.
Cuantos más mundos hay en el universo, mayor es la incertidumbre (sobre qué mundo es verdadero). Después de recibir el mensaje , la incertidumbre disminuye, ya que aquellos mundos en los que es falso pueden ser excluidos de la consideración. La información semántica en una oración se entiende como un conjunto de mundos excluidos (se denota con el símbolo ). En cuanto a esta definición, los autores escriben que es consistente con el antiguo principio filosófico " omnis determinatio est negatio " (" toda definición es una excepción "). Ahora para la medida podemos escribir:
,donde es la cardinalidad del conjunto , es la cardinalidad del conjunto de todos los mundos del universo .
La cantidad de información semántica en un mensaje sobre el conocimiento del destinatario se define de la siguiente manera:
,donde es la probabilidad lógica relativa (condicional) de la verdad del enunciado bajo la condición de que la expresión sea verdadera .
Es notable que, en apariencia, las fórmulas de la teoría de Bar-Hillel y Carnap son similares a las de la teoría de Shannon. Tanto allí como aquí tenemos logaritmos y probabilidades . Solo en Shannon todas las probabilidades son estadísticas (es decir, empíricas ), y no lógicas.
Si la probabilidad lógica de la expresión es menor que la probabilidad lógica de la expresión , entonces el mensaje lleva nueva información al destinatario, enriqueciendo así su conocimiento. Si implica , entonces es equivalente y el mensaje no lleva información al destinatario (ya que no hay nada nuevo en él para él). Si la expresión es una contradicción, entonces . La cantidad de información semántica en la contradicción según Bar-Hillel y Carnap es igual a infinito . Este resultado paradójico fue posteriormente criticado por Luciano Floridi.
Aunque la teoría de Bar-Hillel y Carnap aún atrae la atención de los investigadores, provocó una avalancha de nuevas ideas. Alexander Kharkevich propuso medir el valor de la información cambiando la probabilidad de lograr un objetivo determinado que ocurre bajo la influencia de este mensaje [6] . Julius Schrader creía que la cantidad de información semántica en un mensaje de cualquier naturaleza puede evaluarse como el grado de cambio en el sistema de conocimiento del destinatario como resultado de la percepción del mensaje [7] . La idea del aspecto semántico de la relación entre información y entropía fue propuesta por primera vez en 1966 por el filósofo y lógico soviético Yevgeny Kazimirovich Voishvillo en su obra " Un intento de interpretación semántica de los conceptos estadísticos de información y entropía ".
En su obra de 2004, Luciano Floridi ataca la teoría de Bar Hillel y Carnap desde la primera línea: “ “El triángulo tiene cuatro lados”: según la teoría clásica de la información semántica, esta contradicción contiene más contenido semántico que el enunciado condicionalmente verdadero”. la Tierra tiene una sola Luna “ ” [8] . Floridi llamó a esto la " paradoja de Bar-Hillel-Carnap ". Él ve la solución a esta paradoja en el hecho de que la cantidad de información semántica en los mensajes debe depender no solo del contenido semántico contenido en ellos, sino también del valor de verdad de estos mensajes. Floridi introdujo el concepto de oración condicionalmente falsa ( contingentemente oración falsa ), que es una conjunción de sus dos partes constituyentes, una de las cuales es verdadera y la otra es falsa. Un ejemplo de tal oración es la declaración: "La luna gira alrededor de la Tierra y por dentro está hueca". Tal oración transmite simultáneamente información (para aquellos que no saben que la Luna gira alrededor de la Tierra) y desinformación (en la vida cotidiana, a menudo se encuentra con esto: la desinformación es más fácil de promover si se complementa con alguna información).
Desde el punto de vista de la lógica clásica, una oración condicionalmente falsa es simplemente falsa y solo contiene desinformación. Sin embargo, el ejemplo anterior muestra que este no es realmente el caso. La teoría original de Bar-Hillel y Carnap no logra resolver esta antinomia . Por lo tanto, Floridi la rechazó (como una teoría "débil") y creó la suya propia: "fuerte". Abandonó el uso de probabilidades lógicas y afirmó que la teoría de la información semántica no debería ser similar a la de Shannon [9] . En su propia interpretación, la cantidad de información semántica de un mensaje está determinada por el grado en que este mensaje se corresponde con la situación (es decir, con lo que está sucediendo en un lugar y un momento determinados). Una inconsistencia surge ya sea como resultado de la falta de contenido del mensaje, o como resultado de su inexactitud. En su teoría, Floridi no utiliza directamente el concepto de desinformación, sino que introduce el concepto del grado de inexactitud de las oraciones condicionalmente falsas. El grado de inexactitud en una oración condicionalmente falsa es igual a:
,donde está el número de expresiones atómicas falsas en ; es el número total de oraciones atómicas en . Determinar la verdad de las proposiciones atómicas requiere aceptar el principio de omnisciencia a priori. El grado de falta de contenido de una oración verdadera se calcula mediante la fórmula:
,dónde está el número de mundos del universo en los que es cierto; es el número total de mundos en el universo (nótese que, según esta definición, el valor es exactamente igual al valor de la probabilidad lógica ). Además, Floridi introduce el concepto de la función del grado de informatividad:
.La cantidad de información semántica en el mensaje es igual a cierta integral de la función del grado de informatividad :
.A pesar de todas las diferencias entre la teoría clásica y la teoría de Florida, tienen algo en común. Si es una oración verdadera, entonces el valor es igual al valor de la probabilidad lógica . La medida es similar a la medida , pero a diferencia de esta última, es una función no lineal . Desafortunadamente, en la teoría de Floridi no hay nada como una medida que tenga la notable propiedad (*) de oraciones lógicamente independientes.
El problema planteado por Floridi puede resolverse dentro de una teoría basada en probabilidades lógicas. Cabe señalar que a principios del siglo actual, algunos científicos formaron una actitud escéptica hacia la lógica inductiva de Carnap [10] . Sin embargo, los matemáticos modernos han podido cambiar la situación modificando esta teoría [11] [12] [13] . Gracias a esto, se revivió de nuevo el interés por las probabilidades lógicas.
En [14] se propone modificar la teoría clásica de la información semántica al incluir en ella el concepto de desinformación, que es transportado por un mensaje falso. En la nueva teoría, como en la teoría de Floridi, se consideran muchas situaciones diferentes (puntos del espacio-tiempo). La misma oración de un idioma puede ser verdadera en una situación y falsa en otra. Dado que el destinatario de los mensajes no puede ser inmune a los errores al evaluar su veracidad, la cantidad de información semántica se evalúa por separado desde el punto de vista del destinatario y desde el punto de vista de un experto omnisciente.
En cada situación específica, un mensaje verdadero solo lleva información y uno absolutamente falso solo desinformación. Una oración condicionalmente falsa se considera como una conjunción : donde es la parte verdadera del mensaje, es la parte falsa del mensaje. Se requiere que y sea lógicamente independiente (esto es necesario, en particular, para que la contradicción no resulte ser una oración condicionalmente falsa). Entonces , las medidas no normalizadas de la cantidad de información y la cantidad de información errónea en una oración condicionalmente falsa desde el punto de vista de un experto se definen de la siguiente manera:
, .El índice “ ”, que marca los símbolos “ ” y “ ” en las fórmulas, indica que las cantidades de información y desinformación son consideradas desde el punto de vista de un experto. Medidas normalizadas de la cantidad de información y desinformación semántica en una oración condicionalmente falsa desde el punto de vista de un experto:
, .La controversia desde el punto de vista del experto conlleva cero información y una cantidad infinita de desinformación. Esto resuelve la paradoja de Bar-Hillel-Carnap. La cantidad infinita de desinformación se explica por el hecho de que si la contradicción de repente le pareciera a alguien la verdad, entonces el mundo cambiaría para él más allá del reconocimiento. Dos palabras no pueden describirlo. Supongamos que el receptor de la información tiene condicionalmente un conocimiento falso , equivalente a la conjunción: , donde está la parte verdadera de su conocimiento, es engaño. Entonces, desde el punto de vista de un experto, habiendo recibido un mensaje condicionalmente falso , el destinatario en realidad tiene información semántica y desinformación en las siguientes cantidades:
, .Si el destinatario percibe como una oración verdadera y la conjunción no es una contradicción, entonces, desde su punto de vista, recibió la siguiente cantidad de información:
.El sufijo “ ” indica la calificación del destinatario. Obviamente, solo un experto puede determinar la cantidad exacta de información (y desinformación) en un mensaje entrante, y el destinatario solo puede hacer estimaciones más o menos precisas.
Una descripción formal de la información semántica aplicable a todo tipo de sistemas físicos (vivos y no vivos) la da el matemático David Wolpert en su obra "Semantic information, agency, and nonequilibrium statistics physics": la información sintáctica que tiene un sistema físico sobre el medio ambiente, y que es causalmente necesario para que el sistema mantenga su propia existencia en un estado de baja entropía.
La necesidad casual se define en términos de intervenciones contrafactuales que aleatorizan las correlaciones entre el sistema y el entorno. El criterio para el grado de autonomía de un sistema físico es la cantidad de información semántica disponible.