Neguentropía es un término filosófico y físico formado al agregar un prefijo negativo neg- (del latín negativus - negativo) al concepto de entropía , y denotar su opuesto. En el sentido más general, tiene un significado opuesto a la entropía y significa una medida del orden y la organización del sistema o la cantidad de energía disponible en el sistema [1] . El término se utiliza a veces en física y matemáticas ( teoría de la información , estadística matemática ) para referirse a la cantidad matemáticamente opuesta a la de la entropía .
El concepto de "entropía negativa" fue propuesto por primera vez en 1943 por el físico austriaco Erwin Schrödinger en su popular libro "¿Qué es la vida?". En él, trató de continuar las ideas de su colega Niels Bohr sobre la profunda conexión entre las leyes físicas y filosóficas , según la cual el principio de complementariedad formulado por Niels Bohr podría unir el conocimiento universal a una comprensión simple de la unidad del mundo.
Schrodinger escribió:
Me gustaría señalar que al establecer el significado de este término (físico), debo comenzar la discusión con el término "energía libre". Este es un concepto más preciso en este contexto. Pero este término puramente técnico resulta ser lingüísticamente muy cercano al concepto general de energía para el lector promedio que está tratando de entender la diferencia entre los dos términos.
Posteriormente, el físico estadounidense Leon Brillouin en su obra “Scientific Uncertainty and Information” redujo el término “entropía negativa” a negentropía y lo introdujo de esta forma utilizando el principio de negentropía de la información en la teoría de la información [2] . Erwin Schrödinger explica cómo un sistema vivo exporta entropía para mantener baja su propia entropía. Usando el término negentropía , podría expresar su idea brevemente: un sistema vivo importa negentropía para su autoconservación:
Un organismo vivo aumenta continuamente su entropía, o de otro modo produce entropía positiva, y así se acerca al peligroso estado de máxima entropía, que es la muerte. Puede evitar este estado, es decir, permanecer vivo, solo extrayendo constantemente entropía negativa de su entorno. La entropía negativa es de lo que se alimenta un organismo. O, para decirlo de manera menos paradójica, lo esencial en el metabolismo es que el organismo logre deshacerse de toda la entropía que tiene que producir mientras está vivo.
En un sentido simple, la entropía es caos , autodestrucción y autodescomposición. En consecuencia, la negentropía es un movimiento hacia el ordenamiento, hacia la organización del sistema. En relación a los sistemas vivos: para no morir, un sistema vivo lucha con el caos circundante organizándolo y ordenándolo, es decir, importando negentropía [3] . Esto explica el comportamiento de los sistemas autoorganizados.
Albert Szent-Györgyi sugirió reemplazar el término negentropía por sintropía , un término propuesto por primera vez en 1940 por el matemático italiano Luigi Fantappier , quien estaba tratando de combinar los mundos biológico y físico en su teoría.
En la literatura sobre sistemas autoorganizados , los términos extropía [4] y ectropía [5] [6] también se utilizan para describir este proceso .
La negentropía desde el punto de vista del “enfoque de la información” [7] es el antónimo del concepto de entropía, es decir, el concepto que surge “genéticamente” de ella. Por lo tanto, la negentropía solo puede considerarse en función de la entropía, es decir, en paralelo.
Como es sabido, el concepto de entropía fue introducido por Clausius (1859) en termodinámica . Luego, los astrofísicos comenzaron a hablar sobre la " muerte térmica del Universo ", una conclusión sobre esto derivada de la segunda ley de la termodinámica y la suposición de que el Universo está cerrado como un sistema termodinámico. Los filósofos no podían dejar de prestar atención al poder explicativo del concepto de entropía, que se expresaba en la capacidad de considerar todos los procesos que ocurren en el mundo como entrópicos en el sentido termodinámico, incluidos los procesos asociados con la actividad humana en la organización de la vida social. Por ejemplo, N. Berdyaev en el artículo "La voluntad de vida y la voluntad de cultura" (1923) escribió:
Nace una voluntad intensa por la "vida" misma, por la práctica de la "vida", por el poder de la "vida", por el disfrute de la "vida", por el dominio sobre la "vida". Y esta voluntad de “vida” demasiado intensa destruye la cultura, trae consigo la muerte de la cultura… Se produce la entropía social , la energía creadora de la cultura se dispersa.
Su contemporáneo N. O. Lossky , en su artículo “Matter in the System of an Organic Worldview” (1923), utiliza los conceptos de entropía y ectropía (haciendo referencia al artículo del físico F. Auerbach “Ectropism, or the Physical Theory of Life” ) al defender el punto de vista filosófico, según el cual "la materia se deriva de un ser superior, capaz de producir también otros tipos de realidad, además de la materia" . Sobre esta base, Lossky cree que "la ley de la entropía debe formularse con una restricción, es decir, con la indicación de que solo importa para un entorno sin vida" , ya que la vida contrarresta el aumento de la entropía.
Lossky escribió:
"El ectropismo se logra por el hecho de que un organismo vivo convierte los movimientos caóticos en movimientos ordenados, que tienen una dirección determinada " .
Por lo tanto, los conceptos de "entropía" y "ectropía" (en un sonido moderno, negentropía) se utilizaron en filosofía en un contexto termodinámico. En cuanto a la biología, el aparato teórico termodinámico encaja “orgánicamente” en la energía de los vivos en la forma de la “ley universal de la biología” ( Bauer , 1935), y E. Libbert formuló la definición de los vivos de esta forma:
Los sistemas vivos son sistemas que son capaces de mantener y aumentar de forma independiente su muy alto grado de orden en un entorno con un grado de orden más bajo. Dichos procesos son procesos con entropía negativa (procesos negentrópicos).
En la "Teoría matemática de la comunicación" (1948) , K. Shannon propuso una fórmula de la forma:
donde es la probabilidad del enésimo evento aleatorio independiente del conjunto de estados posibles. Se llama la "entropía de una fuente discreta de información" o "la entropía de un conjunto finito" (V. I. Dmitriev) (ver el artículo Entropía de la información ). Lo que se esconde detrás de esta fórmula, que se refiere a "una medida de la libertad de elección de alguien (o cualquier sistema) para aislar un mensaje" (según L.R. Graham ), coincidió hasta la multiplicación por una constante con la descripción matemática del sistema de entropía termodinámica. propuesto por Boltzmann :
LR Graham señaló:
Algunos científicos consideraron que las aplicaciones potenciales de esta coincidencia eran enormes. La posibilidad de cualquier analogía o incluso coincidencia estructural de la entropía y la información provocó animadas discusiones entre físicos, filósofos e ingenieros en muchos países.
Lauren R. Graham describió con bastante detalle cómo se llevaron a cabo las discusiones sobre estos temas en la URSS en su libro Natural Science, Philosophy and the Sciences of Human Behavior in the Soviet Union. Al final del Capítulo VIII de su libro, Graham señaló que la expectativa de un avance conceptual en la unión de la termodinámica y la entropía informacional no se materializó, y “la disminución del interés en todo el mundo por la cibernética como esquema conceptual cayó justo en el época en que las computadoras se volvieron extremadamente necesarias para las actividades comerciales, industriales y militares” (1991).
![]() |
---|