Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

http://www.fgalindosoria.com/informatica/aspects/e_i/negentropy_information/

 

Fernando Galindo Soria

English (www.fgalindosoria.com/en/ )       Español (http://www.fgalindosoria.com/ )

fgalindo@ipn.mx

Red de Desarrollo Informático   REDI

 

Aspects of Information

Entropy and Information  /  Knowledge  /  Linguistic Aspects  /  Fractals and Chaos /..

Aspectos de la Información

Entropía e Información  / Conocimiento  / Aspectos Lingüísticos  / Fractales y Caos,

Datos;   Estructuras;   Patrones;   Normas;   Dinero;   Código Genético, Sistema Nervioso, Neurotransmisores;   Cuerdas, Ondas, Señales, Ruido, Sonido,  Música;   Partículas;   Mezclas, Soluciones, Compuestos;  Campo, Espacio;   Entidades, Atributos, Relaciones;   Unidades de Materia, Energía e Información (UMEI);   Pensamiento;   Noticias, Memes;   Códices, Libros;   Qbit, Entrelazamiento;   Conjunto, Grupo, Anillo;   Sistemas Conexionistas, Redes Neurales;   Sistemas Formales;   Sistemas Evolutivos, Afectivos, Concientes;   Espacio de Caos, Espacio Probabilístico, Espacio Métrico;   Estructuras Arborescentes, Dendritas;   Continuo, Discreto (Numerable, No Numerable) ;   Multiarboles;   Matrices;   recursividad;…

 

Creación de la página www    Ciudad de México, 4 Abril del 2014

Últimas actualizaciones 4 Abril del 2014

 

 

En los años 70 encontré entre otras cosas que, cuando Shannon platico con John von Neumann (el más grande matemático del siglo XX  http://en.wikipedia.org/wiki/John_von_Neumann) sobre su formula de información, esté le sugirió que llamara a la información neguentropía, para resaltar la relación entre estos conceptos que normalmente no se interrelacionaban.

 

 

von Neumann sugirió a Shannon llamar a la "información perdida" entropía

 

History of entropy

Wikipedia, 20140314

"when von Neumann asked him how he was getting on with his information theory, Shannon replied:[11]

“ The theory was in excellent shape, except that he needed a good name for "missing information". "Why don’t you call it entropy", von Neumann suggested. "In the first place, a mathematical development very much like yours already exists in Boltzmann's statistical mechanics, and in the second place, no one understands entropy very well, so in any discussion you will be in a position of advantage."

http://en.wikipedia.org/wiki/History_of_entropy

 

Traducido apoyada en Google de Wikipedia 20140309 de

History of entropy, (http://en.wikipedia.org/wiki/History_of_entropy)

"cuando von Neumann le preguntó cómo le iba con su teoría de la información, Shannon respondió: [11]

"La teoría estaba en excelente estado, con la excepción de que necesitaba un buen nombre de" información perdida ". "¿Por qué no lo llaman entropía", sugirió von Neumann. "En primer lugar, un desarrollo matemático muy parecida al suyo ya existe en la mecánica estadística de Boltzmann, y en segundo lugar, no se comprende la entropía muy bien, así que en cualquier discusión estará en una posición de ventaja."

 

 

*****************************************************************************

Léon Brillouin

Wikipedia, 20140402

Léon Nicolas Brillouin (French: [bʁilwɛ̃]; August 7, 1889 – October 4, 1969) was a French physicist. He made contributions to quantum mechanics, radio wave propagation in the atmosphere, solid state physics, and information theory.

....

He applied information theory to physics and the design of computers and coined the concept of negentropy to demonstrate the similarity between entropy and information.[3][4]

http://en.wikipedia.org/wiki/L%C3%A9on_Brillouin

 

Brillouin, L., 1951, “Maxwell's demon cannot operate: Information and entropy I”, Journal of Applied Physics, 22: 334–337.

Brillouin, L., 1956, Science and Information Theory, New York: Academic Press.

 

 

Léon Brillouin

Wikipedia, 20140402

"Léon Nicolas Brillouin (7 de agosto de 18891969) fue un físico francés. Nació en Sèvres (cerca de París), Francia. Su padre, Marcel Brillouin, era también físico. Hizo aportes en los campos de mecánica cuántica, propagación de ondas de radio en la atmósfera, física del estado sólido, y teoría de la información.

.......

Él aplicó la teoría de la información a la física y al diseño de computadoras, y acuñó el concepto de neguentropía para demostrar la similaridad entre la entropía y la información."

http://es.wikipedia.org/wiki/L%C3%A9on_Brillouin

 

 

*****************************************************************************

Negentropy

Wikipedia 20140311

"The negentropy, also negative entropy or syntropy or extropy or entaxy,[1] of a living system is the entropy that it exports to keep its own entropy low; it lies at the intersection of entropy and life. The concept and phrase "negative entropy" were introduced by Erwin Schrödinger in his 1944 popular-science book What is Life?[2] Later, Léon Brillouin shortened the phrase to negentropy,[3][4] to express it in a more "positive" way: a living system imports negentropy and stores it.[5] In 1974, Albert Szent-Györgyi proposed replacing the term negentropy with syntropy. That term may have originated in the 1940s with the Italian mathematician Luigi Fantappiè, who tried to construct a unified theory of biology and physics. Buckminster Fuller tried to popularize this usage, but negentropy remains common.

In a note to What is Life? Schrödinger explained his use of this phrase.

 

"[...] if I had been catering for them [physicists] alone I should have let the discussion turn on free energy instead. It is the more familiar notion in this context. But this highly technical term seemed linguistically too near to energy for making the average reader alive to the contrast between the two things."

 

Indeed, negentropy has been used by biologists as the basis for purpose or direction in life, namely cooperative or moral instincts.[6]

In 2009, Mahulikar & Herwig redefined negentropy of a dynamically ordered sub-system as the specific entropy deficit of the ordered sub-system relative to its surrounding chaos.[7] Thus, negentropy has units [J/kg-K] when defined based on specific entropy per unit mass, and [K−1] when defined based on specific entropy per unit energy. This definition enabled: i) scale-invariant thermodynamic representation of dynamic order existence, ii) formulation of physical principles exclusively for dynamic order existence and evolution, and iii) mathematical interpretation of Schrödinger's negentropy debt."

http://en.wikipedia.org/wiki/Negentropy

 

 

Neguentropía

Wikipedia 20140309

"La neguentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la neguentropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico.

La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía.

 

Concepto de entropía negativa

El concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de los padres de la mecánica cuántica) en su libro de ciencia popular what is life?, publicado en 1943. Más tarde, Léon Brillouin cambió la palabra por "neguentropía", para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importa neguentropía y la almacena. En 1974, Albert SzentGyörgyi (Nobel de Fisiología Médica en 1937) propuso cambiar el término de neguentropía a sintropía, aunque este último ya había sido usado por el matemático Luigi Fantappiè, quien lo utilizó con el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero, arquitecto y diseñador del siglo XX, trató de hacer popular este término, pero la palabra neguentropía siempre permaneció como la más común.

En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un sub-sistema ordenado dinámicamente como el déficit de entropía relacionado al caos que rodea al sub-sistema ordenado. De esta forma, las unidades de la neguentropía son [J/kg-K] cuando se define con base en la entropía por unidad de masa, mientras que cuando se define con base en la entropía por unidad de energía las unidades son [K-1]. Esta definición ha habilitado:

1.      Representaciones termodinámicas a escala invariante de la existencia de un orden dinámico,

2.      pensamiento de principios físicos exclusivamente para la existencia de un orden dinámico y evolución, y

3.      la interpretación matemática de la neguentropía de Schrödinger.

 

Contrastes

Así como la entropía establece que la energía y cualquiera de sus formas de manifestarse (ya sea en forma de materia, de plasma o radiación) tiende a buscar un estado de equilibrio inexpresivo continuo, la neguentropía define la energía como una serie de causas y efectos armónicamente acomodadas en las que la suma total de los efectos armónicos dan como resultado un acople de mayor magnitud que el original, siendo una forma de resonancia que da como resultado paquetes de energía perfectamente utilizables por cualquier sistema perceptor de sus efectos.

 

Teoría de la información

En la teoría de la información y la estadística, la neguentropía se usa como medida de distancia de normalidad. Si se considera una señal con una cierta distribución, y la señal es gausiana, ésta tendrá una distribución normal. La neguentropía es siempre positiva, invariante a cambios de coordenadas lineales, y se desvanece si y sólo si la señal es gausiana."

http://es.wikipedia.org/wiki/Neguentrop%C3%ADa

 

 

*****************************************************************************

 

 

 

Ir a Portal de Fernando Galindo Soria

 

Aspects of Information   /   Aspectos de la Información

Datos;   Entropía e Información;   Conocimiento;   Estructuras;   Patrones;   Normas, dinero, neurotransmisores;   ;   Cuerdas, ondas y partículas, señales, ruido;   Mezclas, Soluciones, Compuestos;   Aspectos lingüísticos;   Léxico, sintaxis, semántica;....Fractales y Caos;   Cristales;   Campo, Espacio;.... Entidades, atributos, relaciones;....

 

Entropy and Information   /   Entropía e Información

 

Entropy and Thermodynamics   /   Entropía y Termodinámica

 

Entropy  and Information   /    Entropía e Información

 

Maxwell's demon   /   El demonio de Maxwell

 

Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

 

Current Research in Entropy and Information

Investigaciones Actuales sobre Entropía e Información

 

Entropy and Information Some Related Areas

Algunas Áreas Relacionadas sobre Entropía e Información