Entropy and Information

Information theory, Thermodynamics, Kolmogorov entropy, Maxwell's demon, Negentropy, Dissipative system, Information Paradox, Holographic Universe, Bekenstein-Hawking entropy S = Akc3/4Għ

Entropía e Información

Teoría de la Información, termodinámica, Entropía de Kolmogórov, El demonio de Maxwell, Neguentropía, Estructuras disipativas, Paradoja de la información, Universo holográfico, Entropía de Bekenstein-Hawking  S = Akc3/4Għ

http://www.fgalindosoria.com/informatica/aspects/e_i/

 

Fernando Galindo Soria

English (www.fgalindosoria.com/en/ )         Español (www.fgalindosoria.com )

fgalindo@ipn.mx

Red de Desarrollo Informático   REDI

 

Creación de la página www    Ciudad de México, 6 de Marzo del 2014

ultimas actualizaciones 14 de Marzo del 2014

"We both know entropy can't be reversed.

                           You can't turn smoke and ash back into a tree."

The last question, Isaac Asimov, Science Fiction Quarterly, November 1956

http://www.multivax.com/last_question.html

 

"Ambos sabemos que es imposible alterar la tendencia de la entropía.

               Es imposible transformar humo y cenizas en un árbol."

La última pregunta,  Isaac Asimov, Nueve futuros, Ediciones Roca, Pág. 192, México, 1985

 

 

fórmula de Bekenstein-Hawking

S = Akc3 / 4Għ

 

S entropía, A área, k constante de Boltzmann, c velocidad de la luz, G constante de la gravitación,

ħ=h/2π, donde h es la constante de Planck.

www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/

 

Esta pagina se dedica a la  Informática

y en particular a los aspectos de la información que se dan en la relación entre Entropía e Información

 

La Informática es la ciencia de la información, estudia la información, sus fundamentos, sus propiedades y sus aplicaciones

 

La Informática es una Disciplina Científico Tecnológica

 

Información

La palabra información está formada por dos vocablos de origen latino que son: in, que significa en, dentro de, y formare que significa dar forma. Por lo que significa  “forma interna”, “lo que da la forma interna”

 

Campo de Estudio de la Informática

La Informática estudia la Información y su relación con la Materia y la energía

 

 

informatica

 

 

La Información fluye, se almacena, se percibe, se procesa, se transmite y se presenta en múltiples aspectos incluyendo los estudiados por: la Teoría de la Información, la Lingüística Matemática, la Cibernética, etc.

.

Aspects of Information

Matter has many aspects, for example: solid, liquid, gas, hard, soft, metal, leather, ....

Energy takes many aspects, for example, static energy, dynamic, heat, light, ...

Information has multiple aspects, for example::

Entropy and Information   /    Knowledge   /   Linguistic Aspects   /   Fractals and Chaos   /….

 

Aspectos de la Información

La materia tiene múltiples aspectos, por ejemplo: sólido, liquido, gas, duro, blando, metal, piel,....

La energía toma múltiples aspectos, por ejemplo: energía estática, dinámica, calor, luz, ...

También la información tiene múltiples aspectos, como por ejemplo:

Entropía e Información    /   Conocimiento    /   Aspectos Lingüísticos    /   Fractales y Caos   /  

Datos;   Estructuras;   Patrones;   Normas;   Dinero;   Código Genético, Sistema Nervioso, Neurotransmisores;   Cuerdas, Ondas, Señales, Ruido, Sonido,  Música;   Partículas;   Mezclas, Soluciones, Compuestos;  Campo, Espacio;   Entidades, Atributos, Relaciones;   Unidades de Materia, Energía e Información (UMEI);   Pensamiento;   Noticias, Memes;   Códices, Libros;   Qbit, Entrelazamiento;   Conjunto, Grupo, Anillo;   Sistemas Conexionistas, Redes Neurales;   Sistemas Formales;   Sistemas Evolutivos, Afectivos, Concientes;   Espacio de Caos, Espacio Probabilístico, Espacio Métrico;   Estructuras Arborescentes, Dendritas;   Continuo, Discreto (Numerable, No Numerable) ;   Multiarboles;   Matrices;   recursividad;…

 

 

 

Entropy and Information   /   Entropía e Información

 

INDEX   /   ÍNDICE

Notas de Investigación y Contexto

 

Entropy and Thermodynamics   /   Entropía y Termodinámica

 

Entropy  and Information   /    Entropía e Información

 

Maxwell's demon   /   El demonio de Maxwell

 

Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

 

Current Research in Entropy and Information

Investigaciones Actuales sobre Entropía e Información

 

Entropy and Information Some Related Areas

Algunas Áreas Relacionadas sobre Entropía e Información

 

El 6 de Febrero del 2014 el Dr. Itztli (el Dr. Horacio Alberto García Salas) me invitó a impartir una conferencia sobre Informática en el Centro Universitario UAEM Atlacomulco de la Universidad Autónoma del Estado de México, dentro de la plática comenté sobre la relación entre entropía e información, y ya que considero que esté es un tema muy importante para la Informática, preparé la siguiente página, donde se presentan algunos trabajos sobre la interrelación entre entropía e información.

 

En 1970 encontré en varios libros el término "entropía" y me llamo la atención, al investigar sobre el tema averigüé que la entropía mide la cantidad de desorden de un sistema, y se refiere al hecho de que cuando se maneja la energía parte de está se transforma en calor y no se puede volver a usar, es lo que se conoce como segunda ley de la termodinámica y en términos prácticos significa que en algún momento la energía del universo se va a transformar en calor, y que la cantidad de desorden del universo está aumentando (sistema desordenado), .....

Pero también encontré varios trabajos donde se presentaba el concepto de información como algo relacionado con el concepto de entropía, lo cual hizo que empezara a ver lo que era la información,....

 

 

Página de

Fernando Galindo Soria

www.fgalindosoria.com

http://fgalindosoria.com/en/

 

fgalindo@ipn.mx

 

Informático

Lingüista Matemático

Administrador de Desarrollo Estratégico

Investigador

 

 

Principales Aportaciones

Premios y Distinciones

 

curriculum vitae (Resumen)

Semblanza

curriculum vitae (extendido)

Egoteca

 

Principales actividades antes del 2004

CD de Informática 2005i

Histórico y Efemérides

 

Mapa del Sitio

.

Áreas de Investigación

Transfinito Dimensional y Dinámica Dimensional

Acerca del Continuo Dimensional:

Un universo Fractal

Introducción al espacio dimensión-valor

Notas acerca de los universos recursivos

Números y Espacios Bcomplejos

Enfoque Lingüístico y Lingüística Matemática

De Fractales y otros Bichos

Ecuación de la Naturaleza

S -> e* S*

Evolución, Afectividad y Conciencia  EAC

Sistemas Evolutivos, Afectivos y Concientes SEAC

Evolución y Sistemas Evolutivos

Sistemas Afectivos

Sistemas Concientes

Matrices Evolutivas y Dinámica Dimensional

Interactividad  Conocimiento  Ubicuidad  ICU

Diapositivas Tres Grandes Áreas Relacionadas: Interactividad, Industria del Conocimiento, Ubicuidad ICU

Notas de Investigación

.

Informatics  /  Informática

Información,

Materia Energía Información MEI

Transmisión instantánea y simultánea de información,

Perfil del Licenciado en Ciencias de la Informática

Informatics  /  Informáticos

Personajes Fundamentales de la Informática

History of Informatics  /  Historia de la Informática

 

Aspects of information   /   Aspectos de la Información

Entropía e Información

Conocimiento

 

Fundamentals of Informatics: Sciences, Theories, Theorems, Laws, Paradigms /

Fundamentos de la Informática: Ciencias, Teorías, Teoremas, Leyes, Paradigmas

Noether's theorem  /  Teorema de Noether

 

Informatics Properties   /  Propiedades Informáticas

Density  and Frecuency  /  Densidad y Frecuencia

Symmetry  /  Simetría

 

Informatics Methods, Techniques, Tools

Métodos, Técnicas, Herramientas Informáticas

Search  /  Búsqueda

 

Applied Informatics  /  Informática Aplicada

Informática Educativa

 

Administración  e  Investigación

Administración del Desarrollo  y  Alta Dirección

Noticias Estratégicas

Estadísticas Mundiales

Sobre   Investigación y Desarrollo

.

Administración del Desarrollo y Alta Dirección,

Noticias Estratégicas,

Estadísticas Mundiales,

Sobre Investigación y Desarrollo

.

Portal del Conocimiento   Ligas

Eventos tecnológicos

Eventos culturales

México

Cd. de México

Ecología  Agua

Arte y Entretenimiento

Arte Efímero  e  Intangible

Literatura

Cuentos de Fernando Galindo Soria

Música

crea tu página  english   francais   español  deutch

CD de Informática  2005i

Histórico y Efemérides

.

Programación

Ecuación de la Naturaleza   (Programas en Borland C)

Fractales de Dragón basados en la  Ecuación de la Naturaleza  Sàe*S*

Agregado de Partículas

Games  /  Juegos

Programas en Borland C, Turbo Pascal y Java

Programas en C (Borland C)

Programas en Turbo Pascal

Programas en Java

.

Egoteca  Egozone  Egotetlan

Egoteca

Estadísticas Webalizer

 ALEXA Ranking

Push2check

.

 

Página de

Fernando Galindo Soria

www.fgalindosoria.com

http://fgalindosoria.com/en/

 

fgalindo@ipn.mx

 

Informático

Lingüista Matemático

Administrador de Desarrollo Estratégico

Investigador

 

 

Principales Aportaciones

Premios y Distinciones

 

curriculum vitae (Resumen)

Semblanza

curriculum vitae (extendido)

Egoteca

 

Principales actividades antes del 2004

CD de Informática 2005i

Histórico y Efemérides

 

Mapa del Sitio

.

Áreas de Investigación

Transfinito Dimensional y Dinámica Dimensional

Acerca del Continuo Dimensional:

Un universo Fractal

Introducción al espacio dimensión-valor

Notas acerca de los universos recursivos

Números y Espacios Bcomplejos

Enfoque Lingüístico y Lingüística Matemática

De Fractales y otros Bichos

Ecuación de la Naturaleza

S -> e* S*

Evolución, Afectividad y Conciencia  EAC

Sistemas Evolutivos, Afectivos y Concientes SEAC

Evolución y Sistemas Evolutivos

Sistemas Afectivos

Sistemas Concientes

Matrices Evolutivas y Dinámica Dimensional

Interactividad  Conocimiento  Ubicuidad  ICU

Diapositivas Tres Grandes Áreas Relacionadas: Interactividad, Industria del Conocimiento, Ubicuidad ICU

Notas de Investigación

.

Informatics  /  Informática

Información,

Materia Energía Información MEI

Transmisión instantánea y simultánea de información,

Perfil del Licenciado en Ciencias de la Informática

Informatics  /  Informáticos

Personajes Fundamentales de la Informática

History of Informatics  /  Historia de la Informática

 

Aspects of information   /   Aspectos de la Información

Entropía e Información

Conocimiento

 

Fundamentals of Informatics: Sciences, Theories, Theorems, Laws, Paradigms /

Fundamentos de la Informática: Ciencias, Teorías, Teoremas, Leyes, Paradigmas

Noether's theorem  /  Teorema de Noether

 

Informatics Properties   /  Propiedades Informáticas

Density  and Frecuency  /  Densidad y Frecuencia

Symmetry  /  Simetría

 

Informatics Methods, Techniques, Tools

Métodos, Técnicas, Herramientas Informáticas

Search  /  Búsqueda

 

Applied Informatics  /  Informática Aplicada

Informática Educativa

 

Administración  e  Investigación

Administración del Desarrollo  y  Alta Dirección

Noticias Estratégicas

Estadísticas Mundiales

Sobre   Investigación y Desarrollo

.

Administración del Desarrollo y Alta Dirección,

Noticias Estratégicas,

Estadísticas Mundiales,

Sobre Investigación y Desarrollo

.

Portal del Conocimiento   Ligas

Eventos tecnológicos

Eventos culturales

México

Cd. de México

Ecología  Agua

Arte y Entretenimiento

Arte Efímero  e  Intangible

Literatura

Cuentos de Fernando Galindo Soria

Música

crea tu página  english   francais   español  deutch

CD de Informática  2005i

Histórico y Efemérides

.

Programación

Ecuación de la Naturaleza   (Programas en Borland C)

Fractales de Dragón basados en la  Ecuación de la Naturaleza  Sàe*S*

Agregado de Partículas

Games  /  Juegos

Programas en Borland C, Turbo Pascal y Java

Programas en C (Borland C)

Programas en Turbo Pascal

Programas en Java

.

Egoteca  Egozone  Egotetlan

Egoteca

Estadísticas Webalizer

 ALEXA Ranking

Push2check

.

 

Página de

Fernando Galindo Soria

www.fgalindosoria.com

http://fgalindosoria.com/en/

 

fgalindo@ipn.mx

 

Informático

Lingüista Matemático

Administrador de Desarrollo Estratégico

Investigador

 

 

Principales Aportaciones

Premios y Distinciones

 

curriculum vitae (Resumen)

Semblanza

curriculum vitae (extendido)

Egoteca

 

Principales actividades antes del 2004

CD de Informática 2005i

Histórico y Efemérides

 

Mapa del Sitio

.

Áreas de Investigación

Transfinito Dimensional y Dinámica Dimensional

Acerca del Continuo Dimensional:

Un universo Fractal

Introducción al espacio dimensión-valor

Notas acerca de los universos recursivos

Números y Espacios Bcomplejos

Enfoque Lingüístico y Lingüística Matemática

De Fractales y otros Bichos

Ecuación de la Naturaleza

S -> e* S*

Evolución, Afectividad y Conciencia  EAC

Sistemas Evolutivos, Afectivos y Concientes SEAC

Evolución y Sistemas Evolutivos

Sistemas Afectivos

Sistemas Concientes

Matrices Evolutivas y Dinámica Dimensional

Interactividad  Conocimiento  Ubicuidad  ICU

Diapositivas Tres Grandes Áreas Relacionadas: Interactividad, Industria del Conocimiento, Ubicuidad ICU

Notas de Investigación

.

Informatics  /  Informática

Información,

Materia Energía Información MEI

Transmisión instantánea y simultánea de información,

Perfil del Licenciado en Ciencias de la Informática

Informatics  /  Informáticos

Personajes Fundamentales de la Informática

History of Informatics  /  Historia de la Informática

 

Aspects of information   /   Aspectos de la Información

Entropía e Información

Conocimiento

 

Fundamentals of Informatics: Sciences, Theories, Theorems, Laws, Paradigms /

Fundamentos de la Informática: Ciencias, Teorías, Teoremas, Leyes, Paradigmas

Noether's theorem  /  Teorema de Noether

 

Informatics Properties   /  Propiedades Informáticas

Density  and Frecuency  /  Densidad y Frecuencia

Symmetry  /  Simetría

 

Informatics Methods, Techniques, Tools

Métodos, Técnicas, Herramientas Informáticas

Search  /  Búsqueda

 

Applied Informatics  /  Informática Aplicada

Informática Educativa

 

Administración  e  Investigación

Administración del Desarrollo  y  Alta Dirección

Noticias Estratégicas

Estadísticas Mundiales

Sobre   Investigación y Desarrollo

.

Administración del Desarrollo y Alta Dirección,

Noticias Estratégicas,

Estadísticas Mundiales,

Sobre Investigación y Desarrollo

.

Portal del Conocimiento   Ligas

Eventos tecnológicos

Eventos culturales

México

Cd. de México

Ecología  Agua

Arte y Entretenimiento

Arte Efímero  e  Intangible

Literatura

Cuentos de Fernando Galindo Soria

Música

crea tu página  english   francais   español  deutch

CD de Informática  2005i

Histórico y Efemérides

.

Programación

Ecuación de la Naturaleza   (Programas en Borland C)

Fractales de Dragón basados en la  Ecuación de la Naturaleza  Sàe*S*

Agregado de Partículas

Games  /  Juegos

Programas en Borland C, Turbo Pascal y Java

Programas en C (Borland C)

Programas en Turbo Pascal

Programas en Java

.

Egoteca  Egozone  Egotetlan

Egoteca

Estadísticas Webalizer

 ALEXA Ranking

Push2check

.

Notas de Investigación

 

La entropía es una propiedad informática que mide el desorden de un sistema

Fernando Galindo Soria  22 de Enero del 2011

Entropía, Principio de Incertidumbre, Energía del Vació, Onda Partícula

www.fgalindosoria.com/informatica/aspects/e_i/notas/entropia_principio_de_incertidumbre_energia_del_vacio_onda_particula.htm

 

 

La entropía de  un sistema tiene que ver con su estructura

Fernando Galindo Soria 14 de Junio del 2013

Entropía y Estructura

www.fgalindosoria.com/informatica/aspects/e_i/notas/entropia_y_estructura.htm

 

 

*****************************************************************************

*****************************************************************************

*****************************************************************************

Contexto

 

La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.

 

Entropía

Wikipedia, 20140626

"En termodinámica, la entropía (simbolizada como S) es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850;[1] [2] y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad."

http://es.wikipedia.org/wiki/Entrop%C3%ADa

 

 

Entropía (desambiguación)

http://es.wikipedia.org/wiki/Entrop%C3%ADa_(desambiguaci%C3%B3n)

 

 

Información y Entropía

Guillermo Agudelo Murguía, José Guillermo Alcalá Rivero

"...La teoría formal de la información nació de los artículos publicados en 1948 por el matemático estadounidense Claude E. Shannon. En ellos enunció: la medida de la información más ampliamente usada hoy en día es la entropía. La entropía había venido siendo un concepto central de la termodinámica, la rama de la física que trata del calor. Suele decirse que la entropía termodinámica expresa el desorden de un sistema físico. En 1877 el físico austriaco Ludwig Boltzmann la caracterizó más precisamente como el número de estados microscópicos distintos en los que pueden hallarse las partículas que componen un trozo de materia de forma que siga pareciendo el mismo trozo desde un punto de vista macroscópico. En el caso del aire de una habitación, se contarían las maneras en que podrían distribuirse y moverse las moléculas de gas por la habitación.

Claro que esta conceptualización de Boltzmann va muy de acuerdo con la idea de que la suma de las partes aisladas no da como resultado el todo. Actualmente se acepta que a la suma de las partes debe agregársele los valores de las interacciones de estas partes, las ligas que contienen la Información que determina su comportamiento...."

http://www.iieh.org/Informacion/articulos_informacion01.php#(NOTA%205)

 

 

"Gibbs entropy formula, named after J. Willard Gibbs. For a classical system (i.e., a collection of classical particles) with a discrete set of microstates, if E_i is the energy of microstate i, and p_i is its probability that it occurs during the system's fluctuations, then the entropy of the system is

S = -k_B\,\sum_i p_i \ln \,p_i

The quantity k_B is a physical constant known as Boltzmann's constant,"

Wikipedia 20140309

http://en.wikipedia.org/wiki/Entropy_(statistical_thermodynamics)

 

 

"Shannon introduces an H function of the following form:

H = -K\sum_{i=1}^k p(i) \log p(i),

where K is a positive constant. Shannon then states that "any quantity of this form, where K merely amounts to a choice of a unit of measurement, plays a central role in information theory as measures of information, choice, and uncertainty." Then, as an example of how this expression applies in a number of different fields, he references R.C. Tolman's 1938 Principles of Statistical Mechanics, stating that "the form of H will be recognized as that of entropy as defined in certain formulations of statistical mechanics where pi is the probability of a system being in cell i of its phase space…"

Wikipedia 20140314

http://en.wikipedia.org/wiki/History_of_entropy - Information_theory

 

 

 

"WIENER propuso una posición similar a la de BERTALANFFY, en el sentido de que las máquinas cibernéticas son sistemas cerrados organizacionalmente y abiertos informacionalmente, o que reciben información de parte del entorno y que actúan sobre éste. Esta información se concibe en términos de inputs y outputs.

Ya que el interés fundamental de la cibernética reside en el control del cambio, fue necesario encontrar, a partir de la concepción de la entropía, a la manera como la toma Gibbs, un enlace entre la comunicación y el control. “En las comunicaciones y en la regulación luchamos siempre con la tendencia de la naturaleza a degradar lo organizado y a destruir lo que tiene sentido, la misma tendencia de la entropía a aumentar, como lo demostró GIBBS” (RODRÍGUEZ y ARNOLD 1991: 44).

Con la máquina entendida como sistema abierto coinciden, en sentido opuesto, el comportamiento de la información y la entropía “Así como el monto de información en un sistema es la medida de su grado de organización, la entropía en un sistema es una medida de su grado de desorganización; y la una es simplemente el negativo de la otra” (Ibíd.: 44). El control es lo que permite la permanencia de la organización a través del manejo de la información interna y de la que proviene del entorno.

De esta manera, para la cibernética, tanto los organismos vivos y como máquinas autónomas son sistemas organizados que tienden a la entropía y que deber ser capaces de oponerse temporalmente a esa entropía (neguentropía).

Esa capacidad neguentrópica, a través de la cual se mantiene la organización (entendida como un índice de lo que puede esperarse del sistema), se da a través de la información).

Tras esta concepción de la cibernética se ha identificado una nueva teleología, según la cual el comportamiento del sistema está determinado fundamentalmente por la información que le llega del entorno o en la que las formas de organización y las metas (outputs) se definen en su relación mutua (Ibíd.: 44).

3. LAS TEORÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN

3.1. INICIOS DE LA TEORÍA DE LA INFORMACIÓN

Esta teoría surgió a partir del trabajo de CLAUDE SHANNON y WARREN WEAVER, conocido como “teoría matemática de la información”. En 1949, dichos autores respondieron a la pregunta del especialista en ciencias políticas HAROLD D. LASSWELL: ¿quién le dice qué, a quién, y con qué efecto? con una teoría de la información. Ella tenía como objeto de estudio el análisis de la eficacia de la información y buscaba establecer medidas cuantitativas sobre la capacidad de variados sistemas de transmitir, almacenar y procesar información. Intentaron descubrir las leyes matemáticas que gobiernan la información y establecer la medida cuantitativa mínima que reduce la incertidumbre en un mensaje (JUTORAN 1994).

.....

Se incorporó a este modelo otro concepto, definido por SHANNON , en un primer momento, como “fuente de ruido”, en relación a la interferencia o perturbación en la claridad de la transmisión de la información. Uno de los objetivos de esta teoría era encontrar la relación entre información y ruido. El concepto de ruido fue asociado a la noción de entropía propuesta por la segunda ley de la termodinámica, considerándose éste análogo a la estática en la comunicación visual y auditiva, es decir, a las influencias externas que disminuyen la integridad de la comunicación y distorsionan el mensaje para el receptor (Ibíd.).

A ello se contrapuso la redundancia (repetición de elementos dentro de un mensaje), asociada al concepto de entropía negativa o neguentropía. Con ello se pretendía contrarrestar los efectos distorsionantes del ruido e impedir el fracaso de la transmisión de información."

Un marco para la complejidad, Capítulo II Tres teorías que dieron origen al pensamiento complejo: sistémica, cibernética e información. Juan Carlos Moreno

 

Manual de iniciación pedagógica al pensamiento complejo, Autor: Edgar Morín, Corporación para el Desarrollo Complexus

Marco Antonio Velilla Compilador

ICFES UNESCO

© Instituto Colombiano de Fomento de la Educación Superior

© UNESCO

© Corporación para el Desarrollo Complexus

 

Ediciones Jurídicas Gustavo Ibáñez, ® 2002., Pag. 34, 35

http://online.upaep.mx/campusTest/ebooks/ManualIniciacion.pdf

 

Referencias

JUTORAN, SARA BEATRIZ. 1994. El proceso de las ideas sistémico-cibernéticas. Sistemas familiares 10 (1).

Buenos Aires.

 

RODRÍGUEZ, DARÍO y MARCELO ARNOLD. 1991. Sociedad y teoría de sistemas. Editorial Universitaria,

Santiago de Chile.

 

 

 

Entropy and Thermodynamics   /   Entropía y Termodinámica

http://www.fgalindosoria.com/informatica/aspects/e_i/entropy_thermodynamics

 

 

Cinco ecuaciones que cambiaron el mundo,  Michael Guillen

"El concepto clásico de que la energía ni se crea ni se destruye, sólo se transforma; se debe a Clausius. Y es la Ley de Conservación de la Energía, pero no se quedó aquí el hombre. Fue más allá y elaboró un concepto nuevo: entropía, removiendo los cimientos de la física. Entropía en griego significa transformación de contenidos, y se parece mucho a Energía (pero no confundir).

La física de Clausius se puede definir como que la energía del Universo es constante y que La cantidad de entropía del universo tiende a incrementarse en el tiempo. Lo que nos viene a decir que el Universo camina de forma inevitable tambaleándose hacia su destino último de reposo y relajación. Por suerte esto ocurrirá dentro de un tiempo que la mente humana aún no es capaz ni de imaginar, así que no sean pesimistas y Carpe Diem."

Chema Larrea, blog 0110101101001100101110

http://blog0110110101.wordpress.com/2011/01/11/5-ecuaciones-que-cambiaron-el-mundo/

 

Cinco ecuaciones que cambiaron el mundo,  Michael Guillen

"El capítulo "una experiencia nada provechosa" se refiere al físico Rudolf Julius Emmanuel Clausius y a su ecuación termodinámica, o más exactamente, a su desigualdad termodinámica.

http://3.bp.blogspot.com/_gKPlO6GOfTc/S2B7Px85zDI/AAAAAAAABac/H1UxLd6vjXA/s400/termodinamica.png"

Cinco ecuaciones que cambiaron el mundo

http://www.taringa.net/posts/noticias/4507527/Cinco-ecuaciones-que-cambiaron-el-mundo.html

 

 

Gibbs Entropy Formula

Wikipedia 20140309

"The macroscopic state of the system is defined by a distribution on the microstates that are accessible to a system in the course of its thermal fluctuations. So the entropy is defined over two different levels of description of the given system. The entropy is given by the Gibbs entropy formula, named after J. Willard Gibbs. For a classical system (i.e., a collection of classical particles) with a discrete set of microstates, if http://upload.wikimedia.org/math/8/2/d/82deb5e05e05a48f33fea4dd071e001d.png is the energy of microstate i, and http://upload.wikimedia.org/math/8/a/4/8a4bbd153c74655abb7ca04c0fa901d8.png is its probability that it occurs during the system's fluctuations, then the entropy of the system is

http://upload.wikimedia.org/math/2/1/5/2151b79c09f654cec8e560bd804c47c9.png

The quantity http://upload.wikimedia.org/math/4/9/9/499ea482f0642e2bd203a3f560d4dd97.png is a physical constant known as Boltzmann's constant, which, like the entropy, has units of heat capacity. The logarithm is dimensionless.

This definition remains valid even when the system is far away from equilibrium...."

http://en.wikipedia.org/wiki/Entropy_(statistical_thermodynamics)

 

 

Home page of   Entropy and Thermodynamics

Ir a la página principal de Entropía y Termodinámica

 

 

 

Entropy  and Information   /    Entropía e Información

http://www.fgalindosoria.com/informatica/aspects/e_i/entropy_information/

 

 

"The formal study of information theory did not begin until 1924, when Harry Nyquist, a researcher at Bell Laboratories, published a paper entitled “Certain Factors Affecting Telegraph Speed.” Nyquist realized that communication channels had maximum data transmission rates, and he derived a formula for calculating these rates in finite bandwidth noiseless channels."

Encyclopædia Britannica

http://global.britannica.com/EBchecked/topic/709313/Certain-Factors-Affecting-Telegraph-Speed

 

 

Ralph Vinton Lyon Hartley

"La noción de la información fue definida por primera vez por Ralph Vinton Lyon Hartley en 1927 como la cantidad de elecciones o respuestas "Sí" o "No", que permiten reconocer unívocamente un elemento cualquiera en un conjunto de ellos"

http://www.tecnotopia.com.mx/informatica.htm

 

 

Information theory

Wikipedia 20140314

"An analog to thermodynamic entropy is information entropy. In 1948, while working at Bell Telephone Laboratories electrical engineer Claude Shannon set out to mathematically quantify the statistical nature of "lost information" in phone-line signals. To do this, Shannon developed the very general concept of information entropy, a fundamental cornerstone of information theory.

….

In 1948 Shannon published his famous paper A Mathematical Theory of Communication, in which he devoted a section to what he calls Choice, Uncertainty, and Entropy.[12] In this section, Shannon introduces an H function of the following form:

http://upload.wikimedia.org/math/7/c/8/7c8e3c5cb430461ced0090347964a592.png

where K is a positive constant. Shannon then states that "any quantity of this form, where K merely amounts to a choice of a unit of measurement, plays a central role in information theory as measures of information, choice, and uncertainty." Then, as an example of how this expression applies in a number of different fields, he references R.C. Tolman's 1938 Principles of Statistical Mechanics, stating that "the form of H will be recognized as that of entropy as defined in certain formulations of statistical mechanics where pi is the probability of a system being in cell i of its phase space… H is then, for example, the H in Boltzmann's famous H theorem." As such, over the last fifty years, ever since this statement was made, people have been overlapping the two concepts or even stating that they are exactly the same.

Shannon's information entropy is a much more general concept than statistical thermodynamic entropy. Information entropy is present whenever there are unknown quantities that can be described only by a probability distribution. In a series of papers by E. T. Jaynes starting in 1957,[13][14] the statistical thermodynamic entropy can be seen as just a particular application of Shannon's information entropy to the probabilities of particular microstates of a system occurring in order to produce a particular macrostate."

http://en.wikipedia.org/wiki/History_of_entropy - Information_theory

 

 

Recent Contributions to The Mathematical Theory of Communication

Warren Weaver

September, 1949

"Abstract

This paper is written in three main sections. In the first and third, W. W. is responsible both for the ideas and the form. The middle section, namely “2) Communication Problems at Level A” is an interpretation of mathematical papers by Dr. Claude E. Shannon of the Bell Telephone Laboratories. Dr. Shannon’s work roots back, as von Neumann has pointed out, to Boltzmann’s observation, in some of his work on statistical physics (1894), that entropy is related to “missing information,” inasmuch as it is related to the number of alternatives which remain possible to a physical system after all the macroscopically observable information concerning it has been recorded. L. Szilard (Zsch. f. Phys. Vol. 53, 1925) extended this idea to a general discussion of information in physics, and von Neumann (Math. Foundation of Quantum Mechanics, Berlin, 1932, Chap. V) treated information in quantum mechanics and particle physics. Dr. Shannon’s work connects more directly with certain ideas developed some twenty years ago by H. Nyquist and R. V. L. Hartley, both of the Bell Laboratories; and Dr. Shannon has himself emphasized that communication theory owes a great debt to Professor Norbert Wiener for much of its basic philosophy. Professor Wiener, on the other hand, points out that Shannon’s early work on switching and mathematical logic antedated his own interest in this field; and generously adds that Shannon certainly deserves credit for independent development of such fundamental aspects of the theory as the introduction of entropic ideas. Shannon has naturally been specially concerned to push the applications to engineering communication, whileWiener has been more concerned with biological application (central nervous system phenomena, etc.).”

http://isites.harvard.edu/fs/docs/icb.topic933672.files/Weaver Recent Contributions to the Mathematical Theory of Communication.pdf

 

 

 

Los trabajos de Nyquist,  Hartley y aun los de Shannon y Weaver son trabajos que se desarrollaron a partir de problemas de ingeniería y sentaron las bases para el desarrollo de teorías que a su vez se han aplicado para resolver nuevamente problemas específicos, ya que son trabajos concretos desarrollados para resolver problemas concretos de manejo de señales.

El comentario es porque mucha gente confunde el manejo de las matemáticas con el desarrollo de trabajos abstractos, sobre fundamentación o que no tienen que ver con los problemas reales, las matemáticas en este caso son herramientas básicas para resolver problemas de tecnoinformática (tecnologías de la información y comunicación), que a partir de esos trabajos se desarrollen y fundamenten las áreas es otra cosa.

 

 

*****************************************************************************

Entropía de Kolmogórov

Hijos de la Entropia. 10 de septiembre de 2009

"La entropía de Kolmogórov se define como principio que mide la pérdida de información a lo largo de la evolución del sistema. Si por sistema entendemos que tenemos a nuestra sociedad actual, nos encontramos con un principio que absorbe una pérdida descomunal de información, siendo contradictorio por el absoluto dominio digital-global, ya que nos encontramos ante una continua desaceleración de vericidad en los dominios de la información, y eso produce la pérdida de información que mide el principio de la entropía de Kolmogórov. También es definida como la suma de exponentes de Liapunov(El Exponente Lyapunov o Exponente característico Lyapunov de un sistema dinámico es una cantidad que caracteriza el grado de separación de dos trayectorias infinitesimalmente cercanas)."

http://hijosdelaentropia.blogspot.mx/2009/09/entropia-de-kolmogorov.html

 

 

La entropía de Kolmogorov

19/09/2003

"Cuando Shannon publicó sus trabajos hacia 1.948, a los matemáticos en general les pareció algo excesivamente orientado a la tecnología como para tener interés en matemática pura. El gran Andrei Nikolaievich Kolmogorov fué la excepción, escribiendo en una ocasión:

“La importancia del trabajo de Shannon para los matemáticos puros no fue totalmente apreciada desde el comienzo. Recuerdo cuando, en el Congreso Internacional de Matemáticos celebrado en Ámsterdam en 1.954, mis colegas norteamericanos, especialistas en probabilidades, creían que mi interés por los trabajos de Shannon eran algo exagerado ya que esto era más tecnología que matemática. Ahora, tales opiniones ni siquiera necesitan ser refutadas”

 

... Kolmogorov, .... Concretamente estableció la definición de entropía en el interior de un conjunto.

Dado un conjunto, es necesario utilizar cierta cantidad de información para delimitar sin ambigüedad cualquiera de sus subconjuntos propios. Kolmogorov entendió que aquí era donde podía entrar el concepto de entropía. Definió la entropía de un subconjunto en función del hecho anterior, y la llamó e-entropía. (Léase épsilon-entropía).

Si C es un conjunto finito, podemos expresar por enumeración la lista de sus subconjuntos. A cada subconjunto le corresponderá simplemente su número de orden en la lista. El tamaño de la lista es de 2 elevado a N subconjuntos. Lo que expresado en sistema binario nos ocupa precisamente N bits. (Otra forma de verlo es teniendo en cuenta que podemos hacer corresponder un bit a cada posible elemento de los N en C , y para un subconjunto concreto, el j-ésimo bit vale 1 si está presente en el subconjunto, y 0 en caso contrario).

 

Kolmorogov definió la entropía de un subconjunto como

 

H(C)= log (N)

donde el logaritmo está en base 2.

 

Para conjuntos no numerables su táctica fue el uso de e-recubrimientos de radio e (épsilon) arbitrario. La epsilon-entropía del subconjunto era al igual que en el caso numerable, el logaritmo en base 2 del número de elementos del e-recubrimiento mínimo para cubrir totalmente al conjunto. Un e-recubrimiento del conjunto C es un recubrimiento por conjuntos de diámetro menor o igual a 2e. En el caso se un segmento de recta, el número de elementos de un e-recubrimiento es precisamente (L/2e), de donde su e-entropía será:

 

H(C)=log (L/2e) , ....

 

De esta manera, Kolmogorov hecha un puente entre la teoría de la información y la abstracta teoría de conjuntos."

http://tiopetrus.blogia.com/2003/091901-la-entropia-de-kolmogorov.php

 

 

Home page of   Entropy  and Information

Ir a la página principal de Entropía e Información

 

 

 

Maxwell's demon   /   El demonio de Maxwell

http://www.fgalindosoria.com/informatica/aspects/e_i/maxwells_demon/

 

 

Maxwell's demon

Wikipedia, 20140402

"....a container of gas molecules at equilibrium is divided into two parts by an insulated wall, with a door that can be opened and closed by what came to be called "Maxwell's demon". The demon opens the door to allow only the faster than average molecules to flow through to a favored side of the chamber, and only the slower than average molecules to the other side, causing the favored side to gradually heat up while the other side cools down, thus decreasing entropy.

The thought experiment first appeared in a letter Maxwell wrote to Peter Guthrie Tait on 11 December 1867. It appeared again in a letter to John William Strutt in 1871, before it was presented to the public in Maxwell's 1872 book on thermodynamics titled Theory of Het.”

http://en.wikipedia.org/wiki/Maxwell's_demon

 

Traducción apoyada en Google de "Maxwell's demon" (http://en.wikipedia.org/wiki/Maxwell's_demon), Wikipedia, 20140402

"El demonio de Maxwell

....un contenedor de moléculas de gas en equilibrio está dividido en dos partes por una pared aislada, con una puerta que puede ser abierta y cerrada por lo que llegó a ser llamado "el demonio de Maxwell". El demonio abre la puerta para permitir que sólo las moléculas más rápidas que el promedio fluyan a un lado de la cámara, y que sólo las moléculas más lentas que el promedio fluyan hacia el otro lado, haciendo que un lado se caliente gradualmente mientras que el otro lado se enfría, disminuyendo de este modo la entropía .

El experimento mental apareció por primera vez en una carta que escribió Maxwell a Peter Guthrie Tait el 11 de diciembre de 1867. Apareció de nuevo en una carta a John William Strutt en 1871, antes de que fuera presentado al público en 1872 en el libro de Maxwell sobre la termodinámica titulada Teoría del calor.

 

 

Satanic science

by Marianne Freiberger

Seth Lloyd is professor of quantum mechanical engineering at MIT and external professor at the Santa Fe Institute. He is the author of over 150 scientific papers and of a popular book Programming the Universe (see link below). Marianne Freiberger, Editor of Plus, interviewed him in January 2014.

This article is part of our Information about information project, run in collaboration with FQXi. The project gives you the chance to tell us what you'd like to know about information. This article addresses the question 'can information be turned into energy?'.

 

" Entropy is information

It turns out that the definition of entropy in terms of disorder is equivalent to Clausius' original definition in terms of temperature and energy. And the disorder definition also provides a direct link to information. If a system is in a highly disordered state, then you need a lot of information to describe it: there are many configurations in which its constituent components might be arranged. If there is more order in the system, for example if all the molecules that make up a gas are moving in the same direction with the same speed, then you need much less information to describe it. The more disorder there is, the higher the entropy and the more information you need to describe the system.

"When the 20th century rolled around it became clear that entropy was proportional to the amount of information required to describe those molecules; their positions and velocities," explains Lloyd. "Entropy is proportional to the number of bits required to describe the motion of the atoms and molecules. Or, to put it differently, to the amount of information they themselves effectively contain." "

http://plus.maths.org/content/satanic-science

 

 

Home page of   Maxwell's demon

Ir a la página principal de El demonio de Maxwell

 

 

 

Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

http://www.fgalindosoria.com/informatica/aspects/e_i/negentropy_information/

 

 

John von Neumann (el más grande matemático del siglo XX  http://en.wikipedia.org/wiki/John_von_Neumann)  sugirió a Shannon llamar a la "información perdida" entropía

 

History of entropy

Wikipedia, 20140314

"when von Neumann asked him how he was getting on with his information theory, Shannon replied:[11]

“ The theory was in excellent shape, except that he needed a good name for "missing information". "Why don’t you call it entropy", von Neumann suggested. "In the first place, a mathematical development very much like yours already exists in Boltzmann's statistical mechanics, and in the second place, no one understands entropy very well, so in any discussion you will be in a position of advantage."

http://en.wikipedia.org/wiki/History_of_entropy

 

Traducido apoyada en Google de Wikipedia 20140309 de

History of entropy, (http://en.wikipedia.org/wiki/History_of_entropy)

"cuando von Neumann le preguntó cómo le iba con su teoría de la información, Shannon respondió: [11]

"La teoría estaba en excelente estado, con la excepción de que necesitaba un buen nombre de" información perdida ". "¿Por qué no lo llaman entropía", sugirió von Neumann. "En primer lugar, un desarrollo matemático muy parecida al suyo ya existe en la mecánica estadística de Boltzmann, y en segundo lugar, no se comprende la entropía muy bien, así que en cualquier discusión estará en una posición de ventaja."

 

 

*****************************************************************************

Léon Brillouin

Wikipedia, 20140402

Léon Nicolas Brillouin (French: [bʁilwɛ̃]; August 7, 1889 – October 4, 1969) was a French physicist. He made contributions to quantum mechanics, radio wave propagation in the atmosphere, solid state physics, and information theory.

....

He applied information theory to physics and the design of computers and coined the concept of negentropy to demonstrate the similarity between entropy and information.[3][4]

http://en.wikipedia.org/wiki/L%C3%A9on_Brillouin

 

Brillouin, L., 1951, “Maxwell's demon cannot operate: Information and entropy I”, Journal of Applied Physics, 22: 334–337.

Brillouin, L., 1956, Science and Information Theory, New York: Academic Press.

 

 

Léon Brillouin

Wikipedia, 20140402

"Léon Nicolas Brillouin (7 de agosto de 18891969) fue un físico francés. Nació en Sèvres (cerca de París), Francia. Su padre, Marcel Brillouin, era también físico. Hizo aportes en los campos de mecánica cuántica, propagación de ondas de radio en la atmósfera, física del estado sólido, y teoría de la información.

.......

Él aplicó la teoría de la información a la física y al diseño de computadoras, y acuñó el concepto de neguentropía para demostrar la similaridad entre la entropía y la información."

http://es.wikipedia.org/wiki/L%C3%A9on_Brillouin

 

 

*****************************************************************************

Negentropy

Wikipedia 20140311

"The negentropy, also negative entropy or syntropy or extropy or entaxy,[1] of a living system is the entropy that it exports to keep its own entropy low; it lies at the intersection of entropy and life. The concept and phrase "negative entropy" were introduced by Erwin Schrödinger in his 1944 popular-science book What is Life?[2] Later, Léon Brillouin shortened the phrase to negentropy,[3][4] to express it in a more "positive" way: a living system imports negentropy and stores it.[5] In 1974, Albert Szent-Györgyi proposed replacing the term negentropy with syntropy. That term may have originated in the 1940s with the Italian mathematician Luigi Fantappiè, who tried to construct a unified theory of biology and physics. Buckminster Fuller tried to popularize this usage, but negentropy remains common.

….

In 2009, Mahulikar & Herwig redefined negentropy of a dynamically ordered sub-system as the specific entropy deficit of the ordered sub-system relative to its surrounding chaos.”

http://en.wikipedia.org/wiki/Negentropy

 

 

Neguentropía

Wikipedia 20140309

"La neguentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la neguentropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico.

La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía.

 

Concepto de entropía negativa

El concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de los padres de la mecánica cuántica) en su libro de ciencia popular what is life?, publicado en 1943. Más tarde, Léon Brillouin cambió la palabra por "neguentropía", para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importa neguentropía y la almacena. En 1974, Albert SzentGyörgyi (Nobel de Fisiología Médica en 1937) propuso cambiar el término de neguentropía a sintropía, aunque este último ya había sido usado por el matemático Luigi Fantappiè, quien lo utilizó con el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero, arquitecto y diseñador del siglo XX, trató de hacer popular este término, pero la palabra neguentropía siempre permaneció como la más común.

En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un sub-sistema ordenado dinámicamente como el déficit de entropía relacionado al caos que rodea al sub-sistema ordenado"

http://es.wikipedia.org/wiki/Neguentrop%C3%ADa

 

 

Home page of   Negentropy and Information

Ir a la página principal de Neguentropía e Información

 

 

 

Current Research in Entropy and Information

Investigaciones Actuales sobre Entropía e Información

www.fgalindosoria.com/informatica/aspects/e_i/current research_e_i/

 

 

Clases sobre Teoría de la Información

"Entropía y cantidad de información; fórmula de la entropía de una variable aleatoria; La complejidad; El poder del azar en plataformas inteligentes; El concepto más abismal de toda la matemática Aleph; La Esperanza, la Integral de Lebesgue y la Ley de Laplace; La distinguibilidad de estados; La complejidad estructural emergente; La propiedad de una sola vía   La Entropía ó El tiempo; La propiedad que se conserva:     "El Espacio"  ó  "La Información"; Son muchas las cosas, pero hay un límite a lo que le podemos hacer a un gato; El límite de Schwinger; El espacio tiempo fractal"

Jesús M. Landart, Cristián Antiba, y alguien mas...

www.fgalindosoria.com/informatica/aspects/e_i/current research_e_i/teoria_informacion_clases.htm

 

 

Space, Scale, and Scaling in Entropy Maximizing

Michael Batty

Centre for Advanced Spatial Analysis (CASA), University College London (UCL), London, U.K.

Geographical Analysis, 42, 4, 395–421, 2010

"Entropy measures were first introduced into geographical analysis during a period when the concept of human systems in equilibrium was in its ascendancy. In particular, entropy maximizing, in direct analogy with equilibrium statistical mechanics, provides a powerful framework in which to generate location and interaction models.

This was introduced and popularized by Wilson, and it led to many different extensions that elaborate the framework rather than extend it to different kinds of models.

I review two such extensions here: how space can be introduced into the formulation through defining a ‘‘spatial entropy’’ and how entropy can be decomposed and nested to capture spatial variation at different scales. Two obvious directions to this research remain implicit. First, the more substantive interpretations of the concept of entropy for different shapes and sizes of geographical systems have hardly been developed. Second, an explicit dynamics associated with generating probability distributions has not been attempted until quite recently with respect to the search for how power laws emerge as signatures of universality in complex systems. In short, the connections between entropy maximizing, substantive interpretations of entropy measures, and the longer-term dynamics of how equilibrium distributions are reached and maintained have not been well developed. This literature gap has many implications for future research, and, in conclusion, I sketch the need for new and different entropy measures that enable us to see how equilibrium spatial distributions can be generated as the outcomes of dynamic processes that converge to a steady state.

http://www.complexcity.info/files/2011/06/batty-ga-2010.pdf

 

 

*************************************

 

12. Knowledge, Information, and Entropy

Henry Stapp

“The book John von Neumann and the Foundations of Quantum Physics contains a fascinating and informative article written by Eckehart Kohler entitled “Why von Neumann Rejected Carnap’s Dualism of Information Concept.” The topic is precisely the core issue before us: How is knowledge connected to physics? Kohler illuminates von Neumann’s views on this subject by contrasting them to those of Carnap.”

http://www-physics.lbl.gov/~stapp/Chap12.PDF

 

 

*************************************

Dissipative system   /   Estructuras disipativas

 

Ilya Prigogine

"Ilya Prigogine, recibió el premio Nobel de Química en el año 1977 por su aporte al conocimiento de las "estructuras disipativas" en el mundo físico, es decir, el estudio de la aparición del orden en condiciones alejadas del equilibrio. El término estructura disipativa busca representar la asociación de las ideas de orden y disipación. El nuevo hecho fundamental es que la disipación de energía y de materia, que suele asociarse a la noción de pérdida y evolución hacia el desorden, se convierte, lejos del equilibrio, en fuente de orden. Estas estructuras están en la base de la vida y en ellas el orden se establece en base a ecuaciones de evolución no lineal, de mucha mayor complejidad que cerca del equilibrio en donde las soluciones son mucho más simples y se pueden linealizar."

http://www.fgalindosoria.com/informaticos/fundamentales/Ilya_Prigogine

 

 

Dissipative system

Wikipedia, 20140408

"A dissipative system is a thermodynamically open system which is operating out of, and often far from, thermodynamic equilibrium in an environment with which it exchanges energy and matter.

A dissipative structure is a dissipative system that has a dynamical régime that is in some sense in a reproducible steady state. This reproducible steady state may be reached by natural evolution of the system, by artifice, or by a combination of these two.

.....

Overview

A dissipative structure is characterized by the spontaneous appearance of symmetry breaking (anisotropy) and the formation of complex, sometimes chaotic, structures where interacting particles exhibit long range correlations. The term dissipative structure was coined by Russian-Belgian physical chemist Ilya Prigogine, who was awarded the Nobel Prize in Chemistry in 1977 for his pioneering work on these structures. The dissipative structures considered by Prigogine have dynamical régimes that can be regarded as thermodynamically steady states, and sometimes at least can be described by suitable extremal principles in non-equilibrium thermodynamics.

Examples in every day life include convection, cyclones, hurricanes and living organisms. Less common examples include lasers, Bénard cells, and the Belousov–Zhabotinsky reaction.[citation needed]

One way of mathematically modeling a dissipative system is given in the article on wandering sets: it involves the action of a group on a measurable set."

http://en.wikipedia.org/wiki/Dissipative_system

 

 

*************************************

PARADOJA DE LA INFORMACIÓN Y EL UNIVERSO HOLOGRÁFICO

Agujeros negros e información

 

”...Si preguntamos de qué se compone el mundo físico, se nos responderá que de "materia y energía". Pero quien sepa algo de ingeniería, biología y física nos citará también la información como elemento no menos importante...”

La información en el universo holográfico (Inicio del artículo)

Jacob D. Bekenstein,, Scientific American Latinoamérica, año 2 N. 15, Octubre de 2003, pág. 38-45

 

Jacob David Bekenstein (born May 1, 1947) is a physicist who has contributed to the foundation of black hole thermodynamics and to other aspects of the connections between information and gravitation. He was born in Mexico City, Mexico.

http://en.wikipedia.org/wiki/Jacob_Bekenstein

www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/

 

 

black holes have no hair   /   Los agujeros negros no tienen pelo

 

No-hair theorem

Wikipedia, 20140418

"The no-hair theorem postulates that all black hole solutions of the Einstein-Maxwell equations of gravitation and electromagnetism in general relativity can be completely characterized by only three externally observable classical parameters: mass, electric charge, and angular momentum.[1] All other information (for which "hair" is a metaphor) about the matter which formed a black hole or is falling into it, "disappears" behind the black-hole event horizon and is therefore permanently inaccessible to external observers. Physicist John Archibald Wheeler expressed this idea with the phrase "black holes have no hair"[1] which was the origin of the name"

http://en.wikipedia.org/wiki/No-hair_theorem

 

Teorema de no pelo

Wikipedia, 20140418

"El teorema de no pelo, teorema sin pelo o teorema de la calvicie (traducción del inglés no hair theorem) postula que todas las soluciones del agujero negro descritas en las ecuaciones de Einstein-Maxwell de gravitación y electromagnetismo en la relatividad general pueden ser caracterizadas por solo tres parámetros observables de manera externa: su masa M, su carga Q y su momento angular J.

Toda otra información acerca de la materia que forma el agujero negro o que está cayendo en él, desaparece detrás del horizonte de sucesos y es permanentemente inaccesible a un observador externo (paradoja de la formación del agujero negro).

El físico estadounidense John Archibald Wheeler (1911-2008) ―quien en 1968 acuñó el término «agujero negro»― expresó esta idea con la frase «los agujeros negros no tienen pelo» (o sea, no tienen información), que dio origen al nombre de este teorema,"

http://es.wikipedia.org/wiki/Teorema_de_ning%C3%BAn_pelo

 

 

"El teorema de la carencia de pelo supone que durante la contracción gravitatoria se pierde una gran cantidad de información."

 

"....Uno de los resultados alentadores que se han hallado en las investigaciones de la teoría de cuerdas es la derivación de la fórmula de la entropía conocida como de Bekenstein-Hawking para los agujeros negros, la cual se obtiene con la enumeración de los estados microscópicos de las cuerdas que formarían un agujero negro. Esto ocurre si se admite que el área del horizonte es análoga a la entropía, lo que implica que la gravedad superficial tiene que ser igual a todos los puntos del horizonte de sucesos, del mismo modo que es igual a la temperatura en todos los puntos de un cuerpo con equilibrio térmico. Aunque exista claramente una semejanza entre entropía y área del horizonte de sucesos, no aparece tan obvio el modo de identificar el área con la entropía de un agujero negro. ¿Qué se puede entender por entropía de un agujero negro?

                La afirmación la encontramos en los trabajos formulados en 1972 por Jacob D. Bekenstein de la Universidad del Neguev, en Israel. Dice así: cuando se crea un agujero negro por obra de un colapso gravitatorio, rápidamente entra en una situación estacionaria caracterizado sólo por tres parámetros: la masa, el momento angular y la carga eléctrica. Al margen de estas tres propiedades, el agujero negro no conserva ninguna otra de las características del objeto que se contrajo. Esta conclusión, conocida coloquialmente como el teorema «un agujero negro no tiene pelo», fue demostrada por esas formulaciones en colaboración con Stephen Hawking de la Universidad de Cambridge, Werner Israel de la Universidad de Alberta y David C. Robinson del King's College de Londres. El teorema de la carencia de pelo supone que durante la contracción gravitatoria se pierde una gran cantidad de información. .... un agujero negro de una masa, momento angular y carga eléctrica determinados podría haber surgido del colapso de cualquiera de las muchísimas configuraciones diferentes de la materia. ....

                El principio de incertidumbre de la mecánica cuántica implica, sin embargo, que una partícula de masa m se comporta como una onda de longitud h/mc, donde h es la constante de Planck (la pequeña cifra de 6,62 x 10-27 ergios por segundo) y c es la velocidad de la luz. Para que una nube de partículas sea capaz de contraerse hasta formar un agujero negro, parece necesario que esa longitud de onda tenga un tamaño inferior al del agujero negro así formado. Resulta por eso que el número de configuraciones susceptibles de formar un agujero negro de una masa, momento angular y carga eléctrica determinados, aunque muy grande, puede ser finito. Bekenstein afirmó que es posible interpretar el logaritmo de este número como la entropía de un agujero negro. El logaritmo del número sería una medida del volumen de información que se pierde irremediablemente durante el colapso a través de un horizonte de sucesos al surgir un agujero negro."

© 2002 Javier de Lucas

http://platea.pntic.mec.es/~jdelucas/18descubrimientosbekensteinhawking.htm

 

 

Holographic principle

http://en.wikipedia.org/wiki/Holographic_principle

 

Principio Holográfico

http://es.wikipedia.org/wiki/Principio_Hologr%C3%A1fico

 

 

*************************************

BEKENSTEIN-HAWKING ENTROPY / ENTROPÍA DE BEKENSTEIN-HAWKING

Black Hole Entropy   /   Entropía de los Agujeros Negros

S = Akc3/4Għ

 

 

Bekenstein-Hawking entropy

Scholarpedia 20140418

The Bekenstein-Hawking entropy or black hole entropy is the amount of entropy that must be assigned to a black hole in order for it to comply with the laws of thermodynamics as they are interpreted by observers external to that black hole. This is particularly true for the first and second laws. Black hole entropy is a concept with geometric root but with many physical consequences. It ties together notions from gravitation, thermodynamics and quantum theory, and is thus regarded as a window into the as yet mostly hidden world of quantum gravity.

http://www.scholarpedia.org/article/Bekenstein-Hawking_entropy

 

fórmula de Bekenstein-Hawking

S = Akc3 / 4Għ

S entropía, A área, k constante de Boltzmann, c velocidad de la luz, G constante de la gravitación universal, ħ=h/2π, donde h es la constante de Planck.

www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/

 

 

Home page of   Current Research in Entropy and Information

Ir a la página principal de Investigaciones Actuales sobre Entropía e Información

 

 

 

Entropy and Information Some Related Areas

Algunas Áreas Relacionadas sobre Entropía e Información

http://www.fgalindosoria.com/informatica/aspects/e_i/e_i_related_areas/

 

 

Symmetry and the Beautiful Universe

Leon M. Lederman,  Christopher T. Hill

 

La simetría y la belleza del universo

Leon M. Lederman,  Christopher T. Hill

Metatemas

 

simetría

invariancia en el tiempo

http://www.fgalindosoria.com/informatica/properties/symmetry/

 

 

Teorema de Noether

http://www.fgalindosoria.com/informatica/fundamentals/noether/

 

Informalmente, el Teorema de Noether se puede establecer como:

A cada simetría (continua), le corresponde una ley de conservación y viceversa

http://es.wikipedia.org/wiki/Teorema_de_Noether

 

“El de Noether es a mi juicio uno de los teoremas más bellos y profundos que ha dado la ciencia.”

http://bloxito.blogalia.com/historias/35856

 

 

*****************************************************************************

Ciclo de Krebs

Proceso mediante el que se genera energía en los seres vivos

 

Ciclo de Krebs

Wikipedia 20140314

"El ciclo de Krebs (ciclo del ácido cítrico o ciclo de los ácidos tricarboxílicos)[1] [2] es una ruta metabólica, es decir, una sucesión de reacciones químicas, que forma parte de la respiración celular en todas las células aeróbicas. En células eucariotas se realiza en la mitocondria. En las procariotas, el ciclo de Krebs se realiza en el citoplasma, específicamente en el citosol.

En organismos aeróbicos, el ciclo de Krebs es parte de la vía catabólica que realiza la oxidación de glúcidos, ácidos grasos y aminoácidos hasta producir CO2, liberando energía en forma utilizable (poder reductor y GTP)."

http://es.wikipedia.org/wiki/Ciclo_de_Krebs

 

 

Home page of   Entropy and Information Some Related Areas

Ir a la página principal de Algunas Áreas Relacionadas sobre Entropía e Información

 

 

 

 

 

 

 

Ir a Portal de Fernando Galindo Soria

 

Aspects of Information

Entropy and Information   /    Knowledge   /   Linguistic Aspects   /   Fractals and Chaos   /  

 

Aspectos de la Información

La materia tiene múltiples aspectos, por ejemplo: sólido, liquido, gas, duro, blando, metal, piel,....

La energía toma múltiples aspectos, por ejemplo: energía estática, dinámica, calor, luz, ...

También la información tiene múltiples aspectos, como por ejemplo:

Entropía e Información  / Conocimiento  / Aspectos Lingüísticos  / Fractales y Caos,

Datos;   Estructuras;   Patrones;   Normas;   Dinero;   Código Genético, Sistema Nervioso, Neurotransmisores;   Cuerdas, Ondas, Señales, Ruido, Sonido,  Música;   Partículas;   Mezclas, Soluciones, Compuestos;  Campo, Espacio;   Entidades, Atributos, Relaciones;   Unidades de Materia, Energía e Información (UMEI);   Pensamiento;   Noticias, Memes;   Códices, Libros;   Qbit, Entrelazamiento;   Conjunto, Grupo, Anillo;   Sistemas Conexionistas, Redes Neurales;   Sistemas Formales;   Sistemas Evolutivos, Afectivos, Concientes;   Espacio de Caos, Espacio Probabilístico, Espacio Métrico;   Estructuras Arborescentes, Dendritas;   Continuo, Discreto (Numerable, No Numerable) ;   Multiarboles;   Matrices;   recursividad;…

 

 

Go to   /   Ir a páginas de

Entropy and Thermodynamics   /   Entropía y Termodinámica

 

Entropy  and Information   /    Entropía e Información

 

Maxwell's demon   /   El demonio de Maxwell

 

Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

 

Current Research in Entropy and Information

Investigaciones Actuales sobre Entropía e Información

 

Entropy and Information Some Related Areas

Algunas Áreas Relacionadas sobre Entropía e Información