|
Aspects of Information
Matter has
many aspects, for example: solid, liquid, gas, hard, soft, metal, leather,
....
Energy
takes many aspects, for example, static energy, dynamic, heat, light, ...
Information
has multiple aspects, for example::
Entropy and
Information / Knowledge / Linguistic Aspects / Fractals and
Chaos /….
Aspectos de la
Información
La materia tiene múltiples aspectos, por ejemplo: sólido,
liquido, gas, duro, blando, metal, piel,....
La energía toma múltiples aspectos, por ejemplo: energía
estática, dinámica, calor, luz, ...
También la información tiene
múltiples aspectos, como por ejemplo:
Entropía e Información /
Conocimiento
/ Aspectos
Lingüísticos / Fractales
y Caos /
Datos; Estructuras; Patrones;
Normas; Dinero; Código Genético, Sistema Nervioso,
Neurotransmisores; Cuerdas, Ondas,
Señales, Ruido, Sonido, Música; Partículas; Mezclas, Soluciones, Compuestos; Campo, Espacio; Entidades, Atributos, Relaciones; Unidades de Materia, Energía e Información
(UMEI); Pensamiento; Noticias, Memes; Códices, Libros; Qbit,
Entrelazamiento; Conjunto, Grupo,
Anillo; Sistemas Conexionistas, Redes
Neurales; Sistemas Formales; Sistemas Evolutivos, Afectivos, Concientes;
Espacio de Caos, Espacio Probabilístico, Espacio Métrico; Estructuras Arborescentes, Dendritas; Continuo, Discreto (Numerable, No Numerable)
; Multiarboles; Matrices;
recursividad;…
|
|
Página de
Fernando
Galindo Soria
www.fgalindosoria.com
http://fgalindosoria.com/en/
fgalindo@ipn.mx
Informático
Lingüista
Matemático
Administrador de
Desarrollo Estratégico
Investigador
Principales
Aportaciones
Premios y
Distinciones
curriculum vitae
(Resumen)
Semblanza
curriculum
vitae (extendido)
Egoteca
Principales actividades antes del 2004
CD de Informática 2005i
Histórico
y Efemérides
Mapa del Sitio
.
|
|
Áreas
de Investigación
Transfinito
Dimensional y Dinámica Dimensional
Acerca del Continuo Dimensional:
Un universo Fractal
Introducción al espacio dimensión-valor
Notas acerca de los universos recursivos
Números y Espacios Bcomplejos
Enfoque Lingüístico y Lingüística
Matemática
De Fractales y otros Bichos
Ecuación de la
Naturaleza
S -> e* S*
Evolución, Afectividad y Conciencia
EAC
Sistemas Evolutivos, Afectivos y Concientes SEAC
Evolución y Sistemas Evolutivos
Sistemas Afectivos
Sistemas Concientes
Matrices Evolutivas y Dinámica
Dimensional
Interactividad Conocimiento Ubicuidad ICU
Diapositivas Tres
Grandes Áreas Relacionadas: Interactividad, Industria del Conocimiento,
Ubicuidad ICU
Notas de
Investigación
.
|
|
Informatics /
Informática
Información,
Materia Energía Información
MEI
Transmisión
instantánea y simultánea de información,
Perfil
del Licenciado en Ciencias de la Informática
Informatics /
Informáticos
Personajes Fundamentales de la
Informática
History of
Informatics
/ Historia de la Informática
Aspects of information
/ Aspectos de la Información
Entropía e Información
Conocimiento
Fundamentals of Informatics: Sciences, Theories, Theorems, Laws, Paradigms /
Fundamentos de la Informática:
Ciencias, Teorías, Teoremas, Leyes, Paradigmas
Noether's theorem /
Teorema de Noether
Informatics Properties /
Propiedades Informáticas
Density
and Frecuency / Densidad y Frecuencia
Symmetry /
Simetría
Informatics Methods, Techniques, Tools
Métodos,
Técnicas, Herramientas Informáticas
Search /
Búsqueda
Applied
Informatics / Informática Aplicada
Informática
Educativa
Administración e
Investigación
Administración del Desarrollo y
Alta Dirección
Noticias
Estratégicas
Estadísticas Mundiales
Sobre Investigación y Desarrollo
.
|
|
Administración
del Desarrollo y Alta Dirección,
Noticias
Estratégicas,
Estadísticas Mundiales,
Sobre Investigación y Desarrollo
.
|
|
Portal
del Conocimiento Ligas
Eventos
tecnológicos
Eventos
culturales
México
Cd. de México
Ecología Agua
Arte
y Entretenimiento
Arte
Efímero e Intangible
Literatura
Cuentos de Fernando
Galindo Soria
Música
crea tu página english francais español deutch
CD de Informática 2005i
Histórico y Efemérides
.
|
|
Programación
Ecuación
de la Naturaleza (Programas
en Borland C)
Fractales
de Dragón basados en la Ecuación de
la Naturaleza Sàe*S*
Agregado de
Partículas
Games /
Juegos
Programas en Borland C, Turbo Pascal y
Java
Programas
en C (Borland C)
Programas
en Turbo Pascal
Programas
en Java
.
|
|
Egoteca Egozone
Egotetlan
Egoteca
Estadísticas Webalizer
ALEXA Ranking
Push2check
.
|
|
Página de
Fernando
Galindo Soria
www.fgalindosoria.com
http://fgalindosoria.com/en/
fgalindo@ipn.mx
Informático
Lingüista
Matemático
Administrador de
Desarrollo Estratégico
Investigador
Principales
Aportaciones
Premios y
Distinciones
curriculum vitae
(Resumen)
Semblanza
curriculum
vitae (extendido)
Egoteca
Principales actividades antes del 2004
CD de Informática 2005i
Histórico
y Efemérides
Mapa del Sitio
.
|
|
Áreas
de Investigación
Transfinito
Dimensional y Dinámica Dimensional
Acerca del Continuo Dimensional:
Un universo Fractal
Introducción al espacio dimensión-valor
Notas acerca de los universos recursivos
Números y Espacios Bcomplejos
Enfoque Lingüístico y Lingüística Matemática
De Fractales y otros Bichos
Ecuación de la
Naturaleza
S -> e* S*
Evolución, Afectividad y Conciencia
EAC
Sistemas Evolutivos, Afectivos y Concientes SEAC
Evolución y Sistemas Evolutivos
Sistemas Afectivos
Sistemas Concientes
Matrices Evolutivas y Dinámica
Dimensional
Interactividad Conocimiento Ubicuidad ICU
Diapositivas Tres
Grandes Áreas Relacionadas: Interactividad, Industria del Conocimiento,
Ubicuidad ICU
Notas de
Investigación
.
|
|
Informatics /
Informática
Información,
Materia Energía
Información MEI
Transmisión
instantánea y simultánea de información,
Perfil
del Licenciado en Ciencias de la Informática
Informatics /
Informáticos
Personajes Fundamentales de la
Informática
History of
Informatics
/ Historia de la Informática
Aspects of information
/ Aspectos de la Información
Entropía e Información
Conocimiento
Fundamentals of Informatics: Sciences, Theories, Theorems, Laws, Paradigms /
Fundamentos de la
Informática: Ciencias, Teorías, Teoremas, Leyes, Paradigmas
Noether's theorem /
Teorema de Noether
Informatics Properties
/
Propiedades Informáticas
Density
and Frecuency / Densidad y Frecuencia
Symmetry /
Simetría
Informatics Methods, Techniques, Tools
Métodos,
Técnicas, Herramientas Informáticas
Search /
Búsqueda
Applied
Informatics / Informática Aplicada
Informática
Educativa
Administración e
Investigación
Administración del
Desarrollo y Alta Dirección
Noticias
Estratégicas
Estadísticas Mundiales
Sobre Investigación y Desarrollo
.
|
|
Administración
del Desarrollo y Alta Dirección,
Noticias
Estratégicas,
Estadísticas Mundiales,
Sobre Investigación y Desarrollo
.
|
|
Portal
del Conocimiento Ligas
Eventos
tecnológicos
Eventos
culturales
México
Cd. de México
Ecología Agua
Arte
y Entretenimiento
Arte
Efímero e Intangible
Literatura
Cuentos de Fernando
Galindo Soria
Música
crea tu página english francais español deutch
CD de Informática 2005i
Histórico y Efemérides
.
|
|
Programación
Ecuación
de la Naturaleza (Programas
en Borland C)
Fractales
de Dragón basados en la Ecuación de
la Naturaleza Sàe*S*
Agregado de
Partículas
Games /
Juegos
Programas en Borland C, Turbo Pascal y
Java
Programas
en C (Borland C)
Programas
en Turbo Pascal
Programas
en Java
.
|
|
Egoteca Egozone
Egotetlan
Egoteca
Estadísticas Webalizer
ALEXA Ranking
Push2check
.
|
|
Página de
Fernando
Galindo Soria
www.fgalindosoria.com
http://fgalindosoria.com/en/
fgalindo@ipn.mx
Informático
Lingüista
Matemático
Administrador de Desarrollo
Estratégico
Investigador
Principales
Aportaciones
Premios y
Distinciones
curriculum vitae
(Resumen)
Semblanza
curriculum
vitae (extendido)
Egoteca
Principales actividades antes del 2004
CD de Informática 2005i
Histórico
y Efemérides
Mapa del Sitio
.
|
|
Áreas
de Investigación
Transfinito
Dimensional y Dinámica Dimensional
Acerca del Continuo Dimensional:
Un universo Fractal
Introducción al espacio dimensión-valor
Notas acerca de los universos recursivos
Números y Espacios Bcomplejos
Enfoque Lingüístico y Lingüística
Matemática
De Fractales y otros Bichos
Ecuación de la
Naturaleza
S -> e* S*
Evolución, Afectividad y Conciencia
EAC
Sistemas Evolutivos, Afectivos y Concientes SEAC
Evolución y Sistemas Evolutivos
Sistemas Afectivos
Sistemas Concientes
Matrices Evolutivas y Dinámica
Dimensional
Interactividad Conocimiento Ubicuidad ICU
Diapositivas Tres
Grandes Áreas Relacionadas: Interactividad, Industria del Conocimiento,
Ubicuidad ICU
Notas de
Investigación
.
|
|
Informatics / Informática
Información,
Materia Energía
Información MEI
Transmisión
instantánea y simultánea de información,
Perfil
del Licenciado en Ciencias de la Informática
Informatics /
Informáticos
Personajes Fundamentales de la
Informática
History of
Informatics
/ Historia de la Informática
Aspects of information
/ Aspectos de la Información
Entropía e Información
Conocimiento
Fundamentals of Informatics: Sciences, Theories, Theorems, Laws, Paradigms /
Fundamentos de la
Informática: Ciencias, Teorías, Teoremas, Leyes, Paradigmas
Noether's theorem /
Teorema de Noether
Informatics Properties /
Propiedades Informáticas
Density
and Frecuency / Densidad y Frecuencia
Symmetry /
Simetría
Informatics Methods, Techniques, Tools
Métodos,
Técnicas, Herramientas Informáticas
Search /
Búsqueda
Applied
Informatics / Informática Aplicada
Informática
Educativa
Administración e
Investigación
Administración del
Desarrollo y Alta Dirección
Noticias
Estratégicas
Estadísticas Mundiales
Sobre Investigación y Desarrollo
.
|
|
Administración
del Desarrollo y Alta Dirección,
Noticias
Estratégicas,
Estadísticas Mundiales,
Sobre Investigación y Desarrollo
.
|
|
Portal
del Conocimiento Ligas
Eventos
tecnológicos
Eventos
culturales
México
Cd. de México
Ecología Agua
Arte
y Entretenimiento
Arte
Efímero e Intangible
Literatura
Cuentos de Fernando
Galindo Soria
Música
crea tu página english francais español deutch
CD de Informática 2005i
Histórico y Efemérides
.
|
|
Programación
Ecuación
de la Naturaleza (Programas
en Borland C)
Fractales
de Dragón basados en la Ecuación de
la Naturaleza Sàe*S*
Agregado de
Partículas
Games /
Juegos
Programas en Borland C, Turbo Pascal y
Java
Programas
en C (Borland C)
Programas
en Turbo Pascal
Programas
en Java
.
|
|
Egoteca Egozone
Egotetlan
Egoteca
Estadísticas Webalizer
ALEXA Ranking
Push2check
.
|
|
Notas de Investigación
La entropía es una propiedad informática que mide el
desorden de un sistema
Fernando Galindo Soria
22 de Enero del 2011
Entropía, Principio de Incertidumbre, Energía del Vació,
Onda Partícula
www.fgalindosoria.com/informatica/aspects/e_i/notas/entropia_principio_de_incertidumbre_energia_del_vacio_onda_particula.htm
La entropía de un
sistema tiene que ver con su estructura
Fernando Galindo Soria 14 de
Junio del 2013
Entropía y Estructura
www.fgalindosoria.com/informatica/aspects/e_i/notas/entropia_y_estructura.htm
*****************************************************************************
*****************************************************************************
*****************************************************************************
Contexto
La palabra entropía procede del griego
(ἐντροπία)
y significa evolución o transformación.
Entropía
Wikipedia, 20140626
"En termodinámica,
la entropía (simbolizada como S) es una magnitud física que, mediante cálculo,
permite determinar la parte de la energía
que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema
aislado, crece en el transcurso de un proceso que se dé de forma
natural. La entropía describe lo irreversible
de los sistemas termodinámicos. La palabra entropía
procede del griego (ἐντροπία)
y significa evolución o transformación. Fue Rudolf
Clausius quien le dio nombre y la desarrolló durante la década de
1850;[1] [2] y Ludwig
Boltzmann, quien encontró en 1877 la manera de expresar
matemáticamente este concepto, desde el punto de vista de la
probabilidad."
http://es.wikipedia.org/wiki/Entrop%C3%ADa
Entropía (desambiguación)
http://es.wikipedia.org/wiki/Entrop%C3%ADa_(desambiguaci%C3%B3n)
Información y Entropía
Guillermo Agudelo Murguía, José
Guillermo Alcalá Rivero
"...La teoría formal de la información nació de los
artículos publicados en 1948 por el matemático estadounidense Claude E.
Shannon. En ellos enunció: la medida de la información más ampliamente usada
hoy en día es la entropía. La entropía había venido siendo un concepto
central de la termodinámica, la rama de la física que trata del calor. Suele
decirse que la entropía termodinámica expresa el desorden de un sistema
físico. En 1877 el físico austriaco Ludwig Boltzmann la caracterizó más
precisamente como el número de estados microscópicos distintos en los que
pueden hallarse las partículas que componen un trozo de materia de forma que
siga pareciendo el mismo trozo desde un punto de vista macroscópico. En el
caso del aire de una habitación, se contarían las maneras en que podrían
distribuirse y moverse las moléculas de gas por la habitación.
Claro que esta conceptualización de Boltzmann va muy de
acuerdo con la idea de que la suma de las partes aisladas no da como
resultado el todo. Actualmente se acepta que a la suma de las partes debe
agregársele los valores de las interacciones de estas partes, las ligas que
contienen la Información que determina su comportamiento...."
http://www.iieh.org/Informacion/articulos_informacion01.php#(NOTA%205)
"Gibbs
entropy formula, named after J. Willard Gibbs. For a classical system
(i.e., a collection of classical particles) with a discrete set of
microstates, if is the energy of microstate i, and is its probability that it occurs during the
system's fluctuations, then the entropy of the system is

The quantity is a physical constant known as Boltzmann's constant,"
Wikipedia
20140309
http://en.wikipedia.org/wiki/Entropy_(statistical_thermodynamics)
"Shannon
introduces an H function of the following form:

where K
is a positive constant. Shannon then states that "any quantity of this
form, where K merely amounts to a choice of a unit of measurement,
plays a central role in information theory as measures of information,
choice, and uncertainty." Then, as an example of how this expression
applies in a number of different fields, he references R.C. Tolman's 1938 Principles
of Statistical Mechanics, stating that "the form of H will be
recognized as that of entropy as defined in certain formulations of
statistical mechanics where pi is the probability of a
system being in cell i of its phase space…"
Wikipedia
20140314
http://en.wikipedia.org/wiki/History_of_entropy
- Information_theory
"WIENER propuso una posición similar a la de
BERTALANFFY, en el sentido de que las máquinas cibernéticas son sistemas
cerrados organizacionalmente y abiertos informacionalmente, o que reciben
información de parte del entorno y que actúan sobre éste. Esta información se
concibe en términos de inputs y outputs.
Ya
que el interés fundamental de la cibernética reside en el control del cambio,
fue necesario encontrar, a partir de la concepción de la entropía, a la
manera como la toma Gibbs, un enlace entre la comunicación y el control. “En
las comunicaciones y en la regulación luchamos siempre con la tendencia de la
naturaleza a degradar lo organizado y a destruir lo que tiene sentido, la
misma tendencia de la entropía a aumentar, como lo demostró GIBBS” (RODRÍGUEZ
y ARNOLD 1991: 44).
Con la máquina entendida como sistema abierto coinciden,
en sentido opuesto, el comportamiento de la información y la entropía “Así
como el monto de información en un sistema es la medida de su grado de
organización, la entropía en un sistema es una medida de su grado de
desorganización; y la una es simplemente el negativo de la otra” (Ibíd.: 44).
El control es lo que permite la permanencia de la organización a través del
manejo de la información interna y de la que proviene del entorno.
De esta manera, para la cibernética, tanto los organismos
vivos y como máquinas autónomas son sistemas organizados que tienden a la
entropía y que deber ser capaces de oponerse temporalmente a esa entropía
(neguentropía).
Esa capacidad neguentrópica, a través de la cual se
mantiene la organización (entendida como un índice de lo que puede esperarse
del sistema), se da a través de la información).
Tras esta concepción de la cibernética se ha identificado
una nueva teleología, según la cual el comportamiento del sistema está
determinado fundamentalmente por la información que le llega del entorno o en
la que las formas de organización y las metas (outputs) se definen en su
relación mutua (Ibíd.: 44).
3. LAS TEORÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN
3.1. INICIOS DE LA TEORÍA DE LA INFORMACIÓN
Esta teoría surgió a partir del trabajo de CLAUDE SHANNON
y WARREN WEAVER, conocido como “teoría matemática de la información”. En
1949, dichos autores respondieron a la pregunta del especialista en ciencias
políticas HAROLD D. LASSWELL: ¿quién le dice qué, a quién, y con qué efecto?
con una teoría de la información. Ella tenía como objeto de estudio el
análisis de la eficacia de la información y buscaba establecer medidas
cuantitativas sobre la capacidad de variados sistemas de transmitir,
almacenar y procesar información. Intentaron descubrir las leyes matemáticas
que gobiernan la información y establecer la medida cuantitativa mínima que
reduce la incertidumbre en un mensaje (JUTORAN 1994).
.....
Se incorporó a este modelo otro concepto, definido por
SHANNON , en un primer momento, como “fuente de ruido”, en relación a la
interferencia o perturbación en la claridad de la transmisión de la
información. Uno de los objetivos de esta teoría era encontrar la relación
entre información y ruido. El concepto de ruido fue asociado a la noción de
entropía propuesta por la segunda ley de la termodinámica, considerándose
éste análogo a la estática en la comunicación visual y auditiva, es decir, a
las influencias externas que disminuyen la integridad de la comunicación y
distorsionan el mensaje para el receptor (Ibíd.).
A ello se contrapuso la redundancia (repetición de
elementos dentro de un mensaje), asociada al concepto de entropía negativa o
neguentropía. Con ello se pretendía contrarrestar los efectos distorsionantes
del ruido e impedir el fracaso de la transmisión de información."
Un marco para la complejidad, Capítulo II Tres teorías que
dieron origen al pensamiento complejo: sistémica, cibernética e información.
Juan Carlos Moreno
Manual de iniciación pedagógica al pensamiento complejo,
Autor: Edgar Morín, Corporación para el Desarrollo Complexus
Marco Antonio Velilla Compilador
ICFES UNESCO
© Instituto Colombiano de Fomento de la Educación Superior
© UNESCO
© Corporación para el Desarrollo Complexus
Ediciones Jurídicas Gustavo Ibáñez, ® 2002., Pag. 34, 35
http://online.upaep.mx/campusTest/ebooks/ManualIniciacion.pdf
Referencias
JUTORAN, SARA BEATRIZ. 1994. El proceso de las ideas
sistémico-cibernéticas. Sistemas familiares 10 (1).
Buenos Aires.
RODRÍGUEZ, DARÍO y MARCELO ARNOLD. 1991. Sociedad
y teoría de sistemas. Editorial Universitaria,
Santiago de Chile.
|
|
|
Entropy and Thermodynamics /
Entropía y Termodinámica
http://www.fgalindosoria.com/informatica/aspects/e_i/entropy_thermodynamics
Cinco ecuaciones que cambiaron el mundo, Michael Guillen
"El concepto
clásico de que la energía ni se crea ni se destruye, sólo se transforma; se
debe a Clausius. Y es la Ley de Conservación de la Energía, pero no se
quedó aquí el hombre. Fue más allá y elaboró un concepto nuevo: entropía,
removiendo los cimientos de la física. Entropía en griego significa
transformación de contenidos, y se parece mucho a Energía (pero no
confundir).
La física de
Clausius se puede definir como que la energía del Universo es constante y
que La cantidad de entropía del universo tiende a incrementarse en el tiempo. Lo que nos viene a decir que el
Universo camina de forma inevitable tambaleándose hacia su destino último
de reposo y relajación. Por suerte esto ocurrirá dentro de un tiempo que la
mente humana aún no es capaz ni de imaginar, así que no sean pesimistas y
Carpe Diem."
Chema Larrea, blog 0110101101001100101110
http://blog0110110101.wordpress.com/2011/01/11/5-ecuaciones-que-cambiaron-el-mundo/
Cinco ecuaciones que cambiaron el mundo, Michael Guillen
"El capítulo "una experiencia nada
provechosa" se refiere al físico Rudolf Julius Emmanuel Clausius y a
su ecuación termodinámica, o más exactamente, a su desigualdad
termodinámica.
"
Cinco ecuaciones que cambiaron el mundo
http://www.taringa.net/posts/noticias/4507527/Cinco-ecuaciones-que-cambiaron-el-mundo.html
Gibbs Entropy
Formula
Wikipedia
20140309
"The
macroscopic state of the system is defined by a distribution on the microstates that
are accessible to a system in the course of its thermal fluctuations. So the entropy is
defined over two different levels of description of the given system. The
entropy is given by the Gibbs entropy formula, named after J. Willard Gibbs. For a classical system
(i.e., a collection of classical particles) with a discrete set of
microstates, if is the energy of microstate i,
and is its probability that it
occurs during the system's fluctuations, then the entropy of the system is

The quantity is a physical constant known as Boltzmann's constant, which, like the
entropy, has units of heat capacity. The logarithm is dimensionless.
This
definition remains valid even when the system is far away from
equilibrium...."
http://en.wikipedia.org/wiki/Entropy_(statistical_thermodynamics)
Home page of Entropy and Thermodynamics
Ir a la
página principal de Entropía y Termodinámica
|
|
|
|
Entropy and
Information / Entropía e Información
http://www.fgalindosoria.com/informatica/aspects/e_i/entropy_information/
"The
formal study of information theory did not begin until 1924, when Harry
Nyquist, a researcher at Bell Laboratories, published a paper entitled “Certain
Factors Affecting Telegraph Speed.” Nyquist realized that communication
channels had maximum data transmission rates, and he derived a formula for
calculating these rates in finite bandwidth noiseless channels."
Encyclopædia
Britannica
http://global.britannica.com/EBchecked/topic/709313/Certain-Factors-Affecting-Telegraph-Speed
Ralph Vinton Lyon Hartley
"La noción de la
información fue definida por primera vez por Ralph Vinton Lyon Hartley en
1927 como la cantidad de elecciones o respuestas "Sí" o
"No", que permiten reconocer unívocamente un elemento cualquiera
en un conjunto de ellos"
http://www.tecnotopia.com.mx/informatica.htm
Information theory
Wikipedia
20140314
"An
analog to thermodynamic entropy is information entropy. In
1948, while working at Bell Telephone Laboratories electrical
engineer Claude Shannon set out to mathematically
quantify the statistical nature of "lost information" in
phone-line signals. To do this, Shannon developed the very general concept
of information entropy, a fundamental
cornerstone of information theory.
….
In 1948
Shannon published his famous paper A Mathematical Theory of
Communication, in which he devoted a section to what he calls Choice,
Uncertainty, and Entropy.[12]
In this section, Shannon introduces an H function of the following
form:

where K
is a positive constant. Shannon then states that "any quantity of this
form, where K merely amounts to a choice of a unit of measurement,
plays a central role in information theory as measures of information,
choice, and uncertainty." Then, as an example of how this expression
applies in a number of different fields, he references R.C. Tolman's 1938 Principles
of Statistical Mechanics, stating that "the form of H will
be recognized as that of entropy as defined in certain formulations of
statistical mechanics where pi is the probability of a
system being in cell i of its phase space… H is then, for
example, the H in Boltzmann's famous H theorem."
As such, over the last fifty years, ever since this statement was made,
people have been overlapping the two concepts or even stating that they are
exactly the same.
Shannon's
information entropy is a much more general concept than statistical thermodynamic
entropy. Information entropy is present whenever there are unknown
quantities that can be described only by a probability distribution. In a
series of papers by E. T. Jaynes starting in 1957,[13][14]
the statistical thermodynamic entropy can be seen as just a particular
application of Shannon's information entropy to the probabilities of
particular microstates of a system occurring in order to produce a
particular macrostate."
http://en.wikipedia.org/wiki/History_of_entropy
- Information_theory
Recent
Contributions to The Mathematical Theory of Communication
Warren
Weaver
September,
1949
"Abstract
This paper
is written in three main sections. In the first and third, W. W. is
responsible both for the ideas and the form. The middle section, namely “2)
Communication Problems at Level A” is an interpretation of mathematical
papers by Dr. Claude E. Shannon of the Bell Telephone Laboratories. Dr.
Shannon’s work roots back, as von Neumann has pointed out, to Boltzmann’s
observation, in some of his work on statistical physics (1894), that
entropy is related to “missing information,” inasmuch as it is related to the
number of alternatives which remain possible to a physical system after all
the macroscopically observable information concerning it has been recorded.
L. Szilard (Zsch. f. Phys. Vol. 53, 1925) extended this idea to a general
discussion of information in physics, and von Neumann (Math. Foundation of
Quantum Mechanics, Berlin, 1932, Chap. V) treated information in quantum
mechanics and particle physics. Dr. Shannon’s work connects more directly
with certain ideas developed some twenty years ago by H. Nyquist and R. V.
L. Hartley, both of the Bell Laboratories; and Dr. Shannon has himself
emphasized that communication theory owes a great debt to Professor Norbert
Wiener for much of its basic philosophy. Professor Wiener, on the other
hand, points out that Shannon’s early work on switching and mathematical
logic antedated his own interest in this field; and generously adds that
Shannon certainly deserves credit for independent development of such
fundamental aspects of the theory as the introduction of entropic ideas.
Shannon has naturally been specially concerned to push the applications to
engineering communication, whileWiener has been more concerned with
biological application (central nervous system phenomena, etc.).”
http://isites.harvard.edu/fs/docs/icb.topic933672.files/Weaver
Recent Contributions to the Mathematical Theory of Communication.pdf
Los trabajos de Nyquist,
Hartley y aun los de Shannon y Weaver son trabajos que se
desarrollaron a partir de problemas de ingeniería y sentaron las bases para
el desarrollo de teorías que a su vez se han aplicado para resolver
nuevamente problemas específicos, ya que son trabajos concretos
desarrollados para resolver problemas concretos de manejo de señales.
El comentario es porque mucha gente confunde el manejo
de las matemáticas con el desarrollo de trabajos abstractos, sobre
fundamentación o que no tienen que ver con los problemas reales, las
matemáticas en este caso son herramientas básicas para resolver problemas
de tecnoinformática (tecnologías de la información y comunicación), que a
partir de esos trabajos se desarrollen y fundamenten las áreas es otra
cosa.
*****************************************************************************
Entropía de Kolmogórov
Hijos de la Entropia. 10 de septiembre de 2009
"La entropía de Kolmogórov se define como principio
que mide la pérdida de información a lo largo de la evolución del sistema.
Si por sistema entendemos que tenemos a nuestra sociedad actual, nos
encontramos con un principio que absorbe una pérdida descomunal de
información, siendo contradictorio por el absoluto dominio digital-global,
ya que nos encontramos ante una continua desaceleración de vericidad en los
dominios de la información, y eso produce la pérdida de información que
mide el principio de la entropía de Kolmogórov. También es definida como la
suma de exponentes de Liapunov(El
Exponente Lyapunov o Exponente característico Lyapunov de un sistema dinámico es una cantidad que caracteriza
el grado de separación de dos trayectorias infinitesimalmente
cercanas)."
http://hijosdelaentropia.blogspot.mx/2009/09/entropia-de-kolmogorov.html
La entropía de Kolmogorov
19/09/2003
"Cuando Shannon publicó sus trabajos hacia 1.948, a
los matemáticos en general les pareció algo excesivamente orientado a la
tecnología como para tener interés en matemática pura. El gran Andrei
Nikolaievich Kolmogorov fué la excepción, escribiendo en una ocasión:
“La importancia del trabajo de Shannon para los
matemáticos puros no fue totalmente apreciada desde el comienzo. Recuerdo
cuando, en el Congreso Internacional de Matemáticos celebrado en Ámsterdam
en 1.954, mis colegas norteamericanos, especialistas en probabilidades,
creían que mi interés por los trabajos de Shannon eran algo exagerado ya
que esto era más tecnología que matemática. Ahora, tales opiniones ni
siquiera necesitan ser refutadas”
... Kolmogorov, .... Concretamente estableció la
definición de entropía en el interior de un conjunto.
Dado un conjunto, es necesario utilizar cierta cantidad de
información para delimitar sin ambigüedad cualquiera de sus subconjuntos
propios. Kolmogorov entendió que aquí era donde podía entrar el concepto de
entropía. Definió la entropía de un subconjunto en función del hecho
anterior, y la llamó e-entropía. (Léase épsilon-entropía).
Si C es un conjunto finito, podemos expresar por
enumeración la lista de sus subconjuntos. A cada subconjunto le
corresponderá simplemente su número de orden en la lista. El tamaño de la
lista es de 2 elevado a N subconjuntos. Lo que expresado en sistema binario
nos ocupa precisamente N bits. (Otra forma de verlo es teniendo en cuenta
que podemos hacer corresponder un bit a cada posible elemento de los N en C
, y para un subconjunto concreto, el j-ésimo bit vale 1 si está presente en
el subconjunto, y 0 en caso contrario).
Kolmorogov definió la entropía de un subconjunto como
H(C)= log (N)
donde el logaritmo está en base 2.
Para conjuntos no numerables su táctica fue el uso de
e-recubrimientos de radio e (épsilon) arbitrario. La epsilon-entropía del
subconjunto era al igual que en el caso numerable, el logaritmo en base 2
del número de elementos del e-recubrimiento mínimo para cubrir totalmente
al conjunto. Un e-recubrimiento del conjunto C es un recubrimiento por
conjuntos de diámetro menor o igual a 2e. En el caso se un segmento de
recta, el número de elementos de un e-recubrimiento es precisamente (L/2e),
de donde su e-entropía será:
H(C)=log (L/2e) , ....
De esta manera, Kolmogorov hecha un puente entre la
teoría de la información y la abstracta teoría de conjuntos."
http://tiopetrus.blogia.com/2003/091901-la-entropia-de-kolmogorov.php
Home page of Entropy and Information
Ir a la
página principal de Entropía e Información
|
|
|
|
Maxwell's demon
/ El demonio de Maxwell
http://www.fgalindosoria.com/informatica/aspects/e_i/maxwells_demon/
Maxwell's
demon
Wikipedia,
20140402
"....a
container of gas molecules at equilibrium is divided into two parts by an
insulated wall, with a door that can be opened and closed by what came to
be called "Maxwell's demon". The demon opens the
door to allow only the faster than average molecules to flow through to a
favored side of the chamber, and only the slower than average molecules to
the other side, causing the favored side to gradually heat up while the
other side cools down, thus decreasing entropy.
The thought experiment first appeared in a
letter Maxwell wrote to Peter Guthrie Tait on 11 December 1867. It
appeared again in a letter to John William Strutt in 1871, before it was
presented to the public in Maxwell's 1872 book on thermodynamics
titled Theory of Het.”
http://en.wikipedia.org/wiki/Maxwell's_demon
Traducción apoyada en Google de "Maxwell's demon" (http://en.wikipedia.org/wiki/Maxwell's_demon),
Wikipedia, 20140402
"El demonio de Maxwell
....un contenedor de moléculas de gas en equilibrio está
dividido en dos partes por una pared aislada, con una puerta que puede ser
abierta y cerrada por lo que llegó a ser llamado "el demonio de
Maxwell". El demonio abre la puerta para
permitir que sólo las moléculas más rápidas que el promedio fluyan a un
lado de la cámara, y que sólo las moléculas más lentas que el promedio
fluyan hacia el otro lado, haciendo que un lado se caliente gradualmente
mientras que el otro lado se enfría, disminuyendo de este modo la entropía .
El experimento
mental apareció por primera vez en una carta que escribió
Maxwell
a Peter
Guthrie Tait el 11 de diciembre
de 1867. Apareció de nuevo en una carta a John
William Strutt en 1871, antes
de que fuera presentado al público en 1872 en el libro de Maxwell sobre la termodinámica
titulada Teoría del calor.
Satanic science
by
Marianne Freiberger
Seth
Lloyd is professor of quantum mechanical engineering at MIT and external
professor at the Santa Fe Institute. He is the author of over 150
scientific papers and of a popular book Programming
the Universe (see link below). Marianne Freiberger, Editor of
Plus, interviewed him in January 2014.
This article is part of our Information
about information project, run in
collaboration with FQXi. The project gives you the chance to tell us what you'd like to know
about information. This article addresses the question 'can information be
turned into energy?'.
"
Entropy is information
It turns out that the definition of entropy in terms
of disorder is equivalent to Clausius' original definition in terms of
temperature and energy. And the disorder definition also provides a direct link
to information. If a system is in a highly disordered state, then you need
a lot of information to describe it: there are many configurations in which
its constituent components might be arranged. If there is more order in the
system, for example if all the molecules that make up a gas are moving in
the same direction with the same speed, then you need much less information
to describe it. The more disorder there is, the higher the entropy and the
more information you need to describe the system.
"When the 20th century rolled around it became
clear that entropy was proportional to the amount of information required
to describe those molecules; their positions and velocities," explains
Lloyd. "Entropy is proportional to the number of bits required to describe
the motion of the atoms and molecules. Or, to put it differently, to the
amount of information they themselves effectively contain." "
http://plus.maths.org/content/satanic-science
Home page of Maxwell's demon
Ir a la
página principal de El demonio de Maxwell
|
|
|
|
Negentropy and Information /
Neguentropía e Información
negative
entropy entropía negativa neg entropy neg entropía......
neguentropía negantropía sintropía .....
http://www.fgalindosoria.com/informatica/aspects/e_i/negentropy_information/
John von Neumann (el más grande matemático del siglo
XX http://en.wikipedia.org/wiki/John_von_Neumann) sugirió a Shannon llamar a la
"información perdida" entropía
History of
entropy
Wikipedia,
20140314
"when
von Neumann asked him how he was getting on with his information theory,
Shannon replied:[11]
“ The theory
was in excellent shape, except that he needed a good name for "missing
information". "Why don’t you call it entropy", von Neumann
suggested. "In the first place, a mathematical development very much
like yours already exists in Boltzmann's statistical mechanics, and in the
second place, no one understands entropy very well, so in any discussion
you will be in a position of advantage."
http://en.wikipedia.org/wiki/History_of_entropy
Traducido apoyada en Google de Wikipedia 20140309 de
History of
entropy, (http://en.wikipedia.org/wiki/History_of_entropy)
"cuando von Neumann le preguntó cómo le iba con su
teoría de la información, Shannon respondió: [11]
"La teoría estaba en excelente estado, con la
excepción de que necesitaba un buen nombre de" información perdida
". "¿Por qué no lo llaman entropía", sugirió von Neumann.
"En primer lugar, un desarrollo matemático muy parecida al suyo ya
existe en la mecánica estadística de Boltzmann, y en segundo lugar, no se
comprende la entropía muy bien, así que en cualquier discusión estará en
una posición de ventaja."
*****************************************************************************
Léon
Brillouin
Wikipedia,
20140402
Léon
Nicolas Brillouin (French: [bʁilwɛ̃]; August 7, 1889 – October 4, 1969)
was a French physicist.
He made contributions to quantum mechanics, radio wave propagation in
the atmosphere, solid state physics, and information theory.
....
He applied information theory to physics and the design
of computers and coined the concept of negentropy
to demonstrate the similarity between entropy and information.[3][4]
http://en.wikipedia.org/wiki/L%C3%A9on_Brillouin
Brillouin, L., 1951, “Maxwell's demon cannot
operate: Information and entropy I”, Journal of Applied Physics, 22:
334–337.
Brillouin, L., 1956, Science and Information
Theory, New York: Academic Press.
Léon Brillouin
Wikipedia, 20140402
"Léon Nicolas Brillouin (7 de agosto
de 1889 – 1969) fue un físico
francés.
Nació en Sèvres
(cerca de París),
Francia.
Su padre, Marcel Brillouin, era también físico. Hizo
aportes en los campos de mecánica cuántica, propagación de ondas de
radio en la atmósfera, física del estado sólido, y teoría de la información.
.......
Él aplicó la teoría de la información a la física y
al diseño de computadoras, y acuñó el concepto de neguentropía
para demostrar la similaridad entre la entropía y la información."
http://es.wikipedia.org/wiki/L%C3%A9on_Brillouin
*****************************************************************************
Negentropy
Wikipedia
20140311
"The negentropy,
also negative entropy or syntropy or extropy or entaxy,[1] of
a living
system is the entropy that it exports to keep its own entropy low; it
lies at the intersection of entropy and life. The concept and phrase
"negative entropy" were introduced by Erwin Schrödinger in his 1944 popular-science
book What is Life?[2]
Later, Léon Brillouin shortened the phrase to negentropy,[3][4] to
express it in a more "positive" way: a living system imports
negentropy and stores it.[5] In
1974, Albert Szent-Györgyi proposed replacing
the term negentropy with syntropy. That term may have
originated in the 1940s with the Italian mathematician Luigi Fantappiè, who tried to construct a
unified theory of biology and physics. Buckminster Fuller tried to popularize this
usage, but negentropy remains common.
….
In 2009,
Mahulikar & Herwig redefined negentropy of a dynamically ordered
sub-system as the specific entropy deficit of the ordered sub-system
relative to its surrounding chaos.”
http://en.wikipedia.org/wiki/Negentropy
Neguentropía
Wikipedia 20140309
"La neguentropía o negantropía,
también llamada entropía negativa o sintropía, de un sistema
vivo, es la entropía que el sistema exporta para mantener su
entropía baja; se encuentra en la intersección de la entropía y la vida.
Para compensar el proceso de degradación sistémica a lo largo del tiempo,
algunos sistemas abiertos consiguen compensar su entropía natural con
aportaciones de subsistemas con los que se relacionan. Si en un sistema
cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema
abierto, la neguentropía sería una resistencia sustentada en subsistemas
vinculados que reequilibran el sistema entrópico.
La neguentropía se puede definir como la
tendencia natural de que un sistema se modifique según su estructura y se
plasme en los niveles que poseen los subsistemas dentro del mismo. Por
ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el
método de neguentropía.
Concepto de entropía negativa
El concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de
los padres de la mecánica cuántica) en su libro de ciencia popular what
is life?, publicado en 1943. Más tarde, Léon Brillouin cambió la palabra por
"neguentropía", para expresarla en una forma mucho más
“positiva”, diciendo que un sistema vivo importa neguentropía y la
almacena. En 1974, Albert SzentGyörgyi (Nobel de Fisiología Médica en 1937)
propuso cambiar el término de neguentropía a sintropía, aunque este último
ya había sido usado por el matemático Luigi Fantappiè, quien lo utilizó con
el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero, arquitecto y
diseñador del siglo XX, trató de hacer popular este término, pero la
palabra neguentropía siempre permaneció como la más común.
En el año 2009, Mahulikar & Herwig redefinieron la
neguentropía de un sub-sistema ordenado dinámicamente como el déficit de
entropía relacionado al caos que rodea al sub-sistema ordenado"
http://es.wikipedia.org/wiki/Neguentrop%C3%ADa
Home page of Negentropy and
Information
Ir a la
página principal de Neguentropía e Información
|
|
|
|
Current Research in Entropy and Information
Investigaciones Actuales sobre Entropía e Información
www.fgalindosoria.com/informatica/aspects/e_i/current
research_e_i/
Información y Entropía
Guillermo Agudelo
Murguía, José Guillermo Alcalá Rivero
"...La teoría formal
de la información nació de los artículos publicados en 1948 por el
matemático estadounidense Claude E. Shannon. En ellos enunció: la medida de
la información más ampliamente usada hoy en día es la entropía. La entropía
había venido siendo un concepto central de la termodinámica, la rama de la
física que trata del calor. Suele decirse que la entropía termodinámica
expresa el desorden de un sistema físico. En 1877 el físico austriaco
Ludwig Boltzmann la caracterizó más precisamente como el número de estados
microscópicos distintos en los que pueden hallarse las partículas que
componen un trozo de materia de forma que siga pareciendo el mismo trozo
desde un punto de vista macroscópico. En el caso del aire de una
habitación, se contarían las maneras en que podrían distribuirse y moverse
las moléculas de gas por la habitación.
Claro que esta
conceptualización de Boltzmann va muy de acuerdo con la idea de que la suma
de las partes aisladas no da como resultado el todo. Actualmente se acepta
que a la suma de las partes debe agregársele los valores de las
interacciones de estas partes, las ligas que contienen la Información que
determina su comportamiento...."
http://www.iieh.com/informacion/articulos/informacion/informacion-informacion-y-entropia
Clases sobre Teoría de la Información
"Entropía
y cantidad de información; fórmula de la entropía de una variable
aleatoria; La complejidad; El poder del azar en plataformas inteligentes;
El concepto más abismal de toda la matemática Aleph; La Esperanza, la
Integral de Lebesgue y la Ley de Laplace; La distinguibilidad de estados;
La complejidad estructural emergente; La propiedad de una sola vía La Entropía ó El tiempo; La propiedad
que se conserva: "El
Espacio" ó "La Información"; Son muchas
las cosas, pero hay un límite a lo que le podemos hacer a un gato; El
límite de Schwinger; El espacio tiempo fractal"
Jesús M. Landart, Cristián Antiba, y alguien mas...
www.fgalindosoria.com/informatica/aspects/e_i/current
research_e_i/teoria_informacion_clases.htm
Space,
Scale, and Scaling in Entropy Maximizing
Michael
Batty
Centre
for Advanced Spatial Analysis (CASA), University College London (UCL),
London, U.K.
Geographical Analysis, 42,
4, 395–421, 2010
"Entropy
measures were first introduced into geographical analysis during a period
when the concept of human systems in equilibrium was in its ascendancy. In
particular, entropy maximizing, in direct analogy with equilibrium statistical
mechanics, provides a powerful framework in which to generate location and
interaction models.
This
was introduced and popularized by Wilson, and it led to many different
extensions that elaborate the framework rather than extend it to different
kinds of models.
I
review two such extensions here: how space can be introduced into the
formulation through defining a ‘‘spatial entropy’’ and how entropy can be
decomposed and nested to capture spatial variation at different scales. Two
obvious directions to this research remain implicit. First, the more
substantive interpretations of the concept of entropy for different shapes
and sizes of geographical systems have hardly been developed. Second, an
explicit dynamics associated with generating probability distributions has
not been attempted until quite recently with respect to the search for how
power laws emerge as signatures of universality in complex systems. In
short, the connections between entropy maximizing, substantive
interpretations of entropy measures, and the longer-term dynamics of how
equilibrium distributions are reached and maintained have not been well
developed. This literature gap has many implications for future research,
and, in conclusion, I sketch the need for new and different entropy measures
that enable us to see how equilibrium spatial distributions can be
generated as the outcomes of dynamic processes that converge to a steady
state.
http://www.complexcity.info/files/2011/06/batty-ga-2010.pdf
*************************************
12. Knowledge, Information, and Entropy
Henry Stapp
“The book John von Neumann and the Foundations of Quantum
Physics contains a fascinating and informative article written by Eckehart
Kohler entitled “Why von Neumann Rejected Carnap’s Dualism of Information
Concept.” The topic is precisely the core issue before us: How is knowledge
connected to physics? Kohler illuminates von Neumann’s views on this
subject by contrasting them to those of Carnap.”
http://www-physics.lbl.gov/~stapp/Chap12.PDF
*************************************
Dissipative
system / Estructuras disipativas
Ilya
Prigogine
"Ilya Prigogine, recibió el premio Nobel de Química
en el año 1977 por su aporte al conocimiento de las "estructuras
disipativas" en el mundo físico, es decir, el estudio de la
aparición del orden en condiciones alejadas del equilibrio. El término
estructura disipativa busca representar la asociación de las ideas de orden
y disipación. El nuevo hecho fundamental es que la disipación de energía y
de materia, que suele asociarse a la noción de pérdida y evolución hacia el
desorden, se convierte, lejos del equilibrio, en fuente de orden. Estas
estructuras están en la base de la vida y en ellas el orden se establece en
base a ecuaciones de evolución no lineal, de mucha mayor complejidad que
cerca del equilibrio en donde las soluciones son mucho más simples y se
pueden linealizar."
http://www.fgalindosoria.com/informaticos/fundamentales/Ilya_Prigogine
Dissipative
system
Wikipedia,
20140408
"A dissipative
system is a thermodynamically open system which is operating out
of, and often far from, thermodynamic equilibrium in an
environment with which it exchanges energy and matter.
A dissipative
structure is a dissipative system that has a dynamical régime that is
in some sense in a reproducible steady state. This reproducible steady state
may be reached by natural evolution of the system, by artifice, or by a
combination of these two.
.....
Overview
A dissipative
structure is characterized by the spontaneous appearance of symmetry
breaking (anisotropy) and the formation of complex, sometimes chaotic,
structures where interacting particles exhibit long range correlations. The
term dissipative structure was coined by Russian-Belgian physical
chemist Ilya Prigogine, who was awarded the Nobel Prize in Chemistry in 1977 for
his pioneering work on these structures. The dissipative structures
considered by Prigogine have dynamical régimes that can be regarded as
thermodynamically steady states, and sometimes at least can be described by
suitable extremal
principles in non-equilibrium thermodynamics.
Examples in
every day life include convection, cyclones, hurricanes and living organisms.
Less common examples include lasers, Bénard
cells, and the Belousov–Zhabotinsky reaction.[citation needed]
One way of
mathematically modeling a dissipative system is given in the article on wandering
sets: it involves the action of a group on a measurable set."
http://en.wikipedia.org/wiki/Dissipative_system
*************************************
PARADOJA DE LA INFORMACIÓN Y
EL UNIVERSO HOLOGRÁFICO
Agujeros negros e
información
”...Si preguntamos de qué se compone el mundo físico, se
nos responderá que de "materia y energía". Pero quien sepa algo
de ingeniería, biología y física nos citará también la información como elemento
no menos importante...”
La información en el universo holográfico (Inicio del
artículo)
Jacob D. Bekenstein,, Scientific American Latinoamérica,
año 2 N. 15, Octubre de 2003, pág. 38-45
Jacob David
Bekenstein (born May 1, 1947) is a physicist who has contributed to the
foundation of black hole thermodynamics and to other aspects of the
connections between information and gravitation. He was born in Mexico
City, Mexico.
http://en.wikipedia.org/wiki/Jacob_Bekenstein
www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/
black holes have no hair /
Los agujeros negros no tienen pelo
No-hair
theorem
Wikipedia, 20140418
"The no-hair
theorem postulates that all black
hole solutions of the Einstein-Maxwell equations of gravitation
and electromagnetism in general relativity can be completely
characterized by only three externally observable classical parameters: mass, electric
charge, and angular momentum.[1]
All other information (for which "hair" is a metaphor) about the matter which
formed a black hole or is falling into it, "disappears" behind
the black-hole event horizon and is therefore permanently
inaccessible to external observers. Physicist John Archibald Wheeler expressed this
idea with the phrase "black holes have no hair"[1]
which was the origin of the name"
http://en.wikipedia.org/wiki/No-hair_theorem
Teorema de no pelo
Wikipedia, 20140418
"El teorema de no pelo, teorema sin pelo
o teorema de la calvicie (traducción del inglés no hair
theorem) postula que todas las soluciones del agujero
negro descritas en las ecuaciones de Einstein-Maxwell
de gravitación y electromagnetismo en la relatividad general pueden ser
caracterizadas por solo tres parámetros observables de manera externa: su
masa M, su carga Q y su momento
angular J.
Toda otra información acerca de la materia que forma el
agujero negro o que está cayendo en él, desaparece detrás del horizonte de sucesos y es permanentemente
inaccesible a un observador externo (paradoja de la formación del agujero
negro).
El físico estadounidense John Archibald Wheeler (1911-2008)
―quien en 1968 acuñó el término «agujero negro»― expresó esta
idea con la frase «los agujeros negros no tienen pelo» (o sea, no tienen
información), que dio origen al nombre de este teorema,"
http://es.wikipedia.org/wiki/Teorema_de_ning%C3%BAn_pelo
"El teorema de la carencia de pelo supone que durante
la contracción gravitatoria se pierde una gran cantidad de
información."
"....Uno de los resultados alentadores que se han
hallado en las investigaciones de la teoría de cuerdas es la derivación de
la fórmula de la entropía conocida como de Bekenstein-Hawking para los
agujeros negros, la cual se obtiene con la enumeración de los estados
microscópicos de las cuerdas que formarían un agujero negro. Esto ocurre si
se admite que el área del horizonte es análoga a la entropía, lo que
implica que la gravedad superficial tiene que ser igual a todos los puntos
del horizonte de sucesos, del mismo modo que es igual a la temperatura en
todos los puntos de un cuerpo con equilibrio térmico. Aunque exista
claramente una semejanza entre entropía y área del horizonte de sucesos, no
aparece tan obvio el modo de identificar el área con la entropía de un
agujero negro. ¿Qué se puede entender por entropía de un agujero negro?
La
afirmación la encontramos en los trabajos formulados en 1972 por Jacob D. Bekenstein
de la Universidad del Neguev, en Israel. Dice así: cuando se crea un
agujero negro por obra de un colapso gravitatorio, rápidamente entra en una
situación estacionaria caracterizado sólo por tres parámetros: la masa, el
momento angular y la carga eléctrica. Al margen de estas tres propiedades,
el agujero negro no conserva ninguna otra de las características del objeto
que se contrajo. Esta conclusión, conocida coloquialmente como el teorema
«un agujero negro no tiene pelo», fue demostrada por esas formulaciones en
colaboración con Stephen Hawking de la Universidad de Cambridge, Werner
Israel de la Universidad de Alberta y David C. Robinson del King's College
de Londres. El teorema de la carencia de pelo supone que durante la
contracción gravitatoria se pierde una gran cantidad de información. ....
un agujero negro de una masa, momento angular y carga eléctrica
determinados podría haber surgido del colapso de cualquiera de las
muchísimas configuraciones diferentes de la materia. ....
El
principio de incertidumbre de la mecánica cuántica implica, sin embargo,
que una partícula de masa m se comporta como una onda de longitud h/mc,
donde h es la constante de Planck (la pequeña cifra de 6,62 x 10-27 ergios
por segundo) y c es la velocidad de la luz. Para que una nube de partículas
sea capaz de contraerse hasta formar un agujero negro, parece necesario que
esa longitud de onda tenga un tamaño inferior al del agujero negro así
formado. Resulta por eso que el número de configuraciones susceptibles de
formar un agujero negro de una masa, momento angular y carga eléctrica
determinados, aunque muy grande, puede ser finito. Bekenstein afirmó que es
posible interpretar el logaritmo de este número como la entropía de un
agujero negro. El logaritmo del número sería una medida del volumen de
información que se pierde irremediablemente durante el colapso a través de
un horizonte de sucesos al surgir un agujero negro."
© 2002 Javier
de Lucas
http://platea.pntic.mec.es/~jdelucas/18descubrimientosbekensteinhawking.htm
Holographic principle
http://en.wikipedia.org/wiki/Holographic_principle
Principio Holográfico
http://es.wikipedia.org/wiki/Principio_Hologr%C3%A1fico
*************************************
BEKENSTEIN-HAWKING
ENTROPY / ENTROPÍA DE BEKENSTEIN-HAWKING
Black Hole Entropy
/ Entropía de los Agujeros
Negros
S = Akc3/4Għ
Bekenstein-Hawking entropy
Scholarpedia 20140418
The Bekenstein-Hawking
entropy or black hole entropy
is the amount of entropy that must be assigned to a black
hole in order for it to comply with the laws of thermodynamics as they
are interpreted by observers external to that black
hole. This is particularly true for the first and second laws. Black
hole entropy is a concept with geometric root but with many physical
consequences. It ties together notions from gravitation, thermodynamics and
quantum theory, and is thus regarded as a window into the as yet mostly
hidden world of quantum gravity.
http://www.scholarpedia.org/article/Bekenstein-Hawking_entropy
fórmula de
Bekenstein-Hawking
S = Akc3
/ 4Għ
S
entropía, A
área, k constante de Boltzmann, c velocidad de la luz, G constante de la gravitación universal,
ħ=h/2π, donde h es la constante de Planck.
www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/
Home page of Current Research in Entropy and Information
Ir a la
página principal de Investigaciones Actuales sobre Entropía e Información
|
|
|
|
Entropy and Information Some Related Areas
Algunas Áreas Relacionadas sobre Entropía e Información
http://www.fgalindosoria.com/informatica/aspects/e_i/e_i_related_areas/
Symmetry
and the Beautiful Universe
Leon
M. Lederman, Christopher T. Hill
La simetría y la belleza del universo
Leon M.
Lederman, Christopher T. Hill
Metatemas
simetría
invariancia en el tiempo
http://www.fgalindosoria.com/informatica/properties/symmetry/
Teorema de Noether
http://www.fgalindosoria.com/informatica/fundamentals/noether/
Informalmente,
el Teorema de Noether se puede establecer como:
A
cada simetría (continua), le corresponde una ley de conservación y
viceversa
http://es.wikipedia.org/wiki/Teorema_de_Noether
“El de Noether
es a mi juicio uno de los teoremas más bellos y profundos que ha dado la
ciencia.”
http://bloxito.blogalia.com/historias/35856
*****************************************************************************
Ciclo de Krebs
Proceso mediante el que se genera energía en los seres vivos
Ciclo de Krebs
Wikipedia 20140314
"El ciclo de Krebs (ciclo del ácido
cítrico o ciclo de los ácidos tricarboxílicos)[1]
[2]
es una ruta metabólica, es decir, una sucesión de reacciones químicas, que forma parte de la respiración celular en todas las células aeróbicas. En células eucariotas se realiza en la mitocondria.
En las procariotas, el ciclo de Krebs se realiza en
el citoplasma,
específicamente en el citosol.
En organismos aeróbicos, el ciclo de Krebs es parte de
la vía catabólica que realiza la oxidación de glúcidos,
ácidos grasos y aminoácidos
hasta producir CO2, liberando energía en forma
utilizable (poder reductor y GTP)."
http://es.wikipedia.org/wiki/Ciclo_de_Krebs
Home page of Entropy and Information Some Related Areas
Ir a la
página principal de Algunas Áreas Relacionadas sobre Entropía e Información
|
|
|
|