Current Research in Entropy and Information

Dissipative system, Information Paradox, Holographic Universe, Bekenstein-Hawking entropy, Black Hole Entropy   S = Akc3/4Għ

Investigaciones Actuales sobre Entropía e Información

Estructuras disipativas, Paradoja de la información, Universo holográfico, Entropía de Bekenstein-Hawking,  Entropía de los Agujeros Negros   S = Akc3/4Għ

www.fgalindosoria.com/informatica/aspects/e_i/current research_e_i/

 

Fernando Galindo Soria

English (www.fgalindosoria.com/en/ )       Español (http://www.fgalindosoria.com/ )

fgalindo@ipn.mx

Red de Desarrollo Informático   REDI

 

Aspects of Information

Entropy and Information  /  Knowledge  /  Linguistic Aspects  /  Fractals and Chaos /..

Aspectos de la Información

Entropía e Información  / Conocimiento  / Aspectos Lingüísticos  / Fractales y Caos,

Datos;   Estructuras;   Patrones;   Normas;   Dinero;   Código Genético, Sistema Nervioso, Neurotransmisores;   Cuerdas, Ondas, Señales, Ruido, Sonido,  Música;   Partículas;   Mezclas, Soluciones, Compuestos;  Campo, Espacio;   Entidades, Atributos, Relaciones;   Unidades de Materia, Energía e Información (UMEI);   Pensamiento;   Noticias, Memes;   Códices, Libros;   Qbit, Entrelazamiento;   Conjunto, Grupo, Anillo;   Sistemas Conexionistas, Redes Neurales;   Sistemas Formales;   Sistemas Evolutivos, Afectivos, Concientes;   Espacio de Caos, Espacio Probabilístico, Espacio Métrico;   Estructuras Arborescentes, Dendritas;   Continuo, Discreto (Numerable, No Numerable) ;   Multiarboles;   Matrices;   recursividad;…

 

Creación de la página www    Ciudad de México, 4 Abril del 2014

Últimas actualizaciones 4 Abril del 2014

.

 

*************************************

 

Información y Entropía

Guillermo Agudelo Murguía, José Guillermo Alcalá Rivero

"...La teoría formal de la información nació de los artículos publicados en 1948 por el matemático estadounidense Claude E. Shannon. En ellos enunció: la medida de la información más ampliamente usada hoy en día es la entropía. La entropía había venido siendo un concepto central de la termodinámica, la rama de la física que trata del calor. Suele decirse que la entropía termodinámica expresa el desorden de un sistema físico. En 1877 el físico austriaco Ludwig Boltzmann la caracterizó más precisamente como el número de estados microscópicos distintos en los que pueden hallarse las partículas que componen un trozo de materia de forma que siga pareciendo el mismo trozo desde un punto de vista macroscópico. En el caso del aire de una habitación, se contarían las maneras en que podrían distribuirse y moverse las moléculas de gas por la habitación.

Claro que esta conceptualización de Boltzmann va muy de acuerdo con la idea de que la suma de las partes aisladas no da como resultado el todo. Actualmente se acepta que a la suma de las partes debe agregársele los valores de las interacciones de estas partes, las ligas que contienen la Información que determina su comportamiento...."

http://www.iieh.org/Informacion/articulos_informacion01.php#(NOTA%205)

 

 

Clases sobre Teoría de la Información

"Entropía y cantidad de información; fórmula de la entropía de una variable aleatoria; La complejidad; El poder del azar en plataformas inteligentes; El concepto más abismal de toda la matemática Aleph; La Esperanza, la Integral de Lebesgue y la Ley de Laplace; La distinguibilidad de estados; La complejidad estructural emergente; La propiedad de una sola vía   La Entropía ó El tiempo; La propiedad que se conserva:     "El Espacio"  ó  "La Información"; Son muchas las cosas, pero hay un límite a lo que le podemos hacer a un gato; El límite de Schwinger; El espacio tiempo fractal"

Jesús M. Landart, Cristián Antiba, y alguien mas...

www.fgalindosoria.com/informatica/aspects/e_i/current research_e_i/teoria_informacion_clases.htm

 

 

Information Theory After Shannon

Neil Savage, Lowell, MA

http://www.im.pwr.wroc.pl/~cichon/AdHoc-2010/NaszePrace/cacm-soi.pdf

 

Communications of the ACM, Volume 54 Issue 2, February 2011

ACM New York, NY, USA

http://portal.acm.org/citation.cfm?id=1897822&picked=formats&CFID=7713881&CFTOKEN=39587170

 

Algorithms, Combinatorics, Information, and Beyond

Wojciech Szpankowski

 “Shannon information theory aims at finding fundamental limits for storage and communication. In the 70's, the information theory community started investigating rates of convergence to these limits, initiating precise analysis of their second-order asymptotics. However, we shall argue that information theory needs to be reinvigorated to meet today's challenges in biology, economics, modern communication, and knowledge extraction, focusing on elements of time, space, structure, and context.

We observe that often these elements contribute to the second-order terms of these fundamental limits.”

http://www.isit2011.org/plenary_szpankowski.php

 

 

*************************************

 

Relación entre tipos de ruidos de colores (aleatorio, 1/f, browniano, etc.), complejidad de sistemas y en particular redes (aleatorias, huts, etc.), entropía,...

 

 

"My own view follows many others and that is that entropy is perhaps the only candidate for a measure of complexity, largely because it reflects a trade-off between the shape of a probability distribution and the number of events describing it: as the number of events increases, entropy increases, inter alia, while as the distribution becomes more and more uniform and thus less and less ordered, entropy increases, thus linking the formula to the idea that highly chaotic randomly distributed systems have high entropy and highly ordered ones low entropy.

Some of this is in my recent 2010 paper Space, Scale, and Scaling in Entropy-Maximising, Geographical Analysis, 42, 4, 395–421, 2010, Full-text PDF size: 253 Kb and in my 1974 paper on Spatial Entropy in the same journal – .....But an excellent and interesting recent paper is The Universality of Zipf’s Law (2010) by Bernat Corominas Murtra, and Ricard Solé in the Arxiv and also in Physical Review E who imply that not only is entropy the right measure for complexity, but the power law is the most appropriate distribution characterising a complex system."

What von Neumann Said to Shannon

Michael Batty, Smart Cities

http://www.spatialcomplexity.info/what-von-neumann-said-to-shannon

 

Space, Scale, and Scaling in Entropy Maximizing

Michael Batty

Centre for Advanced Spatial Analysis (CASA), University College London (UCL), London, U.K.

Geographical Analysis, 42, 4, 395–421, 2010

"Entropy measures were first introduced into geographical analysis during a period when the concept of human systems in equilibrium was in its ascendancy. In particular, entropy maximizing, in direct analogy with equilibrium statistical mechanics, provides a powerful framework in which to generate location and interaction models.

This was introduced and popularized by Wilson, and it led to many different extensions that elaborate the framework rather than extend it to different kinds of models.

I review two such extensions here: how space can be introduced into the formulation through defining a ‘‘spatial entropy’’ and how entropy can be decomposed and nested to capture spatial variation at different scales. Two obvious directions to this research remain implicit. First, the more substantive interpretations of the concept of entropy for different shapes and sizes of geographical systems have hardly been developed. Second, an explicit dynamics associated with generating probability distributions has not been attempted until quite recently with respect to the search for how power laws emerge as signatures of universality in complex systems. In short, the connections between entropy maximizing, substantive interpretations of entropy measures, and the longer-term dynamics of how equilibrium distributions are reached and maintained have not been well developed. This literature gap has many implications for future research, and, in conclusion, I sketch the need for new and different entropy measures that enable us to see how equilibrium spatial distributions can be generated as the outcomes of dynamic processes that converge to a steady state.

http://www.complexcity.info/files/2011/06/batty-ga-2010.pdf

 

 

*************************************

 

12. Knowledge, Information, and Entropy

Henry Stapp

“The book John von Neumann and the Foundations of Quantum Physics contains a fascinating and informative article written by Eckehart Kohler entitled “Why von Neumann Rejected Carnap’s Dualism of Information Concept.” The topic is precisely the core issue before us: How is knowledge connected to physics? Kohler illuminates von Neumann’s views on this subject by contrasting them to those of Carnap.”

http://www-physics.lbl.gov/~stapp/Chap12.PDF

 

 

Causal Entropic Forces

A. D. Wissner-Gross and C. E. Freer

PHYSICAL REVIEW LETTERS, week ending, 19 APRIL 2013

DOI: http://dx.doi.org/10.1103/PhysRevLett.110.168702

Received 24 May 2012, Revised 26 February 2013, Published 19 April 2013

"Abstract

Recent advances in fields ranging from cosmology to computer science have hinted at a possible deep connection between intelligence and entropy maximization, but no formal physical relationship between them has yet been established. Here, we explicitly propose a first step toward such a relationship in the form of a causal generalization of entropic forces that we find can cause two defining behaviors of the human “cognitive niche”—tool use and social cooperation—to spontaneously emerge in simple physical systems. Our results suggest a potentially general thermodynamic model of adaptive behavior as a nonequilibrium process in open systems."

http://www.alexwg.org/publications/PhysRevLett_110-168702.pdf

 

Traducción apoyada en Google de "Causal Entropic Forces" (http://www.alexwg.org/publications/PhysRevLett_110-168702.pdf), 20140402

"Fuerzas entrópicas causales

Resumen

Los recientes avances en campos que van desde la cosmología a la informática han hecho alusión a una posible conexión profunda entre la inteligencia y la maximización de la entropía, pero ninguna relación física formal entre ellos se ha determinado todavía. Aquí, se propone explícitamente un primer paso hacia una relación en forma de una generalización causal de fuerzas entrópicas que encontramos pueden causar dos comportamientos que definen el "nicho cognitivo" humano -el uso de herramientas y la cooperación social- que surge de forma espontánea en los sistemas físicos simples. Nuestros resultados sugieren un modelo termodinámico potencialmente general de comportamiento adaptativo como un proceso de no equilibrio en sistemas abiertos."

 

 

Efectos termodinámicos en el diseño de materiales multimedia

(Thermodynamics effects in the multimedia materials design)

Luis Rodolfo Lara

Universidad Nacional de Catamarca (Argentina)

"RESUMEN

Este artículo, desde una perspectiva teórica transdisciplinaria, introduce el término entropía en el proceso de diseño y desarrollo de materiales interactivos, de esta manera, se propone el concepto de Sistemas Interactivos Multimedia (SIM) educativos, como un sistema multimedia abierto, volátil y modificable, por tanto, adaptable al entorno con que interactúa.

El sistema presenta modificaciones en cuanto a su estructura cuando interactúa con el alumno, produciendo un proceso de realimentación continua; mediante un análisis cualitativo del comportamiento de la entropía y de la cantidad de información, es posible dar pautas de diseño y también realizar un estudio más exhaustivo de los desplazamientos relativos que presentan.

Así, se orienta el proceso de diseño de estas aplicaciones como un verdadero sistema complejo aceptando, desde una perspectiva constructivista, que el alumno no es un simple usuario de un programa informático, sino que toma un rol protagónico en el proceso de aprendizaje.

 

ABSTRACT

In This paper, from a transdisciplinary theoretical perspective, introduces the term entropy in the design process and development of interactive materials, this way, it proposes the concept of educational interactive Multimedia Systems (IMS), as a open, volatile and modifiable multimedia system, therefore, adaptive to the environment with which interact.

The system presents modifications as for its structure when interact with the student, producing a process of continuous feedback; by means of a qualitative analysis of the behaviour of the entropy and of the quantity of information, it is possible to give design rules and also to carry out a more exhaustive study of the relative displacements that they present.

This way, it is guided the process of design of these applications like a complex true system accepting, from a constructivist perspective that the student is not a simple user of a computer program, but rather he takes the main role in the learning process."

Lara, L. R. (2008). Efectos termodinámicos en el diseño de materiales multimedia. RIED. Revista Iberoamericana de Educación a Distancia, volumen 11, Nº 2, pp. 169-190. 

http://ried.utpl.edu.ec/images/pdfs/volumen11N2/efectostermodinamicos.pdf

 

Lara, L. R. (2008). Efectos termodinámicos en el diseño de materiales multimedia. RIED. Revista Iberoamericana de Educación a Distancia, volumen 11, Nº 2. [en línea] Disponible en: http://www.utpl.edu.ec/ried/images/pdfs/volumen11N2/efectostermodinamicos.pdf"

http://ried.utpl.edu.ec/?q=es/node/339

 

 

*************************************

Dissipative system   /   Estructuras disipativas

 

Ilya Prigogine

"Ilya Prigogine, recibió el premio Nobel de Química en el año 1977 por su aporte al conocimiento de las "estructuras disipativas" en el mundo físico, es decir, el estudio de la aparición del orden en condiciones alejadas del equilibrio. El término estructura disipativa busca representar la asociación de las ideas de orden y disipación. El nuevo hecho fundamental es que la disipación de energía y de materia, que suele asociarse a la noción de pérdida y evolución hacia el desorden, se convierte, lejos del equilibrio, en fuente de orden. Estas estructuras están en la base de la vida y en ellas el orden se establece en base a ecuaciones de evolución no lineal, de mucha mayor complejidad que cerca del equilibrio en donde las soluciones son mucho más simples y se pueden linealizar."

http://www.fgalindosoria.com/informaticos/fundamentales/Ilya_Prigogine

 

 

Dissipative system

Wikipedia, 20140408

"A dissipative system is a thermodynamically open system which is operating out of, and often far from, thermodynamic equilibrium in an environment with which it exchanges energy and matter.

A dissipative structure is a dissipative system that has a dynamical régime that is in some sense in a reproducible steady state. This reproducible steady state may be reached by natural evolution of the system, by artifice, or by a combination of these two.

.....

Overview

A dissipative structure is characterized by the spontaneous appearance of symmetry breaking (anisotropy) and the formation of complex, sometimes chaotic, structures where interacting particles exhibit long range correlations. The term dissipative structure was coined by Russian-Belgian physical chemist Ilya Prigogine, who was awarded the Nobel Prize in Chemistry in 1977 for his pioneering work on these structures. The dissipative structures considered by Prigogine have dynamical régimes that can be regarded as thermodynamically steady states, and sometimes at least can be described by suitable extremal principles in non-equilibrium thermodynamics.

Examples in every day life include convection, cyclones, hurricanes and living organisms. Less common examples include lasers, Bénard cells, and the Belousov–Zhabotinsky reaction.[citation needed]

One way of mathematically modeling a dissipative system is given in the article on wandering sets: it involves the action of a group on a measurable set."

http://en.wikipedia.org/wiki/Dissipative_system

 

 

Estructura disipativa

Wikipedia, 20140408

"Las estructuras disipativas constituyen la aparición de estructuras coherentes, autoorganizadas en sistemas alejados del equilibrio. Se trata de un concepto de Ilya Prigogine, que recibió el Premio Nobel de Química «por una gran contribución a la acertada extensión de la teoría termodinámica a sistemas alejados del equilibrio, que sólo pueden existir en conjunción con su entorno».

El término estructura disipativa busca representar la asociación de las ideas de orden y disipación. El nuevo hecho fundamental es que la disipación de energía y de materia, que suele asociarse a la noción de pérdida y evolución hacia el desorden, se convierte, lejos del equilibrio, en fuente de orden.

.....

Lejos del equilibrio

Lejos del equilibrio, la materia se comporta de forma diferente a las regiones cercanas al equilibrio. Las nociones de no linealidad, fluctuación, bifurcación y autoorganización son fundamentales: es el dominio de las estructuras disipativas, las que se encuentran en el origen de los estudios de sistemas complejos.

En un lenguaje vulgar, una estructura disipativa, sería la encargada de permitir alcanzar un cierto orden (muchas veces asociado al mero orden biológico) a expensas de un aporte continuo de energía externa al sistema. De ahí, que se le asocia al no equilibrio, pues origina condiciones que no son alcanzables espontáneamente, pero a las que sí se llegan, y mantienen en equilibrio, si cíclicamente se le incorpora energía. Se dice que tales sistemas concluyen en un «equilibrio estacionario».

Ilya Prigogine en uno de sus más célebres libros, de título ¿Tan sólo una ilusión?, que consta de una antología de diez ensayos (elaborados entre 1972 y 1982) en los que el autor habla con especial ahínco sobre este nuevo estado de la materia: las estructuras disipativas, asegurando que con estos novedosos conceptos se abre un «nuevo diálogo entre el hombre y la naturaleza»."

http://es.wikipedia.org/wiki/Estructura_disipativa

 

 

*************************************

PARADOJA DE LA INFORMACIÓN Y EL UNIVERSO HOLOGRÁFICO

Agujeros negros e información

 

”...Si preguntamos de qué se compone el mundo físico, se nos responderá que de "materia y energía". Pero quien sepa algo de ingeniería, biología y física nos citará también la información como elemento no menos importante...”

La información en el universo holográfico (Inicio del artículo)

Jacob D. Bekenstein,, Scientific American Latinoamérica, año 2 N. 15, Octubre de 2003, pág. 38-45

 

Jacob David Bekenstein (born May 1, 1947) is a physicist who has contributed to the foundation of black hole thermodynamics and to other aspects of the connections between information and gravitation. He was born in Mexico City, Mexico.

http://en.wikipedia.org/wiki/Jacob_Bekenstein

www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/

 

 

La paradoja de la pérdida de información en agujeros negros

Carmen A Núñez

IAFE, CONICET, Ciencia Hoy, volumen 16 n. 91 (febrero - marzo, 2006), pág. 52 a 63

http://www.fisica.unlp.edu.ar/strings/agujeros.pdf

 

Teoría de la Información Clase 10

La propiedad que se conserva:    "El Espacio"  ó  "La Información"

http://grupocaos2007.brinkster.net/clase10/clase10.htm

 

 

 

black holes have no hair   /   Los agujeros negros no tienen pelo

 

No-hair theorem

Wikipedia, 20140418

"The no-hair theorem postulates that all black hole solutions of the Einstein-Maxwell equations of gravitation and electromagnetism in general relativity can be completely characterized by only three externally observable classical parameters: mass, electric charge, and angular momentum.[1] All other information (for which "hair" is a metaphor) about the matter which formed a black hole or is falling into it, "disappears" behind the black-hole event horizon and is therefore permanently inaccessible to external observers. Physicist John Archibald Wheeler expressed this idea with the phrase "black holes have no hair"[1] which was the origin of the name"

http://en.wikipedia.org/wiki/No-hair_theorem

 

Teorema de no pelo

Wikipedia, 20140418

"El teorema de no pelo, teorema sin pelo o teorema de la calvicie (traducción del inglés no hair theorem) postula que todas las soluciones del agujero negro descritas en las ecuaciones de Einstein-Maxwell de gravitación y electromagnetismo en la relatividad general pueden ser caracterizadas por solo tres parámetros observables de manera externa: su masa M, su carga Q y su momento angular J.

Toda otra información acerca de la materia que forma el agujero negro o que está cayendo en él, desaparece detrás del horizonte de sucesos y es permanentemente inaccesible a un observador externo (paradoja de la formación del agujero negro).

El físico estadounidense John Archibald Wheeler (1911-2008) ―quien en 1968 acuñó el término «agujero negro»― expresó esta idea con la frase «los agujeros negros no tienen pelo» (o sea, no tienen información), que dio origen al nombre de este teorema,"

http://es.wikipedia.org/wiki/Teorema_de_ning%C3%BAn_pelo

 

 

"El teorema de la carencia de pelo supone que durante la contracción gravitatoria se pierde una gran cantidad de información."

 

"....Uno de los resultados alentadores que se han hallado en las investigaciones de la teoría de cuerdas es la derivación de la fórmula de la entropía conocida como de Bekenstein-Hawking para los agujeros negros, la cual se obtiene con la enumeración de los estados microscópicos de las cuerdas que formarían un agujero negro. Esto ocurre si se admite que el área del horizonte es análoga a la entropía, lo que implica que la gravedad superficial tiene que ser igual a todos los puntos del horizonte de sucesos, del mismo modo que es igual a la temperatura en todos los puntos de un cuerpo con equilibrio térmico. Aunque exista claramente una semejanza entre entropía y área del horizonte de sucesos, no aparece tan obvio el modo de identificar el área con la entropía de un agujero negro. ¿Qué se puede entender por entropía de un agujero negro?

                La afirmación la encontramos en los trabajos formulados en 1972 por Jacob D. Bekenstein de la Universidad del Neguev, en Israel. Dice así: cuando se crea un agujero negro por obra de un colapso gravitatorio, rápidamente entra en una situación estacionaria caracterizado sólo por tres parámetros: la masa, el momento angular y la carga eléctrica. Al margen de estas tres propiedades, el agujero negro no conserva ninguna otra de las características del objeto que se contrajo. Esta conclusión, conocida coloquialmente como el teorema «un agujero negro no tiene pelo», fue demostrada por esas formulaciones en colaboración con Stephen Hawking de la Universidad de Cambridge, Werner Israel de la Universidad de Alberta y David C. Robinson del King's College de Londres. El teorema de la carencia de pelo supone que durante la contracción gravitatoria se pierde una gran cantidad de información. .... un agujero negro de una masa, momento angular y carga eléctrica determinados podría haber surgido del colapso de cualquiera de las muchísimas configuraciones diferentes de la materia. ....

                El principio de incertidumbre de la mecánica cuántica implica, sin embargo, que una partícula de masa m se comporta como una onda de longitud h/mc, donde h es la constante de Planck (la pequeña cifra de 6,62 x 10-27 ergios por segundo) y c es la velocidad de la luz. Para que una nube de partículas sea capaz de contraerse hasta formar un agujero negro, parece necesario que esa longitud de onda tenga un tamaño inferior al del agujero negro así formado. Resulta por eso que el número de configuraciones susceptibles de formar un agujero negro de una masa, momento angular y carga eléctrica determinados, aunque muy grande, puede ser finito. Bekenstein afirmó que es posible interpretar el logaritmo de este número como la entropía de un agujero negro. El logaritmo del número sería una medida del volumen de información que se pierde irremediablemente durante el colapso a través de un horizonte de sucesos al surgir un agujero negro."

© 2002 Javier de Lucas

http://platea.pntic.mec.es/~jdelucas/18descubrimientosbekensteinhawking.htm

 

 

American Institute of Physics, 1998 Science Writing Award Winners - Scientist

Black Holes and the Information Paradox

Leonard Susskind Scientific American April 1997

http://staff.science.uva.nl/~jdeboer/gr04/susskind.pdf

 

Los agujeros negros y la paradoja de la información.

Leonard Susskind

Investigación y Ciencia, No. 249 Junio de 1997, Prensa Científica S.A.

http://www.rdrop.com/users/green/school/informat.htm

http://www.exodo.com/cosmos/index.asp

 

 

Holographic principle

http://en.wikipedia.org/wiki/Holographic_principle

 

Principio Holográfico

http://es.wikipedia.org/wiki/Principio_Hologr%C3%A1fico

 

Holographic Universe (Part 1 of 2 ) its all illusion.

http://www.youtube.com/watch?v=vnvM_YAwX4I&feature=related

Holographic Universe ( Part 2 0f 2 ) its all illusion

http://www.youtube.com/watch?v=YG9FO7JGWq4&feature=related

 

 

Hartle-Hawking y modelos cíclicos

http://foro.migui.com/phpbb/viewtopic.php?p=53533&sid=2a5612907376a8d2bd8a25bf4484e968

 

Stephen Hawking cambia de opinión sobre los agujeros negros

Ramón Ordiales Plaza, infoastro.com,

http://www.infoastro.com/200407/21hawking-agujeros-negros.html

 

Introducción a la conferencia de Hawking

http://www.geocities.com/alschairn/astroseti/conferencia.htm

 

Presentación del Profesor Stephen Hawking en la Decimoséptima Conferencia Internacional sobre Relatividad General y Gravitación, Dublín.

http://ciencia.astroseti.org/hawking/dublin.php

 

 

*************************************

BEKENSTEIN-HAWKING ENTROPY / ENTROPÍA DE BEKENSTEIN-HAWKING

Black Hole Entropy   /   Entropía de los Agujeros Negros

S = Akc3/4Għ

 

 

Bekenstein-Hawking entropy

Scholarpedia 20140418

The Bekenstein-Hawking entropy or black hole entropy is the amount of entropy that must be assigned to a black hole in order for it to comply with the laws of thermodynamics as they are interpreted by observers external to that black hole. This is particularly true for the first and second laws. Black hole entropy is a concept with geometric root but with many physical consequences. It ties together notions from gravitation, thermodynamics and quantum theory, and is thus regarded as a window into the as yet mostly hidden world of quantum gravity.

http://www.scholarpedia.org/article/Bekenstein-Hawking_entropy

 

fórmula de Bekenstein-Hawking

S = Akc3 / 4Għ

S entropía, A área, k constante de Boltzmann, c velocidad de la luz, G constante de la gravitación universal, ħ=h/2π, donde h es la constante de Planck.

www.fgalindosoria.com/informaticos/fundamentales/Jacob_David_Bekenstein/

 

http://foro.migui.com/smf/index.php/topic,1676.0.html

http://scienceworld.wolfram.com/physics/Bekenstein-HawkingFormula.html

http://scienceworld.wolfram.com/physics/h-Bar.html

 

 

 

Ir a Portal de Fernando Galindo Soria

 

Aspects of Information   /   Aspectos de la Información

Datos;   Entropía e Información;   Conocimiento;   Estructuras;   Patrones;   Normas, dinero, neurotransmisores;   ;   Cuerdas, ondas y partículas, señales, ruido;   Mezclas, Soluciones, Compuestos;   Aspectos lingüísticos;   Léxico, sintaxis, semántica;....Fractales y Caos;   Cristales;   Campo, Espacio;.... Entidades, atributos, relaciones;....

 

Entropy and Information   /   Entropía e Información

 

Entropy and Thermodynamics   /   Entropía y Termodinámica

 

Entropy  and Information   /    Entropía e Información

 

Maxwell's demon   /   El demonio de Maxwell

 

Negentropy and Information   /   Neguentropía e Información

negative entropy    entropía negativa    neg entropy    neg entropía......

neguentropía     negantropía     sintropía .....

 

Current Research in Entropy and Information

Investigaciones Actuales sobre Entropía e Información

 

Entropy and Information Some Related Areas

Algunas Áreas Relacionadas sobre Entropía e Información