Fractal Symmetry and Power Law Distributions,  Simetría Fractal y Leyes de Potencias

simetría interna, simetría en profundidad

Recursivity / Recursividad,     Invariant Fractal / Invariancia Fractal,

similaridad, autosimilaridad, invariancia gauge, invariancia bajo cambios de escala, invariancia de escala, escala, conectividad

http://www.fgalindosoria.com/informatica/properties/symmetry/fractal_symmetry.htm

 

 

INFORMATICS PROPERTIES   /  PROPIEDADES INFORMÁTICAS

Dimension     Density  and Frecuency    Symmetry    Recursion    Form

Dimensión    Densidad y Frecuencia     Simetría     Recursividad    Forma

 

 

Fernando Galindo Soria

English (www.fgalindosoria.com/en/ )     Español (www.fgalindosoria.com )

fgalindo@ipn.mx

Red de Desarrollo      REDI

 

Creación de la página www    Tenayuca, Ciudad. de México 4 de Enero del 2011

Últimas actualizaciones 4 de Enero del 2011, 15 de Abril del 2017

 

 

Similarity, Power-Law Distributions, Exponential Decay,      

S--> e* S*   Una Ecuación de la Naturaleza, 

Zipf's Law /  Ley de Zipf,        Benford's Law /  Ley de Benford,        Sucesión de Farey

Long Tail  /  Larga cola,       Ondas de Elliott,       Invariancia de Escala, Conectividad y Redes Complejas

redes de mundo pequeño, redes libres de escala, etc.

 

*************************************************************************

*************************************************************************

2 -De hormigueros, bandadas, metrónomos y los problemas de una Reina Roja

El siglo de la Fraternidad, Carlos Boyle

https://elsiglodelafreternidad.wordpress.com/2-de-hormigueros-bandadas-metronomos-y-los-problemas-de-una-reina-roja-%E2%80%93-primera-parte/

 

3 – La naturaleza de lo natural

El siglo de la Fraternidad, Carlos Boyle

https://elsiglodelafreternidad.wordpress.com/3-la-naturaleza-de-lo-natural/

 

8 – Fractales, Power Laws y jerarquías

El siglo de la Fraternidad, Carlos Boyle

" Las power laws son, en consecuencia, las que mantiene autosimilitud a media que el sistema evoluciona y esto puede interpretarse gráficamente como la evolución que presenta un fractal a medida que se va autogenerando. "

https://elsiglodelafreternidad.wordpress.com/8-fractales-power-laws-y-jerarquas/

 

 

Predecir una crisis “de libro” parece fácil, nadie lo hizo, predecir terremotos parece fácil, nadie lo hace

Posted by emulenews en 16 noviembre 2008

“...¿Está el caos determinista detrás de la impredicibilidad de las crisis financieras y de los terremotos? Algunos opinan que sí. Otros que no. E incluso, algunos, están a mitad de camino, como los indios Bikas K. Chakrabarti, Arnab Chatterjee, y Pratip Bhattacharyya, “Two-fractal overlap time series: Earthquakes and market crashes,” Pramana Journal of Physics, 71: 203-210, August 2008 . Los autores encuentran similitudes entre la serie temporal del comportamiento de los mercados y la de los seismos con un modelo extremadamente simple, dos fractales de Cantor sumados,...”

http://francisthemulenews.wordpress.com/2008/11/16/predecir-una-crisis-de-libro-parece-facil-nadie-lo-hizo-predecir-terremotos-parece-facil-nadie-lo-hace/

 

Dinámica de los procesos periódicos naturales y socioeconómicos

Joaquín González Álvarez

“Se trata en forma general de la dinámica de los procesos cíclicos naturales y económicos y las crisis financieras periódicas utilizando los métodos de la dinámica no lineal y los conceptos de Caos y Fractal.”

http://casanchi.com/mat/dinamicaprocesos01.pdf

 

Escala y ‘Escalaje’ en Arquitectura : Inteligencia Visual que adquiere identidad en la Geografía

Tesis Doctoral

Universidad Politécnica de Madrid, Escuela Técnica Superior de Arquitectura

Departamento de Urbanística y Organización del Territorio, 2007

Sofía Letelier Parga - Arquitecta

Director de Tesis: Dr. Arq. Guillermo Cabeza Arnaiz

Co-Director: Dr. Ing. Julio Pozueta Echavarry

http://oa.upm.es/1363/1/SOFIA_LETELIER_PARGA.pdf

 

 

*************************************************************************

*************************************************************************

Simetría Fractal

 

 

Nuevos indicios sugieren que el Universo podría ser fractal

Jean-Paul Baquiast,

Traducción del francés: Yaiza Martínez, Padronel, Viernes 23 Marzo 2007

“Las últimas observaciones del Universo sugieren que la materia oscura no se extiende de manera homogénea por el vacío, sino que forma estructuras fractales. Aunque esta teoría tiene ya diez años, las nuevas evidencias ponen de manifiesto su consistencia y plantean que quizá un mecanismo alternativo no descrito por la teoría de la relatividad general posibilitó el desarrollo del Universo desde sus orígenes. Un principio emergente, denominado “relatividad de escala”, sostiene que dicha fractalidad, también atribuida al espacio-tiempo, origina leyes del movimiento que son auto-organizadoras por naturaleza, capaces de producir la evolución de las estructuras de manera también fractal.” (Ligado, 20 de Octubre del 2008)

http://padronel.net/?s=Nuevos+indicios+sugieren+que+el+Universo+podr%C3%ADa+ser+fractal

En

Fractal Cosmology,  Fractal Relativity, Scale Relativity and Fractal Space-Time

Dentro de

http://www.fgalindosoria.com/transfinitoydinamicadimensional/

 

 

**************************************************

Fractales contra dimensiones enrolladas, una "oposición" geométrica

2009/04/16

Arrugar, romper o fracturar la continuidad clásica para aumentar la capacidad de un objeto de ocupar espacio, o enrollarlo para disminuir dicha capacidad. He aquí la cuestión, aparentemente trivial, que puede llevarnos a entender mejor el propio nacimiento de nuestro Universo.

http://labellateoria.blogspot.com/2009/04/fractales-contra-dimensiones-enrolladas.html

 

 

2009/10/08

Algo más sobre fractales, su dependencia espacial

La dimensión de un fractal está íntimamente relacionada con la manera en que éste se extiende por el espacio. Su dimensión nos da la capacidad del fractal de recubrir un espacio de dimensión topológica superior a la suya, de hecho, una trayectoria fractal de dimensión 2 es capaz de recubrir el plano, y de dimensión 3 el espacio tridimensional.

http://labellateoria.blogspot.com/2009/10/algo-mas-sobre-fractales-su-dependencia.html

 

 

 

*************************************************************************

*************************************************************************

Invariancia de Escala, Conectividad y Redes Complejas

 

Invariancia de Escala Una aventura personal hacia las redes complejas.

Por malambo

http://invariancia.blogalia.com/

http://invariancia.blogalia.com/historias/

 

¿Quién diseña la potencia del entramado social?

Por malambo en Invariancia. Sociología | 2005-11-12

”El hecho es impresionante, o por lo menos a mi no deja de asombrarme. ¿Quién decide que las personas queden conectadas unas con otras según una ley de potencias?...todas las sociedades, tanto pasadas como actuales, las tribus o las grandes urbes respeten a rajatabla la ley
p(k) = α k- λ

que dice que la distribución de probabilidad de que alguien tenga k conocidos es una ley de potencias?

http://invariancia.blogalia.com/historias/34657

 

 

 

20130921

Sistemas críticamente autoorganizados

Espectro multifractal

Caminata de levy

 

 

*************************************************************************

Similarity, Power-Law Distributions, Exponential Decay

 

An Information-Theoretic Definition of Similarity

Dekang Lin

Department of Computer Science, University of Manitoba, Winnipeg, Manitoba, Canada

Last modified 23-Jun-2003

http://www.cs.ualberta.ca/~lindek/papers/sim.pdf

 

 

 

Power law

Wikipedia, (20120906)

 

“A power law is a mathematical relationship between two quantities. When the frequency of an event varies as a power of some attribute of that event (e.g. its size), the frequency is said to follow a power law. For instance, the number of cities having a certain population size is found to vary as a power of the size of the population, and hence follows a power law. There is evidence that the distributions of a wide variety of physical, biological, and man-made phenomena follow a power law, including the sizes of earthquakes, craters on the moon and of solar flares,[1] the foraging pattern of various species,[2] the sizes of activity patterns of neuronal populations,[3] the frequencies of words in most languages, frequencies of family names, the species richness in clades of organisms,[4] the sizes of power outages and wars,[5] and many other quantities.

 

…..

Properties of power laws

Scale invariance

The main property of power laws that makes them interesting is their scale invariance. Given a relation http://upload.wikimedia.org/math/6/9/6/69648120a545f9ad7f3749ff2f6d0bdd.png, scaling the argument http://upload.wikimedia.org/math/9/d/d/9dd4e461268c8034f5c8564e155c67a6.pngby a constant factor http://upload.wikimedia.org/math/4/a/8/4a8a08f09d37b73795649038408b5f33.pngcauses only a proportionate scaling of the function itself. That is,

http://upload.wikimedia.org/math/6/1/c/61c229e83171a156e8374507842562af.png

That is, scaling by a constant http://upload.wikimedia.org/math/4/a/8/4a8a08f09d37b73795649038408b5f33.pngsimply multiplies the original power-law relation by the constant http://upload.wikimedia.org/math/a/7/7/a774a10f898af74cdd211d7ba6764b16.png. Thus, it follows that all power laws with a particular scaling exponent are equivalent up to constant factors, since each is simply a scaled version of the others. This behavior is what produces the linear relationship when logarithms are taken of both http://upload.wikimedia.org/math/5/0/b/50bbd36e1fd2333108437a2ca378be62.pngand http://upload.wikimedia.org/math/9/d/d/9dd4e461268c8034f5c8564e155c67a6.png, and the straight-line on the log-log plot is often called the signature of a power law. With real data, such straightness is a necessary, but not sufficient, condition for the data following a power-law relation. In fact, there are many ways to generate finite amounts of data that mimic this signature behavior, but, in their asymptotic limit, are not true power laws. Thus, accurately fitting and validating power-law models is an active area of research in statistics.

 

Universality

The equivalence of power laws with a particular scaling exponent can have a deeper origin in the dynamical processes that generate the power-law relation. In physics, for example, phase transitions in thermodynamic systems are associated with the emergence of power-law distributions of certain quantities, whose exponents are referred to as the critical exponents of the system. Diverse systems with the same critical exponents—that is, which display identical scaling behaviour as they approach criticality—can be shown, via renormalization group theory, to share the same fundamental dynamics. For instance, the behavior of water and CO2 at their boiling points fall in the same universality class because they have identical critical exponents. In fact, almost all material phase transitions are described by a small set of universality classes. Similar observations have been made, though not as comprehensively, for various self-organized critical systems, where the critical point of the system is an attractor. Formally, this sharing of dynamics is referred to as universality, and systems with precisely the same critical exponents are said to belong to the same universality class.

 

Power-law functions

The general power-law function follows the polynomial form given above, and is a ubiquitous form throughout mathematics and science. Notably, however, not all polynomial functions are power laws because not all polynomials exhibit the property of scale invariance. Typically, power-law functions are polynomials in a single variable, and are explicitly used to model the scaling behavior of natural processes. For instance, allometric scaling laws for the relation of biological variables are some of the best known power-law functions in nature. In this context, the http://upload.wikimedia.org/math/3/c/c/3cc8bd3f43725f7d3389451c2cb73146.pngterm is most typically replaced by a deviation term http://upload.wikimedia.org/math/c/6/9/c691dc52cc1ad756972d4629934d37fd.png, which can represent uncertainty in the observed values (perhaps measurement or sampling errors) or provide a simple way for observations to deviate from the power-law function (perhaps for stochastic reasons):

http://upload.wikimedia.org/math/e/f/6/ef6f2e9f43dbfb50051de7268f99858d.png

Scientific interest in power law relations stems partly from the ease with which certain general classes of mechanisms generate them (see the Sornette reference below). The demonstration of a power-law relation in some data can point to specific kinds of mechanisms that might underlie the natural phenomenon in question, and can indicate a deep connection with other, seemingly unrelated systems (see the reference by Simon and the subsection on universality below). The ubiquity of power-law relations in physics is partly due to dimensional constraints, while in complex systems, power laws are often thought to be signatures of hierarchy or of specific stochastic processes. A few notable examples of power laws are the Gutenberg-Richter law for earthquake sizes, Pareto's law of income distribution, structural self-similarity of fractals, and scaling laws in biological systems. Research on the origins of power-law relations, and efforts to observe and validate them in the real world, is an active topic of research in many fields of science, including physics, computer science, linguistics, geophysics, neuroscience, sociology, economics and more.

However much of the recent interest in power laws comes from the study of probability distributions: it's now known that the distributions of a wide variety of quantities seem to follow the power-law form, at least in their upper tail (large events). The behavior of these large events connects these quantities to the study of theory of large deviations (also called extreme value theory), which considers the frequency of extremely rare events like stock market crashes and large natural disasters. It is primarily in the study of statistical distributions that the name "power law" is used; in other areas the power-law functional form is more often referred to simply as a polynomial form or polynomial function.

 

Examples of power-law functions

 

......

Power-law probability distributions

In the most general sense, a power-law probability distribution is[citation needed] a distribution whose density function (or mass function in the discrete case) has the form

http://upload.wikimedia.org/math/0/e/d/0ed58256045ecc61e271b97bcfd3d511.png

where http://upload.wikimedia.org/math/3/c/a/3ca07d8e69d2c1864d7cf392da6bd50f.png, and http://upload.wikimedia.org/math/2/0/5/2054ddef5ff1df5a5e8c1d50a812fefe.pngis a slowly varying function, which is any function that satisfies http://upload.wikimedia.org/math/f/e/2/fe29f48dc318eddaf5f55e61b1aa4c51.pngwith http://upload.wikimedia.org/math/e/3/5/e358efa489f58062f10dd7316b65649e.pngconstant. This property of http://upload.wikimedia.org/math/2/0/5/2054ddef5ff1df5a5e8c1d50a812fefe.pngfollows directly from the requirement that http://upload.wikimedia.org/math/4/1/3/4130c89f2d12c3ac81aba3adbff28685.pngbe asymptotically scale invariant; thus, the form of http://upload.wikimedia.org/math/2/0/5/2054ddef5ff1df5a5e8c1d50a812fefe.pngonly controls the shape and finite extent of the lower tail. For instance, if http://upload.wikimedia.org/math/2/0/5/2054ddef5ff1df5a5e8c1d50a812fefe.pngis the constant function, then we have a power-law that holds for all values of http://upload.wikimedia.org/math/9/d/d/9dd4e461268c8034f5c8564e155c67a6.png. In many cases, it is convenient to assume a lower bound http://upload.wikimedia.org/math/8/b/3/8b30948c22aad8b881dc5644953e527a.pngfrom which the law holds. Combining these two cases, and where http://upload.wikimedia.org/math/9/d/d/9dd4e461268c8034f5c8564e155c67a6.pngis a continuous variable, the power law has the form

http://upload.wikimedia.org/math/e/9/1/e91eb126cb94da740a3fc9243769424f.png

where the pre-factor to http://upload.wikimedia.org/math/6/2/e/62ecf082c5b952000aed68cf7ca579ed.pngis the normalizing constant. We can now consider several properties of this distribution. For instance, its moments are given by

http://upload.wikimedia.org/math/1/2/f/12f2f2b1aa13d7a803ea35d0fbe289d8.png

which is only well defined for http://upload.wikimedia.org/math/8/2/2/822880a7fc14f1c9ec98b5209569117b.png. That is, all moments http://upload.wikimedia.org/math/6/a/7/6a75e3b8a551697dbc1d6cb1bfee7136.pngdiverge: when http://upload.wikimedia.org/math/8/6/d/86d90d89234a5f554e2ffa82095c7997.png, the average and all higher-order moments are infinite; when http://upload.wikimedia.org/math/9/1/b/91bd73c75e2418b2e76e86a61f975eba.png, the mean exists, but the variance and higher-order moments are infinite, etc. For finite-size samples drawn from such distribution, this behavior implies that the central moment estimators (like the mean and the variance) for diverging moments will never converge - as more data is accumulated, they continue to grow. These power-law probability distributions are also called Pareto-type distributions, distributions with Pareto tails, or distributions with regularly varying tails.

Another kind of power-law distribution, which does not satisfy the general form above, is the power law with an exponential cutoff[clarification needed]

http://upload.wikimedia.org/math/d/e/f/def19fcf1ee599ca6eda0e1d418320bd.png

In this distribution, the exponential decay term http://upload.wikimedia.org/math/d/4/e/d4e21d8dc70c613b85addc594dd31c08.pngeventually overwhelms the power-law behavior at very large values of http://upload.wikimedia.org/math/9/d/d/9dd4e461268c8034f5c8564e155c67a6.png. This distribution does not scale and is thus not asymptotically a power law; however, it does approximately scale over a finite region before the cutoff. (Note that the pure form above is a subset of this family, with http://upload.wikimedia.org/math/9/d/4/9d42faef3cf38affb94af883f23a4cc2.png.) This distribution is a common alternative to the asymptotic power-law distribution because it naturally captures finite-size effects. For instance, although the Gutenberg–Richter law is commonly cited as an example of a power-law distribution, the distribution of earthquake magnitudes cannot scale as a power law in the limit http://upload.wikimedia.org/math/2/4/c/24ce3ddd88d39e1052cb8262ed701be2.pngbecause there is a finite amount of energy in the Earth's crust and thus there must be some maximum size to an earthquake. As the scaling behavior approaches this size, it must taper off.

 

......

Examples of power-law distributions

distributions

empirical statistical laws

models

applications

A great many power-law distributions have been conjectured in recent years. For instance, power laws are thought to characterize the behavior of the upper tails for the popularity of websites, the degree distribution of the webgraph, describing the hyperlink structure of the WWW, the net worth of individuals, the number of species per genus, the popularity of given names, Gutenberg–Richter law of earthquake magnitudes, the size of financial returns, and many others.[citation needed] However, much debate remains as to which of these tails are actually power-law distributed and which are not. For instance, it is commonly accepted now[citation needed] that the famous Gutenberg–Richter law decays more rapidly than a pure power-law tail because of a finite exponential cutoff in the upper tail.

Log-normal distributions are often mistaken for power law distributions [1]. For example, Gibrat's law about proportional growth processes can actually produce limiting distributions that are lognormal, although their log-log plots look linear. An explanation of this is that although the logarithm of the lognormal density function is quadratic in log(x), yielding a "bowed" shape in a log-log plot, if the quadratic term is small relative to the linear term then the result can appear almost linear. Therefore a log-log plot that is slightly "bowed" downwards can reflect a log-normal distribution—not a power law.””

http://en.wikipedia.org/wiki/Power_law

 

 

 

Ley de potencias

De Wikipedia, la enciclopedia libre (20120906)

 

http://upload.wikimedia.org/wikipedia/commons/thumb/8/8a/Long_tail.svg/300px-Long_tail.svg.png

Un ejemplo gráfico de ley de potencias, usado para demostrar el ranking de popularidad. A la derecha se encuentra la larga cola (muchos elementos individualmente poco populares), y a la izquierda los pocos elementos que son más populares.

 

“Una ley de potencias es un tipo especial de relación matemática entre dos cantidades. Aplicado a la estadística, si estas dos cantidades son la variable aleatoria y su frecuencia, en una distribución de ley de potencias, las frecuencias decrecen según un exponente cuando la variable aleatoria aumenta. Por ejemplo, un terremoto de doble intensidad es cuatro veces más improbable. Si este patrón se mantiene para los terremotos de todas las intensidades, se dice que la distribución "escala". Las leyes de potencias también describen otros tipos de relaciones, como el metabolismo basal de una especie y su masa corporal (llamada ley de Kleiber), o el tamaño de una ciudad y el número de patentes que produce. Lo que esta relación indica es que no hay tamaño típico en un sentido convencional. Las leyes de potencias se encuentran tanto en la naturaleza como en ámbitos artificiales, y son un campo de estudio activo por la comunidad científica.

 

Definición

Una relación en forma de ley de potencias entre dos escalares x e y es aquella que puede expresarse como sigue:

http://upload.wikimedia.org/math/6/6/a/66a8eb650fbfb1478715da1c279e9d14.png

donde a (la constante de proporcionalidad) y k (el exponente de la potencia) son constantes.

La ley de potencias puede interpretarse como una línea recta en un gráfico doble-logarítmico, ya que la ecuación anterior se puede expresar

http://upload.wikimedia.org/math/1/a/7/1a7403298e50785eece565ad9ab1a81d.png

la cual presenta la misma forma que la ecuación de una línea recta

http://upload.wikimedia.org/math/7/e/9/7e9f1b4db3affa4ad3142cc96ce6d086.png

 

Invariancia de escala

El principal interés de las leyes de potencias radica en su invariancia de escala. La función http://upload.wikimedia.org/math/6/9/6/69648120a545f9ad7f3749ff2f6d0bdd.png(donde http://upload.wikimedia.org/math/0/c/c/0cc175b9c0f1b6a831c399e269772661.pngy http://upload.wikimedia.org/math/8/c/e/8ce4b16b22b58894aa86c421e8759df3.pngson constantes), satisface la relación:

http://upload.wikimedia.org/math/7/f/8/7f8caabd7bbc0b7e81a0927b0084dac8.png

para toda constante http://upload.wikimedia.org/math/4/a/8/4a8a08f09d37b73795649038408b5f33.png. Esto es, al multiplicar el argumento http://upload.wikimedia.org/math/9/d/d/9dd4e461268c8034f5c8564e155c67a6.pngpor http://upload.wikimedia.org/math/4/a/8/4a8a08f09d37b73795649038408b5f33.png, únicamente estamos multiplicando la ley de potencias original por la constante http://upload.wikimedia.org/math/a/7/7/a774a10f898af74cdd211d7ba6764b16.png. En este sentido, se dice que la función http://upload.wikimedia.org/math/5/0/b/50bbd36e1fd2333108437a2ca378be62.pnges invariante de escala. Esta propiedad hace que una ley de potencias quede determinada por su exponente, formando las funciones con el mismo exponente una clase de equivalencia. La invariancia de escala de la ley de potencia permite realizar estadísticas sobre las diferentes escalas de observación, para estimar el exponente.

 

Ejemplos

Estas expresiones potenciales pueden observarse en muchos campos, como la física, la biología, la geografía, la sociología, la economía y la lingüística.

Ejemplos de relaciones potenciales

Ejemplos de ley de potencias

http://upload.wikimedia.org/math/3/1/2/3122574d01a862bdb6a17d4ec891b9b5.png

Estos casos parecen ajustar fenómenos tan dispares como la popularidad de una red en Internet, la riqueza de las personas (ley de Pareto) y la frecuencia de las palabras en un texto.”

http://es.wikipedia.org/wiki/Ley_de_potencias

 

 

 

arXiv:0706.1062v2 [physics.data-an] 2 Feb 2009

Power-Law Distributions in Empirical Data

Aaron Clauset, Cosma Rohilla Shalizi, And M. E. J. Newman

Abstract. Power-law distributions occur in many situations of scientific interest and have significant consequences for our understanding of natural and man-made phenomena. Unfortunately, the detection and characterization of power laws is complicated by the large fluctuations that occur in the tail of the distribution—the part of the distribution representing large but rare events—and by the difficulty of identifying the range over which power-law behavior holds. Commonly used methods for analyzing power-law data, such as least-squares fitting, can produce substantially inaccurate estimates of parameters for power-law distributions, and even in cases where such methods return accurate answers they are still unsatisfactory because they give no indication of whether thedata obey a power law at all. Here we present a principled statistical framework for discerning and quantifying power-law behavior in empirical data. Our approach combines maximum-likelihood fitting methods with goodness-of-fit tests based on the Kolmogorov-Smirnov statistic and likelihood ratios. We evaluate the effectiveness of the approach with tests on synthetic data and give critical comparisons to previous approaches. We also apply the proposed methods to twenty-four real-world data sets from a range of different disciplines, each of which has been conjectured to follow a powerlaw distribution. In some cases we find these conjectures to be consistent with the data while in others the power law is ruled out.

http://arxiv.org/PS_cache/arxiv/pdf/0706/0706.1062v2.pdf

http://arxiv.org/abs/0706.1062

 

Exponential decay

http://en.wikipedia.org/wiki/Exponential_decay

 

Half-life of knowledge

http://en.wikipedia.org/wiki/Half-life_of_knowledge

 

 

*************************************************************************

*************************************************************************

S--> e* S*   Una Ecuación de la Naturaleza

 

S--> e* S*   Una Ecuación de la Naturaleza

http://www.fgalindosoria.com/ecuaciondelanaturaleza/index.htm

 

 

*************************************************************************

*************************************************************************  

Zipf's law  /  La Ley de Zipf  o Ley del mínimo esfuerzo

 

Benford's Law and Zipf's Law

http://www.cut-the-knot.org/do_you_know/zipfLaw.shtml

 

Ley de Zipf

Zipf's law, named after the Harvard linguistic professor George Kingsley Zipf (1902-1950), is the observation that frequency of occurrence of some event ( P ), as a function of the rank ( i) when the rank is determined by the above frequency of occurrence, is a power-law function Pi ~ 1/ia with the exponent a close to unity”

http://www.nslij-genetics.org/wli/zipf/

 

Zipf's law (definition)

http://www.nist.gov/dads/HTML/zipfslaw.html

 

BOOK

Human behavior and the principle of least effort
an introduction to human ecology.

George Kingsley Zipf

Published 1949 by Addison-Wesley Press in Cambridge, Mass.

 

 

Zipf's law

Zipf's law states that given some corpus of natural language utterances, the frequency of any word is inversely proportional to its rank in the frequency table. Thus the most frequent word will occur approximately twice as often as the second most frequent word, which occurs twice as often as the fourth most frequent word, etc.” (Wikipedia August 21, 2008)

http://en.wikipedia.org/wiki/Zipf's_law

 

Zipf's Law

Dr. Richard S. Wallace

“The Zipf curve is a characteristic of human languages, and many other natural and human phenomena as well. Zipf noticed that the populations of cities followed a similar distribution. There are a few very large cities, a larger number of medium-sized ones, and a large number of small cities. If the cities, or the words of natural language, were randomly distributed, then the Zipf curve would be a flat horizontal line.

http://www.alicebot.org/articles/wallace/zipf.html

 

La ley de Zipf

Javier Sampedro 13/12/2009

http://www.elpais.com/articulo/opinion/ley/Zipf/elpepusocdgm/20091213elpdmgpan_3/Tes

 

 

XXI. El Caos Ordena la Lingüística. La Ley De Zipf

http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen3/ciencia3/150/htm/sec_23.htm

 

Zipf–Mandelbrot law

From Wikipedia, the free encyclopedia (20120518)

In probability theory and statistics, the Zipf–Mandelbrot law is a discrete probability distribution. Also known as the Pareto-Zipf law, it is a power-law distribution on ranked data, named after the linguist George Kingsley Zipf who suggested a simpler distribution called Zipf's law, and the mathematician Benoît Mandelbrot, who subsequently generalized it.

http://en.wikipedia.org/wiki/Zipf%E2%80%93Mandelbrot_law

 

 

La Web y el Principio del Mínimo Esfuerzo

El principio del mínimo esfuerzo, enunciado en la obra de G. Zipf, permite explicar muchos resultados del comportamiento humano, y por ende se ha llamado la Ley de Zipf. Este mes exploramos esta ley empírica y su relación con la Web.

http://www.dcc.uchile.cl/~rbaeza/inf/zipf.html

 

Zipf Curves and Website Popularity

http://www.useit.com/alertbox/zipf.html

 

Cómo usar Google Analytics para Optimizar campañas Adwords? 2ª parte

By Juan Cruz Aliaga, Enero 20, 2009

“En esta ocasión veremos el uso de la ley de Zipf para encontrar oportunidades de optimización en nuestras campañas, basado en las palabras claves existentes.”

http://blog.demarketingonline.com/publicidad_en_buscadores/como-usar-google-analytics-para-optimizar-campanas-adwords-2%C2%AA-parte/

 

 

*************************************************************************

Benford's law  /  Ley de Benford

 

 

Benford's law

Benford's law, also called the first-digit law, states that in lists of numbers from many real-life sources of data, the leading digit is distributed in a specific, non-uniform way. According to this law, the first digit is 1 almost one third of the time” (Wikipedia August 21, 2008)

http://en.wikipedia.org/wiki/Benford%27s_law

 

Ley de Benford

“La ley de Benford, también conocida como la ley del primer dígito, asegura que, en los números que existen en la vida real, aquellos números que empiezan por el dígito 1 ocurren con mucha más frecuencia que el resto de números” (Wikipedia 21 de Agosto del 2008)

http://es.wikipedia.org/wiki/Ley_de_Benford

 

Los números suelen empezar por «1»

“Una teoría matemática llamada Ley de Benford predice que en un conjunto determinado de números, aquellos cuyos primer dígito es «1» aparecerán de forma más frecuente que los números números que empiezan por otros dígitos.”

http://www.microsiervos.com/archivo/azar/numeros-1-ley-benford.html

 

Explorando la Ley de Benford, visualmente

http://www.microsiervos.com/archivo/ciencia/ley-de-benford-visualmente.html

 

Benford's Law

http://mathworld.wolfram.com/BenfordsLaw.html

 

Following Benford's Law, or Looking Out for No. 1

By Malcolm W. Browne

(From The New York Times, Tuesday, August 4, 1998)

http://www.rexswain.com/benford.html

 

 

*************************************************************************

*************************************************************************

Sucesión de Farey

 

La curiosa sucesión de Farey y sus fascinantes propiedades

“La Sucesión de Farey es una de esas curiosidades matemáticas a la vez llenas de belleza y fáciles de entender que casualmente descubrió un no-matemático, John Farey, en 1928.

La idea es tomar un número natural (ej. n = 3) y empiezar a definir la serie Farey(3) como una serie de fracciones que tienen como numerador y denominador los números entre 1 y n. En el caso de F(3) escribiendo todas estas fracciones serían

1/1, 1/2, 1/3, 2/1, 2/2, 2/3, 3/1, 3/2, 3/3 .”

http://www.microsiervos.com/archivo/ciencia/sucesion-de-farey.html

 

Sucesión de Farey

“Una sucesión de Farey es una sucesión matemática de fracciones irreductibles entre 0 y 1 que tienen un denominador menor o igual a n en orden creciente.

Cada sucesión de Farey comienza en el 0, denotado por la fracción 01, y termina en el 1, denotado por la fracción ¹⁄1, aunque algunos autores suelen omitir ambos términos.” (Wikipedia, 28 de Septiembre del 2008)

http://es.wikipedia.org/wiki/Sucesi%C3%B3n_de_Farey

 

 

***************************************************************

 

Actividad rítmica del músculo papilar inducida por estimulación de alta frecuencia: ritmos n:1, formas de transición e histéresis

http://scielo.unam.mx/scielo.php?script=sci_arttext&pid=S1405-99402004000100002&lng=es&nrm=iso

 

Simulación Electrónica de Estructuras Biofísicas y sus Comportamientos.

Maite de Castro 13 de mayo de 1998

“Ellos han observado fenómenos tales como bloqueo de fase, ritmos no periódicos siguiendo típicas secuencias de escalera del diablo y _árbol de Farey

http://chaos.usc.es/uploads/Galego/tesis_De_Castro.pdf

 

 

*************************************************************************

*************************************************************************

Long Tail  /  Larga cola

 

Long Tail

http://upload.wikimedia.org/wikipedia/commons/thumb/8/8a/Long_tail.svg/200px-Long_tail.svg.png

An example of a power law graph showing popularity ranking. To the right is the long tail; to the left are the few that dominate. Notice that the areas of both regions match.

 

“The Long Tail or long tail refers to the statistical property that a larger share of population rests within the tail of a probability distribution than observed under a 'normal' or Gaussian distribution. The term has gained popularity in recent times as a retailing concept describing the niche strategy of selling a large number of unique items in relatively small quantities – usually in addition to selling fewer popular items in large quantities. The Long Tail was popularized by Chris Anderson in an October 2004 Wired magazine article, in which he mentioned Amazon.com and Netflix as examples of businesses applying this strategy.[1][2] Anderson elaborated the concept in his book The Long Tail: Why the Future of Business Is Selling Less of More (ISBN 1-4013-0237-8).[3]

The distribution and inventory costs of businesses successfully applying this strategy allow them to realize significant profit out of selling small volumes of hard-to-find items to many customers instead of only selling large volumes of a reduced number of popular items. The total sales of this large number of "non-hit items" is called the Long Tail.

Given a large enough availability of choice, a large population of customers, and negligible stocking and distribution costs, the selection and buying pattern of the population results in a power law distribution curve, or Pareto distribution. This suggests that a market with a high freedom of choice will create a certain degree of inequality by favoring the upper 20% of the items ("hits" or "head") against the other 80% ("non-hits" or "long tail").[4] This is known as the Pareto principle or 80–20 rule.

The Long Tail concept has found some ground for application, research, and experimentation. It is a term used in online business, mass media, micro-finance (Grameen Bank, for example), user-driven innovation (Eric von Hippel), and social network mechanisms (e.g., crowdsourcing, crowdcasting, peer-to-peer), economic models, and marketing (viral marketing).

A frequency distribution with a long tail has been studied by statisticians since at least 1946.[5] The term has also been used in the insurance business for many years.[1]

 

Statistical meaning

http://upload.wikimedia.org/wikipedia/commons/thumb/1/12/Longtail.svg/300px-Longtail.svg.png

The tail becomes bigger and longer in new markets (depicted in red). In other words, whereas traditional retailers have focused on the area to the left of the chart, online bookstores derive more sales from the area to the right.

The long tail is the name for a long-known feature of some statistical distributions (such as Zipf, power laws, Pareto distributions and general Lévy distributions). The feature is also known as heavy tails, fat tails, power-law tails, or Pareto tails. In "long-tailed" distributions a high-frequency or high-amplitude population is followed by a low-frequency or low-amplitude population which gradually "tails off" asymptotically. The events at the far end of the tail have a very low probability of occurrence.

As a rule of thumb, for such population distributions the majority of occurrences (more than half, and where the Pareto principle applies, 80%) are accounted for by the first 20% of items in the distribution. What is unusual about a long-tailed distribution is that the most frequently-occurring 20% of items represent less than 50% of occurrences; or in other words, the least-frequently-occurring 80% of items are more important as a proportion of the total population.

Power law distributions or functions characterize an important number of behaviors from nature and human endeavor. This fact has given rise to a keen scientific and social interest in such distributions, and the relationships that create them. The observation of such a distribution often points to specific kinds of mechanisms, and can often indicate a deep connection with other, seemingly unrelated systems. Examples of behaviors that exhibit long-tailed distribution are the occurrence of certain words in a given language, the income distribution of a business or the intensity of earthquakes (see: Gutenberg-Richter law).

Chris Anderson's and Clay Shirky's articles highlight special cases in which we are able to modify the underlying relationships and evaluate the impact on the frequency of events. In those cases the infrequent, low-amplitude (or low-revenue) events — the long tail, represented here by the portion of the curve to the right of the 20th percentile — can become the largest area under the line. This suggests that a variation of one mechanism (internet access) or relationship (the cost of storage) can significantly shift the frequency of occurrence of certain events in the distribution. The shift has a crucial effect in probability and in the customer demographics of businesses like mass media and online sellers.

However, the long tails characterizing distributions such as the Gutenberg-Richter law or the words-occurrence Zipf's law, and those highlighted by Anderson and Shirky are of very different, if not opposite, nature: Anderson and Shirky refer to frequency-rank relations, whereas the Gutenberg-Richter law and the Zipf's law are probability distributions. Therefore, in these latter cases "tails" correspond to large-intensity events such as large earthquakes and most popular words, who dominate the distributions. By contrast, the long tails in the frequency-rank plots highlighted by Anderson and Shirky would rather correspond to short tails in the associated probability distributions, and therefore illustrate an opposite phenomenon compared to the Gutenberg-Richter and the Zipf's laws.

[edit] Chris Anderson and Clay Shirky

The phrase the Long Tail was, according to Chris Anderson, first coined by him[6]. The concept drew in part from a February 2003 essay by Clay Shirky, "Power Laws, Weblogs and Inequality",[4] which noted that a relative handful of weblogs have many links going into them but "the long tail" of millions of weblogs may have only a handful of links going into them. Beginning in a series of speeches in early 2004 and culminating with the publication of a Wired magazine article in October 2004, Anderson described the effects of the Long Tail on current and future business models. Anderson later extended it into the book The Long Tail: Why the Future of Business is Selling Less of More (2006).

Anderson argues that products in low demand or that have a low sales volume can collectively make up a market share that rivals or exceeds the relatively few current bestsellers and blockbusters, if the store or distribution channel is large enough. Anderson cites earlier research by Erik Brynjolfsson, Yu (Jeffrey) Hu, and Michael D. Smith, that showed that a significant portion of Amazon.com's sales come from obscure books that are not available in brick-and-mortar stores. The Long Tail is a potential market and, as the examples illustrate, the distribution and sales channel opportunities created by the Internet often enable businesses to tap that market successfully.

An Amazon employee described the Long Tail as follows: "We sold more books today that didn't sell at all yesterday than we sold today of all the books that did sell yesterday."[7]

Anderson has explained the term as a reference to the tail of a demand curve.[8] The term has since been rederived from an XY graph that is created when charting popularity to inventory. In the graph shown above, Amazon's book sales or Netflix's movie rentals would be represented along the vertical axis, while the book or movie ranks are along the horizontal axis. The total volume of low popularity items exceeds the volume of high popularity items.”

(Wikipedia, 12/ix/2010)

http://en.wikipedia.org/wiki/Long_Tail

 

 

************************

Larga Cola

Esta teoría desarrolla por Chris Anderson en el libro de este nombre intenta demostrar cómo -en un contexto en el cual la industria del entretenimiento está migrando del mundo físico al mundo digital- surgió una cultura de la diversidad donde aparecen nuevos modelos de negocios que se enfocan en vender poco a muchos.

http://es.wikipedia.org/wiki/Chris_Anderson#Larga_Cola

 

http://es.wikipedia.org/wiki/Chris_Anderson

 

 

Larga cola

La larga estela o larga cola (en el original en inglés The Long Tail) fue una expresión acuñada por Chris Anderson en un artículo de la revista Wired de octubre de 2004 para describir determinados tipos de negocios y modelos económicos tales como Amazon.com o Netflix. Lo hizo a partir de un texto publicado por Clay Shirky, uno de sus redactores. El término larga cola se utiliza normalmente en estadística en relación con distribuciones de riqueza o con el uso del vocabulario.

La larga cola en estadística

http://upload.wikimedia.org/wikipedia/commons/thumb/8/8a/Long_tail.svg/250px-Long_tail.svg.png

http://bits.wikimedia.org/skins-1.5/common/images/magnify-clip.png

La larga estela, en color amarillo, puede comprender un área incluso mayor que la de la primera parte de la función.

La larga cola es el nombre coloquial para una bien conocida característica de las distribuciones estadísticas (Zipf, Ley de potencias, distribuciones de Pareto o/y en general distribuciones de Lévy). La característica es también conocida como heavy tails, power-law tails, o las colas de Pareto. Estas distribuciones son semejantes al gráfico de la izquierda.

En estas distribuciones una amplia frecuencia o gran frecuencia de transacciones es seguida por una baja frecuencia o baja amplitud de la población que disminuye gradualmente. En muchos casos, los acontecimientos de baja frecuencia o escasa amplitud -la larga cola, representada aquí por la porción amarilla del gráfico- pueden abarcar la mayor parte del gráfico.

La evolución social y la larga cola según Chris Anderson

Internet y el entorno digital han cambiado las leyes de distribución y las reglas del mercado. La reducción en el coste de almacenamiento y distribución que permiten las nuevas tecnologías, hace que no sea ya necesario focalizar el negocio en unos pocos productos de éxito, en los superventas. Hay que darse cuenta de que ahora existen dos mercados: uno centrado en el alto rendimiento de pocos productos y otro, nuevo y todavía no familiar, basado en la suma o acumulación de todas las pequeñas ventas de muchos productos, que puede igualar o superar al primero. Son el antiguo mercado de masas y el nuevo nicho de mercados, representados por la cabeza y la cola de la conocida gráfica de distribución estadística.

(Wikipedia, 12/ix/2010)

http://es.wikipedia.org/wiki/Larga_cola

 

 

*************************************************************************

La búsqueda del “otro” trafico (longtail)

Escrito por Juan el Abril 22, 2008 05:05 pm en Estrategias de Marketing Online

“Muchas veces los clientes están convencidos que solamente conseguirán tráfico a su página web con las palabras clave más genéricas. Piensan que todo el resto de usuarios piensan igual. Veamos un caso real.

...Un cliente nos solicitó un proyecto de una tienda de vinos...comenzamos a analizar todo el tráfico web...Comprar vino si era la que más tráfico le generaba al segundo mes de lanzar online el proyecto, PERO SOLO ERA UN 5% DE TODO EL TRAFICO.

Otras palabras asociadas a Comprar Vino, por ejemplo Comprar Vino Crianza, Comprar Vino Rioja, Comprar Cava, etc… generaban sólo un 3%.
El 92% restante era para otras cadenas de búsqueda (unos 2500 palabras aproximadas) del tipo: vinos del penedes, vinos de la rioja, vinos ribera del duero, vinos ribeiro, etc
Así que al hacer una estrategia de Posicionamiento Natural no hay que basarse exclusivamente en unas pocas palabras clave sino hay que atacar al “otro tráfico” donde podamos conseguir visitas de calidad y donde es más fácil posicionarse.
Una estrategia de posicionamiento natural basada en el longtail es una acertada decisión.”

http://blog-marketing-internet.es/index.php/2008/04/22/la-busqueda-del-otro-trafico-longtail/

 

 

*************************************************************************

Hurst exponent

Wikipedia, 20170415

“The Hurst exponent is used as a measure of long-term memory of time series. It relates to the autocorrelations of the time series, and the rate at which these decrease as the lag between pairs of values increases. Studies involving the Hurst exponent were originally developed in hydrology for the practical matter of determining optimum dam sizing for the Nile river's volatile rain and drought conditions that had been observed over a long period of time.[1][2] The name "Hurst exponent", or "Hurst coefficient", derives from Harold Edwin Hurst (1880–1978), who was the lead researcher in these studies; the use of the standard notation H for the coefficient relates to his name also.

In fractal geometry, the generalized Hurst exponent has been denoted by H or Hq in honor of both Harold Edwin Hurst and Ludwig Otto Hölder (1859–1937) by Benoît Mandelbrot (1924–2010).[3] H is directly related to fractal dimension, D, and is a measure of a data series' "mild" or "wild" randomness.”

https://en.wikipedia.org/wiki/Hurst_exponent

 

 

“¿Por qué es interesante el exponente de Hurst?

El exponente de Hurst ocurre en varias áreas de las matemáticas aplicadas, incluyendo los fractales y la teoría del caos, procesos de larga memoria y análisis espectral. La estimación del exponente de Hurst se ha aplicado en áreas que van desde la biofísica a las redes de computadoras. La estimación del exponente de Hurst fue desarrollada originalmente en la hidrología. Sin embargo, las modernas técnicas paraestimar el exponente de Hurst vienen de las matemáticas fractales.”

http://www.um.edu.ar/catedras/ANASEN/document/fractal/range_scaled.pdf

 

 

Análisis Empírico de los Sectores Económicos de México en R3 con Aleatoriedad Fractal

María Ramos Escamilla

http://www.ecorfan.org/pdf/economia3.pdf

 

 

*************************************************************************

*************************************************************************

Ondas de Elliott

 

 

“Pi,” la película. La visión de un matemático

Posted by emulenews en 16 noviembre 2008

“Para un matemático, las películas sobre matemáticos tienen un atractivo especial, y entre ellas destaca “Pi” de Darren Aronofsky, que nos presenta a un matemático Maximilian Cohen (interpretado por Sean Gullette), más parecido a un esquizofrénico paranoico que un investigador serio, quien pretende entender el comportamiento caótico de la bolsa utilizando teoría de números. Cuando escuchamos la voz en off de Max afirmando que “la matemática es el lenguaje de la Naturaleza, … hay patrones por todas partes en la Naturaleza, … y también en los mercados bursátiles,” me viene a la cabeza el libro “La geometría fractal de la Naturaleza” (1977, traducido en Tusquets Editores en 1997) de Benoit Mandelbrot, matemático de IBM que acuñó el término fractal. Pero, ¿hay comportamiento fractal en la bolsa?

A finales de la década de 1920, Raph Nelson Elliott descubrió que los mercados siguen ciclos repetitivos y desarrolló una estructura fractal para modelarlos, la teoría de ondas de Elliot. Existen dos tipos de ondas que se suceden entre sí las impulsivas y las correctivas. Las primeras están formadas por 5 ondas, 3 impulsivas y 2 correctivas; las segundas están formadas por 3 ondas, 2 correctivas y 1 impulsiva. Todas estas ondas están formadas por ondas más pequeñas, que a su vez están formadas por ondas aún más pequeñas, y así sucesivamente...”

http://francisthemulenews.wordpress.com/2008/11/16/pi-la-pelicula-la-vision-de-un-matematico/

 

 

Análisis técnico

“El análisis técnico, dentro del análisis bursátil, es el estudio de la acción del mercado, principalmente a través del uso de gráficas, con el propósito de predecir futuras tendencias en el precio.” (Wikipedia 2/I/2010)

http://es.wikipedia.org/wiki/An%C3%A1lisis_t%C3%A9cnico

 

Categoría: Análisis técnico (Wikipedia 2/I/2010)

http://es.wikipedia.org/wiki/Categor%C3%ADa:An%C3%A1lisis_t%C3%A9cnico

 

 

Teoría de las Ondas de Elliott

“La Teoría de las Ondas de Elliott desarrollada por Ralph Nelson Elliott (1871–1948), se basa en el principio de los movimientos de los precios del mercado financiero a través de las ondas que lo forman y el estudio de su formación gráfica. Está basada en la teoría de Dow y es un avance significativo con respecto a ella.

Tras la muerte de Elliott está teoría quedó casi en el olvido y años más tarde fue A.J. Frost y Robert Prechter quien con su libro Principio de las Ondas de Elliott (1978) la hizo popular.” (Wikipedia 2/I/2010)

http://es.wikipedia.org/wiki/Teor%C3%ADa_de_las_Ondas_de_Elliott

 

Mercado de Capitales

Estudios sobre Bolsa, Fondos de Inversión y política monetaria del BCE

15 La geometría fractal y las ondas de Elliot

Antonio Cortés Cal, Carmen de Llano Fernández, José Manuel Viqueira Liñares

Pag. 321

http://books.google.com.mx/books?id=az_YBEIgzeEC&pg=PA316&lpg=PA316&dq=%22conjuntos+dimensionales%22&source=bl&ots=1n24gjU5Bg&sig=G40TYYc_rIA9fDOuSqHSyEG-M8Q&hl=es&ei=uTohTcXdGJCqsAO0hPjPAg&sa=X&oi=book_result&ct=result&resnum=1&ved=0CBYQ6AEwAA#v=onepage&q=%22conjuntos%20dimensionales%22&f=true

 

Teoria de las ondas de Elliott

http://www.youtube.com/watch?gl=ES&hl=es&v=an74rPw0YmU

 

*************************************************************************

*************************************************************************

 

Amdahl's law

Wikipedia (20130619)

http://upload.wikimedia.org/wikipedia/commons/thumb/e/ea/AmdahlsLaw.svg/300px-AmdahlsLaw.svg.png

The speedup of a program using multiple processors in parallel computing is limited by the sequential fraction of the program. For example, if 95% of the program can be parallelized, the theoretical maximum speedup using parallel computing would be 20× as shown in the diagram, no matter how many processors are used.

 

Amdahl's law, also known as Amdahl's argument,[1] is used to find the maximum expected improvement to an overall system when only part of the system is improved. It is often used in parallel computing to predict the theoretical maximum speedup using multiple processors. The law is named after computer architect Gene Amdahl, and was presented at the AFIPS Spring Joint Computer Conference in 1967.

The speedup of a program using multiple processors in parallel computing is limited by the time needed for the sequential fraction of the program. For example, if a program needs 20 hours using a single processor core, and a particular portion of one hour cannot be parallelized, while the remaining promising portion of 19 hours (95%) can be parallelized, then regardless of how many processors we devote to a parallelized execution of this program, the minimum execution time cannot be less than that critical one hour. Hence the speedup is limited up to 20×, as the diagram illustrates.

 

Definition

Given:

·                     n \in \mathbb{N}, the number of threads of execution,

·                     B\in [0, 1], the fraction of the algorithm which is strictly serial,

The time T \left(n \right)an algorithm takes to finish when being executed on nthread of execution corresponds to:

T(n) = T(1)\left( B + \frac{1-B}{n}\right)


Therefore, the theoretical speedup that can be had by executing a given algorithm on a system capable of executing
nthreads of execution is:

S(n) = \frac{ T\left(1\right)}{T\left(n\right)} = \frac{T\left(1\right)}{T\left(1\right)\left(B + \frac{1-B}{n}\right) } =  \frac{1}{B + \frac{1-B}{n}}

 

 

http://upload.wikimedia.org/wikipedia/commons/thumb/4/40/Optimizing-different-parts.svg/400px-Optimizing-different-parts.svg.png

http://bits.wikimedia.org/static-1.22wmf6/skins/common/images/magnify-clip.png

Assume that a task has two independent parts, A and B. B takes roughly 25% of the time of the whole computation. By working very hard, one may be able to make this part 5 times faster, but this only reduces the time for the whole computation by a little. In contrast, one may need to perform less work to make part A be twice as fast. This will make the computation much faster than by optimizing part B, even though B's speed-up is greater by ratio, (5× versus 2×).

…..

John L. Gustafson pointed out in 1988 what is now known as Gustafson's Law: people typically are not interested in solving a fixed problem in the shortest possible period of time, as Amdahl's Law describes, but rather in solving the largest possible problem (e.g., the most accurate possible approximation) in a fixed "reasonable" amount of time. If the non-parallelizable portion of the problem is fixed, or grows very slowly with problem size (e.g., O(log n)), then additional processors can increase the possible problem size without limit.

http://en.wikipedia.org/wiki/Amdahl%27s_law

 

 

Gustafson's law

Wikipedia (20130619)

Gustafson's Law (also known as Gustafson-Barsis' law) is a law in computer science which says that computations involving arbitrarily large data sets can be efficiently parallelized. Gustafson's Law provides a counterpoint to Amdahl's law, which describes a limit on the speed-up that parallelization can provide, given a fixed data set size. Gustafson's law was first described [1] by John L. Gustafson and his colleague Edwin H. Barsis:

http://upload.wikimedia.org/math/1/9/f/19f6e664e94fbcaa0f5877d74b6bffcd.png

where P is the number of processors, S is the speedup, and http://upload.wikimedia.org/math/b/c/c/bccfc7022dfb945174d9bcebad2297bb.pngthe non-parallelizable fraction of any parallel process.

Gustafson's law addresses the shortcomings of Amdahl's law, which does not fully exploit the computing power that becomes available as the number of machines increases. Gustafson's Law instead proposes that programmers tend to set the size of problems to use the available equipment to solve problems within a practical fixed time. Therefore, if faster (more parallel) equipment is available, larger problems can be solved in the same time.

Accordingly, Gustafson called his metric scaled speedup, because in the above expression S(P) is the ratio of the total, single-process execution time to the per-process parallel execution time; the former scales with P, while the latter is assumed fixed or nearly so. This is in contrast to Amdahl's Law, which takes the single-process execution time to be the fixed quantity, and compares it to a shrinking per-process parallel execution time. Thus, Amdahl's law is based on the assumption of a fixed problem size: it assumes the overall workload of a program does not change with respect to machine size (i.e., the number of processors). Both laws assume the parallelizable part is evenly distributed over P processors.

The impact of Gustafson's law was to shift[citation needed] research goals to select or reformulate problems so that solving a larger problem in the same amount of time would be possible. In a way the law redefines efficiency, due to the possibility that limitations imposed by the sequential part of a program may be countered by increasing the total amount of computation.

http://en.wikipedia.org/wiki/Gustafson%27s_Law

 

 

 

Ley de Amdahl

Wikipedia (20130619)

La Ley de Amdahl, llamada así por el arquitecto de ordenadores Gene Amdahl, se usa para averiguar la mejora máxima de un sistema cuando solo una parte de éste es mejorado.

http://upload.wikimedia.org/wikipedia/commons/thumb/3/3e/Ley_de_Amdahl.svg/300px-Ley_de_Amdahl.svg.png

El incremento de velocidad de un programa utilizando múltiples procesadores en computación distribuida está limitada por la fracción secuencial del programa. Por ejemplo, si la porción 0.5 del programa es secuencial, el incremento de velocidad máximo teórico con computación distribuida será de 2 (1/(0.5+(1-0.5)/N)) cuando N sea muy grande.

 

Introducción

La Ley de Amdahl establece que "la mejora obtenida en el rendimiento de un sistema debido a la alteración de uno de sus componentes está limitada por la fracción de tiempo que se utiliza dicho componente".

La fórmula original de la ley de Amdahl es la siguiente:

F = {F_{a} \cdot \left((1 - F_{m}) + {F_{m} \over A_{m}}\right)}

donde:

F = tiempo de ejecución mejorado y

F_{a} = tiempo de ejecución antiguo.

Esta fórmula se puede reescribir usando la definición del incremento de la velocidad que viene dado por \scriptstyle  A = F_a/F, por lo que la fórmula anterior se puede reescribir como:

A = {1 \over (1 - F_{m}) + {F_{m} \over A_{m}}}

donde:

A\,es la aceleración o ganancia en velocidad conseguida en el sistema completo debido a la mejora de uno de sus subsistemas.

A_{m}\,, es el factor de mejora que se ha introducido en el subsistema mejorado.

F_{m}\,, es la fracción de tiempo que el sistema utiliza el subsistema mejorado.

http://upload.wikimedia.org/wikipedia/commons/thumb/6/6c/Optimizing-different-part-es.svg/560px-Optimizing-different-part-es.svg.png

Asumiendo que una tarea tiene dos partes independientes, A y B. B lleva el 25% del tiempo total de computación. Trabajando muy duro, se puede realizar esta parte 5 veces más rápido, sin embargo esto sólo reduce el tiempo de computación un poco. En contraste, una pequeña mejora de la parte A hace que vaya ésta el doble de rápido. Esto hace que sea mucho mejor la optimización de la parte A que la parte B aunque se mejore mucho más dicha parte B (5x contra 2x).

…..

La Ley de Amdahl se puede interpretar de manera más técnica, pero en términos simples, significa que es el algoritmo el que decide la mejora de velocidad, no el número de procesadores. Finalmente se llega a un momento que no se puede paralelizar más el algoritmo.

http://es.wikipedia.org/wiki/Ley_de_Amdahl

 

 

Ley de Gustafson

Wikipedia (20130619)

La Ley de Gustafson (también conocida como ley de Gustafson-Barsis) es una ley en Ingeniería informática que establece que cualquier problema suficientemente grande puede ser eficientemente paralelizado. La ley de Gustafson esta muy ligada a Ley de Amdahl, que pone límite a la mejora por Speed Up que puede tener debida a la paralelización. Ofreciendo así una visión pesimista del procesamiento paralelo. Por el contrario la ley de Gustafson ofrece un nuevo punto de vista y así una visión positiva de las ventajas del procesamiento paralelo. John L. Gustafson enunció por primera vez la ley que lleva su nombre en 1988.

http://upload.wikimedia.org/math/4/0/8/408ab5f44ce5f8e78ae07a81268db74c.png.

donde P es el número de procesadores, S es el speedup, y http://upload.wikimedia.org/math/b/c/c/bccfc7022dfb945174d9bcebad2297bb.pngla parte no paralelizable del proceso.

http://es.wikipedia.org/wiki/Ley_de_Gustafson

 

 

 

Ley de Metcalfe

Wikipedia (20130605)

 

La ley de Metcalfe dice que el valor de una red de comunicaciones aumenta proporcionalmente al cuadrado del número de usuarios del sistema (n2).

Formulada por primera vez en 1976 por Robert Metcalfe en relación con Ethernet, la ley de Metcalfe explica muchos de los efectos de red de las tecnologías y redes de comunicación, como Internet o la World Wide Web.

La ley suele ilustrarse con el ejemplo de aparatos de fax: una única máquina de fax es inútil, pero su valor se incrementa con el número total de máquinas de fax de la red, debido a que aumenta el número de personas con las que se puede comunicar.

http://es.wikipedia.org/wiki/Ley_de_Metcalfe

 

Network effect.png

 

 

 

Ley de Reed

Wikipedia (20130605)

La ley de Reed es la afirmación de David P. Reed que dice que la utilidad de redes grandes, en particular redes sociales, escala exponencialmente con el tamaño de la red.

La razón de esto es que el número de subgrupos de participantes de la red posibles es 2^N - N - 1 \, , donde Nes el número de participantes. Éste crece mucho más rápido que alguno de ambos:

el número de participantes N, o

el número de posibles pares de conexiones, (que siguen la Ley de Metcalfe)

http://es.wikipedia.org/wiki/Ley_de_Reed

 

 

*************************************************************************

El mundo es un pañuelo

Por malambo en Invariancia.General | 2005-11-18

Modelos de mundo pequeño. Se cree que casi cualquier par de personas en el mundo puede conectarse por una corta cadena de amistades intermedias, de longitud típica de alrededor de seis. Este fenómeno, conocido coloquialmente como la "separación de seis grados" recientemente ha sido sujeto de considerable interés dentro de la comunidad física. Este paper proporciona una corta revisión del tópico.

http://invariancia.blogalia.com/historias/34841

 

Models of the Small World

A Review

M. E. J. Newman

Santa Fe Institute, 1399 Hyde Park Road, Santa Fe, NM 87501

http://arxiv.org/PS_cache/cond-mat/pdf/0001/0001118v2.pdf

 

 

El mágico número siete más menos dos

The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information

George A. Miller   The Psychological Review, 1956, vol. 63, pp. 81-97

http://www.musanim.com/miller1956/

 

 

Separating You and Me? 4.74 Degrees

By JOHN MARKOFF and SOMINI SENGUPTA, The New York Times, NOV. 21, 2011

 

“…The original “six degrees” finding, published in 1967 by the psychologist Stanley Milgram, was drawn from 296 volunteers who were asked to send a message by postcard, through friends and then friends of friends, to a specific person in a Boston suburb. …”

http://www.nytimes.com/2011/11/22/technology/between-you-and-me-4-74-degrees.html

 

Six Degrees: The Science of a Connected Age

by Duncan J. Watts

http://www.amazon.com/Six-Degrees-Science-Connected-Market/dp/0393325423/ref=pd_bxgy_b_text_b

 

 

*************************************************************************

Navegadores sociales en Internet

Por malambo en Invariancia. Sociología | 2005-11-26

http://invariancia.blogalia.com/historias/35094

 

 

*************************************************************************

Folcsonomía

Folcsonomía es una indización social, es decir, la clasificación colaborativa por medio de etiquetas simples en un espacio de nombres llano, sin jerarquías ni relaciones de parentesco predeterminadas. Se trata de una práctica que se produce en entornos de software social” (Wikipedia, 14 de Septiembre del 2008)

http://es.wikipedia.org/wiki/Folcsonom%C3%ADa

 

Folksonomy

“Folksonomy (also known as collaborative tagging, social classification, social indexing, and social tagging) is the practice and method of collaboratively creating and managing tags to annotate and categorize content. In contrast to traditional subject indexing, metadata is generated not only by experts but also by creators and consumers of the content. Usually, freely chosen keywords are used instead of a controlled vocabulary.[1] Folksonomy is a portmanteau of the words folk and taxonomy, hence a folksonomy is a user generated taxonomy.” (Wikipedia September 9, 2008)

http://en.wikipedia.org/wiki/Folksonomy

 

 

*************************************************************************

Dunbar's number

“Dunbar's number is a theoretical cognitive limit to the number of people with whom one can maintain stable social relationships. These are relationships in which an individual knows who each person is, and how each person relates to every other person.[1] Proponents assert that numbers larger than this generally require more restricted rules, laws, and enforced norms to maintain a stable, cohesive group. No precise value has been proposed for Dunbar's number, but a commonly cited approximation is 150.” (Wikipedia February 7, 2009) 

http://en.wikipedia.org/wiki/Dunbar%27s_number

 

Número de Dunbar

“El número de Dunbar es, según el antropólogo Robin Dunbar, la cantidad de individuos con los que una persona puede mantener una relación estable. Dunbar teoriza que este valor, aproximadamente 150, está relacionado con el tamaño del neocórtex cerebral. Esta relacionado, según él, con la capacidad de proceso de ésta.” (Wikipedia, 7 de Febrero del 2009)

http://es.wikipedia.org/wiki/N%C3%BAmero_de_Dunbar

 

 

*************************************************************************

*************************************************************************

 

 

 

INFORMATICS PROPERTIES   /  PROPIEDADES INFORMÁTICAS

Dimension     Density  and Frecuency    Symmetry    Recursion    Form

Dimensión    Densidad y Frecuencia     Simetría     Recursividad    Forma