Loi de puissanceLa loi de puissance est une relation mathématique entre deux quantités. Si une quantité est la fréquence d'un évènement et l'autre est la taille d'un évènement, alors la relation est une distribution de la loi de puissance si les fréquences diminuent très lentement lorsque la taille de l'évènement augmente. En science, une loi de puissance est une relation entre deux quantités x et y qui peut s'écrire de la façon suivante : où a est une constante dite constante de proportionnalité, k, valeur négative, est une autre constante, dite exposant, puissance, indice ou encore degré de la loi et x nombre réel strictement positif.
Principe de ParetoLe principe de Pareto, aussi appelé loi de Pareto, principe des 80-20 ou encore loi des 80-20, est une observation selon laquelle environ 80 % des effets sont le produit de seulement 20 % des causes. Les phénomènes qui illustrent ce principe suivent une distribution de Pareto. Le principe de Pareto doit son nom à l'économiste italien Vilfredo Pareto, qui à la fin du analyse les données fiscales de l'Angleterre, la Russie, la France, la Suisse, l'Italie et la Prusse.
Loi de ParetoEn théorie des probabilités, la loi de Pareto, d'après Vilfredo Pareto, est un type particulier de loi de puissance qui a des applications en sciences physiques et sociales. Elle permet notamment de donner une base théorique au « principe des 80-20 », aussi appelé principe de Pareto. Soit la variable aléatoire X qui suit une loi de Pareto de paramètres (x,k), avec k un réel positif, alors la loi est caractérisée par : Les lois de Pareto sont des lois continues.
Rank–size distributionRank–size distribution is the distribution of size by rank, in decreasing order of size. For example, if a data set consists of items of sizes 5, 100, 5, and 8, the rank-size distribution is 100, 8, 5, 5 (ranks 1 through 4). This is also known as the rank–frequency distribution, when the source data are from a frequency distribution. These are particularly of interest when the data vary significantly in scales, such as city size or word frequency.
Longue traîneEn statistique, la queue ou traîne d'une loi de probabilité correspond à la portion éloignée de la « tête » ou valeur centrale de la loi. Une loi de probabilité est dite à longue traîne si une plus grande partie de la loi est contenue dans sa traîne par rapport à celle de la loi normale. Une loi à longue traîne est un cas particulier de lois à queue lourde. Benoît Mandelbrot a été surnommé le « père des longues traînes » pour son article de 1951 dans ce domaine.
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Série harmoniqueEn mathématiques, la série harmonique est une série de nombres réels. C'est la série des inverses des entiers naturels non nuls. Elle tire son nom par analogie avec la moyenne harmonique, de la même façon que les séries arithmétiques et géométriques peuvent être mises en parallèle avec les moyennes arithmétiques et géométriques. Elle fait partie de la famille plus large des séries de Riemann, qui sont utilisées comme séries de référence : la nature d'une série est souvent déterminée en la comparant à une série de Riemann et en utilisant les théorèmes de comparaison.
Nombre harmoniqueEn mathématiques, le n-ième nombre harmonique est la somme des inverses des n premiers entiers naturels non nuls : Ce nombre rationnel est aussi égal à n fois l'inverse de la moyenne harmonique de ces entiers, ainsi qu'à la n-ième somme partielle de la série harmonique. Les nombres harmoniques ont été étudiés pendant l'Antiquité et sont importants dans plusieurs domaines de la théorie des nombres. Ils apparaissent dans de nombreux problèmes d'analyse combinatoire.
Invariance d'échelleIl y a invariance d'échelle lorsqu'aucune échelle ne caractérise le système. Par exemple, dans un ensemble fractal, les propriétés seront les mêmes quelle que soit la distance à laquelle on se place. Une fonction g est dite invariante d'échelle s'il existe une fonction telle que pour tout x et y : Alors, il existe une constante et un exposant , tels que : En physique, l'invariance d'échelle n'est valable que dans un domaine de taille limité — par exemple, pour un ensemble fractal, on ne peut pas se placer à une échelle plus petite que celle des molécules, ni plus grande que la taille du système.