Concepts associés (15)
Loi de puissance
La loi de puissance est une relation mathématique entre deux quantités. Si une quantité est la fréquence d'un évènement et l'autre est la taille d'un évènement, alors la relation est une distribution de la loi de puissance si les fréquences diminuent très lentement lorsque la taille de l'évènement augmente. En science, une loi de puissance est une relation entre deux quantités x et y qui peut s'écrire de la façon suivante : où a est une constante dite constante de proportionnalité, k, valeur négative, est une autre constante, dite exposant, puissance, indice ou encore degré de la loi et x nombre réel strictement positif.
Principe de Pareto
Le principe de Pareto, aussi appelé loi de Pareto, principe des 80-20 ou encore loi des 80-20, est une observation selon laquelle environ 80 % des effets sont le produit de seulement 20 % des causes. Les phénomènes qui illustrent ce principe suivent une distribution de Pareto. Le principe de Pareto doit son nom à l'économiste italien Vilfredo Pareto, qui à la fin du analyse les données fiscales de l'Angleterre, la Russie, la France, la Suisse, l'Italie et la Prusse.
Loi de Pareto
En théorie des probabilités, la loi de Pareto, d'après Vilfredo Pareto, est un type particulier de loi de puissance qui a des applications en sciences physiques et sociales. Elle permet notamment de donner une base théorique au « principe des 80-20 », aussi appelé principe de Pareto. Soit la variable aléatoire X qui suit une loi de Pareto de paramètres (x,k), avec k un réel positif, alors la loi est caractérisée par : Les lois de Pareto sont des lois continues.
Rank–size distribution
Rank–size distribution is the distribution of size by rank, in decreasing order of size. For example, if a data set consists of items of sizes 5, 100, 5, and 8, the rank-size distribution is 100, 8, 5, 5 (ranks 1 through 4). This is also known as the rank–frequency distribution, when the source data are from a frequency distribution. These are particularly of interest when the data vary significantly in scales, such as city size or word frequency.
Longue traîne
En statistique, la queue ou traîne d'une loi de probabilité correspond à la portion éloignée de la « tête » ou valeur centrale de la loi. Une loi de probabilité est dite à longue traîne si une plus grande partie de la loi est contenue dans sa traîne par rapport à celle de la loi normale. Une loi à longue traîne est un cas particulier de lois à queue lourde. Benoît Mandelbrot a été surnommé le « père des longues traînes » pour son article de 1951 dans ce domaine.
Loi stable
La loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Série harmonique
En mathématiques, la série harmonique est une série de nombres réels. C'est la série des inverses des entiers naturels non nuls. Elle tire son nom par analogie avec la moyenne harmonique, de la même façon que les séries arithmétiques et géométriques peuvent être mises en parallèle avec les moyennes arithmétiques et géométriques. Elle fait partie de la famille plus large des séries de Riemann, qui sont utilisées comme séries de référence : la nature d'une série est souvent déterminée en la comparant à une série de Riemann et en utilisant les théorèmes de comparaison.
Menzerath's law
Menzerath's law, or Menzerath–Altmann law (named after Paul Menzerath and Gabriel Altmann), is a linguistic law according to which the increase of the size of a linguistic construct results in a decrease of the size of its constituents, and vice versa. E.g., the longer a sentence (measured in terms of the number of clauses) the shorter the clauses (measured in terms of the number of words), or: the longer a word (in syllables or morphs) the shorter the syllables or morphs in sounds.
Nombre harmonique
En mathématiques, le n-ième nombre harmonique est la somme des inverses des n premiers entiers naturels non nuls : Ce nombre rationnel est aussi égal à n fois l'inverse de la moyenne harmonique de ces entiers, ainsi qu'à la n-ième somme partielle de la série harmonique. Les nombres harmoniques ont été étudiés pendant l'Antiquité et sont importants dans plusieurs domaines de la théorie des nombres. Ils apparaissent dans de nombreux problèmes d'analyse combinatoire.
Heaps' law
In linguistics, Heaps' law (also called Herdan's law) is an empirical law which describes the number of distinct words in a document (or set of documents) as a function of the document length (so called type-token relation). It can be formulated as where VR is the number of distinct words in an instance text of size n. K and β are free parameters determined empirically. With English text corpora, typically K is between 10 and 100, and β is between 0.4 and 0.6. The law is frequently attributed to Harold Stanley Heaps, but was originally discovered by .

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.