In probability theory and statistics, a central moment is a moment of a probability distribution of a random variable about the random variable's mean; that is, it is the expected value of a specified integer power of the deviation of the random variable from the mean. The various moments form one set of values by which the properties of a probability distribution can be usefully characterized. Central moments are used in preference to ordinary moments, computed in terms of deviations from the mean instead of from zero, because the higher-order central moments relate only to the spread and shape of the distribution, rather than also to its location. Sets of central moments can be defined for both univariate and multivariate distributions. The nth moment about the mean (or nth central moment) of a real-valued random variable X is the quantity μn := E[(X − E[X])n], where E is the expectation operator. For a continuous univariate probability distribution with probability density function f(x), the nth moment about the mean μ is For random variables that have no mean, such as the Cauchy distribution, central moments are not defined. The first few central moments have intuitive interpretations: The "zeroth" central moment μ0 is 1. The first central moment μ1 is 0 (not to be confused with the first raw moment or the expected value μ). The second central moment μ2 is called the variance, and is usually denoted σ2, where σ represents the standard deviation. The third and fourth central moments are used to define the standardized moments which are used to define skewness and kurtosis, respectively. The nth central moment is translation-invariant, i.e. for any random variable X and any constant c, we have For all n, the nth central moment is homogeneous of degree n: Only for n such that n equals 1, 2, or 3 do we have an additivity property for random variables X and Y that are independent: provided n ∈ {1, 2, 3}. A related functional that shares the translation-invariance and homogeneity properties with the nth central moment, but continues to have this additivity property even when n ≥ 4 is the nth cumulant κn(X).

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (7)
COM-300: Stochastic models in communication
L'objectif de ce cours est la maitrise des outils des processus stochastiques utiles pour un ingénieur travaillant dans les domaines des systèmes de communication, de la science des données et de l'i
EE-566: Adaptation and learning
In this course, students learn to design and master algorithms and core concepts related to inference and learning from data and the foundations of adaptation and learning theories with applications.
MATH-432: Probability theory
The course is based on Durrett's text book Probability: Theory and Examples.
It takes the measure theory approach to probability theory, wherein expectations are simply abstract integrals.
Afficher plus
Concepts associés (16)
Variance (mathématiques)
vignette|Exemple d'échantillons pour deux populations ayant la même moyenne mais des variances différentes. La population en rouge a une moyenne de 100 et une variance de 100 (écart-type = SD = standard deviation = 10). La population en bleu a une moyenne de 100 et une variance de (écart-type = SD = 50). En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire.
Moment (probabilités)
En théorie des probabilités et en statistique, les moments d’une variable aléatoire réelle sont des indicateurs de la dispersion de cette variable. Le premier moment ordinaire, appelé moment d'ordre 1 est l'espérance (i.e la moyenne) de cette variable. Le deuxième moment centré d'ordre 2 est la variance. Ainsi, l'écart type est la racine carrée du moment centré d’ordre 2. Le moment d'ordre 3 est l'asymétrie. Le moment d'ordre 4 est le kurtosis. Le concept de moment est proche du concept de moment en physique.
Loi de probabilité
thumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.