En théorie des probabilités et en statistique, la fonction génératrice des moments d'une variable aléatoire est la fonction M définie par pour tout réel t tel que cette espérance existe. Cette fonction, comme son nom l'indique, est utilisée afin d'engendrer les moments associés à la distribution de probabilités de la variable aléatoire . Si à X est associée une densité de probabilité continue , alors la fonction génératrice des moments est donnée par En introduisant dans cette équation le développement en série entière de l'exponentielle, cette expression est équivalente à : où la dernière égalité est obtenue par le théorème de convergence dominée, et où est le i-ème moment de . Si la densité de probabilité n'est pas continue, la fonction génératrice des moments peut être obtenue par l'intégrale de Stieltjes : où F est la fonction de répartition de . Les expressions précédentes s'appliquent à des variables aléatoires. Dans le cas d'un vecteur aléatoire à composantes réelles, la fonction génératrice des moments est alors définie comme suit : où est un vecteur et est le produit scalaire. est la transformée bilatérale de Laplace de la densité de probabilité . Si est une suite de variables aléatoires indépendantes (mais non nécessairement identiquement distribuées) et où , alors la densité de probabilité de est la convolution pondérée par les des densités de probabilité de chacun des et la fonction de génération des moments de est donnée par Comme son nom le suggère, la fonction génératrice des moments est liée à la série génératrice (exponentielle) des moments. Pour que ce lien ait un sens il faut bien sûr que les moments soient tous finis et que leur série associée ait un rayon de convergence non nul. Sous ces conditions la fonction génératrice des moments est développable en série entière autour de 0 et les coefficients sont reliés aux moments. Le théorème suivant précise cette discussion. Si les conditions du théorème sont satisfaites, ce dernier permet de calculer très aisément l'espérance et la variance d'une variable aléatoire dont on connaît la fonction génératrice des moments.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (32)
MATH-230: Probability
Le cours est une introduction à la théorie des probabilités. Le but sera d'introduire le formalisme moderne (basé sur la notion de mesure), de lier celui-ci à l'aspect "intuitif" des probabilités mais
MATH-232: Probability and statistics (for IC)
A basic course in probability and statistics
ME-104: Introduction to structural mechanics
The student will acquire the basis for the analysis of static structures and deformation of simple structural elements. The focus is given to problem-solving skills in the context of engineering desig
Afficher plus
Séances de cours associées (101)
Bandits à bras multiples : regrets et exploration
Explore les regrets des bandits à bras multiples, en équilibrant l'exploration et l'exploitation pour une prise de décision optimale dans des applications réelles.
Grandes déviations: théorie et applications
Plonge dans de grandes déviations en mécanique statistique, explorant le théorème de Kramer, le lemme de Varadhan et la méthode de Laplace.
Révision des probabilités
Couvre l'examen des concepts de probabilité, y compris la distribution de Poisson et les fonctions génératrices de moment.
Afficher plus
Publications associées (71)

On the number of regions of piecewise linear neural networks

Michaël Unser, Alexis Marie Frederic Goujon

Many feedforward neural networks (NNs) generate continuous and piecewise-linear (CPWL) mappings. Specifically, they partition the input domain into regions on which the mapping is affine. The number of these so-called linear regions offers a natural metric ...
2024

Parabolic stochastic PDEs on bounded domains with rough initial conditions: moment and correlation bounds

Le Chen, Cheuk Yin Lee, David Jean-Michel Candil

We consider nonlinear parabolic stochastic PDEs on a bounded Lipschitz domain driven by a Gaussian noise that is white in time and colored in space, with Dirichlet or Neumann boundary condition. We establish existence, uniqueness and moment bounds of the r ...
New York2023

DATED: GUIDELINES FOR CREATING SYNTHETIC DATASETS FOR ENGINEERING DESIGN APPLICATIONS

Jürg Alexander Schiffmann, Cyril Picard, Faez Ahmed

Exploiting the recent advancements in artificial intelligence, showcased by ChatGPT and DALL-E, in real-world applications necessitates vast, domain-specific, and publicly accessible datasets. Unfortunately, the scarcity of such datasets poses a significan ...
Amer Soc Mechanical Engineers2023
Afficher plus
Concepts associés (26)
Loi de Poisson
En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Fonction caractéristique (probabilités)
En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la fonction caractéristique d'une variable aléatoire réelle est une quantité qui détermine de façon unique sa loi de probabilité. Si cette variable aléatoire a une densité, alors la fonction caractéristique est la transformée de Fourier inverse de la densité. Les valeurs en zéro des dérivées successives de la fonction caractéristique permettent de calculer les moments de la variable aléatoire.
Cumulant (statistiques)
En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Afficher plus
MOOCs associés (3)
Selected Topics on Discrete Choice
Discrete choice models are used extensively in many disciplines where it is important to predict human behavior at a disaggregate level. This course is a follow up of the online course “Introduction t
Selected Topics on Discrete Choice
Discrete choice models are used extensively in many disciplines where it is important to predict human behavior at a disaggregate level. This course is a follow up of the online course “Introduction t

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.