En théorie des probabilités, la fonction de masse est la fonction qui donne la probabilité de chaque issue ( résultat élémentaire) d'une expérience aléatoire. C'est souvent ainsi que l'on définit une loi de probabilité discrète. Elle se distingue de la fonction de densité, de la densité de probabilité, en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues, et que ce sont leurs intégrales sur des domaines qui ont valeurs de probabilités (et non leurs valeurs en des points). Soit un espace probabilisé. On appelle fonction de masse de et on note la fonction de dans définie par : Si est discrète, alors pour tout où est l'ensemble des atomes de et la mesure de Dirac au point vignette|Un dé asiatique à six faces. Lançons un dé équilibré à six faces. On a : L'univers des issues possibles est La tribu des événements possibles est (par exemple ; l'important est que soit une tribu (sur ) qui contienne au moins les événements physiquement possibles de l'expérience aléatoire). Le dé n'est pas pipé, donc les six issues possibles sont équiprobables ; or donc chacune d'elles a la probabilité Dans cet exemple simple : Donc la fonction de masse de notée de vers est définie par : (Voir l'article Loi uniforme discrète pour une présentation mathématiquement un peu différente du lancer d’un même dé équilibré à six faces.) Soit un espace probabilisé, un espace probabilisable, et une variable aléatoire. On appelle fonction de masse de et on note la fonction de dans définie par : Si est discrète, alors pour tout où est l'ensemble des atomes de et la mesure de Dirac au point Le théorème de transfert donne, pour toute fonction Pour une loi continue, la fonction de masse est la fonction nulle, donc elle n'est pas pertinente. Si une loi continue n'est pas singulière ( si elle est absolument continue), on utilise sa densité de probabilité. Lançons une pièce de monnaie équilibrée ; soit la variable aléatoire identifiant les résultats « pile » à 0 et « face » à 1.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (32)
MATH-232: Probability and statistics (for IC)
A basic course in probability and statistics
CS-101: Advanced information, computation, communication I
Discrete mathematics is a discipline with applications to almost all areas of study. It provides a set of indispensable tools to computer science in particular. This course reviews (familiar) topics a
Afficher plus
Séances de cours associées (149)
Variance des variables aléatoires
Couvre le concept de variance pour les variables aléatoires et introduit des règles de calcul.
Probabilité et statistiques
Couvre les concepts fondamentaux des probabilités et des statistiques, y compris les distributions, les propriétés et les attentes des variables aléatoires.
Régression linéaire probabiliste
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Afficher plus
Publications associées (187)

Noise-induced transitions past the onset of a steady symmetry-breaking bifurcation: The case of the sudden expansion

François Gallaire, Edouard Boujo, Yves-Marie François Ducimetière

We consider fluid flows, governed by the Navier-Stokes equations, subject to a steady symmetry-breaking bifurcation and forced by a weak noise acting on a slow timescale. By generalizing the multiple-scale weakly nonlinear expansion technique employed in t ...
2024

Density Estimation In Rkhs With Application To Korobov Spaces In High Dimensions

Fabio Nobile, Yoshihito Kazashi

A kernel method for estimating a probability density function from an independent and identically distributed sample drawn from such density is presented. Our estimator is a linear combination of kernel functions, the coefficients of which are determined b ...
SIAM PUBLICATIONS2023

Stochastic particle transport by deep-water irregular breaking waves

Debbie Eeltink

Correct prediction of particle transport by surface waves is crucial in many practical applications such as search and rescue or salvage operations and pollution tracking and clean-up efforts. Recent results by Deike et al. (J. Fluid Mech., vol. 829, 2017, ...
Cambridge2023
Afficher plus
Concepts associés (16)
Loi de Bernoulli
En mathématiques et plus précisément en théorie des probabilités, la loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, désigne la loi de probabilité d'une variable aléatoire discrète qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q = 1 – p. gauche|vignette Par exemple, dans pile ou face, le lancer d'une pièce de monnaie bien équilibrée tombe sur pile avec une probabilité 1/2 et sur face avec une probabilité 1/2.
Variable aléatoire à densité
En théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine. La fonction à intégrer est alors appelée « fonction de densité » ou « densité de probabilité », égale (dans le cas réel) à la dérivée de la fonction de répartition. Les densités de probabilité sont les fonctions essentiellement positives et intégrables d'intégrale 1.
Loi de probabilité à plusieurs variables
vignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Afficher plus