Résumé
En théorie des probabilités, l'espérance conditionnelle d'une variable aléatoire réelle donne la valeur moyenne de cette variable quand un certain événement est réalisé. Selon les cas, c'est un nombre ou alors une nouvelle variable aléatoire. On parle alors d'espérance d'une variable aléatoire conditionnée par un événement B est, intuitivement, la moyenne que l'on obtient si on renouvelle un grand nombre de fois l'expérience liée à la variable aléatoire et que l'on ne retient que les cas où l'événement B est réalisé. L'espérance de X conditionnée par B se note . On rencontre ce type d'espérance conditionnelle, par exemple, dans le calcul de l'espérance de vie où l'espérance de vie à la naissance est différente de celle obtenue si on a déjà atteint l'âge de 60 ans. Etant donné deux variables aléatoires, on peut définir l'espérance de X conditionnée par Y. Elle se note et c'est une nouvelle variable aléatoire. Dans le cas où Y est une variable aléatoire discrète, elle est définie comme égale à où est la fonction presque partout définie par : . Cependant la démarche mise en œuvre dans le cas discret ne se généralise pas facilement dans le cas où la variable X est conditionnée par une variable aléatoire Y quelconque ou une sous-tribu . Il existe alors une définition plus formelle de la variable aléatoire ou . L'espérance conditionnelle de X sachant Y est la fonction de Y donnant la meilleure approximation de X quand Y est connu. L’espérance conditionnelle est un concept important en probabilités, notamment utilisé dans des domaines tels l'étude des martingales et du calcul stochastique. vignette|Un dé à six faces. On considère le lancer d'un dé à six faces. On considère la variable aléatoire que l'on note A qui vaut 1 quand le résultat du lancer est pair (autrement 2, 4 ou 6), et 0 sinon. On considère aussi la variable B qui vaut 1 quand le résultat est premier (autrement dit, 2, 3 ou 5). Le tableau suivant reporte les valeurs de A et B. L'espérance (non conditionnelle) de A vaut. Par contre : L'espérance de A conditionné à l'événement B = 1 vaut .
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées (3)
Concepts associés (34)
Théorème de la variance totale
En théorie des probabilités, le théorème de la variance totale ou formule de décomposition de la variance, aussi connu sous le nom de Loi d'Eve, stipule que si X et Y sont deux variables aléatoires sur un même espace de probabilité, et si la variance de Y est finie, alors Certains auteurs appellent cette relation formule de variance conditionnelle. Dans un langage peut-être mieux connu des statisticiens que des spécialistes en probabilité, les deux termes sont respectivement les composantes "non-expliquée" et "expliquée" de la variance (cf.
Théorème de l'espérance totale
Le théorème de l'espérance totale est une proposition de la théorie des probabilités affirmant que l'espérance de l'espérance conditionnelle de X sachant Y est la même que l'espérance de X. Précisément, si X est une variable aléatoire intégrable (c'est-à-dire, une variable aléatoire avec E( | X | ) < ), Y est une variable aléatoire quelconque (donc pas nécessairement intégrable), Et X et Y sont définies sur le même espace probabilisé, on a alors le résultat suivant : L'espérance conditionnelle E( X | Y ) est elle-même une variable aléatoire, dont la valeur dépend de la valeur de Y.
Formule des probabilités totales
vignette|Dans cet arbre de probabilité, la probabilité de l'événement B s'obtient en sommant les probabilités des chemins conduisant à la réalisation de B. En théorie des probabilités, la formule des probabilités totales est un théorème qui permet de calculer la probabilité d'un événement en le décomposant suivant un système exhaustif d'événements. Ce corollaire permet de ramener le calcul de au calcul des parfois plus facile, car l'évènement Bi, étant plus petit que l'évènement B, fournit une information plus précise, et facilite ainsi le pronostic (pronostic = calcul de la probabilité conditionnelle).
Afficher plus
Cours associés (32)
MATH-230: Probability
This course provides an introduction to probability theory - the mathematical study of randomness. The aim is to get to know the basic mathematical framework of probability theory, and to learn to thi
MATH-330: Martingales et mouvement brownien
Introduction à la théorie des martingales à temps discret, en particulier aux théorèmes de convergence et d'arrêt. Application aux processus de branchement. Introduction au mouvement brownien et étude
COM-417: Advanced probability and applications
In this course, various aspects of probability theory are considered. The first part is devoted to the main theorems in the field (law of large numbers, central limit theorem, concentration inequaliti
Afficher plus
Séances de cours associées (258)
Attente conditionnelle : propriétés et exemplesMATH-233: Probability and statistics
Explore les propriétés d'attente conditionnelle, les écarts et les exemples dans les applications pratiques.
Probabilité conditionnelleMATH-233: Probability and statistics
Couvre la probabilité conditionnelle, les distributions de probabilité et le choix de la bonne distribution pour des scénarios spécifiques.
Propriétés de base de l'attente conditionnelleCOM-417: Advanced probability and applications
Couvre les propriétés de base de l'attente conditionnelle et l'inégalité de Jensen dans la théorie des probabilités.
Afficher plus