En probabilités, le processus empirique est un processus stochastique qui s'exprime en fonction de la proportion d'objets appartenant à un certain ensemble. Ce processus fait intervenir les déviations d'une statistique autour de sa moyenne et sera donc utile dans l'étude de la plupart d'entre elles.
Si sont des variables aléatoires réelles indépendantes et identiquement distribuées (i.i.d.) ayant pour fonction de répartition alors on définit le processus empirique réel par
où est la fonction de répartition empirique associée à l'échantillon . Il est possible de généraliser cette définition au cas où le processus empirique serait indexé par une classe de fonctions mesurables définies sur un espace et à valeurs réelles. Si les sont i.i.d à valeurs dans un espace et est une fonction mesurable, alors on définit par :
On retombe en particulier sur la première définition quand on prend la classe des fonctions indicatrices . Il est également possible de définir le processus empirique indexé par des classes de fonctions via la mesure empirique et la mesure des , :
Quand le contexte est clair, on peut noter le processus empirique par .
D'après le théorème de Donsker, le processus empirique converge vers un pont brownien dans l'espace de Skorokhod, c'est-à-dire un processus gaussien centré dont la fonction de covariance est donnée par
Pour généraliser ce résultat dans le cas où l'on travaille avec le processus indexé par une classe de fonctions, on appelle classe de Donsker toute classe de fonctions de fonctions mesurables à valeurs réelles vérifiant
où est un processus de -pont brownien, c'est-à-dire un processus gaussien centré dont la covariance vérifie ici
Le théorème de Donsker revient à dire que la classe des fonctions indicatrices est une classe de Donsker.
Approximation forteL'approximation forte consiste à créer un espace convenable sur lequel des objets théorique comme la somme partielle de variables aléatoires i.i.d. ou le processus empirique sera proche de sa limite. Il existe plusieurs résultats concernant le processus empirique.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
This is an introductory course to the concentration of measure phenomenon - random functions that depend on many random variables tend to be often close to constant functions.
The course introduces modern methods to acquire, clean, and analyze large quantities of financial data efficiently. The second part expands on how to apply these techniques and robust statistics to fi
Inference from the particular to the general based on probability models is central to the statistical method. This course gives a graduate-level account of the main ideas of statistical inference.
En statistiques, une fonction de répartition empirique est une fonction de répartition qui attribue la probabilité 1/n à chacun des n nombres dans un échantillon. Soit X,...,X un échantillon de variables iid définies sur un espace de probabilité , à valeurs dans , avec pour fonction de répartition F. La fonction de répartition empirique de l'échantillon est définie par : où est la fonction indicatrice de l'événement A. Pour chaque ω, l'application est une fonction en escalier, fonction de répartition de la loi de probabilité uniforme sur l'ensemble .
En théorie des probabilités, le théorème de Donsker établit la convergence en loi d'une marche aléatoire vers un processus stochastique gaussien. Il est parfois appelé le théorème central limite fonctionnel. Ce théorème est une référence pour la convergence en loi de marches aléatoires renormalisées vers un processus à temps continus. De nombreux théorèmes sont alors dits de « type Donsker ». Soient une suite iid de variables aléatoires centrées, de carré intégrable et de variance .
Explore la preuve et les applications de la loi des grands nombres, en mettant l'accent sur la convergence de la distribution empirique.
Explore l'analyse statistique, l'erreur carrée moyenne et les méthodes de piégeage dans l'optimisation et la simulation.
Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.
The concept of novelty is central to questions of creativity, innovation, and discovery. Despite the prominence in scientific inquiry and everyday discourse, there is a chronic ambiguity over its meaning and a surprising variety of empirical measures, whic ...
This paper analyses the effects of quantitative easing (QE) on households' income and consumption inequality in the Euro Area. Using a SVAR with high frequency identification, I show that an identified QE shock is redistributive and expansionary. To ration ...
Modern optimization is tasked with handling applications of increasingly large scale, chiefly due to the massive amounts of widely available data and the ever-growing reach of Machine Learning. Consequently, this area of research is under steady pressure t ...