Concept

Principe de grandes déviations

Résumé
Le principe de grandes déviations, en théorie des probabilités, concerne le comportement asymptotique de queues de suite de loi de probabilités. Quelques premières idées de la théorie ont été données par Laplace et Cramér ; depuis, une définition formelle a été introduite en 1966 par Varadhan. La théorie des grandes déviations formalise les idées heuristiques de la concentration des mesures et généralise la notion de convergence en loi. La théorie des grandes déviations concerne la décroissance exponentielle des mesures de probabilité de certains types d'évènements extrêmes ou de queue, lorsque le nombre d'observations est arbitrairement grand. Exemples introductifs Un exemple élémentaire Soit une suite de pile ou face indépendants (non biaisés). Notons par X{{ind|i}} le résultat du i-ième lancer, où face donne X = -1 et pile donne X = 1. Soit M{{ind|N}}, la moyenne après N lancers, c'est-à-dire : M_N := \frac{1}{N}\sum_{i=1}^{N}
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées

Chargement

Personnes associées

Chargement

Unités associées

Chargement

Concepts associés

Chargement

Cours associés

Chargement

Séances de cours associées

Chargement