Les statistiques exhaustives sont liées à la notion d'information et en particulier à l'information de Fisher. Elles servent entre autres à améliorer des estimateurs grâce à l'usage du théorème de Rao-Blackwell et du théorème de Lehmann-Scheffé.
Intuitivement, parler d'une statistique exhaustive revient à dire que cette statistique contient l'ensemble de l'information sur le(s) paramètre(s) de la loi de probabilité.
Soit un vecteur d'observation de taille , dont les composantes sont indépendantes et identiquement distribués (iid). Soit un paramètre influant sur la loi de probabilité à laquelle sont soumis les . Une statistique est dite exhaustive (pour le paramètre ) si la probabilité conditionnelle d'observer
sachant est indépendante de . Cela peut se traduire par la formule suivante :
En pratique l'on se sert peu de cette formule pour montrer qu'une statistique est exhaustive et l'on préfère en règle générale utiliser le critère suivant appelé critère de factorisation (parfois aussi appelé critère de Fisher-Neyman):
Soit la densité de probabilité du vecteur d'observation . Une statistique est exhaustive si et seulement s'il existe deux fonctions g et h mesurables telles que:
Si est un vecteur d'observation de variables iid de loi exponentielle de paramètre alors est une statistique exhaustive.
En effet la densité de est donné par: qui peut se factoriser comme: .
Ici on a mais ce n'est pas toujours le cas.
Soient des variables iid de distribution de Poisson d'espérance , alors est une statistique exhaustive.
La densité de la loi de est :
La densité de la loi de est le produit des densités des car ils sont iid donc :
Le critère de factorisation est satisfait avec
Dans le cadre de l'information de Fisher pour une statistique on a les deux résultats suivants :
Pour une statistique exhaustive on a ce qui permet de voir une statistique exhaustive comme une statistique comprenant toute l'information du modèle. On a aussi la réciproque à savoir que si alors S est exhaustif bien que cette caractérisation soit rarement utilisée dans ce sens.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Les statistiques exhaustives sont liées à la notion d'information et en particulier à l'information de Fisher. Elles servent entre autres à améliorer des estimateurs grâce à l'usage du théorème de Rao-Blackwell et du théorème de Lehmann-Scheffé. Intuitivement, parler d'une statistique exhaustive revient à dire que cette statistique contient l'ensemble de l'information sur le(s) paramètre(s) de la loi de probabilité. Soit un vecteur d'observation de taille , dont les composantes sont indépendantes et identiquement distribués (iid).
En statistique, l'information de Fisher quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. Elle a été introduite par R.A. Fisher. Soit f(x ; θ) la distribution de vraisemblance d'une variable aléatoire X (qui peut être multidimensionnelle), paramétrée par θ.
Explore l'application de l'algèbre linéaire dans la science des données, couvrant la réduction de la variance, la théorie de la distribution des modèles et les estimations du maximum de vraisemblance.
Explore l'hypothèse de thermalisation d'état propre dans les systèmes quantiques, en mettant l'accent sur la théorie de la matrice aléatoire et le comportement des observables dans l'équilibre thermique.
The course aims at developing certain key aspects of the theory of statistics, providing a common general framework for statistical methodology. While the main emphasis will be on the mathematical asp
Statistics lies at the foundation of data science, providing a unifying theoretical and methodological backbone for the diverse tasks enountered in this emerging field. This course rigorously develops
Ce cours donne une introduction au traitement mathématique de la théorie de l'inférence statistique en utilisant la notion de vraisemblance comme un thème central.
We obtain an easy sufficient condition for the Brauer group of a diagonal quartic surface D over Q to be algebraic. We also give an upper bound for the order of the quotient of the Brauer group of D b
Performance evaluation of the 802.11 MAC protocol is classically based on the decoupling assumption, which hypothesizes that the backoff processes at different nodes are independent. This decoupling a
Institute of Electrical and Electronics Engineers2012
,
Urease converts urea into ammonia and carbon dioxide and makes urea available as a nitrogen source for all forms of life except animals. In human bacterial pathogens, ureases also aid in the invasion