En statistiques et en théorie des probabilités, la loi du centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes.
La loi du est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ2.
La loi du χ2 non centrée généralise la loi du .
Soient k variables aléatoires X, ... , X indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1. Alors par définition la variable X définie par
suit une loi du χ à k degrés de liberté. La loi de X est notée χ (k) ou χ .
La densité de probabilité de X notée f est :
pour tout x positif
où Γ est la fonction gamma.
Sa fonction de répartition est :
où est la fonction gamma incomplète.
Conformément au théorème central limite, lorsque k est « grand » (k > 100), la loi d'une variable de χ, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.
D'autres fonctions en χ peuvent converger plus rapidement vers la loi normale, notamment en ayant X ~ χ(k) et k > 30 :
– peut être approchée par une loi normale centrée réduite (approximation de Ronald Aylmer Fisher).
peut être approchée par une loi normale de moyenne 1 – 2/9k et de variance 2/9k (approximation de Wilson et Hilferty, 1931).
peut être approchée par (approximation de Hoaglin).
Cette loi est principalement utilisée dans le test du χ basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à une loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).
Elle est également utilisée pour établir des intervalles de confiance concernant la variance ou l'écart-type de variables aléatoires gaussiennes.
Cette loi a été décrite pour la première fois par le géodésiste et statisticien allemand Friedrich Robert Helmert dans des articles de 1875–6, où il a calculé la distribution d'échantillonnage de la variance de l'échantillon d'une population normale.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En théorie des probabilités et en statistique, la loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ. Elle est notamment utilisée pour les tests de Student, la construction d'intervalle de confiance et en inférence bayésienne. Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ à k degrés de liberté.
En statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint. Si on appelle le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type : contre On définit alors l'estimateur du maximum de vraisemblance et l'estimateur du maximum de vraisemblance sous .
En statistiques et en théorie des probabilités, la loi du centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes. La loi du est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ2. La loi du χ2 non centrée généralise la loi du . Soient k variables aléatoires X, ... , X indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1.
This course aims to introduce the basic principles of machine learning in the context of the digital humanities. We will cover both supervised and unsupervised learning techniques, and study and imple
This course is an introduction to quantitative risk management that covers standard statistical methods, multivariate risk factor models, non-linear dependence structures (copula models), as well as p
We explore statistical physics in both classical and open quantum systems. Additionally, we will cover probabilistic data analysis that is extremely useful in many applications.
We explore statistical physics in both classical and open quantum systems. Additionally, we will cover probabilistic data analysis that is extremely useful in many applications.
Discrete choice models are used extensively in many disciplines where it is important to predict human behavior at a disaggregate level. This course is a follow up of the online course “Introduction t
Explore les distributions de probabilité pour les variables aléatoires dans les études sur la pollution atmosphérique et le changement climatique, couvrant les statistiques descriptives et inférentielles.