En théorie des probabilités et en statistique, la loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ.
Elle est notamment utilisée pour les tests de Student, la construction d'intervalle de confiance et en inférence bayésienne.
Soit Z une variable aléatoire de loi normale centrée et réduite et soit U une variable indépendante de Z et distribuée suivant la loi du χ à k degrés de liberté. Par définition, la variable
suit une loi de Student à k degrés de liberté.
alors , où les X sont k variables aléatoires réelles i.i.d. de loi normale centrée-réduite.
La densité de T, notée f, est donnée par :
où Γ est la fonction Gamma d'Euler.
La densité f associée à la variable T est symétrique, centrée en 0 et en forme de cloche.
Son espérance ne peut pas être définie pour k = 1, et est nulle pour k > 1.
Sa variance est infinie pour k = 2 et vaut k/k – 2 pour k > 2.
Lorsque k est grand, la loi de Student peut être approchée par la loi normale centrée réduite. Une manière simple de le démontrer est d'utiliser le lemme de Scheffé.
Le calcul de la loi de Student a été décrit en 1908 par William Gosset alors qu'il était employé à la brasserie Guinness à Dublin. Son patron, sans doute pour des raisons liées à la concurrence, interdisait à ses employés de publier sous leur propre nom. Pour cette raison Gosset choisit un pseudonyme, Student, qui, en anglais, signifie étudiant. Le test t et la théorie sont devenus célèbres par les travaux de Ronald Fisher qui a donné à la loi le nom de « loi de Student ».
Soient X, ..., X, n variables aléatoires mutuellement indépendantes et distribuées suivant une même loi normale d’espérance μ et de variance σ qui correspondent à un échantillon de taille n. Considérons la moyenne empirique
et l'estimateur sans biais de la variance
Par normalisation, la variable aléatoire
suit une loi normale standard (d’espérance 0 et de variance 1).
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En statistiques et en théorie des probabilités, la loi du centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes. La loi du est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ2. La loi du χ2 non centrée généralise la loi du . Soient k variables aléatoires X, ... , X indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1.
En théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance . Cette loi est parfois appelée loi de Galton. Elle est habituellement notée dans le cas d'une seule variable ou dans un contexte multidimensionnel. Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
vignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
This course is an introduction to quantitative risk management that covers standard statistical methods, multivariate risk factor models, non-linear dependence structures (copula models), as well as p
This course provides an introduction to experimental statistics, including use of population statistics to characterize experimental results, use of comparison statistics and hypothesis testing to eva
This course aims to introduce the basic principles of machine learning in the context of the digital humanities. We will cover both supervised and unsupervised learning techniques, and study and imple
We explore statistical physics in both classical and open quantum systems. Additionally, we will cover probabilistic data analysis that is extremely useful in many applications.
We explore statistical physics in both classical and open quantum systems. Additionally, we will cover probabilistic data analysis that is extremely useful in many applications.
Explore les épidémies dans les données de réseau, couvrant le modèle SIR, le rapport de reproduction de base, la percolation, les réseaux dirigés et l'estimation de la probabilité maximale.
Background: Quantification of the T2 signal by means of T2 mapping in acute pancreatitis (AP) has the potential to quantify the parenchymal edema. Quantitative T2 mapping may overcome the limitations of previously reported scoring systems for reliable asse ...
Gels made of telechelic polymers connected by reversible cross-linkers are a versatile design platform for biocompatible viscoelastic materials. Their linear response to a step strain displays a fast, near-exponential relaxation when using low-valence cros ...
Amer Assoc Advancement Science2024
,
Being able to work effectively in a team is a vital professional skill but how do students in different disciplines, engineering and hospitality, display their emotions when working together? We investigated their self-reported use of emotional labour stra ...
EAPRIL - European Association for Practitioner Research on Improving Learning2024