Thomas BayesThomas Bayes ( , né env. en 1702 à Londres - mort le à Tunbridge Wells, dans le Kent) est un mathématicien britannique et pasteur de l'Église presbytérienne, connu pour avoir formulé le théorème de Bayes. Thomas Bayes est issu d'une famille de protestants, qui étaient couteliers. Il reçoit une éducation privée et en 1719, il part pour l'université d’Édimbourg, afin d'étudier la théologie. À la fin des années 1720, il est nommé pasteur à Tunbridge Wells, près de Londres.
Statistique d'ordreEn statistiques, la statistique d'ordre de rang k d'un échantillon statistique est égal à la k-ième plus petite valeur. Associée aux statistiques de rang, la statistique d'ordre fait partie des outils fondamentaux de la statistique non paramétrique et de l'inférence statistique. Deux cas importants de la statistique d'ordre sont les statistiques du minimum et du maximum, et dans une moindre mesure la médiane de l'échantillon ainsi que les différents quantiles.
Fonction de PearsonLes fonctions de Pearson ont été créées pour représenter des distributions unimodales. Il en existe douze. Elles ont été inventées par Karl Pearson à la fin du et au début du . Le système de Pearson a été originellement conçu afin de modéliser des observations visiblement asymétriques. Les méthodes pour ajuster un modèle théorique aux deux premiers cumulants ou moments de données observées : toute distribution peut être étendue directement une famille de distributions adaptée.
Inférence bayésiennevignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Paramètre de formevignette|La loi Gamma est régie par deux paramètres de formes : k et θ. Un changement d'un de ces paramètres ne change pas seulement la position ou l'échelle de la distribution, mais également sa forme. Dans la théorie des probabilités et en statistiques, un paramètre de forme est un type de paramètre régissant une famille paramétrique de lois de probabilité. Un paramètre de forme est un paramètre d'une loi de probabilité qui n'est pas un paramètre affine, donc ni un paramètre de position ni un paramètre d'échelle.
KurtosisEn théorie des probabilités et en statistique, le kurtosis (du nom féminin grec ancien κύρτωσις, « courbure »), aussi traduit par coefficient d’acuité, coefficient d’aplatissement et degré de voussure, est une mesure directe de l’acuité et une mesure indirecte de l'aplatissement de la distribution d’une variable aléatoire réelle. Il existe plusieurs mesures de l'acuité et le kurtosis correspond à la méthode de Pearson. C’est le deuxième des paramètres de forme, avec le coefficient d'asymétrie (les paramètres fondés sur les moments d’ordre 5 et plus n’ont pas de nom propre).
Méthode de la transformée inverseLa méthode de la transformée inverse est une méthode permettant d'échantillonner une variable aléatoire X de loi donnée à partir de l'expression de sa fonction de répartition F et d'une variable uniforme sur . Cette méthode repose sur le principe suivant, parfois connu sous le nom de théorème de la réciproque : soient F une fonction de répartition, Q la fonction quantile associée, et U une variable uniforme sur . Alors, la variable aléatoire X = Q(U) a pour fonction de répartition F.
Loi géométriqueEn théorie des probabilités et en statistique, la loi géométrique désigne, selon la convention choisie, l'une des deux lois de probabilité suivantes : la loi du nombre X d'épreuves de Bernoulli indépendantes de probabilité de succès p ∈ ]0,1[ (ou q = 1 – p d'échec) nécessaire pour obtenir le premier succès. X est la variable aléatoire donnant le rang du premier succès. Le support de la loi est alors {1, 2, 3, ...}. La loi du nombre Y = X – 1 d'échecs avant le premier succès. Le support de la loi est alors {0, 1, 2, 3, .
Loi bêta primeEn théorie des probabilités et en statistique, la loi bêta prime (également connue sous les noms loi bêta II ou loi bêta du second type) est une loi de probabilité continue définie dont le support est et dépendant de deux paramètres de forme. Si une variable aléatoire X suit une loi bêta prime, on notera . Sa densité de probabilité est donnée par : où B est la fonction bêta. Cette loi est une loi de Pearson de type VI. Le mode d'une variable aléatoire de loi bêta prime est .
Loi de FisherEn théorie des probabilités et en statistiques, la loi de Fisher ou encore loi de Fisher-Snedecor ou encore loi F de Snedecor est une loi de probabilité continue. Elle tire son nom des statisticiens Ronald Aylmer Fisher et George Snedecor. La loi de Fisher survient très fréquemment en tant que loi de la statistique de test lorsque l'hypothèse nulle est vraie, dans des tests statistiques, comme les tests du ratio de vraisemblance, dans les tests de Chow utilisés en économétrie, ou encore dans l'analyse de la variance (ANOVA) via le test de Fisher.