Problème d'urneEn théorie des probabilités, un problème d'urne est une représentation d'expériences aléatoires par un tirage aléatoire uniforme de boules dans une urne. L'urne est supposée contenir un certain nombre de boules qui sont indiscernables au toucher, c'est-à-dire que lorsque l'on tire une boule à l'intérieur, le tirage est aléatoire et chaque boule à l'intérieur de l'urne a la même chance d'être tirée. Il est possible de considérer plusieurs types de tirages : des tirages successifs avec ou sans remise, des tirages simultanés, des tirages successifs dans plusieurs urnes suivant des règles prédéfinies.
Inférence bayésiennevignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Loi de BernoulliEn mathématiques et plus précisément en théorie des probabilités, la loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, désigne la loi de probabilité d'une variable aléatoire discrète qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q = 1 – p. gauche|vignette Par exemple, dans pile ou face, le lancer d'une pièce de monnaie bien équilibrée tombe sur pile avec une probabilité 1/2 et sur face avec une probabilité 1/2.
Méthode de rejetLa méthode du rejet est une méthode utilisée dans le domaine des probabilités. La méthode de rejet est utilisée pour engendrer indirectement une variable aléatoire , de densité de probabilité lorsqu'on ne sait pas simuler directement la loi de densité de probabilité (c'est le cas par exemple si n'est pas une densité classique, mais aussi pour la loi de Gauss). Soit un couple de variables aléatoires indépendantes tirées selon une loi uniforme, i.e. est un point tiré uniformément dans le carré unité.
HyperparameterIn Bayesian statistics, a hyperparameter is a parameter of a prior distribution; the term is used to distinguish them from parameters of the model for the underlying system under analysis. For example, if one is using a beta distribution to model the distribution of the parameter p of a Bernoulli distribution, then: p is a parameter of the underlying system (Bernoulli distribution), and α and β are parameters of the prior distribution (beta distribution), hence hyperparameters.
Plate notationIn Bayesian inference, plate notation is a method of representing variables that repeat in a graphical model. Instead of drawing each repeated variable individually, a plate or rectangle is used to group variables into a subgraph that repeat together, and a number is drawn on the plate to represent the number of repetitions of the subgraph in the plate. The assumptions are that the subgraph is duplicated that many times, the variables in the subgraph are indexed by the repetition number, and any links that cross a plate boundary are replicated once for each subgraph repetition.
Additive smoothingIn statistics, additive smoothing, also called Laplace smoothing or Lidstone smoothing, is a technique used to smooth categorical data. Given a set of observation counts from a -dimensional multinomial distribution with trials, a "smoothed" version of the counts gives the estimator: where the smoothed count and the "pseudocount" α > 0 is a smoothing parameter. α = 0 corresponds to no smoothing. (This parameter is explained in below.
Fonction génératrice des probabilitésEn mathématiques, et plus particulièrement en théorie des probabilités, la fonction génératrice des probabilités (ou fonction génératrice des moments factoriels) d'une variable aléatoire (à valeurs dans les entiers naturels) est la série entière associée à la fonction de masse de cette variable aléatoire. La fonction génératrice des probabilités est utile car elle permet de caractériser entièrement la fonction de masse. La fonction génératrice des probabilités est usuellement identifiée à sa somme.
Hierarchical Dirichlet processIn statistics and machine learning, the hierarchical Dirichlet process (HDP) is a nonparametric Bayesian approach to clustering grouped data. It uses a Dirichlet process for each group of data, with the Dirichlet processes for all groups sharing a base distribution which is itself drawn from a Dirichlet process. This method allows groups to share statistical strength via sharing of clusters across groups.
Équation de Chapman-KolmogorovEn théorie des probabilités, et plus spécifiquement dans la théorie des processus stochastiques markoviens, l'équation de Chapman-Kolmogorov est une égalité qui met en relation les lois jointes de différents points de la trajectoire d'un processus stochastique. Cette équation a été mise en évidence indépendamment par le mathématicien britannique Sidney Chapman et le mathématicien russe Andreï Kolmogorov. Supposons que { fi } est une suite de variables aléatoires, c'est-à-dire un processus stochastique.