Chaîne de Markovvignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Méthode de Monte-Carlo par chaînes de MarkovLes méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité. Ces méthodes de Monte-Carlo se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les distributions à échantillonner. Certaines méthodes utilisent des marches aléatoires sur les chaînes de Markov (algorithme de Metropolis-Hastings, échantillonnage de Gibbs), alors que d'autres algorithmes, plus complexes, introduisent des contraintes sur les parcours pour essayer d'accélérer la convergence (Monte Carlo Hybride, Surrelaxation successive).
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Axiome du choixvignette|upright=1.5|Pour tout ensemble d'ensembles non vides (les jarres), il existe une fonction qui associe à chacun de ces ensembles (ces jarres) un élément contenu dans cet ensemble (cette jarre). En mathématiques, l'axiome du choix, abrégé en « AC », est un axiome de la théorie des ensembles qui Il a été formulé pour la première fois par Ernest Zermelo en 1904 pour la démonstration du théorème de Zermelo. L'axiome du choix peut être accepté ou rejeté, selon la théorie axiomatique des ensembles choisie.
Axiome du choix dénombrablevignette|Chaque ensemble dans la suite dénombrable d'ensembles (Si) = S1, S2, S3, ... contient un élément différent de zéro, et éventuellement une infinité (ou même une infinité indénombrable) d'éléments. L'axiome du choix dénombrable nous permet de sélectionner arbitrairement un seul élément de chaque ensemble, formant une suite correspondante d'éléments (xi) = x1, x2, x3, ...
Markov modelIn probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property.
Axiome du choix globalEn mathématiques, plus précisément dans les théories utilisant des classes, l'axiome du choix global est un renforcement de l'axiome du choix qui s'applique à des classes propres d'ensembles ou d'ensembles d'ensembles. De manière informelle, il affirme que l'on peut choisir simultanément un élément dans tous les ensembles non-vides. L'axiome du choix global affirme qu'il existe une fonction de choix global τ, c'est-à-dire une fonction telle que, pour tout ensemble non-vide z, τ(z) est un élément de z.
Axiome du choix dépendantEn mathématiques, l'axiome du choix dépendant, noté DC, est une forme faible de l'axiome du choix (AC), suffisante pour développer une majeure partie de l'analyse réelle. Il a été introduit par Bernays. L'axiome peut s'énoncer comme suit : pour tout ensemble non vide X, et pour toute relation binaire R sur X, si l'ensemble de définition de R est X tout entier (c'est-à-dire si pour tout a∈X, il existe au moins un b∈X tel que aRb) alors il existe une suite (xn) d'éléments de X telle que pour tout n∈N, xnRxn+1.
Propriété de Markovvignette|Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).
Axiome de déterminationL'axiome de détermination est un axiome alternatif de la théorie des ensembles affirmant que certains jeux (au sens de la théorie des jeux) infinis sont déterminés. Cet axiome n'est pas compatible avec l'axiome du choix mais implique l'axiome du choix dénombrable pour les familles d'ensembles de réels et implique également une forme faible de l'hypothèse du continu.