Conditional probability distributionIn probability theory and statistics, given two jointly distributed random variables and , the conditional probability distribution of given is the probability distribution of when is known to be a particular value; in some cases the conditional probabilities may be expressed as functions containing the unspecified value of as a parameter. When both and are categorical variables, a conditional probability table is typically used to represent the conditional probability.
Théorie des files d'attentevignette|Ici Agner Krarup Erlang, ingénieur et mathématicien Danois ayant travaillé sur la théorie des files d'attente. La théorie des files d'attente est une théorie mathématique relevant du domaine des probabilités, qui étudie les solutions optimales de gestion des , ou queues. Une queue est nécessaire et se créera d'elle-même si ce n'est pas anticipé, dans tous les cas où l'offre est inférieure à la demande, même temporairement.
Loi de probabilité marginaleEn théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire, c'est-à-dire d'une variable aléatoire à plusieurs dimensions, est la loi de probabilité d'une de ses composantes. Autrement dit, la loi marginale est une variable aléatoire obtenue par « projection » d'un vecteur contenant cette variable. Par exemple, pour un vecteur aléatoire , la loi de la variable aléatoire est la deuxième loi marginale du vecteur. Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée.
Loi inverse-gaussienneEn théorie des probabilités et en statistique, la loi inverse-gaussienne (ou loi gaussienne inverse ou encore loi de Wald) est une loi de probabilité continue à deux paramètres et à valeurs strictement positives. Elle est nommée d'après le statisticien Abraham Wald. Le terme « inverse » ne doit pas être mal interprété, la loi est inverse dans le sens suivant : la valeur du mouvement brownien à un temps fixé est de loi normale, à l'inverse, le temps en lequel le mouvement brownien avec une dérive positive (drifté) atteint une valeur fixée est de loi inverse-gaussienne.
Transition kernelIn the mathematics of probability, a transition kernel or kernel is a function in mathematics that has different applications. Kernels can for example be used to define random measures or stochastic processes. The most important example of kernels are the Markov kernels. Let , be two measurable spaces. A function is called a (transition) kernel from to if the following two conditions hold: For any fixed , the mapping is -measurable; For every fixed , the mapping is a measure on .
Simulation à événements discretsLa simulation à évènements discrets est une technique utilisée dans le cadre de l’étude de la dynamique des systèmes. Elle consiste en une modélisation informatique où le changement de l'état d'un système, au cours du temps, est une suite d'évènements discrets. Chaque évènement arrive à un instant donné et modifie l'état du système. De nos jours, cette technique est couramment utilisée tant par les industries et les entreprises de services afin de concevoir, optimiser et valider leurs organisations que par les centres de recherche dans l’optique d’étudier les systèmes complexes non linéaires.
Feynman–Kac formulaThe Feynman–Kac formula, named after Richard Feynman and Mark Kac, establishes a link between parabolic partial differential equations (PDEs) and stochastic processes. In 1947, when Kac and Feynman were both Cornell faculty, Kac attended a presentation of Feynman's and remarked that the two of them were working on the same thing from different directions. The Feynman–Kac formula resulted, which proves rigorously the real case of Feynman's path integrals. The complex case, which occurs when a particle's spin is included, is still an open question.
Théorème de représentation de SkorokhodEn théorie des probabilités, le théorème de représentation de Skorokhod montre qu'une suite de variables aléatoires convergeant en loi peut toujours, en un certain sens, être représentée par une suite de variables aléatoires convergeant presque sûrement. Ce théorème porte le nom du mathématicien ukrainien A.V. Skorokhod. vignette|Illustration du théorème de représentation de Skorokhod Soit une suite de variables aléatoires à valeurs dans un espace topologique de Lusin.
Hitting timeIn the study of stochastic processes in mathematics, a hitting time (or first hit time) is the first time at which a given process "hits" a given subset of the state space. Exit times and return times are also examples of hitting times. Let T be an ordered index set such as the natural numbers, \N, the non-negative real numbers, [0, +∞), or a subset of these; elements t \in T can be thought of as "times". Given a probability space (Ω, Σ, Pr) and a measurable state space S, let be a stochastic process, and let A be a measurable subset of the state space S.
Optimal stoppingIn mathematics, the theory of optimal stopping or early stopping is concerned with the problem of choosing a time to take a particular action, in order to maximise an expected reward or minimise an expected cost. Optimal stopping problems can be found in areas of statistics, economics, and mathematical finance (related to the pricing of American options). A key example of an optimal stopping problem is the secretary problem. Optimal stopping problems can often be written in the form of a Bellman equation, and are therefore often solved using dynamic programming.