Rivièrevignette|redresse|Après le torrent se forme la rivière (Hautes-Pyrénées). vignette|Phénomène de surcreusement du lit majeur, pouvant participer à un phénomène d'aridification, le niveau piézométrique de la nappe descendant avec celui de la rivière (Bardenas Reales). vignette|Le Waver (Pays-Bas). vignette|Embouchure de la rivière Batiscan (Québec) En hydrographie, une rivière est un cours d'eau au débit moyen à modéré (supérieur à ), recevant des affluents et qui se jette dans une autre rivière ou dans un fleuve.
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Loi bêta-binomialeEn théorie des probabilités, la loi bêta-binomiale est une loi de probabilité discrète à support fini, correspondant à un processus de tirages Bernoulli dont la probabilité de succès est aléatoire (suivant une loi bêta). Elle est fréquemment utilisée en inférence bayésienne. La loi de Bernoulli en est un cas particulier pour le paramètre n = 1. Pour α = β = 1, elle correspond à la loi uniforme discrète sur {0,..,n} . Elle approche également la loi binomiale lorsque les paramètres α et β sont arbitrairement grands.
Équation maîtresseEn physique, une équation maîtresse est une équation différentielle décrivant l'évolution temporelle d'un système. C'est une équation de taux pour les états du système. L'évolution de la probabilité d'être dans l'état discret k suit une équation du type : soit encore sous forme vectorielle La matrice est parfois appelée matrice des taux de transitions. Cette équation se retrouve en mathématique lors des traitements probabilistes des chaînes de Markov.
Lit (géologie)En géologie, le lit est une strate de faible épaisseur (quelques centimètres à quelques décimètres). On l'appelle aussi niveau, assise ou horizon, mais plus spécialement si on peut le caractériser sur une certaine distance par sa nature pétrographique ou son contenu paléontologique. Quand l'épaisseur d'une strate est inférieure à on parle de feuillets, quand il s'agit de plusieurs mètres on parle de bancs. Le litage est le fait, pour un terrain, de comporter des lits.
Loi inverse-gaussienneEn théorie des probabilités et en statistique, la loi inverse-gaussienne (ou loi gaussienne inverse ou encore loi de Wald) est une loi de probabilité continue à deux paramètres et à valeurs strictement positives. Elle est nommée d'après le statisticien Abraham Wald. Le terme « inverse » ne doit pas être mal interprété, la loi est inverse dans le sens suivant : la valeur du mouvement brownien à un temps fixé est de loi normale, à l'inverse, le temps en lequel le mouvement brownien avec une dérive positive (drifté) atteint une valeur fixée est de loi inverse-gaussienne.
Andreï Markov (mathématicien)Andreï Andreïevitch Markov (en Андрей Андреевич Марков) (1856-1922) est un mathématicien russe. Il est considéré comme le fondateur de la théorie des processus stochastiques. La mère d'Andreï Markov, Nadejda Petrovna, est la fille d'un ouvrier d'État. Son père, Andreï Grigorievitch Markov, membre de la petite noblesse, sert dans le département des forêts, puis devient gestionnaire de domaine privé. Dans ses premières années, Markov est en mauvaise santé et jusqu'à l'âge de dix ans, il ne peut marcher qu'à l'aide de béquilles.
Principle of indifferenceThe principle of indifference (also called principle of insufficient reason) is a rule for assigning epistemic probabilities. The principle of indifference states that in the absence of any relevant evidence, agents should distribute their credence (or 'degrees of belief') equally among all the possible outcomes under consideration. In Bayesian probability, this is the simplest non-informative prior.