Théorème de l'espérance totaleLe théorème de l'espérance totale est une proposition de la théorie des probabilités affirmant que l'espérance de l'espérance conditionnelle de X sachant Y est la même que l'espérance de X. Précisément, si X est une variable aléatoire intégrable (c'est-à-dire, une variable aléatoire avec E( | X | ) < ), Y est une variable aléatoire quelconque (donc pas nécessairement intégrable), Et X et Y sont définies sur le même espace probabilisé, on a alors le résultat suivant : L'espérance conditionnelle E( X | Y ) est elle-même une variable aléatoire, dont la valeur dépend de la valeur de Y.
Théorème de Taylorredresse=1.5|vignette|Représentation de la fonction logarithme (en noir) et des approximations de Taylor au point 1 (en vert). En mathématiques, plus précisément en analyse, le théorème de Taylor (ou formule de Taylor), du nom du mathématicien anglais Brook Taylor qui l'établit en 1715, montre qu'une fonction plusieurs fois dérivable au voisinage d'un point peut être approchée par une fonction polynomiale dont les coefficients dépendent uniquement des dérivées de la fonction en ce point.
E (nombre)vignette|redresse|L’aire sous l’hyperbole est égale à 1 sur l’intervalle [1, e]. Le nombre e est la base des logarithmes naturels, c'est-à-dire le nombre défini par ln(e) = 1. Cette constante mathématique, également appelée nombre d'Euler ou constante de Néper en référence aux mathématiciens Leonhard Euler et John Napier, vaut environ 2,71828. Ce nombre est défini à la fin du , dans une correspondance entre Leibniz et Christian Huygens, comme étant la base du logarithme naturel.
Information geometryInformation geometry is an interdisciplinary field that applies the techniques of differential geometry to study probability theory and statistics. It studies statistical manifolds, which are Riemannian manifolds whose points correspond to probability distributions. Historically, information geometry can be traced back to the work of C. R. Rao, who was the first to treat the Fisher matrix as a Riemannian metric. The modern theory is largely due to Shun'ichi Amari, whose work has been greatly influential on the development of the field.
TétrationLa tétration (ou encore nappe exponentielle, hyperpuissance, tour de puissances, super-exponentiation ou hyper4) est une « exponentiation itérée ». C'est le premier hyperopérateur après l'exponentiation. Le mot-valise tétration a été forgé par Reuben Goodstein sur la base du préfixe tétra- (quatre) et itération. La tétration est utilisée pour l'écriture des grands nombres. Elle suit l'addition, la multiplication et l'exponentiation comme indiqué ci-après : addition multiplication exponentiation tétration avec chaque fois b apparitions de la lettre a.
Théorème de la variance totaleEn théorie des probabilités, le théorème de la variance totale ou formule de décomposition de la variance, aussi connu sous le nom de Loi d'Eve, stipule que si X et Y sont deux variables aléatoires sur un même espace de probabilité, et si la variance de Y est finie, alors Certains auteurs appellent cette relation formule de variance conditionnelle. Dans un langage peut-être mieux connu des statisticiens que des spécialistes en probabilité, les deux termes sont respectivement les composantes "non-expliquée" et "expliquée" de la variance (cf.
Ronald Aylmer FisherSir Ronald Aylmer Fisher est un biologiste et statisticien britannique, né à East Finchley le et mort le . Richard Dawkins le considère comme et Anders Hald comme l'homme qui a – . Pour Bradley Efron, il est le statisticien le plus important du . Dans le domaine de la statistique, il introduit de nombreux concepts-clés tels que le maximum de vraisemblance, l'information de Fisher et l'analyse de la variance, les plans d'expériences ou encore la notion de statistique exhaustive.