Inégalité de Bienaymé-TchebychevEn théorie des probabilités, l'inégalité de Bienaymé-Tchebychev, est une inégalité de concentration permettant de montrer qu'une variable aléatoire prendra avec une faible probabilité une valeur relativement lointaine de son espérance. Ce résultat s'applique dans des cas très divers, nécessitant la connaissance de peu de propriétés (seules l'espérance et la variance doivent être connues), et permet de démontrer la loi faible des grands nombres.
Inégalité de JensenEn mathématiques, et plus précisément en analyse, l’inégalité de Jensen est une relation utile et très générale concernant les fonctions convexes, due au mathématicien danois Johan Jensen et dont il donna la preuve en 1906. On peut l'écrire de deux manières : discrète ou intégrale. Elle apparaît notamment en analyse, en théorie de la mesure et en probabilités (théorème de Rao-Blackwell), mais également en physique statistique, en mécanique quantique et en théorie de l'information (sous le nom d'inégalité de Gibbs).
Formule des probabilités totalesvignette|Dans cet arbre de probabilité, la probabilité de l'événement B s'obtient en sommant les probabilités des chemins conduisant à la réalisation de B. En théorie des probabilités, la formule des probabilités totales est un théorème qui permet de calculer la probabilité d'un événement en le décomposant suivant un système exhaustif d'événements. Ce corollaire permet de ramener le calcul de au calcul des parfois plus facile, car l'évènement Bi, étant plus petit que l'évènement B, fournit une information plus précise, et facilite ainsi le pronostic (pronostic = calcul de la probabilité conditionnelle).
Théorème de l'espérance totaleLe théorème de l'espérance totale est une proposition de la théorie des probabilités affirmant que l'espérance de l'espérance conditionnelle de X sachant Y est la même que l'espérance de X. Précisément, si X est une variable aléatoire intégrable (c'est-à-dire, une variable aléatoire avec E( | X | ) < ), Y est une variable aléatoire quelconque (donc pas nécessairement intégrable), Et X et Y sont définies sur le même espace probabilisé, on a alors le résultat suivant : L'espérance conditionnelle E( X | Y ) est elle-même une variable aléatoire, dont la valeur dépend de la valeur de Y.
Théorème de la variance totaleEn théorie des probabilités, le théorème de la variance totale ou formule de décomposition de la variance, aussi connu sous le nom de Loi d'Eve, stipule que si X et Y sont deux variables aléatoires sur un même espace de probabilité, et si la variance de Y est finie, alors Certains auteurs appellent cette relation formule de variance conditionnelle. Dans un langage peut-être mieux connu des statisticiens que des spécialistes en probabilité, les deux termes sont respectivement les composantes "non-expliquée" et "expliquée" de la variance (cf.
Régression linéaireEn statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Probabilité conditionnellevignette|Illustration des probabilités conditionnelles avec un diagramme d'Euler. On a la probabilité a priori et les probabilités conditionnelles , et .|320x320px En théorie des probabilités, une probabilité conditionnelle est la probabilité d'un événement sachant qu'un autre événement a eu lieu. Par exemple, si une carte d'un jeu est tirée au hasard, on estime qu'il y a une chance sur quatre d'obtenir un cœur ; mais si on aperçoit un reflet rouge sur la table, il y a maintenant une chance sur deux d'obtenir un cœur.
Inégalité de HölderEn analyse, l’inégalité de Hölder, ainsi nommée en l'honneur de Otto Hölder, est une inégalité fondamentale relative aux espaces de fonctions , comme les espaces de suites . C'est une généralisation de l'inégalité de Cauchy-Schwarz. Il existe une formulation de l'inégalité utilisée en mathématiques discrètes. Plus généralement, pour et défini par , si et alors et . De plus, lorsque et sont finis, il y a égalité si et seulement si et sont colinéaires presque partout (p.p.), c'est-à-dire s’il existe et non simultanément nuls tels que p.