Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Central momentIn probability theory and statistics, a central moment is a moment of a probability distribution of a random variable about the random variable's mean; that is, it is the expected value of a specified integer power of the deviation of the random variable from the mean. The various moments form one set of values by which the properties of a probability distribution can be usefully characterized.
Inégalité de JensenEn mathématiques, et plus précisément en analyse, l’inégalité de Jensen est une relation utile et très générale concernant les fonctions convexes, due au mathématicien danois Johan Jensen et dont il donna la preuve en 1906. On peut l'écrire de deux manières : discrète ou intégrale. Elle apparaît notamment en analyse, en théorie de la mesure et en probabilités (théorème de Rao-Blackwell), mais également en physique statistique, en mécanique quantique et en théorie de l'information (sous le nom d'inégalité de Gibbs).
Méthode des moments (statistiques)La méthode des moments est un outil d'estimation intuitif qui date du début des statistiques. Elle consiste à estimer les paramètres recherchés en égalisant certains moments théoriques (qui dépendent de ces paramètres) avec leurs contreparties empiriques. L'égalisation se justifie par la loi des grands nombres qui implique que l'on peut "approcher" une espérance mathématique par une moyenne empirique. On est donc amené à résoudre un système d'équations. On suppose que l'échantillon X1,...
Inégalité de MarkovEn théorie des probabilités, l'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire réelle à valeurs positives soit supérieure ou égale à une constante positive. Cette inégalité a été nommée ainsi en l'honneur d'Andreï Markov. Il existe une version plus générale de ce théorème. Soit une variable aléatoire de où est l'ensemble des réalisations, est la tribu des événements et la mesure de probabilité. Alors, l'inégalité de Markov peut être énoncée de la façon suivante :La démonstration tient entièrement au fait que pour tout strictement positif, .
Pafnouti TchebychevPafnouti Lvovitch Tchebychev (en Пафнутий Львович Чебышёв), né le à Okatovo, près de Borovsk, et décédé le à Saint-Pétersbourg, est un mathématicien russe. Son nom a tout d'abord été transcrit en français Tchebychef et la forme Tchebycheff est aussi utilisée en français. Il est aussi transcrit Tschebyschef ou Tschebyscheff (formes allemandes), Chebyshov ou Chebyshev (formes anglo-saxonnes). Il est connu pour ses travaux dans les domaines des probabilités, des statistiques, et de la théorie des nombres.
Inégalité de Bienaymé-TchebychevEn théorie des probabilités, l'inégalité de Bienaymé-Tchebychev, est une inégalité de concentration permettant de montrer qu'une variable aléatoire prendra avec une faible probabilité une valeur relativement lointaine de son espérance. Ce résultat s'applique dans des cas très divers, nécessitant la connaissance de peu de propriétés (seules l'espérance et la variance doivent être connues), et permet de démontrer la loi faible des grands nombres.
Inégalité de HölderEn analyse, l’inégalité de Hölder, ainsi nommée en l'honneur de Otto Hölder, est une inégalité fondamentale relative aux espaces de fonctions , comme les espaces de suites . C'est une généralisation de l'inégalité de Cauchy-Schwarz. Il existe une formulation de l'inégalité utilisée en mathématiques discrètes. Plus généralement, pour et défini par , si et alors et . De plus, lorsque et sont finis, il y a égalité si et seulement si et sont colinéaires presque partout (p.p.), c'est-à-dire s’il existe et non simultanément nuls tels que p.
Lemme de FatouEn mathématiques, plus précisément en analyse, le lemme de Fatou est un résultat important dans la théorie de l'intégration de Lebesgue. Il a été démontré par le mathématicien français Pierre Fatou (1878-1929). Ce lemme compare l'intégrale d'une limite inférieure de fonctions mesurables positives avec la limite inférieure de leurs intégrales. Il est en général présenté dans une suite de trois résultats : d'abord le théorème de convergence monotone, qui sert ensuite à démontrer le lemme de Fatou, puis celui-ci est utilisé pour démontrer le théorème de convergence dominée.
Problème des partisLe problème des partis est un problème mathématique portant sur les jeux de hasard. Il joue un rôle fondamental dans l'histoire de la mathématisation du hasard et l'émergence d'une théorie mathématique du probable et du calcul des probabilités à partir des travaux de Blaise Pascal et de Christian Huygens au milieu du . Le problème est d'apparence très simple. Le problème des partis a été exposé par Blaise Pascal en 1654 dans sa correspondance avec Pierre de Fermat.