Distribution of the product of two random variablesA product distribution is a probability distribution constructed as the distribution of the product of random variables having two other known distributions. Given two statistically independent random variables X and Y, the distribution of the random variable Z that is formed as the product is a product distribution. The product distribution is the PDF of the product of sample values. This is not the same as the product of their PDF's yet the concepts are often ambiguously termed as "product of Gaussians".
Paired difference testIn statistics, a paired difference test is a type of location test that is used when comparing two sets of paired measurements to assess whether their population means differ. A paired difference test uses additional information about the sample that is not present in an ordinary unpaired testing situation, either to increase the statistical power, or to reduce the effects of confounders.
Entropie conditionnelleEn théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire , lorsque l'on connait exactement une variable aléatoire . On note l'entropie conditionnelle de sachant . On dit aussi parfois entropie de conditionnée par . Comme les autres entropies, elle se mesure généralement en bits. On peut introduire l'entropie conditionnelle de plusieurs façons, soit directement à partir des probabilités conditionnelles, soit en passant par l'entropie conjointe.
Rank correlationIn statistics, a rank correlation is any of several statistics that measure an ordinal association—the relationship between rankings of different ordinal variables or different rankings of the same variable, where a "ranking" is the assignment of the ordering labels "first", "second", "third", etc. to different observations of a particular variable. A rank correlation coefficient measures the degree of similarity between two rankings, and can be used to assess the significance of the relation between them.
Potentiel électriqueLe potentiel électrique, exprimé en volts (symbole : V), est l'une des grandeurs définissant l'état électrique d'un point de l'espace. Il correspond à l'énergie potentielle électrostatique que posséderait une charge électrique unitaire située en ce point, c'est-à-dire à l'énergie potentielle (mesurée en joules) d'une particule chargée en ce point divisée par la charge (mesurée en coulombs) de la particule.
Quantities of informationThe mathematical theory of information is based on probability theory and statistics, and measures information with several quantities of information. The choice of logarithmic base in the following formulae determines the unit of information entropy that is used. The most common unit of information is the bit, or more correctly the shannon, based on the binary logarithm.
Potentiel vecteur du champ magnétiqueLe potentiel vecteur du champ magnétique, ou, plus simplement potentiel vecteur quand il n'y a pas de confusion possible, est une quantité physique assimilable à un champ de vecteurs intervenant en électromagnétisme. Elle n'est pas directement mesurable, mais sa présence est intimement liée à celle d'un champ électrique et/ou d'un champ magnétique. Son unité SI est le kg.C-1.m.s-1. Bien qu'il ait d'abord été introduit uniquement en tant qu'outil mathématique, en mécanique quantique, il a une réalité physique, comme l'a montré l'expérience Aharonov-Bohm.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Quadrivecteur potentielEn physique, le quadrivecteur potentiel ou quadri-potentiel ou encore champ de jauge, noté en général avec indice muet, est un vecteur à quatre composantes défini par où désigne le potentiel scalaire (aussi noté V), c la vitesse de la lumière dans le vide, et le potentiel vecteur qui dépend du choix du système de coordonnées. Par exemple, en coordonnées cartésiennes, ce dernier est représenté par , ce qui rend au total pour le quadri-vecteur . Il est utilisé notamment en relativité restreinte et en mécanique quantique relativiste.
Bruit blancthumb|Échantillon de bruit blanc. thumb|Spectre plat d'un bruit blanc (sur l'abscisse, la fréquence ; en ordonnée, l'intensité). Un bruit blanc est une réalisation d'un processus aléatoire dans lequel la densité spectrale de puissance est la même pour toutes les fréquences de la bande passante. Le bruit additif blanc gaussien est un bruit blanc qui suit une loi normale de moyenne et variance données. Des générateurs de signaux aléatoires () sont utilisés pour des essais de dispositifs de transmission et, à faible niveau, pour l'amélioration des systèmes numériques par dither.