Generalized hypergeometric functionIn mathematics, a generalized hypergeometric series is a power series in which the ratio of successive coefficients indexed by n is a rational function of n. The series, if convergent, defines a generalized hypergeometric function, which may then be defined over a wider domain of the argument by analytic continuation. The generalized hypergeometric series is sometimes just called the hypergeometric series, though this term also sometimes just refers to the Gaussian hypergeometric series.
Covariance matrixIn probability theory and statistics, a covariance matrix (also known as auto-covariance matrix, dispersion matrix, variance matrix, or variance–covariance matrix) is a square matrix giving the covariance between each pair of elements of a given random vector. Any covariance matrix is symmetric and positive semi-definite and its main diagonal contains variances (i.e., the covariance of each element with itself). Intuitively, the covariance matrix generalizes the notion of variance to multiple dimensions.
CovarianceEn théorie des probabilités et en statistique, la covariance entre deux variables aléatoires est un nombre permettant de quantifier leurs écarts conjoints par rapport à leurs espérances respectives. Elle s’utilise également pour deux séries de données numériques (écarts par rapport aux moyennes). La covariance de deux variables aléatoires indépendantes est nulle, bien que la réciproque ne soit pas toujours vraie. La covariance est une extension de la notion de variance.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Matrice D de WignerLa matrice D de Wigner est une matrice d'une représentation irréductible des groupes SU(2) et SO(3). Le conjugué complexe de la matrice D est une fonction propre du hamiltonien des rotateurs rigides sphériques et symétriques. Introduite en 1927 par Eugene Wigner, cette matrice est utilisée en mécanique quantique. Soient , , des générateurs d'une algèbre de Lie de SU(2) et SO(3). En mécanique quantique ces trois opérateurs sont les composantes d'un opérateur vectoriel appelé moment angulaire.
Identité trigonométriqueUne identité trigonométrique est une relation impliquant des fonctions trigonométriques, vérifiée pour toutes les valeurs possibles des variables intervenant dans la relation. Ces identités peuvent servir à simplifier une expression comportant des fonctions trigonométriques ou à la transformer (par exemple pour en calculer une primitive). Elles constituent donc une « boîte à outils » utile pour la résolution de problèmes. Les fonctions trigonométriques sont définies géométriquement ou analytiquement.
Cross-covariance matrixIn probability theory and statistics, a cross-covariance matrix is a matrix whose element in the i, j position is the covariance between the i-th element of a random vector and j-th element of another random vector. A random vector is a random variable with multiple dimensions. Each element of the vector is a scalar random variable. Each element has either a finite number of observed empirical values or a finite or infinite number of potential values. The potential values are specified by a theoretical joint probability distribution.
Fonction de Wignervignette| Fonction de Wigner d'un état du type du "chat de Schrödinger" (mélange de 2 états opposés) La fonction de Wigner (également appelée distribution de quasi-probabilité de Wigner) a été introduite par Eugene Wigner en 1932 pour étudier les corrections quantiques à la mécanique statistique classique. L'objectif était de lier la fonction d'onde qui apparaît dans l'équation de Schrödinger à une distribution de probabilité dans l'espace des phases.
Distance correlationIn statistics and in probability theory, distance correlation or distance covariance is a measure of dependence between two paired random vectors of arbitrary, not necessarily equal, dimension. The population distance correlation coefficient is zero if and only if the random vectors are independent. Thus, distance correlation measures both linear and nonlinear association between two random variables or random vectors. This is in contrast to Pearson's correlation, which can only detect linear association between two random variables.
Invariance d'échelleIl y a invariance d'échelle lorsqu'aucune échelle ne caractérise le système. Par exemple, dans un ensemble fractal, les propriétés seront les mêmes quelle que soit la distance à laquelle on se place. Une fonction g est dite invariante d'échelle s'il existe une fonction telle que pour tout x et y : Alors, il existe une constante et un exposant , tels que : En physique, l'invariance d'échelle n'est valable que dans un domaine de taille limité — par exemple, pour un ensemble fractal, on ne peut pas se placer à une échelle plus petite que celle des molécules, ni plus grande que la taille du système.