Inégalité de Bienaymé-TchebychevEn théorie des probabilités, l'inégalité de Bienaymé-Tchebychev, est une inégalité de concentration permettant de montrer qu'une variable aléatoire prendra avec une faible probabilité une valeur relativement lointaine de son espérance. Ce résultat s'applique dans des cas très divers, nécessitant la connaissance de peu de propriétés (seules l'espérance et la variance doivent être connues), et permet de démontrer la loi faible des grands nombres.
Champ électriquethumb|Champ électrique associé à son propagateur qu'est le photon. right|thumb|Michael Faraday introduisit la notion de champ électrique. En physique, le champ électrique est le champ vectoriel créé par des particules électriquement chargées. Plus précisément, des particules chargées modifient les propriétés locales de l'espace, ce que traduit justement la notion de champ. Si une autre charge se trouve dans ce champ, elle subira l'action de la force électrique exercée à distance par la particule : le champ électrique est en quelque sorte le "médiateur" de cette action à distance.
Fonction gaussiennevignette|Fonction gaussienne pour μ = 0, σ = 1 ; courbe centrée en zéro. Une fonction gaussienne est une fonction en exponentielle de l'opposé du carré de l'abscisse (une fonction en exp(-x)). Elle a une forme caractéristique de courbe en cloche. L'exemple le plus connu est la densité de probabilité de la loi normale où μ est l'espérance mathématique et σ est l'écart type. Les fonctions gaussiennes sont analytiques, de limite nulle en l'infini. La largeur à mi-hauteur H vaut la demi-largeur à mi-hauteur vaut donc environ 1,177·σ.
Forme linéaireEn algèbre linéaire, une forme linéaire sur un espace vectoriel est une application linéaire sur son corps de base. En dimension finie, elle peut être représentée par une matrice ligne qui permet d’associer à son noyau une équation cartésienne. Dans le cadre du calcul tensoriel, une forme linéaire est aussi appelée covecteur, en lien avec l’action différente des matrices de changement de base.
Asymptotic analysisIn mathematical analysis, asymptotic analysis, also known as asymptotics, is a method of describing limiting behavior. As an illustration, suppose that we are interested in the properties of a function f (n) as n becomes very large. If f(n) = n2 + 3n, then as n becomes very large, the term 3n becomes insignificant compared to n2. The function f(n) is said to be "asymptotically equivalent to n2, as n → ∞". This is often written symbolically as f (n) ~ n2, which is read as "f(n) is asymptotic to n2".
KrigeageLe krigeage est, en géostatistique, la méthode d’estimation linéaire garantissant le minimum de variance. Le krigeage réalise l'interpolation spatiale d'une variable régionalisée par calcul de l'espérance mathématique d'une variable aléatoire, utilisant l'interprétation et la modélisation du variogramme expérimental. C'est le meilleur estimateur linéaire non biaisé ; il se fonde sur une méthode objective. Il tient compte non seulement de la distance entre les données et le point d'estimation, mais également des distances entre les données deux à deux.
Complex random variableIn probability theory and statistics, complex random variables are a generalization of real-valued random variables to complex numbers, i.e. the possible values a complex random variable may take are complex numbers. Complex random variables can always be considered as pairs of real random variables: their real and imaginary parts. Therefore, the distribution of one complex random variable may be interpreted as the joint distribution of two real random variables.
Développement asymptotiqueEn mathématiques, un développement asymptotique d'une fonction f donnée dans un voisinage fixé est une somme finie de fonctions de référence qui donne une bonne approximation du comportement de la fonction f dans le voisinage considéré. Le concept de développement asymptotique a été introduit par Poincaré à propos de l'étude du problème à N corps de la mécanique céleste par la théorie des perturbations. La somme étant finie, la question de la convergence ne se pose pas.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Corrélation partielleLe coefficient de corrélation partielle, noté ici , permet de connaître la valeur de la corrélation entre deux variables A et B, si la variable C était demeurée constante pour la série d’observations considérées. Dit autrement, le coefficient de corrélation partielle est le coefficient de corrélation totale entre les variables A et B quand on leur a retiré leur meilleure explication linéaire en termes de C. Il est donné par la formule : La démonstration la plus rapide de la formule consiste à s’appuyer sur l’interprétation géométrique de la corrélation (cosinus).