Coefficient de variationvignette|CV (coefficient de variation) = l'écart-type sur la moyenne En théorie des probabilités et statistiques, le coefficient de variation également nommé écart type relatif, est une mesure de dispersion relative. Le RSD (relative standard deviation en anglais) est défini comme la valeur absolue du coefficient de variation et est souvent exprimé en pourcentage. Le coefficient de variation est défini comme le rapport entre l'écart-type et la moyenne : L'écart-type seul ne permet le plus souvent pas de juger de la dispersion des valeurs autour de la moyenne.
Deviation (statistics)In mathematics and statistics, deviation is a measure of difference between the observed value of a variable and some other value, often that variable's mean. The sign of the deviation reports the direction of that difference (the deviation is positive when the observed value exceeds the reference value). The magnitude of the value indicates the size of the difference. Errors and residuals A deviation that is a difference between an observed value and the true value of a quantity of interest (where true value denotes the Expected Value, such as the population mean) is an error.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Corrélation croiséeLa corrélation croisée est parfois utilisée en statistique pour désigner la covariance des vecteurs aléatoires X et Y, afin de distinguer ce concept de la « covariance » d'un vecteur aléatoire, laquelle est comprise comme étant la matrice de covariance des coordonnées du vecteur. En traitement du signal, la corrélation croisée (aussi appelée covariance croisée) est la mesure de la similitude entre deux signaux.
Pearson correlation coefficientIn statistics, the Pearson correlation coefficient (PCC) is a correlation coefficient that measures linear correlation between two sets of data. It is the ratio between the covariance of two variables and the product of their standard deviations; thus, it is essentially a normalized measurement of the covariance, such that the result always has a value between −1 and 1. As with covariance itself, the measure can only reflect a linear correlation of variables, and ignores many other types of relationships or correlations.
AutocorrélationL'autocorrélation est un outil mathématique souvent utilisé en traitement du signal. C'est la corrélation croisée d'un signal par lui-même. L'autocorrélation permet de détecter des régularités, des profils répétés dans un signal comme un signal périodique perturbé par beaucoup de bruit, ou bien une fréquence fondamentale d'un signal qui ne contient pas effectivement cette fondamentale, mais l'implique avec plusieurs de ses harmoniques. Note : La confusion est souvent faite entre l'auto-covariance et l'auto-corrélation.
Corrélation partielleLe coefficient de corrélation partielle, noté ici , permet de connaître la valeur de la corrélation entre deux variables A et B, si la variable C était demeurée constante pour la série d’observations considérées. Dit autrement, le coefficient de corrélation partielle est le coefficient de corrélation totale entre les variables A et B quand on leur a retiré leur meilleure explication linéaire en termes de C. Il est donné par la formule : La démonstration la plus rapide de la formule consiste à s’appuyer sur l’interprétation géométrique de la corrélation (cosinus).
Écart type géométriqueDans les domaines des statistiques et des probabilités, l'écart type géométrique décrit la dispersion d'un ensemble de nombres autour de la moyenne géométrique. Si la moyenne géométrique d'un ensemble de nombres {A1, A2, ..., An} est notée μg, alors l'écart type géométrique est défini par : où on a et est donc la moyenne arithmétique de , par conséquent l'écart type de cet ensemble de nombres est : d'où L'écart type géométrique est relié à la loi log-normale.
Tau de KendallEn statistique, le tau de Kendall (ou de Kendall) est une statistique qui mesure l'association entre deux variables. Plus spécifiquement, le tau de Kendall mesure la corrélation de rang entre deux variables. Elle est nommée ainsi en hommage à Maurice Kendall qui en a développé l'idée dans un article de 1938 bien que Gustav Fechner ait proposé une idée similaire appliquée aux séries temporelles dès 1897. Soit un ensemble d'observations des variables jointes et tel que les valeurs des et sont uniques.
Intervalle de confiancevignette|Chaque ligne montre 20 échantillons tirés selon la loi normale de moyenne μ. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance encadre une valeur réelle que l’on cherche à estimer à l’aide de mesures prises par un procédé aléatoire.