Méthode des moindres carrésLa méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du , permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données. Ce modèle peut prendre diverses formes. Il peut s’agir de lois de conservation que les quantités mesurées doivent respecter. La méthode des moindres carrés permet alors de minimiser l’impact des erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure.
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Asymétrie (statistiques)En théorie des probabilités et statistique, le coefficient d'asymétrie (skewness en anglais) correspond à une mesure de l’asymétrie de la distribution d’une variable aléatoire réelle. C’est le premier des paramètres de forme, avec le kurtosis (les paramètres basés sur les moments d’ordre 5 et plus n’ont pas de nom attribué). En termes généraux, l’asymétrie d’une distribution est positive si la queue de droite (à valeurs hautes) est plus longue ou grosse, et négative si la queue de gauche (à valeurs basses) est plus longue ou grosse.
Biais (statistique)En statistique ou en épidémiologie, un biais est une démarche ou un procédé qui engendre des erreurs dans les résultats d'une étude. Formellement, le biais de l'estimateur d'un paramètre est la différence entre la valeur de l'espérance de cet estimateur (qui est une variable aléatoire) et la valeur qu'il est censé estimer (définie et fixe). biais effet-centre biais de vérification (work-up biais) biais d'autosélection, estimé à 27 % des travaux d'écologie entre 1960 et 1984 par le professeur de biologie américain Stuart H.
Erreur typeLerreur type d'une statistique (souvent une estimation d'un paramètre) est l'écart type de sa distribution d'échantillonnage ou l'estimation de son écart type. Si le paramètre ou la statistique est la moyenne, on parle d'erreur type de la moyenne. La distribution d'échantillonnage est générée par tirage répété et enregistrements des moyennes obtenues. Cela forme une distribution de moyennes différentes, et cette distribution a sa propre moyenne et variance.
Logarithmevignette|Tracés des fonctions logarithmes en base 2, e et 10. En mathématiques, le logarithme (de logos : rapport et arithmos : nombre) de base d'un nombre réel strictement positif est la puissance à laquelle il faut élever la base pour obtenir ce nombre. Dans le cas le plus simple, le logarithme compte le nombre d'occurrences du même facteur dans une multiplication répétée : comme 1000 = 10×10×10 = 10, le logarithme en base 10 de 1000 est 3. Le logarithme de en base est noté : . John Napier a développé les logarithmes au début du .
Moyenne quasi-arithmétiqueEn mathématiques et en statistiques, les moyennes quasi-arithmétiques, ou moyennes de Kolmogorov ou encore moyennes selon une fonction f constituent une généralisation de la moyenne (de Hölder) d'ordre p (qui est elle-même une généralisation des moyennes usuelles : arithmétique, géométrique). Elles sont paramétrées par une fonction f. Soit une fonction d'un intervalle dans les nombres réels, continue et injective. La moyenne selon la fonction f des nombres est définie par , que l'on peut aussi écrire Il est nécessaire que soit injective pour que son inverse soit définie.
Summary statisticsIn descriptive statistics, summary statistics are used to summarize a set of observations, in order to communicate the largest amount of information as simply as possible. Statisticians commonly try to describe the observations in a measure of location, or central tendency, such as the arithmetic mean a measure of statistical dispersion like the standard mean absolute deviation a measure of the shape of the distribution like skewness or kurtosis if more than one variable is measured, a measure of statistical dependence such as a correlation coefficient A common collection of order statistics used as summary statistics are the five-number summary, sometimes extended to a seven-number summary, and the associated box plot.
Test de StudentEn statistique, un test de Student, ou test t, désigne n'importe quel test statistique paramétrique où la statistique de test calculée suit une loi de Student lorsque l’hypothèse nulle est vraie. gauche|vignette|Façade de la brasserie historique Guinness de St. James. vignette|William Sealy Gosset, qui inventa le test t, sous le pseudonyme Student. Le test de Student et la loi de probabilités qui lui correspond ont été publiés en 1908 dans la revue Biometrika par William Gosset.
Moyenne quadratiqueLa (rms en anglais, pour root mean square) d'un ensemble de nombres est la racine carrée de la moyenne arithmétique des carrés de ces nombres. Elle correspond au cas de la moyenne d'ordre p. Par exemple, l'écart type dans une population est la moyenne quadratique des distances à la moyenne. La moyenne quadratique est supérieure ou égale à la moyenne arithmétique. Dans une série de valeurs, une valeur particulièrement élevée par rapport aux autres aura plus d'impact sur la moyenne quadratique de la série que sur la moyenne arithmétique.