Residual sum of squaresIn statistics, the residual sum of squares (RSS), also known as the sum of squared residuals (SSR) or the sum of squared estimate of errors (SSE), is the sum of the squares of residuals (deviations predicted from actual empirical values of data). It is a measure of the discrepancy between the data and an estimation model, such as a linear regression. A small RSS indicates a tight fit of the model to the data. It is used as an optimality criterion in parameter selection and model selection.
Erreur quadratique moyenneEn statistiques, l’erreur quadratique moyenne d’un estimateur d’un paramètre de dimension 1 (mean squared error (), en anglais) est une mesure caractérisant la « précision » de cet estimateur. Elle est plus souvent appelée « erreur quadratique » (« moyenne » étant sous-entendu) ; elle est parfois appelée aussi « risque quadratique ».
Linear least squaresLinear least squares (LLS) is the least squares approximation of linear functions to data. It is a set of formulations for solving statistical problems involved in linear regression, including variants for ordinary (unweighted), weighted, and generalized (correlated) residuals. Numerical methods for linear least squares include inverting the matrix of the normal equations and orthogonal decomposition methods. The three main linear least squares formulations are: Ordinary least squares (OLS) is the most common estimator.
StatistiqueLa statistique est la discipline qui étudie des phénomènes à travers la collecte de données, leur traitement, leur analyse, l'interprétation des résultats et leur présentation afin de rendre ces données compréhensibles par tous. C'est à la fois une branche des mathématiques appliquées, une méthode et un ensemble de techniques. ce qui permet de différencier ses applications mathématiques avec une statistique (avec une minuscule). Le pluriel est également souvent utilisé pour la désigner : « les statistiques ».
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Modèle probitEn statistiques, le modèle probit est un modèle de régression binomiale. Le modèle probit a été introduit par Chester Bliss en 1934. C'est un cas particulier du modèle linéaire généralisé. Soit Y une variable aléatoire binaire (i.e. prenant pour valeur 0 ou 1) et X un vecteur de variables dont on suppose qu'il influence Y. On fait l'hypothèse que le modèle s'écrit de la manière suivante : où désigne la fonction de répartition de la loi normale centrée réduite. Régression logistique Catégorie:Modèle statist
Simple linear regressionIn statistics, simple linear regression is a linear regression model with a single explanatory variable. That is, it concerns two-dimensional sample points with one independent variable and one dependent variable (conventionally, the x and y coordinates in a Cartesian coordinate system) and finds a linear function (a non-vertical straight line) that, as accurately as possible, predicts the dependent variable values as a function of the independent variable. The adjective simple refers to the fact that the outcome variable is related to a single predictor.
Méthode des variables instrumentalesEn statistique et en économétrie, la méthode des variables instrumentales est une méthode permettant d'identifier et d'estimer des relations causales entre des variables. Cette méthode est très souvent utilisée en économétrie. Le modèle de régression linéaire simple fait l'hypothèse que les variables explicatives sont statistiquement indépendantes du terme d'erreur. Par exemple, si on pose le modèle avec x la variable explicative et u le terme d'erreur, on suppose généralement que x est exogène, c'est-à-dire que .
Variable catégorielleEn statistique, une variable qualitative, une variable catégorielle, ou bien un facteur est une variable qui prend pour valeur des modalités, des catégories ou bien des niveaux, par opposition aux variables quantitatives qui mesurent sur chaque individu une quantité. Les modalités (ou les valeurs) qu’elle prend peuvent être désignés en toutes lettre par des noms , comme par exemple: les modalités du sexe sont : Masculin et Féminin les modalités de la couleurs des yeux sont : Bleu, Marron, Noir et Vert ; les modalités de la variable mention au Bac sont : TB, B, AB et P.
Leverage (statistics)In statistics and in particular in regression analysis, leverage is a measure of how far away the independent variable values of an observation are from those of the other observations. High-leverage points, if any, are outliers with respect to the independent variables. That is, high-leverage points have no neighboring points in space, where is the number of independent variables in a regression model. This makes the fitted model likely to pass close to a high leverage observation.