Stepwise regressionIn statistics, stepwise regression is a method of fitting regression models in which the choice of predictive variables is carried out by an automatic procedure. In each step, a variable is considered for addition to or subtraction from the set of explanatory variables based on some prespecified criterion. Usually, this takes the form of a forward, backward, or combined sequence of F-tests or t-tests.
Truncated regression modelTruncated regression models are a class of models in which the sample has been truncated for certain ranges of the dependent variable. That means observations with values in the dependent variable below or above certain thresholds are systematically excluded from the sample. Therefore, whole observations are missing, so that neither the dependent nor the independent variable is known. This is in contrast to censored regression models where only the value of the dependent variable is clustered at a lower threshold, an upper threshold, or both, while the value for independent variables is available.
Variable ordinalevignette|Exemple de représentation d’une variable ordinale : le niveau de certification par vignette Crit'Air. En statistique, une variable ordinale est une variable catégorielle dont les modalités sont totalement ordonnées, représentant chacune un niveau dans une gradation. Ces niveaux peuvent être codées par des lettres ou des chiffres sans que ceux-ci correspondent forcément à une grandeur numérique quantifiable, par exemple pour un degré de satisfaction, un grade militaire ou un numéro de version d’un logiciel.
Design matrixIn statistics and in particular in regression analysis, a design matrix, also known as model matrix or regressor matrix and often denoted by X, is a matrix of values of explanatory variables of a set of objects. Each row represents an individual object, with the successive columns corresponding to the variables and their specific values for that object. The design matrix is used in certain statistical models, e.g., the general linear model.
Causalité au sens de GrangerLa causalité a été introduite dans l'analyse économétrique par Wiener (1956) et Granger (1969). À l'origine, on retrouve la formalisation de la notion de causalité en physique, notamment dans les travaux d'Isaac Newton sur la force motrice (cause) et le changement de mouvement (effet). Dans ce cas, la notion de causalité traduit un principe d’après lequel si un phénomène est la cause d’un autre phénomène, nommé « effet », alors ce dernier ne peut pas précéder la cause.
Statistical model validationIn statistics, model validation is the task of evaluating whether a chosen statistical model is appropriate or not. Oftentimes in statistical inference, inferences from models that appear to fit their data may be flukes, resulting in a misunderstanding by researchers of the actual relevance of their model. To combat this, model validation is used to test whether a statistical model can hold up to permutations in the data.
Noyau (statistiques)Un noyau est une fonction de pondération utilisée dans les techniques d'estimation non-paramétrique. Les noyaux interviennent dans l'estimateur par noyau pour estimer la densité de probabilité d'une variable aléatoire, ou encore dans la régression paramétrique (à noyau) pour estimer des espérances conditionnelles. Pour les séries temporelles, le noyau permet d'estimer la densité spectrale. Un noyau est une fonction positive, intégrable et à valeurs réelles, notée K, qui doit vérifier les deux conditions suivantes : normalisation : symétrie : pour toutes les valeurs de u.