Singular spectrum analysisIn time series analysis, singular spectrum analysis (SSA) is a nonparametric spectral estimation method. It combines elements of classical time series analysis, multivariate statistics, multivariate geometry, dynamical systems and signal processing. Its roots lie in the classical Karhunen (1946)–Loève (1945, 1978) spectral decomposition of time series and random fields and in the Mañé (1981)–Takens (1981) embedding theorem. SSA can be an aid in the decomposition of time series into a sum of components, each having a meaningful interpretation.
Moindres carrés non linéairesLes moindres carrés non linéaires est une forme des moindres carrés adaptée pour l'estimation d'un modèle non linéaire en n paramètres à partir de m observations (m > n). Une façon d'estimer ce genre de problème est de considérer des itérations successives se basant sur une version linéarisée du modèle initial. Méthode des moindres carrés Considérons un jeu de m couples d'observations, (x, y), (x, y),...,(x, y), et une fonction de régression du type y = f (x, β).
Modèle log-linéaireA log-linear model is a mathematical model that takes the form of a function whose logarithm equals a linear combination of the parameters of the model, which makes it possible to apply (possibly multivariate) linear regression. That is, it has the general form in which the fi(X) are quantities that are functions of the variable X, in general a vector of values, while c and the wi stand for the model parameters. The term may specifically be used for: A log-linear plot or graph, which is a type of semi-log plot.
Sinusoidal modelIn statistics, signal processing, and time series analysis, a sinusoidal model is used to approximate a sequence Yi to a sine function: where C is constant defining a mean level, α is an amplitude for the sine, ω is the angular frequency, Ti is a time variable, φ is the phase-shift, and Ei is the error sequence. This sinusoidal model can be fit using nonlinear least squares; to obtain a good fit, routines may require good starting values for the unknown parameters.
Regression validationIn statistics, regression validation is the process of deciding whether the numerical results quantifying hypothesized relationships between variables, obtained from regression analysis, are acceptable as descriptions of the data. The validation process can involve analyzing the goodness of fit of the regression, analyzing whether the regression residuals are random, and checking whether the model's predictive performance deteriorates substantially when applied to data that were not used in model estimation.
Linear probability modelIn statistics, a linear probability model (LPM) is a special case of a binary regression model. Here the dependent variable for each observation takes values which are either 0 or 1. The probability of observing a 0 or 1 in any one case is treated as depending on one or more explanatory variables. For the "linear probability model", this relationship is a particularly simple one, and allows the model to be fitted by linear regression.
Modèle probitEn statistiques, le modèle probit est un modèle de régression binomiale. Le modèle probit a été introduit par Chester Bliss en 1934. C'est un cas particulier du modèle linéaire généralisé. Soit Y une variable aléatoire binaire (i.e. prenant pour valeur 0 ou 1) et X un vecteur de variables dont on suppose qu'il influence Y. On fait l'hypothèse que le modèle s'écrit de la manière suivante : où désigne la fonction de répartition de la loi normale centrée réduite. Régression logistique Catégorie:Modèle statist
Causalité au sens de GrangerLa causalité a été introduite dans l'analyse économétrique par Wiener (1956) et Granger (1969). À l'origine, on retrouve la formalisation de la notion de causalité en physique, notamment dans les travaux d'Isaac Newton sur la force motrice (cause) et le changement de mouvement (effet). Dans ce cas, la notion de causalité traduit un principe d’après lequel si un phénomène est la cause d’un autre phénomène, nommé « effet », alors ce dernier ne peut pas précéder la cause.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Partial autocorrelation functionIn time series analysis, the partial autocorrelation function (PACF) gives the partial correlation of a stationary time series with its own lagged values, regressed the values of the time series at all shorter lags. It contrasts with the autocorrelation function, which does not control for other lags. This function plays an important role in data analysis aimed at identifying the extent of the lag in an autoregressive (AR) model.