Lissage exponentielLe lissage exponentiel est une méthode empirique de lissage et de prévision de données chronologiques affectées d'aléas. Comme dans la méthode des moyennes mobiles, chaque donnée est lissée successivement en partant de la valeur initiale. Le lissage exponentiel donne aux observations passées un poids décroissant exponentiellement avec leur ancienneté. Le lissage exponentiel est une des méthodes de fenêtrage utilisées en traitement du signal. Elle agit comme un filtre passe-bas en supprimant les fréquences élevées du signal initial.
Kernel smootherA kernel smoother is a statistical technique to estimate a real valued function as the weighted average of neighboring observed data. The weight is defined by the kernel, such that closer points are given higher weights. The estimated function is smooth, and the level of smoothness is set by a single parameter. Kernel smoothing is a type of weighted moving average. Let be a kernel defined by where: is the Euclidean norm is a parameter (kernel radius) D(t) is typically a positive real valued function, whose value is decreasing (or not increasing) for the increasing distance between the X and X0.
Lasso (statistiques)En statistiques, le lasso est une méthode de contraction des coefficients de la régression développée par Robert Tibshirani dans un article publié en 1996 intitulé Regression shrinkage and selection via the lasso. Le nom est un acronyme anglais : Least Absolute Shrinkage and Selection Operator. Bien que cette méthode fut utilisée à l'origine pour des modèles utilisant l'estimateur usuel des moindres carrés, la pénalisation lasso s'étend facilement à de nombreux modèles statistiques tels que les modèles linéaires généralisés, les modèles à risque proportionnel, et les M-estimateurs.
Linear least squaresLinear least squares (LLS) is the least squares approximation of linear functions to data. It is a set of formulations for solving statistical problems involved in linear regression, including variants for ordinary (unweighted), weighted, and generalized (correlated) residuals. Numerical methods for linear least squares include inverting the matrix of the normal equations and orthogonal decomposition methods. The three main linear least squares formulations are: Ordinary least squares (OLS) is the most common estimator.
Régression de PoissonEn statistique, la régression de Poisson est un modèle linéaire généralisé utilisé pour les données de comptage et les tableaux de contingence. Cette régression suppose que la variable réponse Y suit une loi de Poisson et que le logarithme de son espérance peut être modélisé par une combinaison linéaire de paramètre inconnus. Soit un vecteur de variables indépendantes, et la variable que l'on cherche à prédire. Réaliser une régression de Poisson revient à supposer que suit une loi de Poisson de paramètre , avec et les paramètres de la régression à estimer, et le produit scalaire standard de .
Régression sur composantes principalesEn statistiques, la Régression sur composantes principales est une analyse en régression sur les composantes d'une analyse en composantes principales. On utilise souvent cette technique lorsque les variables explicatives sont proches d'être colinéaires, lorsque par exemple le nombre de variables est très supérieur au nombre d'individus.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Astuce du noyauEn apprentissage automatique, l'astuce du noyau, ou kernel trick en anglais, est une méthode qui permet d'utiliser un classifieur linéaire pour résoudre un problème non linéaire. L'idée est de transformer l'espace de représentation des données d'entrées en un espace de plus grande dimension, où un classifieur linéaire peut être utilisé et obtenir de bonnes performances. La discrimination linéaire dans l'espace de grande dimension (appelé aussi espace de redescription) est équivalente à une discrimination non linéaire dans l'espace d'origine.
Vecteur Autoregressif (VAR)Le modèle à Vecteur Autoregressif (VAR) est un modèle économique qui permet de capturer les interdépendances entre plusieurs séries temporelles. Il s'agit de la principale catégorie de modèle statistique. Dans un modèle VAR, les variables sont traitées symétriquement de manière que chacune d'entre elles soit expliquée par ses propres valeurs passées et par les valeurs passées des autres variables. De ce fait, les modèles VAR mobilisent des bases de données importantes.
Lissage (mathématiques)vignette|Exemple de lissage d'une courbe. La courbe bleue joint des données brutes de la température moyenne quotidienne à la station météo de Paris-Montsouris (France) du 1960/01/01 au 1960/02/29. La courbe orange est obtenue avec un lissage exponentiel simple et un facteur alpha = 0.1. Le lissage est une technique qui consiste à réduire les irrégularités et singularités d'une courbe en mathématiques. Cette technique est utilisée en traitement du signal pour atténuer ce qui peut être considéré comme une perturbation ou un bruit de mesure.