Résumé
En mathématiques, l'extrapolation est le calcul d'un point d'une courbe dont on ne dispose pas d'équation, à partir d'autres points, lorsque l'abscisse du point à calculer est au-dessus du maximum ou en dessous du minimum des points connus. En dehors de cette particularité, les méthodes sont les mêmes que pour l'interpolation. C'est, d'autre part, une méthode développée par Norbert Wiener en traitement du signal pour la prédiction. Le choix de la méthode d'extrapolation dépend de la connaissance a priori de la méthode de génération des données. Ensuite, il faut s'intéresser aux propriétés éventuelles des données (dépendance linéaire, continuité, périodicité...). L'extrapolation linéaire consiste à prolonger l'interpolation des données par une droite tangente à la fin des données connues et à l'étendre. Elle ne donne de bons résultats que si les données montrent une corrélation proche de la linéarité. Si les deux points les plus proches du point de calcul x* à extrapoler sont (x , y) et (x , y), l'extrapolation linéaire s'obtient par : On retrouve l'interpolation linéaire si (x < x* < x). On peut également choisir plusieurs points et construire une extrapolation linéaire par moyennage ou régression. On se place dans le plan . Supposons une variable aléatoire Y, dont l'espérance dépend de x de manière affine, mais dont la variance est uniforme : les paramètres β0 et β1 étant des constantes réelles. Pour une valeur de x donnée, Y(x) suit une loi normale. Pour estimer la valeur de ces constantes, on dispose de n couples (xi, yi)1 ≤ i ≤ n, la valeur yi étant une réalisation de Y(xi) ; pour simplifier, on suppose que les xi sont classés par ordre croissant. En sciences expérimentales, les couples (xi, yi) sont des mesures. La régression linéaire consiste à déterminer des estimations b0 et b1 des paramètres β0 et β1 de la loi.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées (1)

Chargement

Personnes associées

Aucun résultat

Unités associées

Aucun résultat

Concepts associés (13)
Ajustement de courbe
thumb|upright=2.2|Ajustement par itérations d'une courbe bruitée par un modèle de pic asymétrique (méthode de Gauss-Newton avec facteur d'amortissement variable). L'ajustement de courbe est une technique d'analyse d'une courbe expérimentale, consistant à construire une courbe à partir de fonctions mathématiques et d'ajuster les paramètres de ces fonctions pour se rapprocher de la courbe mesurée . On utilise souvent le terme anglais curve fitting, profile fitting ou simplement fitting, pour désigner cette méthode ; on utilise souvent le franglais « fitter une courbe » pour dire « ajuster une courbe ».
Extrapolation (mathématiques)
En mathématiques, l'extrapolation est le calcul d'un point d'une courbe dont on ne dispose pas d'équation, à partir d'autres points, lorsque l'abscisse du point à calculer est au-dessus du maximum ou en dessous du minimum des points connus. En dehors de cette particularité, les méthodes sont les mêmes que pour l'interpolation. C'est, d'autre part, une méthode développée par Norbert Wiener en traitement du signal pour la prédiction. Le choix de la méthode d'extrapolation dépend de la connaissance a priori de la méthode de génération des données.
Régression (statistiques)
En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Afficher plus
Cours associés (3)
ChE-312: Numerical methods
This course introduces students to modern computational and mathematical techniques for solving problems in chemistry and chemical engineering. The use of introduced numerical methods will be demonstr
BIO-645: Introduction to Applied Data Science (I2ADS)
The "Introduction to Applied Data Science" (I2ADS) course is aimed at students of all levels to train them in the core computer science software stack and techniques forming the pillars of open & repr
ME-474: Numerical flow simulation
This course provides practical experience in the numerical simulation of fluid flows. Numerical methods are presented in the framework of the finite volume method. A simple solver is developed with Ma
Séances de cours associées (27)
Splines: Fondamentaux et applications
Explore les splines B, les splines cubiques naturelles et les splines de lissage dans les problèmes de régression et leurs applications pratiques.
Calcul, vérification et validation
Explique la vérification et la validation dans les simulations CFD, en se concentrant sur l'extrapolation de Richardson et la vérification de l'exactitude.
Courbes de double descente : surparamétrisation
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Afficher plus
MOOCs associés

Aucun résultat