Les moindres carrés non linéaires est une forme des moindres carrés adaptée pour l'estimation d'un modèle non linéaire en n paramètres à partir de m observations (m > n). Une façon d'estimer ce genre de problème est de considérer des itérations successives se basant sur une version linéarisée du modèle initial. Méthode des moindres carrés Considérons un jeu de m couples d'observations, (x, y), (x, y),...,(x, y), et une fonction de régression du type y = f (x, β). Cette fonction dépend des explicatives x mais aussi du vecteur des n paramètres β = (β, β, ..., β) avec m ≥ n. On souhaite trouver le vecteur de paramètres β qui ajuste au mieux les données, au sens des moindres carrés : est minimisée en β, où les résidus ri sont donnés par Le minimum de la somme des carrés des résidus S est atteint lorsque le gradient s'annule (condition nécessaire). Puisque le problème est formulé avec n paramètres, il y a donc n équations normales : Dans un système non linéaire, les dérivées dépendent aussi bien des variables explicatives que des paramètres : il faut donc renoncer à résoudre les équations normales aussi simplement que dans le cas linéaire. On a alors recours à une résolution numérique, à l'aide d'un procédé itératif qui fournit des approximations successives β de plus en plus proches de la vraie valeur (inconnue) des paramètres, β. À chaque itération, le modèle initial est linéarisé par un développement de Taylor autour de β comme suit : La matrice jacobienne J dépend des données et de l'approximation en cours, aussi change-t-elle d'une itération à l'autre. Ainsi, en termes du modèle linéarisé, et les résidus sont donnés par Les équations normales deviennent ou encore Matriciellement, on en arrive à La linéarisation permet donc d'écrire : Il faut remarquer que l'ensemble du terme de droite dépend seulement de l'itération en cours, à savoir β, et permet donc de trouver la prochaine itération β.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (32)
FIN-414: Optimization methods
This course presents the problem of static optimization, with and without (equality and inequality) constraints, both from the theoretical (optimality conditions) and methodological (algorithms) point
CS-233: Introduction to machine learning
Machine learning and data analysis are becoming increasingly central in many sciences and applications. In this course, fundamental principles and methods of machine learning will be introduced, analy
MATH-520: Topics in machine learning
Mathematical analysis of modern supervised machine learning techniques, from linear methods to artificial neural networks.
Afficher plus
Publications associées (238)

Novel theory and potential applications of central diastolic pressure decay time constant

Nikolaos Stergiopoulos, Georgios Rovas, Sokratis Anagnostopoulos, Vasiliki Bikia, Patrick Segers

Central aortic diastolic pressure decay time constant ( ) is according to the two-element Windkessel model equal to the product of total peripheral resistance (R) times total arterial compliance (C ). As such, it is related to arterial stiffness, which has ...
2024
Afficher plus
Concepts associés (13)
Linear least squares
Linear least squares (LLS) is the least squares approximation of linear functions to data. It is a set of formulations for solving statistical problems involved in linear regression, including variants for ordinary (unweighted), weighted, and generalized (correlated) residuals. Numerical methods for linear least squares include inverting the matrix of the normal equations and orthogonal decomposition methods. The three main linear least squares formulations are: Ordinary least squares (OLS) is the most common estimator.
Total least squares
In applied statistics, total least squares is a type of errors-in-variables regression, a least squares data modeling technique in which observational errors on both dependent and independent variables are taken into account. It is a generalization of Deming regression and also of orthogonal regression, and can be applied to both linear and non-linear models. The total least squares approximation of the data is generically equivalent to the best, in the Frobenius norm, low-rank approximation of the data matrix.
Orthogonalité
En géométrie classique, l'orthogonalité est une propriété liée à l'existence d'un angle droit (orthos = droit, gônia = angle). Dans l'espace, deux droites sont orthogonales si elles sont chacune parallèles à des droites se coupant en angle droit ; deux perpendiculaires étant deux droites orthogonales et sécantes. Une droite est orthogonale à un plan si elle est orthogonale aux droites du plan. On parle de vecteurs orthogonaux pour des vecteurs directeurs de droites orthogonales et de segments orthogonaux pour des segments portés par des droites orthogonales.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.