Régression linéaire : moindres carrés et équations normales
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Introduit les bases de la régression linéaire, de l'interprétation des coefficients, des hypothèses, des transformations et de la «différence des différences» pour l'analyse causale.
Couvre les bases de régression linéaire, en se concentrant sur la minimisation des erreurs en utilisant le principe des moindres carrés et comprend une table ANOVA et un exemple pratique dans R.
Introduit une régression linéaire simple, les propriétés des résidus, la décomposition de la variance et le coefficient de détermination dans le contexte de la loi d'Okun.
Déplacez-vous dans l'analyse de régression, en mettant l'accent sur les vérifications de distribution, les moindres carrés pondérés et les tests d'hypothèse.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, y compris la formation des modèles, les fonctions de perte et les mesures d'évaluation.