Séance de cours

Régression linéaire : Équations normales

Description

Cette séance de cours couvre la dérivation des équations normales pour la régression linéaire à l'aide de la fonction de coût d'erreur carrée moyenne. Il explique le concept d'optimisation convexe et l'application de l'algorithme de descente stochastique. La séance de cours traite également de l'interprétation géométrique de l'erreur par rapport aux colonnes de la matrice d'entrée. En outre, il explore les questions de sous-ajustement et de surajustement dans les modèles linéaires, ainsi que des techniques comme l'augmentation des caractéristiques pour les aborder. L'importance de l'invertibilité de la matrice Gram pour des solutions uniques dans les moindres carrés est soulignée. La séance de cours se termine par une discussion sur la carence en grade, le mauvais conditionnement et l'impact de la complexité du modèle sur l'ajustement des données.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.