Séance de cours

Régression polynôme et descente progressive

Description

Cette séance de cours couvre les concepts de régression polynôme et de descente par gradient. Il commence par expliquer le processus de régression polynôme, où l'espace de la fonctionnalité est élargi pour inclure les termes polynômes. La séance de cours s'enfonce ensuite dans l'algorithme de descente du gradient, une méthode d'optimisation des fonctions itératives. Il examine les défis de l'ajustement excessif et du sous-ajustement dans les modèles de régression et introduit des techniques de régularisation comme la régression de Lasso pour éviter le surajustement. L'importance de l'échelle des caractéristiques pour la convergence des algorithmes d'optimisation est également soulignée. La séance de cours se termine par une discussion sur la nature itérative de la descente en gradient et sur la nécessité de multiples parcours pour trouver des minima globaux dans les fonctions non convexes.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.