Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les concepts de régression polynôme et de descente par gradient. Il commence par expliquer le processus de régression polynôme, où l'espace de la fonctionnalité est élargi pour inclure les termes polynômes. La séance de cours s'enfonce ensuite dans l'algorithme de descente du gradient, une méthode d'optimisation des fonctions itératives. Il examine les défis de l'ajustement excessif et du sous-ajustement dans les modèles de régression et introduit des techniques de régularisation comme la régression de Lasso pour éviter le surajustement. L'importance de l'échelle des caractéristiques pour la convergence des algorithmes d'optimisation est également soulignée. La séance de cours se termine par une discussion sur la nature itérative de la descente en gradient et sur la nécessité de multiples parcours pour trouver des minima globaux dans les fonctions non convexes.