Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours explore les fonctions de perte utilisées pour mesurer la qualité des modèles d'apprentissage automatique, en se concentrant sur la régression et la régression linéaire. L'instructeur explique l'importance des fonctions de perte dans la quantification de l'ajustement du modèle aux données, en utilisant des exemples tels que la perte au carré et l'erreur absolue moyenne. Le concept de convexité dans les fonctions de perte est introduit, ainsi que l'application de la descente de gradient pour l'optimisation. Grâce à un modèle simple à un paramètre, la séance de cours illustre comment la descente de gradient met à jour les paramètres du modèle de manière itérative pour minimiser la fonction de perte. L'impact de la taille des pas dans la descente du gradient est discuté, présentant des scénarios où la taille des pas peut conduire à la convergence, à la progression lente ou à la divergence. La séance de cours met l'accent sur l'équilibre délicat dans le choix d'une taille de pas appropriée pour une optimisation efficace.