Séance de cours

Fonctions de perte et optimisation

Description

Cette séance de cours explore les fonctions de perte utilisées pour mesurer la qualité des modèles d'apprentissage automatique, en se concentrant sur la régression et la régression linéaire. L'instructeur explique l'importance des fonctions de perte dans la quantification de l'ajustement du modèle aux données, en utilisant des exemples tels que la perte au carré et l'erreur absolue moyenne. Le concept de convexité dans les fonctions de perte est introduit, ainsi que l'application de la descente de gradient pour l'optimisation. Grâce à un modèle simple à un paramètre, la séance de cours illustre comment la descente de gradient met à jour les paramètres du modèle de manière itérative pour minimiser la fonction de perte. L'impact de la taille des pas dans la descente du gradient est discuté, présentant des scénarios où la taille des pas peut conduire à la convergence, à la progression lente ou à la divergence. La séance de cours met l'accent sur l'équilibre délicat dans le choix d'une taille de pas appropriée pour une optimisation efficace.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.