Cette séance de cours traite des techniques d'optimisation avancées en apprentissage automatique, en se concentrant sur les méthodes de descente en gradient plus rapide et la descente en gradient projetée. L'instructeur commence par passer en revue les concepts précédents, y compris les taux de convergence de la descente du gradient pour les fonctions convexes. La séance de cours explore la possibilité d'atteindre des taux de convergence plus rapides, en examinant spécifiquement les fonctions fortement convexes et leurs propriétés. L'instructeur définit des fonctions fortement convexes et explique leur importance dans l'optimisation, en soulignant comment elles permettent des taux de convergence exponentiels. La séance de cours passe ensuite à la descente de gradient projetée, détaillant son application dans des problèmes d'optimisation contraints. L'instructeur décrit les mécanismes de l'algorithme, en soulignant l'importance de projeter les itérations dans l'ensemble réalisable après chaque mise à jour. Les propriétés de la projection sont discutées, ainsi que leurs implications pour les taux de convergence. La séance de cours se termine par un résumé des points clés, y compris la relation entre la douceur, la convexité forte et les taux de convergence, et ouvre la voie à de futures discussions sur des méthodes d'optimisation plus complexes.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace