Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre la transition de Gradient Descent (GD) à Conjugate Gradients (CG) pour l'optimisation sur les collecteurs. En commençant par l'initialisation et les étapes itératives de GD, il introduit ensuite CG comme méthode d'optimisation plus efficace. La séance de cours explique comment les itérations GD sont des combinaisons linéaires de résidus et comment les itérations CG sont calculées. Bien que CG ne trouve pas la solution exacte en raison de la perte de H-orthogonalité, il est significativement mieux que GD, offrant une convergence linéaire avec un taux plus rapide. La séance de cours conclut en soulignant l'importance de CG dans l'obtention de la précision de la machine dans les problèmes d'optimisation.