Séance de cours

Calcul de l'étape de Newton : de GD à CG

Description

Cette séance de cours couvre la transition de Gradient Descent (GD) à Conjugate Gradients (CG) pour l'optimisation sur les collecteurs. En commençant par l'initialisation et les étapes itératives de GD, il introduit ensuite CG comme méthode d'optimisation plus efficace. La séance de cours explique comment les itérations GD sont des combinaisons linéaires de résidus et comment les itérations CG sont calculées. Bien que CG ne trouve pas la solution exacte en raison de la perte de H-orthogonalité, il est significativement mieux que GD, offrant une convergence linéaire avec un taux plus rapide. La séance de cours conclut en soulignant l'importance de CG dans l'obtention de la précision de la machine dans les problèmes d'optimisation.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.