Séance de cours

Calcul de l'étape de Newton : de GD à CG

Description

Cette séance de cours couvre la transition de Gradient Descent (GD) à Conjugate Gradients (CG) pour l'optimisation sur les collecteurs. En commençant par l'initialisation et les étapes itératives de GD, il introduit ensuite CG comme méthode d'optimisation plus efficace. La séance de cours explique comment les itérations GD sont des combinaisons linéaires de résidus et comment les itérations CG sont calculées. Bien que CG ne trouve pas la solution exacte en raison de la perte de H-orthogonalité, il est significativement mieux que GD, offrant une convergence linéaire avec un taux plus rapide. La séance de cours conclut en soulignant l'importance de CG dans l'obtention de la précision de la machine dans les problèmes d'optimisation.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.