En mathématiques, plus spécifiquement en analyse numérique, la méthode du gradient biconjugué est un algorithme permettant de résoudre un système d'équations linéaires Contrairement à la méthode du gradient conjugué, cet algorithme ne nécessite pas que la matrice soit auto-adjointe, en revanche, la méthode requiert des multiplications par la matrice adjointe . Choisir , , un préconditionneur régulier (on utilise fréquemment ) et ; for do ( et sont le résidus); . La méthode est numériquement instable, mais on y remédie par la , et elle reste très importante du point de vue théorique : on définit l'itération par et () en utilisant les projections suivantes : Avec et . On peut itérer les projections elles-mêmes, comme Les nouvelles directions de descente et sont alors orthogonales aux résidus : et , qui satisfont aux mêmes et (). La méthode du gradient biconjugué propose alors le choix suivant : et . Ce choix particulier permet alors d'éviter une évaluation directe de et , et donc augmenter la vitesse d'exécution de l'algorithme. Si est auto-adjointe, et , donc , , et la méthode du gradient conjugué produit la même suite . En dimensions finies , au plus tard quand : La méthode du gradient biconjugué rend la solution exacte après avoir parcouru tout l'espace et est donc une méthode directe. La suite produite par l'algorithme est : et pour . SI est un polynôme avec , alors . L'algorithme est donc composé de projections sur des sous-espaces de Krylov ; SI est un polynôme avec , alors .

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (8)
PHYS-332: Computational physics III
This course teaches the students practical skills needed for solving modern physics problems by means of computation. A number of examples illustrate the utility of numerical computations in various d
MATH-453: Computational linear algebra
This course provides an overview of advanced techniques for solving large-scale linear algebra problems, as they typically arise in applications. A central goal of this course is to give the ability t
CS-439: Optimization for machine learning
This course teaches an overview of modern optimization methods, for applications in machine learning and data science. In particular, scalability of algorithms to large datasets will be discussed in t
Afficher plus
Séances de cours associées (32)
Lipschitz continu Hesse et méthode de Newton
Explore la convergence de la méthode de Newton et de l'algorithme CG pour résoudre des équations linéaires.
Calcul élastique de l'énergie solide
Couvre le calcul de l'énergie élastique en mécanique solide et les étapes d'équilibre à l'aide de gradients conjugués.
Gradients conjugués tronqués pour le sous-problème Trust-RegionMOOC: Introduction to optimization on smooth manifolds: first order methods
Explore les gradients conjugués tronqués pour résoudre le sous-problème de la région de confiance dans l'optimisation sur les collecteurs efficacement.
Afficher plus
Publications associées (32)

A multigrid method for PDE-constrained optimization with uncertain inputs

Fabio Nobile, Tommaso Vanzan

We present a multigrid algorithm to solve efficiently the large saddle-point systems of equations that typically arise in PDE-constrained optimization under uncertainty. The algorithm is based on a collective smoother that at each iteration sweeps over the ...
2023

Low-Rank Updates Of Matrix Functions Ii: Rational Krylov Methods

Daniel Kressner, Alice Cortinovis, Marcel Schweitzer

This work develops novel rational Krylov methods for updating a large-scale matrix function f(A) when A is subject to low-rank modifications. It extends our previous work in this context on polynomial Krylov methods, for which we present a simplified conve ...
SIAM PUBLICATIONS2021

A Continuized View on Nesterov Acceleration

Nicolas Henri Bernard Flammarion, Raphaël Jean Berthier

We introduce the "continuized" Nesterov acceleration, a close variant of Nesterov acceleration whose variables are indexed by a continuous time parameter. The two variables continuously mix following a linear ordinary differential equation and take gradien ...
2021
Afficher plus
Concepts associés (1)
Méthode itérative
En analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation. En débutant par le choix d’un point initial considéré comme une première ébauche de solution, la méthode procède par itérations au cours desquelles elle détermine une succession de solutions approximatives raffinées qui se rapprochent graduellement de la solution cherchée. Les points générés sont appelés des itérés.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.