Séance de cours

Méthodes de descente et recherche de ligne: descente la plus raide pré-conditionnée

Description

Cette séance de cours couvre le concept de préconditionnement dans les problèmes d'optimisation, en introduisant un changement de variables pour simplifier le problème. Il explique la matrice définie positive symétrique Hk, l'itération de descente la plus raide et la direction de descente dans le contexte des méthodes de descente les plus raides préconditionnées.

Dans MOOCs (6)
Optimization: principles and algorithms - Linear optimization
Introduction to linear optimization, duality and the simplex algorithm.
Optimization: principles and algorithms - Linear optimization
Introduction to linear optimization, duality and the simplex algorithm.
Optimization: principles and algorithms - Network and discrete optimization
Introduction to network optimization and discrete optimization
Optimization: principles and algorithms - Network and discrete optimization
Introduction to network optimization and discrete optimization
Optimization: principles and algorithms - Unconstrained nonlinear optimization
Introduction to unconstrained nonlinear optimization, Newton’s algorithms and descent methods.
Afficher plus
Enseignant
magna mollit eu
Sit ullamco adipisicing Lorem tempor tempor minim nisi veniam. Nostrud minim occaecat exercitation aliquip non anim. Fugiat nulla irure cillum esse incididunt dolor sunt occaecat exercitation sint enim enim. Esse reprehenderit aliqua excepteur fugiat Lorem fugiat duis aute ad excepteur magna dolore irure non. Ad pariatur quis fugiat ea minim sint officia aliqua elit qui esse dolore elit qui. Ea proident ipsum labore ad voluptate.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (32)
Contrôle optimal : Conditions KKT
Explore les conditions optimales de contrôle et de KKT pour une optimisation non linéaire avec des contraintes.
Méthodes d'optimisation : discussion théorique
Explore les méthodes d'optimisation, y compris les problèmes sans contraintes, la programmation linéaire et les approches heuristiques.
Systèmes linéaires: Chapitres 4, 5, 6
Explore le lien entre les systèmes linéaires et l'optimisation par élimination et décomposition de LU.
Méthodes d'optimisation dans l'apprentissage automatique
Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Optimisation convexe: Algorithmes de gradient
Couvre les problèmes d'optimisation convexe et les algorithmes basés sur le gradient pour trouver le minimum global.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.