Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre le sujet de l'optimisation non linéaire, en se concentrant sur la minimisation d'une fonction avec n variables. L'instructeur explique le concept d'optima local et global, en soulignant l'importance de la convexité dans la recherche de l'optimum global. La séance de cours plonge dans la méthode locale de Newton, où le gradient est mis à zéro pour trouver la direction optimale. Les inconvénients de la méthode de Newton dans les fonctions non convexes sont discutés, conduisant à l'introduction de méthodes de descente. La séance de cours explore le concept de directions et d'étapes de descente, soulignant l'importance des conditions Wolfe dans la détermination des étapes appropriées pour l'optimisation. La combinaison de la méthode de Newton et de la recherche de lignes est également expliquée, présentant une approche d'optimisation plus fiable et efficace.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace