Séance de cours

Optimisation pour l'apprentissage automatique : méthodes de Newton et de Quasi-Newton

Description

Cette séance de cours porte sur l'optimisation pour l'apprentissage automatique, en mettant l'accent sur les méthodes de Newton et de Quasi-Newton. Il explique le cas 1-dimensionnel de la méthode Newton-Raphson, la méthode babylonienne pour calculer les racines carrées, et la méthode sécante. La séance de cours se penche sur la convergence de la méthode de Newton, la condition sécante, et les méthodes de Quasi-Newton. Il traite des inconvénients de la méthode de Newton, de la condition sécante et du développement des méthodes Quasi-Newton. La séance de cours touche également à la forte convexité, aux Hessiens inversés limités, et à la convergence super-exponentielle de la méthode de Newton. De plus, il explore l'invariance affine de la méthode de Newton et la convergence en une étape sur les fonctions quadratiques.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.