Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours porte sur l'optimisation pour l'apprentissage automatique, en mettant l'accent sur les méthodes de Newton et de Quasi-Newton. Il explique le cas 1-dimensionnel de la méthode Newton-Raphson, la méthode babylonienne pour calculer les racines carrées, et la méthode sécante. La séance de cours se penche sur la convergence de la méthode de Newton, la condition sécante, et les méthodes de Quasi-Newton. Il traite des inconvénients de la méthode de Newton, de la condition sécante et du développement des méthodes Quasi-Newton. La séance de cours touche également à la forte convexité, aux Hessiens inversés limités, et à la convergence super-exponentielle de la méthode de Newton. De plus, il explore l'invariance affine de la méthode de Newton et la convergence en une étape sur les fonctions quadratiques.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace