Cette séance de cours couvre la méthode Gradient Descent, en commençant par la détermination d'une direction de descente et la règle de mise à jour. Il explique la fluidité des fonctions et le concept de b-smoothness. La séance de cours traite également de l'intuition derrière les étapes d'optimisation et fournit des preuves liées à la convexité et à la convergence.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace