Cette séance de cours couvre la mise en œuvre de la descente en gradient avec arrêt précoce et descente en gradient stochastique. L'instructeur explique comment calculer le gradient, mettre à jour les poids et surveiller les pertes d'entraînement et de validation pour éviter les surajustements. Les différences entre la descente de gradient, la descente de gradient stochastique et la descente de gradient mini-lot sont mises en évidence, montrant comment chaque méthode affecte la vitesse de convergence et l'erreur de test.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace