Séance de cours

Gradient Descent: MNIST Dataset et perte logistique

Description

Cette séance de cours couvre la mise en œuvre des algorithmes de descente de gradient à partir de zéro en utilisant le jeu de données MNIST dans l'apprentissage automatique. L'instructeur explique comment charger l'ensemble de données, prétraiter les images, diviser les données et convertir le problème de classification multi-classes en une tâche de classification binaire. La séance de cours explore également la fonction de perte logistique, son calcul de gradient et le processus itératif de mise à jour des poids pour minimiser la perte. Différents critères d'arrêt pour la convergence sont discutés, ainsi que l'importance de la différentiabilité dans la fonction pour la descente du gradient. La session se termine par une explication détaillée de la perte logistique et de la perte d'entropie croisée binaire pour les tâches de classification.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.