Cette séance de cours couvre les défis de l'apprentissage continu du renforcement de l'état, comme la malédiction de la dimensionnalité et la nécessité d'une approximation de la fonction pour estimer la fonction de valeur. Il explique comment apprendre la fonction de valeur en utilisant les méthodes Monte-Carlo et Temporal Difference, et comment mettre à jour la fonction de valeur par des déploiements. La séance de cours se penche également sur l'approximation de la fonction de valeur, fournissant des exemples de paramétrisation de la fonction de valeur et de choix des fonctionnalités. Il traite de la transition de la fonction de valeur à la politique et introduit des gradients de politique comme approche alternative. En outre, il explore les graduations politiques et l'apprentissage des politiques par exploration pondérée avec les retours (POWER) pour renforcer l'apprentissage, y compris la démonstration humaine pour l'apprentissage de l'imitation. La séance de cours se termine par des exemples de politiques de renforcement de l'apprentissage après de multiples essais.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace