Méthodes Monte-Carlo pour l'apprentissage par renforcement
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre les bases de l'apprentissage de renforcement, y compris l'apprentissage d'essai et d'erreur, l'apprentissage Q, le RL profond, et les applications dans le jeu et la planification.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Explorer l'estimation du rétrécissement des matrices de covariance à haute dimension, en comparant les approches linéaires et non linéaires pour une meilleure précision.
Explore les sujets d'apprentissage avancés du renforcement, y compris les politiques, les fonctions de valeur, la récursion de Bellman et le contrôle de la TD sur les politiques.
Explore la perspective évolutive de la surprise, de la curiosité et de la récompense, en mettant l'accent sur le rôle des signaux de récompense primaires et secondaires.
Explore l'application de modèles générateurs profonds dans la découverte de médicaments, en mettant l'accent sur la conception de petites molécules et l'optimisation des structures moléculaires.