Problèmes d'optimisation: Algorithme de descente de gradient
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.
Couvre les bases de la régression linéaire, y compris l'ingénierie des caractéristiques, l'apprentissage supervisé ou non supervisé, et minimise la fonction de coût.
Introduit des modèles linéaires dans l'apprentissage automatique, couvrant les bases, les modèles paramétriques, la régression multi-sorties et les mesures d'évaluation.
Couvre les techniques de gestion des données manquantes et de normalisation des fonctionnalités, ainsi que la transformation des données d'entrée et de sortie.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.