Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre la régression MAE, la coque convexe, les avantages de la reformulation et les problèmes pratiques liés aux variables et aux contraintes de décision.
Introduit des ensembles et des fonctions convexes, en discutant des minimiseurs, des conditions d'optimalité et des caractérisations, ainsi que des exemples et des inégalités clés.
Couvre les méthodes de descente de gradient pour les problèmes convexes et non convexes, y compris la minimisation convexe lisse sans contrainte, lestimation de la vraisemblance maximale, et des exemples comme la régression de crête et la classification dimage.
Explore les méthodes du noyau pour les surfaces de séparation non linéaires à l'aide de noyaux polynômes et gaussiens dans les algorithmes Perceptron et SVM.
Explore les modèles linéaires, les surajustements et l'importance de l'expansion des fonctionnalités et ajoute plus de données pour réduire les surajustements.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.