Optimisation convexe : Exemples de fonctions convexes
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Introduit une régression linéaire et logistique, couvrant les modèles paramétriques, la prédiction multi-sorties, la non-linéarité, la descente de gradient et les applications de classification.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Explore les fondamentaux de régression logistique, y compris les fonctions de coût, la régularisation et les limites de classification, avec des exemples pratiques utilisant scikit-learn.
Introduit des modèles linéaires dans l'apprentissage automatique, couvrant les bases, les modèles paramétriques, la régression multi-sorties et les mesures d'évaluation.
Couvre la décomposition des erreurs, la régression polynomiale et les voisins K les plus proches pour la modélisation flexible et les prédictions non linéaires.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.