Soutien de la régression vectorielle : l'optimisation de la récapitulation et du convex
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore l'optimisation convexe, les fonctions convexes et leurs propriétés, y compris la convexité stricte et la convexité forte, ainsi que différents types de fonctions convexes comme les fonctions et les normes affines linéaires.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Explore les modèles linéaires, la régression, la prédiction multi-sorties, la classification, la non-linéarité et l'optimisation basée sur le gradient.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Explore la dualité de programmation linéaire, couvrant la dualité faible, la dualité forte, l'interprétation des multiplicateurs de Lagrange et les contraintes d'optimisation.