Optimisation du design et orthogonalité : régression multilinéaire
Séances de cours associées (30)
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Couvre les bases de l'apprentissage automatique, y compris la reconnaissance des chiffres manuscrits, la classification supervisée, les limites de décision et l'ajustement des courbes polynômes.
Explore les fondamentaux de régression logistique, y compris les fonctions de coût, la régularisation et les limites de classification, avec des exemples pratiques utilisant scikit-learn.
Introduit des modèles linéaires dans l'apprentissage automatique, couvrant les bases, les modèles paramétriques, la régression multi-sorties et les mesures d'évaluation.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore la méthodologie de conception expérimentale, y compris les plans classiques, la méthode simplex et l'analyse canonique pour les modèles linéaires et quadratiques.
Couvre les diagnostics de régression pour les modèles linéaires, en soulignant limportance de vérifier les hypothèses et didentifier les valeurs aberrantes et les observations influentes.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Couvre les problèmes linéaires, le LASSO et l'AMP dans l'apprentissage supervisé, y compris les modèles linéaires généralisés et les modèles N-dimensionnels.