Séance de cours

Généralisation et suréquipement

Dans cours
DEMO: laborum quis non ex
Ullamco cillum sunt magna ipsum. Adipisicing proident laboris minim eiusmod Lorem ex veniam. Anim consequat et dolore cillum non. Deserunt non ullamco aliquip aliqua nulla. Ullamco ullamco culpa mollit sit nisi sint eu ullamco ex aliquip tempor labore.
Connectez-vous pour voir cette section
Description

Cette séance de cours traite des concepts de généralisation et d'ajustement excessif dans les modèles d'apprentissage automatique. La généralisation fait référence à la capacité dun modèle à faire des prédictions précises sur de nouvelles données invisibles. Le surajustement se produit lorsqu'un modèle est trop complexe et capture le bruit dans les données d'entraînement, ce qui entraîne de mauvaises performances sur les nouvelles données. Le sous-ajustement, dautre part, se produit lorsquun modèle est trop simple et ne parvient pas à capturer les modèles sous-jacents dans les données. La séance de cours illustre ces concepts avec des exemples de modèles de complexité variable et le compromis entre le nombre de paramètres et la quantité de données de formation. Il couvre également différentes fonctions de perte pour lévaluation des modèles et limportance de considérer les valeurs aberrantes dans les données. L’objectif est de trouver un équilibre entre la complexité du modèle et la disponibilité des données pour atteindre des performances optimales.

Enseignant
sit minim
Magna anim do ipsum ad consectetur nostrud irure tempor labore incididunt ipsum amet reprehenderit. Incididunt magna incididunt esse commodo sunt occaecat voluptate voluptate deserunt id laboris qui eiusmod. In esse deserunt amet id sit enim ex veniam enim reprehenderit tempor ea ut esse. Lorem culpa velit culpa occaecat culpa dolor reprehenderit sit aliquip voluptate id quis qui.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (32)
Échanges de devises
Explore le sous-ajustement, le surajustement et le compromis entre les variables de biais dans les modèles d'apprentissage automatique.
Théorie de la généralisation
Explore la théorie de la généralisation dans l'apprentissage automatique, en abordant les défis dans les espaces de dimension supérieure et le compromis entre les biais et les variables.
Bias-Variance
Explore limpact de la complexité du modèle sur la qualité de la prédiction à travers le compromis biais-variance, en mettant laccent sur la nécessité déquilibrer le biais et la variance pour une performance optimale.
Généralisation dans l'apprentissage avec des caractéristiques aléatoires
Explore la généralisation de l'apprentissage automatique, en mettant l'accent sur les compromis sous-équipés et sur-équipés, les cadres enseignant-étudiant et l'impact des caractéristiques aléatoires sur les performances du modèle.
Évaluation du modèle et réglage de l'hyperparamètre
Explore l'évaluation des modèles, le réglage hyperparamétrique et les stratégies de rééchantillonnage dans l'apprentissage automatique.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.