Séance de cours

Classement avec GMM et kNN

Description

Cette séance de cours porte sur le processus de classification à l'aide de modèles de mélange gaussien (GMM) et de voisins k-Nearest Neighbors (kNN). L'instructeur explique comment modéliser les classes avec GMM et déterminer les limites en utilisant les règles discriminantes ML. La séance de cours se penche également sur la malédiction de la dimensionnalité, les coûts de calcul et les résultats de comparaison de différents modèles. Les exercices pratiques comprennent la recherche de limites avec le GMM, la compréhension de l'impact des matrices de covariance et l'analyse des erreurs de classification. L'importance de la validation croisée et le choix des ratios formation/test sont soulignés, ainsi que l'application de kNN pour la classification. La séance de cours se termine par une démonstration des limites de dessin avec des valeurs k différentes en kNN.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (49)
Règle discriminatoire gaussienne : Classification et limites
Explore la règle discriminatoire gaussienne pour la classification à l'aide de modèles de mélange gaussien et discute des limites de dessin et de la complexité du modèle.
Analyse des documents : Modélisation des sujets
Explore l'analyse documentaire, la modélisation thématique et les modèles génériques pour la production de données dans l'apprentissage automatique.
Fondements de l'apprentissage automatique
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Régression logistique : Interprétation probabiliste
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Règles de voisinage les plus près: Partie 2
Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.