Séance de cours

Classification linéaire : Distance signée et Perceptron

Dans cours
DEMO: dolore nisi nostrud dolore
Reprehenderit id voluptate consectetur minim magna officia occaecat dolor quis minim elit consequat quis reprehenderit. Adipisicing officia sint minim tempor anim nisi nisi ea. Excepteur eu do duis Lorem laborum pariatur do reprehenderit sint sunt anim. Ea pariatur irure voluptate occaecat. Culpa dolore ad amet nostrud laborum. Pariatur nostrud ea ex quis reprehenderit pariatur sit pariatur.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre le concept de distance signée en N dimensions pour la classification linéaire, l'énoncé du problème et l'algorithme de perceptron non centré. Il traite également de l'évaluation du temps de test, des implémentations Python et JAVA, du problème avec le perceptron, de la régression logistique, de la fonction sigmoïde, de l'entropie croisée et de l'interprétation probabiliste. La transition de la classification binaire à la classification multi-classes, discriminante linéaire, les régions de décision, et la classification linéaire multi-classes sont expliquées. La séance de cours se termine par une régression logistique multi-classes, une entropie croisée, une activation et les résultats d'une classification multi-classes.

Enseignant
magna non consectetur
Ullamco consequat esse sunt reprehenderit non ex commodo Lorem est dolore eu laborum. Qui commodo excepteur aliquip commodo. Cupidatat incididunt eiusmod aute elit irure esse cillum duis duis elit ut minim. Cillum aliquip commodo commodo proident nulla mollit consequat mollit. In tempor nisi Lorem reprehenderit ullamco cillum laboris ad ut tempor dolore et.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (33)
Régression logistique : Fondements et applications
Explore les fondamentaux de régression logistique, y compris les fonctions de coût, la régularisation et les limites de classification, avec des exemples pratiques utilisant scikit-learn.
Méthodes de noyau: Réseaux neuronaux
Couvre les fondamentaux des réseaux neuronaux, en mettant l'accent sur les noyaux RBF et SVM.
Classement multiclasses
Couvre le concept de classification multiclasse et les défis de la séparation linéaire des données avec les classes multiples.
Régression logistique : Interprétation probabiliste
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Analyse des documents : Modélisation des sujets
Explore l'analyse documentaire, la modélisation thématique et les modèles génériques pour la production de données dans l'apprentissage automatique.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.