Séance de cours

Régression logistique : interprétation et ingénierie des caractéristiques

Séances de cours associées (107)
Analyse III : Troisième classe
Couvre la correction de la définition de la courbe simple et l'importance de l'orientation dans l'analyse mathématique.
Applied Machine Learning: Caractéristiques et Modèles
Explore la collecte de données, la sélection des caractéristiques, la construction de modèles et l'évaluation des performances dans l'apprentissage automatique, en mettant l'accent sur l'ingénierie des caractéristiques et la sélection des modèles.
Arbres de décision et forêts aléatoires: concepts et applications
Discute des arbres de décision et des forêts aléatoires, en se concentrant sur leur structure, leur optimisation et leur application dans les tâches de régression et de classification.
Régression logistique: Partie 1
Introduit la régression logistique pour la classification binaire et explore la classification multiclasse à l'aide des stratégies OvA et OvO.
Classement: Arbres de décision et kNN
Introduit des arbres de décision et des voisins k-nearest pour les tâches de classification, explorant des mesures comme la précision et l'ASC.
Optimisation convexe : Exemples de fonctions convexes
Explore l'optimisation convexe, les fonctions convexes et leurs propriétés, y compris la convexité stricte et la convexité forte, ainsi que différents types de fonctions convexes comme les fonctions et les normes affines linéaires.
Prédiction du lien : bords manquants et méthodes probabilistes
Explore la prédiction des liens dans les réseaux, couvrant les bords manquants, les méthodes probabilistes et les défis d'inférence causale.
Régression logistique et régression polynomiale
Introduit une régression logistique pour la classification binaire et une régression polynomiale sur des variables polynomiales.
Soutien de la régression vectorielle : l'optimisation de la récapitulation et du convex
Couvre la récapitulation de Support Vector Regression avec un accent sur l'optimisation convexe et son équivalence à la régression du processus gaussien.
Statistiques bayésiennes : Régularisation et divergence
Couvre la divergence Kullback-Leibler, la régularisation et les statistiques bayésiennes pour lutter contre le surajustement dans les modèles d'apprentissage automatique.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.