Résumé
En statistique, l’analyse discriminante linéaire ou ADL (en anglais, linear discriminant analysis ou LDA) fait partie des techniques d’analyse discriminante prédictive. Il s’agit d’expliquer et de prédire l’appartenance d’un individu à une classe (groupe) prédéfinie à partir de ses caractéristiques mesurées à l’aide de variables prédictives. Dans l’exemple de l'article Analyse discriminante, le fichier Flea Beetles, l’objectif est de déterminer l’appartenance de puces à telle ou telle espèce à partir de la largeur et de l’angle de son édéage (partie des organes génitaux mâles de l'insecte.) La variable à prédire est forcément catégorielle (discrète), elle possède 3 modalités dans notre exemple. Les variables prédictives sont a priori toutes continues. Il est néanmoins possible de traiter les variables prédictives discrètes moyennant une préparation adéquate des données. L’analyse discriminante linéaire peut être comparée aux méthodes supervisées développées en apprentissage automatique et à la régression logistique développée en statistique. Nous disposons d’un échantillon de observations réparties dans groupes d’effectifs . Notons la variable à prédire, elle prend ses valeurs dans l’ensemble des classes. Nous disposons de variables prédictives . Nous notons les centres de gravité des nuages de points conditionnels et leurs matrice de variance-covariance. L’objectif est de produire une règle d’affectation qui permet de prédire, pour une observation donnée, sa valeur associée de Y à partir des valeurs prises par X. La règle bayesienne consiste à produire une estimation de la probabilité a posteriori d’affectation est la probabilité a priori d’appartenance à une classe. représente la fonction de densité des X conditionnellement à la classe . La règle d’affectation pour un individu à classer devient alors . Toute la problématique de l’analyse discriminante revient alors à proposer une estimation de la quantité On distingue principalement deux approches pour estimer correctement la distribution : L’approche non-paramétrique n’effectue aucune hypothèse sur cette distribution mais propose une procédure d’estimation locale des probabilités, au voisinage de l’observation à classer.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (22)
DH-406: Machine learning for DH
This course aims to introduce the basic principles of machine learning in the context of the digital humanities. We will cover both supervised and unsupervised learning techniques, and study and imple
PHYS-467: Machine learning for physicists
Machine learning and data analysis are becoming increasingly central in sciences including physics. In this course, fundamental principles and methods of machine learning will be introduced and practi
EE-612: Fundamentals in statistical pattern recognition
This course provides in-depth understanding of the most fundamental algorithms in statistical pattern recognition or machine learning (including Deep Learning) as well as concrete tools (as Python sou
Afficher plus
Séances de cours associées (83)
Analyse discriminante : Règle de Bayes
Couvre la règle discriminante de Bayes pour l'attribution des individus aux populations en fonction des mesures et des probabilités antérieures.
Analyse de corrélation canonique : CCA linéaire et noyau
Introduit l'analyse de corrélation canonique pour trouver des caractéristiques communes dans des ensembles de données séparés, s'étendant aux données multimodales et aux caractéristiques non linéaires.
Réseaux neuronaux : apprentissage multicouche
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Afficher plus
Publications associées (319)

The hindbrain and cortico-reticular pathway in adolescent idiopathic scoliosis

Bénédicte Marie Maréchal

AIM: To characterise the corticoreticular pathway (CRP) in a case -control cohort of adolescent idiopathic scoliosis (AIS) patients using high -resolution slice -accelerated readoutsegmented echo -planar diffusion tensor imaging (DTI) to enhance the discri ...
W B Saunders Co Ltd2024

Instability and trajectories of buoyancy-driven annular disks: A numerical study

François Gallaire, Pier Giuseppe Ledda, Giovanni Vagnoli

We investigate the stability of the steady vertical path and the emerging trajectories of a buoyancy -driven annular disk as the diameter of its central hole is varied. The steady and axisymmetric wake associated with the steady vertical path of the disk, ...
Amer Physical Soc2024

Stochastic Simulations and Machine Learning Modeling to Predict Bedload Transport and Bed Topography

Mehrdad Kiani Oshtorjani

In computational hydraulics models, predicting bed topography and bedload transport with sufficient accuracy remains a significant challenge. An accurate assessment of a river's sediment transport rate necessitates a prior understanding of its bed topograp ...
EPFL2024
Afficher plus
Concepts associés (24)
Régression linéaire
En statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Eigenface
Les eigenfaces sont un ensemble de vecteurs propres utilisés dans le domaine de la vision artificielle afin de résoudre le problème de la reconnaissance du visage humain. Le recours à des eigenfaces pour la reconnaissance a été développé par Sirovich et Kirby (1987) et utilisé par Matthew Turk et Alex Pentland pour la classification de visages. Cette méthode est considérée comme le premier exemple réussi de technologie de reconnaissance faciale.
Classement automatique
vignette|La fonction 1-x^2-2exp(-100x^2) (rouge) et les valeurs déplacées par un bruit de 0,1*N(0,1). Le classement automatique ou classification supervisée est la catégorisation algorithmique d'objets. Elle consiste à attribuer une classe ou catégorie à chaque objet (ou individu) à classer, en se fondant sur des données statistiques. Elle fait couramment appel à l'apprentissage automatique et est largement utilisée en reconnaissance de formes. En français, le classement fait référence à l'action de classer donc de « ranger dans une classe ».
Afficher plus