thumb|Reconnaissance de forme à partir de modélisation en 3D
La reconnaissance de formes (ou parfois reconnaissance de motifs) est un ensemble de techniques et méthodes visant à identifier des régularités informatiques à partir de données brutes afin de prendre une décision dépendant de la catégorie attribuée à ce motif. On considère que c'est une branche de l'intelligence artificielle qui fait largement appel aux techniques d'apprentissage automatique et aux statistiques.
Le mot forme est à comprendre dans un sens très général, pas seulement celui de « forme géométrique » mais plutôt de régularités ou motifs qui peuvent être de nature très variée. Il peut s'agir de contenu visuel (code-barres, visage, empreinte digitale...) ou sonore (reconnaissance de parole), d'images médicales (rayon X, EEG, IRM...) ou multispectrales (images satellitaires) et bien d'autres.
La reconnaissance de motifs peut être effectuée au moyen de divers algorithmes d'apprentissage automatique tels :
un réseau de neurones ;
une analyse statistique ;
l'utilisation de modèles de Markov cachés ;
une recherche d'isomorphisme de graphes ou sous-graphes.
Les formes recherchées peuvent être des formes géométriques, descriptibles par une formule mathématique, telles que :
cercle ou ellipse ;
courbes de Bézier, splines ;
droite.
Elles peuvent aussi être de nature plus complexe :
lettre ;
chiffre ;
empreinte digitale.
Les algorithmes de reconnaissance peuvent travailler sur des images en noir et blanc, avec en blanc les contours des objets se trouvant dans l'image. Ces images sont le fruit d'algorithmes de détection de contours. Ils peuvent aussi travailler sur des zones de l'image prédéfinies issues de la .
Méthodes de reconnaissance de formes :
Mise en correspondance de graphes ;
Méthode bayésienne ;
Estimation paramétrique ;
Classifieur linéaire ;
Réseau de neurones ;
Local feature focus ;
Support vector machine (SVM);
Polytopes de contrainte ;
Méthode des hypercubes.
Méthodes prétopologiques.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Complex polycyclic natural products are chosen to illustrate the evolution of the state-of-the-art of the field, the interplay between strategy and new reactions as well as the importance of implement
This course provides in-depth understanding of the most fundamental algorithms in statistical pattern recognition or machine learning (including Deep Learning) as well as concrete tools (as Python sou
Contient les CNN, les RNN, les SVM et les méthodes d'apprentissage supervisé, soulignant l'importance d'harmoniser la régularisation et de prendre des décisions éclairées dans le domaine de l'apprentissage automatique.
L'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Un modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI [ISO/IEC 2382-29:1999]) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus. Contrairement à une chaîne de Markov classique, où les transitions prises sont inconnues de l'utilisateur mais où les états d'une exécution sont connus, dans un modèle de Markov caché, les états d'une exécution sont inconnus de l'utilisateur (seuls certains paramètres, comme la température, etc.
Le boosting est un domaine de l'apprentissage automatique (branche de l'intelligence artificielle). C'est un principe qui regroupe de nombreux algorithmes qui s'appuient sur des ensembles de classifieurs binaires : le boosting optimise leurs performances. Le principe est issu de la combinaison de classifieurs (appelés également hypothèses). Par itérations successives, la connaissance d'un classifieur faible - weak classifier - est ajoutée au classifieur final - strong classifier.
We introduce robust principal component analysis from a data matrix in which the entries of its columns have been corrupted by permutations, termed Unlabeled Principal Component Analysis (UPCA). Using algebraic geometry, we establish that UPCA is a well-de ...
The field of biometrics, and especially face recognition, has seen a wide-spread adoption the last few years, from access control on personal devices such as phones and laptops, to automated border controls such as in airports. The stakes are increasingly ...
EPFL2024
, , , ,
The advancement of face recognition technology has delivered substantial societal advantages. However, it has also raised global privacy concerns due to the ubiquitous collection and potential misuse of individuals' facial data. This presents a notable par ...