Le perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.
alt=Schéma d'un perceptron à n entrées.|thumb|334x334px|Les entrées i1 à in sont multipliées avec les poids W1 à Wn, puis sommées, avant qu'une fonction d'activation soit appliquée.
Le perceptron peut être vu comme le type de réseau de neurones le plus simple. C'est un classifieur linéaire. Ce type de réseau neuronal ne contient aucun cycle (il s'agit d'un réseau de neurones à propagation avant). Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie (booléenne) à laquelle toutes les entrées (booléennes) sont connectées. Plus généralement, les entrées peuvent être des nombres réels.
Un perceptron à n entrées et à une seule sortie o est défini par la donnée de n poids (aussi appelés coefficients synaptiques) et un biais (ou seuil) par:
La sortie o résulte alors de l'application de la fonction de Heaviside au potentiel post-synaptique , où la fonction de Heaviside est :
On a alors . La fonction est non linéaire est appelée fonction d'activation. Une alternative couramment employée est , la tangente hyperbolique.
vignette|Un perceptron qui calcule le OU logique.La figure de droite montre un perceptron avec 2 entrées et . Les poids sont marquées sur les arcs : 1 et 1. Le biais est de 1. Ce perceptron calcule le OU logique de et , comme le montre la table suivante :
Dans la suite de cet article, on considère un échantillon fini de données labélisées , avec pour tout , , où , et . On dit alors que les vecteurs sont les « exemples » et que les points sont leurs « classes ».
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
L'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Le perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.
En apprentissage automatique, les classifieurs linéaires sont une famille d'algorithmes de classement statistique. Le rôle d'un classifieur est de classer dans des groupes (des classes) les échantillons qui ont des propriétés similaires, mesurées sur des observations. Un classifieur linéaire est un type particulier de classifieur, qui calcule la décision par combinaison linéaire des échantillons. « Classifieur linéaire » est une traduction de l'anglais linear classifier.
This course aims to introduce the basic principles of machine learning in the context of the digital humanities. We will cover both supervised and unsupervised learning techniques, and study and imple
Machine learning and data analysis are becoming increasingly central in many sciences and applications. In this course, fundamental principles and methods of machine learning will be introduced, analy
The objective of this course is to give an overview of machine learning techniques used for real-world applications, and to teach how to implement and use them in practice. Laboratories will be done i
Couvre le calcul des valeurs propres et des vecteurs propres, en mettant l'accent sur leur importance et leurs applications.
Explore les erreurs optimales dans les modèles de grande dimension, en comparant les algorithmes et en faisant la lumière sur l'interaction entre l'architecture du modèle et la performance.
Explore l'apprentissage supervisé par la classification comme un problème géométrique et le concept de trouver une surface de séparation.
At the same time, several different tutorials on available data and data tools, such as those from the Allen Institute for Brain Science, provide you with in-depth knowledge on brain atlases, gene exp
The MOOC on Neuro-robotics focuses on teaching advanced learners to design and construct a virtual robot and test its performance in a simulation using the HBP robotics platform. Learners will learn t
In this thesis, we investigate a hierarchical approach for estimating the phonetic class-conditional probabilities using a multilayer perceptron (MLP) neural network. The architecture consists of two
Introduction: The unprecedented speed and scale of the COVID-19 pandemic necessitated the rapid implementation of untested public health measures to mitigate the consequences of viral spread. In the 8
We report on the use of deep learning algorithms to perform depth recovery in multiview imaging. We show that if enough training data are provided, a neural network such as multilayer perceptron can b