Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple à partir d'une fonction de perte quadratique. Il explique l'unité de sortie sigmoïdale, l'apprentissage supervisé avec sortie sigmoïdale, la descente de gradient, les réseaux de neurones artificiels et les exercices liés aux perceptrons simples. La séance de cours se penche également sur le calcul de la descente de gradient pour les scénarios par lots et en ligne, en mettant l'accent sur l'interprétation géométrique et les différences entre les deux méthodes. L'instructeur conclut en discutant des résultats d'apprentissage, y compris la compréhension de la classification en tant que problème géométrique, des fonctions discriminantes, des fonctions discriminantes linéaires par rapport aux fonctions discriminantes non linéaires, des problèmes séparables linéairement, de l'algorithme de perceptron et de la descente de gradient pour les perceptrons simples.