Séance de cours

Introduction à l'apprentissage par la descente en gradient stochastique: Perceptron simple

Description

Cette séance de cours couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple à partir d'une fonction de perte quadratique. Il explique l'unité de sortie sigmoïdale, l'apprentissage supervisé avec sortie sigmoïdale, la descente de gradient, les réseaux de neurones artificiels et les exercices liés aux perceptrons simples. La séance de cours se penche également sur le calcul de la descente de gradient pour les scénarios par lots et en ligne, en mettant l'accent sur l'interprétation géométrique et les différences entre les deux méthodes. L'instructeur conclut en discutant des résultats d'apprentissage, y compris la compréhension de la classification en tant que problème géométrique, des fonctions discriminantes, des fonctions discriminantes linéaires par rapport aux fonctions discriminantes non linéaires, des problèmes séparables linéairement, de l'algorithme de perceptron et de la descente de gradient pour les perceptrons simples.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.