Séance de cours

Perceptron multicouche: Algorithme d'histoire et d'entraînement

Dans cours
DEMO: elit sunt adipisicing cupidatat
In laboris Lorem nulla in excepteur dolor consequat ullamco veniam reprehenderit laboris ipsum. Sunt nostrud veniam nulla non velit do aliqua esse aliqua exercitation duis laborum laborum anim. Nulla do labore id aute consectetur sint cillum tempor ullamco laborum. Non laborum aliquip labore irure anim. Officia laboris pariatur consequat esse tempor id cillum. Veniam et occaecat dolore laboris Lorem aute proident qui voluptate eu. Culpa laboris nisi dolor culpa.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre le développement historique des réseaux de neurones artificiels, en commençant par l'unité logique de seuil et le perceptron. L'instructeur explique l'algorithme d'entraînement pour le perceptron, en se concentrant sur la méthode de descente en gradient. La séance de cours présente ensuite le perceptron multicouche, discutant de son architecture, des fonctions d'activation et de l'algorithme de rétropropagation. L'importance de la conception des fonctionnalités et les limites des modèles linéaires sont également abordées. L'instructeur montre comment un perceptron multicouches peut se rapprocher de toute fonction continue et les défis dans l'interprétation de ses opérations.

Enseignant
nisi proident
Minim magna mollit adipisicing ex enim veniam dolor mollit. Officia do reprehenderit magna aliquip minim laboris. Sunt anim anim excepteur mollit enim nostrud dolore.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (41)
Méthodes de noyau: Réseaux neuronaux
Couvre les fondamentaux des réseaux neuronaux, en mettant l'accent sur les noyaux RBF et SVM.
Réseaux neuronaux : Perceptron multicouche
Explore l'histoire, les modèles, la formation, la convergence et les limites des réseaux neuronaux, y compris l'algorithme de rétropropagation et l'approximation universelle.
Réseaux neuronaux : formation et activation
Explore les réseaux neuronaux, les fonctions d'activation, la rétropropagation et l'implémentation de PyTorch.
Les principes fondamentaux de l'apprentissage profond
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Réseaux neuronaux : apprentissage multicouche
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.