Séance de cours

Deep Learning : théorie et applications

Description

Cette séance de cours couvre les mathématiques derrière l'apprentissage profond, en se concentrant sur les réseaux neuronaux, les algorithmes d'optimisation et leurs applications dans les tâches de vision par ordinateur. Il traite de la puissance des classificateurs linéaires, de l'importance des réseaux neuronaux pour les données séparables non linéairement et de la croissance exponentielle de la taille des réseaux neuronaux. L'instructeur explique le paysage de la minimisation empirique des risques avec des réseaux multicouches, les défis de l'apprentissage profond et des applications d'apprentissage automatique, et le besoin de robustesse. La séance de cours aborde également la popularité de l'apprentissage profond depuis 2010, le rôle des architectures convolutionnelles dans la vision par ordinateur et le biais inductif qui fait bien fonctionner la convolution. Il se termine par une discussion sur le paradigme de l’apprentissage profond et les composants communs d’un pipeline d’apprentissage profond.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.