Cette séance de cours explore les aspects mathématiques de l'approximation et de l'apprentissage du réseau neuronal, en mettant l'accent sur la révolution expérimentale de l'apprentissage profond, la mise en place de base de l'apprentissage supervisé, les défis de l'apprentissage haute dimensionnel, la reproduction des espaces du noyau Hilbert, les espaces variation-norme, le CLT dynamique pour les réseaux neuronaux peu profonds et les limites supérieures pour les réseaux de ReLU profonds. L'instructeur discute de la limite moyenne du champ, de la convergence globale, de l'équation de continuité, de la séparation de profondeur, des limites inférieures pour les fonctions oscillatoires à la pièce, et des perspectives futures d'approximation par rapport à l'optimisation dans les modèles profonds.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace