Cette séance de cours couvre des concepts avancés en apprentissage profond, en se concentrant sur les réseaux neuronaux convolutifs (CNN) et leur architecture. Il commence par un récapitulatif des fonctions paramétriques d'expansion et d'activation des caractéristiques, soulignant l'importance de la non-linéarité dans les réseaux neuronaux. L'instructeur explique la structure des réseaux de neurones artificiels simples et l'importance des perceptrons multicouches dans la modélisation des fonctions complexes. La séance de cours passe ensuite aux CNN, détaillant leurs couches, y compris les couches de convolution et de mise en commun, et les avantages des paramètres partagés entre les emplacements spatiaux. La discussion comprend des techniques d'entraînement des CNN, telles que la descente du gradient stochastique, la rétropropagation et des méthodes de régularisation pour prévenir les surajustements. L'instructeur introduit également des réseaux entièrement convolutifs et des convolutions transposées pour des tâches telles que la segmentation sémantique, soulignant le besoin de prédictions pixel par pixel. Enfin, la séance de cours aborde les défis des exemples contradictoires dans lapprentissage profond, illustrant la sensibilité des modèles aux petites perturbations dans les données dentrée, et conclut avec des idées sur limportance des grands ensembles de données et des ressources informatiques dans la formation de modèles dapprentissage profond efficaces.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace