Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les défis de la disparition et de l'explosion des gradients dans les réseaux neuronaux récurrents (RNN) et présente les réseaux de mémoire à long terme (LSTM) comme une solution. Il explique l'architecture des LSTM, y compris le concept d'états cellulaires, de portes et de gestion de la mémoire. La séance de cours traite également des RNN bidirectionnels et des RNN multicouches, en soulignant leurs avantages et leurs considérations pratiques. En outre, il explore l’impact des LSTM sur diverses tâches de PNL et les compare à d’autres architectures de réseaux neuronaux.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace