Séance de cours

Deep Learning pour le NLP

Description

Cette séance de cours couvre les principes fondamentaux de l'apprentissage profond pour le traitement du langage naturel (NLP), en commençant par l'incorporation de mots neuraux, en passant à des réseaux neuraux récurrents pour la modélisation des séquences, et en terminant par la modélisation névralgique avec des transformateurs. L'instructeur explique les défis de représenter les séquences de langage naturel, le concept de vecteurs de mots, et l'importance de choisir un vocabulaire. La séance de cours se penche également sur les applications du NLP, comme la traduction automatique, la génération de texte et l'analyse des sentiments. L'utilisation de l'auto-attention et de l'attention multi-têtes dans Transformers est mise en évidence comme une percée dans la modélisation des dépendances à longue distance dans les séquences.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.