Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.
Explore les réseaux neuronaux récurrents pour les données comportementales, couvrant le repérage de connaissances profondes, les réseaux LSTM, GRU, le réglage hyperparamétrique et les tâches de prévision de séries chronologiques.
Explore les modèles Seq2Seq avec et sans mécanismes d'attention, couvrant l'architecture encodeur-décodeur, les vecteurs de contexte, les processus de décodage et les différents types de mécanismes d'attention.
Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.
Se concentre sur l'estimation de la pose articulaire de la balle et de la poche à l'aide d'un champ magnétique dans une conception anthropomorphe avec muscles artificiels et tendons.
Explore le mécanisme d'attention dans la traduction automatique, en s'attaquant au problème du goulot d'étranglement et en améliorant considérablement les performances NMT.