Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Plonge dans l'impact de l'apprentissage profond sur les systèmes de connaissances non conceptuels et les progrès dans les transformateurs et les réseaux antagonistes génératifs.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Introduit des concepts d'apprentissage profond pour les NLP, couvrant l'intégration de mots, les RNN et les Transformateurs, mettant l'accent sur l'auto-attention et l'attention multi-têtes.
Explore les réseaux neuronaux récurrents pour les données comportementales, couvrant le repérage de connaissances profondes, les réseaux LSTM, GRU, le réglage hyperparamétrique et les tâches de prévision de séries chronologiques.
Explore l'optimalité des splines pour l'imagerie et les réseaux neuraux profonds, démontrant la sparosité et l'optimalité globale avec les activations des splines.
En savoir plus sur l'apprentissage profond pour le traitement des langues naturelles, l'exploration de l'intégration des mots neuraux, des réseaux neuraux récurrents et de la modélisation des neurones avec les transformateurs.