Couvre les architectures de transformateurs avancées en apprentissage profond, en se concentrant sur les modèles Swin, HUBERT et Flamingo pour les applications multimodales.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.
Explore la surparamétrie, la généralisation, le surajustement, le sous-ajustement et la régularisation implicite dans les modèles d'apprentissage profond.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Explore la cartographie des atomes dans les réactions chimiques et la transition vers la grammaire réactionnelle à l'aide de l'architecture du transformateur.
S'engage dans l'apprentissage continu des modèles de représentation après déploiement, soulignant les limites des réseaux neuronaux artificiels actuels.