Explore les réseaux liquides pour le contrôle d'apprentissage dans les systèmes autonomes, en mettant l'accent sur l'apprentissage de bout en bout et la performance robuste.
Analyse la descente du gradient sur les réseaux neuraux ReLU à deux couches, en explorant la convergence globale, la régularisation, les biais implicites et l'efficacité statistique.
Plonge dans la dimensionnalité de l'apprentissage profond, la représentation des données et la performance dans la classification des données à grande dimension, explorant la malédiction de la dimensionnalité et le noyau tangent neuronal.
Explore la surparamétrie, la généralisation, le surajustement, le sous-ajustement et la régularisation implicite dans les modèles d'apprentissage profond.