Présente un nouvel algorithme pour des problèmes de transport optimaux, montrant des améliorations de vitesse et de performance, avec des applications dans l'adaptation de domaine et les modèles générateurs.
Présente la régularisation Lasso et son application à l'ensemble de données MNIST, en mettant l'accent sur la sélection des fonctionnalités et les exercices pratiques sur la mise en œuvre de la descente en gradient.
Couvre les bases de l'optimisation, y compris les perspectives historiques, les formulations mathématiques et les applications pratiques dans les problèmes de prise de décision.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Explore le compromis entre la complexité et le risque dans les modèles d'apprentissage automatique, les avantages de la surparamétrisation et le biais implicite des algorithmes d'optimisation.