Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Explore la convexification des problèmes non convexes grâce à des astuces sur le noyau, à l'interprétation de la sensibilité et à la réduction de la dimensionnalité non linéaire.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Couvre le débruitage et la reconstruction d'images en utilisant une minimisation totale des variations et discute des effets visuels des différentes forces de régularisation.