Explore la minimisation non lisse, la détection compressive, la récupération de signal clairsemée et les représentations simples à l'aide d'ensembles atomiques et d'atomes.
Couvre les méthodes de descente de gradient pour les problèmes convexes et non convexes, y compris la minimisation convexe lisse sans contrainte, lestimation de la vraisemblance maximale, et des exemples comme la régression de crête et la classification dimage.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Explore l'apprentissage supervisé en économétrie financière, couvrant la régression linéaire, l'ajustement du modèle, les problèmes potentiels, les fonctions de base, la sélection de sous-ensembles, la validation croisée, la régularisation et les forêts aléatoires.
Introduit une régression linéaire et logistique, couvrant les modèles paramétriques, la prédiction multi-sorties, la non-linéarité, la descente de gradient et les applications de classification.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.