Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Couvre la régression quantile, en se concentrant sur l'optimisation linéaire pour prédire les résultats et discuter de la sensibilité aux valeurs aberrantes, de la formulation des problèmes et de la mise en œuvre pratique.
Couvre l'algorithme Branch & Bound pour une exploration efficace des solutions possibles et discute de la relaxation LP, de l'optimisation du portefeuille, de la programmation non linéaire et de divers problèmes d'optimisation.
Explore l'optimisation dans la modélisation des systèmes énergétiques, couvrant les variables de décision, les fonctions objectives et les différentes stratégies avec leurs avantages et leurs inconvénients.
Couvre l'algorithme de descente en gradient, visant à minimiser une fonction en se déplaçant itérativement dans la direction de la diminution la plus raide.