Couvre les concepts fondamentaux de l'optimisation et de la recherche opérationnelle, en explorant des exemples du monde réel et des sujets clés sur un semestre.
Couvre l'algorithme Branch & Bound pour une exploration efficace des solutions possibles et discute de la relaxation LP, de l'optimisation du portefeuille, de la programmation non linéaire et de divers problèmes d'optimisation.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Explore l'optimisation de la programmation linéaire avec des contraintes, l'algorithme de Dijkstra et les formulations LP pour trouver des solutions réalisables.
Fournit un aperçu des techniques d'optimisation linéaire, en mettant l'accent sur les méthodes de résolution de problèmes et l'importance des contraintes et des fonctions objectives.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.