Cette séance de cours couvre l'optimisation de la distribution robuste, en mettant l'accent sur la réduction de la fonction de perte sous les déplacements de distribution. Il discute d'algorithmes évolutives comme le MCE et le SGD, et introduit le concept de CVaR à un certain niveau. La séance de cours explore des estimateurs de gradient biaisés et impartiaux, des techniques d'accélération et des limites de complexité. Elle se substitue également à des limites de variance, à des estimateurs de gradient à plusieurs niveaux et à l'application du DRO à divers problèmes. L'instructeur présente des résultats expérimentaux sur les classificateurs linéaires et les distributions hétérogènes de données, mettant en évidence les performances de généralisation et les questions de recherche ouvertes.