Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Explore l'optimisation de la programmation linéaire avec des contraintes, l'algorithme de Dijkstra et les formulations LP pour trouver des solutions réalisables.
S'insère dans le compromis entre la complexité du modèle et le risque, les limites de généralisation, et les dangers d'un ajustement excessif des classes de fonctions complexes.