Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Introduit les bases de la programmation linéaire, y compris les problèmes d'optimisation, les fonctions de coût, l'algorithme simplex, la géométrie des programmes linéaires, les points extrêmes et la dégénérescence.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Introduit les bases de l'apprentissage automatique supervisé, couvrant les types, les techniques, le compromis biais-variance et l'évaluation du modèle.
Explore l'optimisation convexe dans la réduction de la dimensionnalité non linéaire, en présentant des applications pratiques dans les tâches de traitement du signal et de régression.