Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Explore la régression logistique pour les variables de réponse binaire, couvrant des sujets tels que l'interprétation du rapport de cotes et l'ajustement du modèle.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Explore les modèles linéaires pour la classification, y compris la classification binaire, la régression logistique, les limites de décision et les machines vectorielles de support.
Couvre le problème du MSE dans les modèles de régression linéaire, en mettant l'accent sur les méthodes optimales d'estimateur et de fusion des données.