Introduit la régression linéaire, l'ajustement de la ligne de couverture, l'entraînement, les gradients et les fonctions multivariées, avec des exemples pratiques tels que l'achèvement du visage et la prédiction de l'âge.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Introduit les bases de la régression linéaire, de l'interprétation des coefficients, des hypothèses, des transformations et de la «différence des différences» pour l'analyse causale.