Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Explore la construction et l'application des matrices de Hadamard pour une estimation efficace des principaux effets sans interactions dans la conception de Plackett-Burman.
Discute de la géométrie des moindres carrés, en explorant les perspectives des lignes et des colonnes, les hyperplans, les projections, les résidus et les vecteurs uniques.
Explore les matrices de corrélation, la régression, la variance, les intervalles de confiance et les systèmes normalisés dans la modélisation statistique.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.