Cette séance de cours couvre les bases de la régression linéaire, en se concentrant sur la compréhension du modèle, des prédicteurs, des résultats et des coefficients. Il explique comment trouver les coefficients optimaux pour l'approximation des résultats en tant que fonction linéaire des prédicteurs, le concept des moindres carrés et les cas d'utilisation de la régression pour la prédiction, l'analyse des données descriptives et la modélisation causale. La séance de cours se penche également sur l'interprétation des paramètres ajustés, y compris l'interception et la pente, avec des exemples impliquant des prédicteurs binaires et continus. Il traite des hypothèses dans la modélisation de régression, des transformations des prédicteurs et des résultats, et des techniques telles que le centrage moyen et la normalisation. En outre, il explore les résultats logarithmiques, quantifie l'incertitude et va au-delà de la comparaison des moyens en introduisant le concept de «différence dans les différences» pour l'analyse causale.