Explore la régularisation dans des modèles linéaires, y compris la régression de crête et le Lasso, les solutions analytiques et la régression de crête polynomiale.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Explore la méthodologie de conception expérimentale, y compris les plans classiques, la méthode simplex et l'analyse canonique pour les modèles linéaires et quadratiques.
Discute de la géométrie des moindres carrés, en explorant les perspectives des lignes et des colonnes, les hyperplans, les projections, les résidus et les vecteurs uniques.
Explore l'inférence statistique pour les modèles linéaires, couvrant l'ajustement du modèle, l'estimation des paramètres et la décomposition de la variance.
Explore la vérification du modèle et les résidus dans lanalyse de régression, en soulignant limportance des diagnostics pour assurer la validité du modèle.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Souligne la conception expérimentale dans l'analyse des données génomiques, en abordant la variabilité technique, les effets des lots et les solutions statistiques.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.