Couvre les modèles linéaires, y compris la régression, les dérivés, les gradients, les hyperplans et la transition de classification, en mettant laccent sur la minimisation des risques et des mesures dévaluation.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, en explorant ses applications dans la prédiction des résultats comme le poids de naissance et l'analyse des relations entre les variables.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Couvre les bases de l'apprentissage automatique, l'apprentissage supervisé et non supervisé, diverses techniques comme les voisins k-nearest et les arbres de décision, et les défis de l'ajustement excessif.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Contient les CNN, les RNN, les SVM et les méthodes d'apprentissage supervisé, soulignant l'importance d'harmoniser la régularisation et de prendre des décisions éclairées dans le domaine de l'apprentissage automatique.