Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Couvre les modèles linéaires, y compris la régression, les dérivés, les gradients, les hyperplans et la transition de classification, en mettant laccent sur la minimisation des risques et des mesures dévaluation.
Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.