Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.
Contient les CNN, les RNN, les SVM et les méthodes d'apprentissage supervisé, soulignant l'importance d'harmoniser la régularisation et de prendre des décisions éclairées dans le domaine de l'apprentissage automatique.
Couvre les bases de Pytorch avec les ensembles de données MNIST et Digits, en mettant l'accent sur la formation des réseaux neuronaux pour la reconnaissance manuscrite des chiffres.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Offre des informations sur la physique statistique de l'apprentissage, explorant la relation entre la structure du réseau neuronal et les systèmes désordonnés.