Fournit une vue d'ensemble des concepts d'apprentissage profond, en se concentrant sur les données, l'architecture du modèle et les défis liés à la gestion de grands ensembles de données.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Explore les transitions de phase en physique et les problèmes de calcul, mettant en évidence les défis rencontrés par les algorithmes et l'application des principes de physique dans la compréhension des réseaux neuronaux.
Offre des informations sur la physique statistique de l'apprentissage, explorant la relation entre la structure du réseau neuronal et les systèmes désordonnés.
Couvre les machines d'apprentissage extrêmes photoniques et le calcul de réservoir, en se concentrant sur leurs architectures, leurs techniques de programmation et leurs applications en informatique optique.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.
Explore les noyaux pour simplifier la représentation des données et la rendre linéairement séparable dans les espaces de fonctionnalités, y compris les fonctions populaires et les exercices pratiques.