Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Couvre l'expansion des fonctionnalités polynômes, les fonctions du noyau, la régression et le SVM, soulignant l'importance de choisir les fonctions pour l'expansion des fonctionnalités.
Couvre les machines d'apprentissage extrêmes photoniques et le calcul de réservoir, en se concentrant sur leurs architectures, leurs techniques de programmation et leurs applications en informatique optique.
Discute des méthodes du noyau dans l'apprentissage automatique, en se concentrant sur la régression du noyau et les machines vectorielles de support, y compris leurs formulations et applications.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explore l'application de l'apprentissage automatique dans la dynamique moléculaire et les matériaux, en mettant l'accent sur la création de caractéristiques significatives et l'importance de la généralisabilité.