Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Explore l'analyse stochastique de la descente et du champ moyen dans les réseaux neuraux à deux couches, en mettant l'accent sur leurs processus itératifs et leurs fondements mathématiques.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Explore l'optimisation des réseaux neuronaux en utilisant la descente de gradient stochastique (SGD) et le concept de risque double par rapport au risque empirique.
Couvre l'importance de la maintenance préventive pour la détection de la détresse de la chaussée et introduit des concepts d'apprentissage automatique pour les ingénieurs.