Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Explore la conversion analogique-numérique, l'optimisation du signal neuronal, les architectures multicanaux et les techniques de compression sur puce en neuroingénierie.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Explore l'application de la physique statistique à la compréhension de l'apprentissage profond en mettant l'accent sur les réseaux neuronaux et les défis de l'apprentissage automatique.
Couvre le processus de formation d'un réseau neuronal, y compris l'avancement, la fonction de coût, la vérification des gradients et la visualisation des couches cachées.
Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Explore la convergence des réseaux neuronaux à travers l'adaptation des paramètres et l'alternance des regrets, en mettant l'accent sur l'événement NeurIPS 2023 à l'EPFL.