Passer au contenu principal
Graph
Search
fr
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Courbes de double descente : surparamétrisation
Graph Chatbot
Séances de cours associées (31)
Précédent
Page 2 sur 4
Suivant
Optimisation non convexe : techniques et applications
Couvre les techniques d'optimisation non convexes et leurs applications dans l'apprentissage automatique.
Deep Learning: Conception de modèles de réseaux neuronaux
Couvre la conception et l'optimisation de modèles de réseaux neuronaux en apprentissage profond.
Deep Learning : Perceptron multicouche et formation
Couvre les fondamentaux de l'apprentissage profond, en se concentrant sur les perceptrons multicouches et leurs processus de formation.
Réseaux neuronaux multicouches: Deep Learning
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond.
Complexité : approximation-estimation
Explore le contrôle de la complexité dans les espaces dhypothèses et le compromis entre lapproximation et lestimation dans la décomposition du risque.
Mathématiques des données : de la théorie au calcul
Couvre les concepts clés en mathématiques des données, y compris la différenciation automatique, les couches linéaires et les couches d'attention.
Deep Learning: Réseaux convolutionnels
Explore les réseaux neuronaux convolutionnels, la rétropropagation et la descente stochastique en gradient dans l'apprentissage profond.
Réduction des écarts dans l'apprentissage profond
Explore les techniques de réduction de la variance dans l'apprentissage profond, couvrant la descente en gradient, la descente en gradient stochastique, la méthode SVRG, et la comparaison des performances des algorithmes.
Deep Learning: Représentations de données et réseaux neuraux
Couvre les représentations de données, le sac de mots, les histogrammes, le prétraitement des données et les réseaux neuronaux.
Réseaux neuronaux : formation et optimisation
Explore la formation et l'optimisation des réseaux neuronaux, en abordant des défis tels que les fonctions de perte non convexes et les minima locaux.