Passer au contenu principal
Graph
Search
fr
|
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Différenciation vectorielle et fonctions convexes
Graph Chatbot
Séances de cours associées (26)
Précédent
Page 3 sur 3
Suivant
Méthode de descente progressive
Couvre la méthode Gradient Descent, la fluidité des fonctions et les preuves liées à la convexité.
Optimisation du convex : Notation et normes matricielles
Introduit la notation Convex Optimization, les fonctions convexes, les normes vectorielles et les propriétés matricielles.
Mathématiques des données: Optimisation des bases
Couvre les bases de l'optimisation, y compris les normes, la continuité Lipschitz, et les concepts de convexité.
Descente de gradient plus rapide: Techniques d'optimisation projetées
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Mécanique: Introduction et Calcul
Présente la mécanique, le calcul différentiel et vectoriel, et les perspectives historiques d'Aristote à Newton.
Optimisation convexe : théorie et applications
Explore la théorie de l'optimisation convexe, couvrant les minima locaux et globaux, les fonctions convexes et les applications dans divers domaines.