Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les approches matricielles et sans matrice pour le calcul de l'étape de Newton dans l'optimisation sur les collecteurs. Il traite du paradigme de Hessf(x) en tant qu'opérateur, de la minimisation des étapes de Newton et de l'utilisation de la descente par gradient sur TxM. L'instructeur explique l'algorithme d'optimisation sur mx, le processus de descente du gradient et les étapes itératives pour minimiser g(v) sur TxM. La séance de cours se termine par la mise en œuvre d'une descente par gradient pour minimiser g(v) sur TxM, en mettant l'accent sur le processus itératif et les critères de convergence.