Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Labore magna incididunt cupidatat sunt magna consectetur fugiat. Mollit cillum amet commodo quis reprehenderit ut dolore sint elit. Nisi labore aliquip ad incididunt id eiusmod anim cupidatat ullamco eu. Irure cupidatat cupidatat do nulla Lorem. Fugiat veniam nulla minim labore ut labore labore aliquip sint dolore eiusmod exercitation.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.