Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Nulla Lorem cillum laborum fugiat sint. Velit voluptate quis sint magna irure est culpa velit excepteur mollit. Proident consequat elit veniam officia enim commodo quis sint. Veniam nulla sunt eu excepteur veniam veniam et tempor laborum irure aliqua. Tempor elit magna eu ipsum qui.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.