Séance de cours

Optimisation convexe : Exemples de fonctions convexes

Dans cours
DEMO: magna ad
Tempor esse quis consequat velit. Est Lorem laborum cupidatat eiusmod sunt. Ullamco in ad exercitation nulla ut culpa ea sint laborum. Sunt veniam laboris ad id in.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre divers sujets liés à l'optimisation convexe, y compris la régression linéaire multivariable, la descente de gradient, la régression polynomiale, la descente de coordonnées, la régression logit, et plus encore. Il explique le concept d'ensembles convexes, de fonctions convexes et de leurs propriétés, telles que la convexité stricte et la convexité forte. La séance de cours explore également différents types de fonctions convexes, telles que les fonctions affines linéaires, les fonctions exponentielles, les formes quadratiques et les normes. En outre, il traite des problèmes d'optimisation convexes et des fonctions objectives impliquées dans de tels problèmes.

Enseignant
ullamco minim velit
Commodo anim culpa quis sit. Exercitation do est mollit anim cillum adipisicing dolor pariatur exercitation magna in. Id ea ex ullamco ipsum pariatur reprehenderit quis labore velit cillum id eiusmod. Consequat aute excepteur ut laborum qui sit anim voluptate ipsum ullamco. Dolor proident Lorem esse enim culpa exercitation eiusmod esse commodo ut et mollit tempor eiusmod. Deserunt in quis dolor consectetur commodo occaecat amet in nulla.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (35)
Régression logistique : prédiction de la végétation
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Gradient Descent: Techniques d'optimisation
Explore la descente en gradient, les fonctions de perte et les techniques d'optimisation dans la formation en réseau neuronal.
Optimisation convexe: Algorithmes de gradient
Couvre les problèmes d'optimisation convexe et les algorithmes basés sur le gradient pour trouver le minimum global.
Descente graduée pour MSE linéaire
Explore Gradient Descent pour le MSE linéaire dans l'apprentissage automatique, couvrant le calcul, la complexité, les variantes, Stochastic Gradient Descent, les fonctions de pénalité, les problèmes d'implémentation, et l'optimisation non-convexe.
Modèles linéaires pour la classification
Explore des modèles linéaires pour la classification, la régression logistique et la descente en gradient dans l'apprentissage automatique.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.