Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Explore la descente de gradient stochastique, couvrant les taux de convergence, l'accélération et les applications pratiques dans les problèmes d'optimisation.
S'insère dans l'analyse de régression, en mettant l'accent sur le rôle des prédicteurs linéaires dans le rapprochement des résultats et en discutant des modèles linéaires généralisés et des techniques d'inférence causale.
Couvre la théorie et les applications de la décomposition de la valeur singulière en physique computationnelle, y compris la résolution des systèmes linéaires et des ajustements polynomiaux.
Couvre les bases des moindres carrés ordinaires (OLS) en économétrie, y compris les relations variables, la détermination des coefficients et linterprétation du modèle.