vignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson
En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres.
Le terme de « vraisemblable » est parfois utilisé comme synonyme de « probable » dans le langage courant, mais en statistique, vraisemblance et probabilité ont des sens différents. Une probabilité représente la plausibilité d'un événement aléatoire selon un certain modèle, sans référence spécifique à des données observées. La vraisemblance décrit la plausibilité d'une valeur des paramètres d'un modèle, étant donné l'observation d'un certain nombre de réalisations d'une variable aléatoire.
En inférence bayésienne, la vraisemblance garde la même définition, mais peut être interprétée comme la densité de probabilité des données conditionnellement à une valeur des paramètres (qui sont ici vus comme une variable aléatoire) et comme une mesure de l'information apportée par les données sur la valeur des paramètres. On peut également parler de la vraisemblance d'une variable aléatoire conditionnellement à une autre variable (vraisemblance marginale), au regard des données observées.
La définition varie selon que la loi de probabilité est discrète ou continue. La fonction de vraisemblance est définie en fonction d'un vecteur de paramètres θ comme la densité des données observées par rapport à une mesure de probabilité discrète ou continue.
Soit X une variable aléatoire suivant une loi discrète décrite par la fonction de masse p dépendant d'un paramètre θ. La vraisemblance L est une fonction de θ, étant donné une réalisation x de la variable aléatoire X, qui s'écrit alors :
Soit X une variable aléatoire suivant une loi continue décrite par la densité de probabilité f dépendant d'un paramètre θ.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
This course will present some of the core advanced methods in the field for structure discovery, classification and non-linear regression. This is an advanced class in Machine Learning; hence, student
Statistics lies at the foundation of data science, providing a unifying theoretical and methodological backbone for the diverse tasks enountered in this emerging field. This course rigorously develops
En statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument.
vignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Activity-based models offer the potential for a far deeper understanding of daily mobility behaviour than trip-based models. Based on the fundamental assumption that travel demand is derived from the need to do activities, they are flexible tools that aim ...
EPFL2024
, ,
Deep heteroscedastic regression involves jointly optimizing the mean and covariance of the predicted distribution using the negative log-likelihood. However, recent works show that this may result in sub-optimal convergence due to the challenges associated ...
2024
, ,
Extracting maximal information from experimental data requires access to the likelihood function, which however is never directly available for complex experiments like those performed at high energy colliders. Theoretical predictions are obtained in this ...