Résumé
vignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres. Le terme de « vraisemblable » est parfois utilisé comme synonyme de « probable » dans le langage courant, mais en statistique, vraisemblance et probabilité ont des sens différents. Une probabilité représente la plausibilité d'un événement aléatoire selon un certain modèle, sans référence spécifique à des données observées. La vraisemblance décrit la plausibilité d'une valeur des paramètres d'un modèle, étant donné l'observation d'un certain nombre de réalisations d'une variable aléatoire. En inférence bayésienne, la vraisemblance garde la même définition, mais peut être interprétée comme la densité de probabilité des données conditionnellement à une valeur des paramètres (qui sont ici vus comme une variable aléatoire) et comme une mesure de l'information apportée par les données sur la valeur des paramètres. On peut également parler de la vraisemblance d'une variable aléatoire conditionnellement à une autre variable (vraisemblance marginale), au regard des données observées. La définition varie selon que la loi de probabilité est discrète ou continue. La fonction de vraisemblance est définie en fonction d'un vecteur de paramètres θ comme la densité des données observées par rapport à une mesure de probabilité discrète ou continue. Soit X une variable aléatoire suivant une loi discrète décrite par la fonction de masse p dépendant d'un paramètre θ. La vraisemblance L est une fonction de θ, étant donné une réalisation x de la variable aléatoire X, qui s'écrit alors : Soit X une variable aléatoire suivant une loi continue décrite par la densité de probabilité f dépendant d'un paramètre θ.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (32)
MICRO-570: Advanced machine learning
This course will present some of the core advanced methods in the field for structure discovery, classification and non-linear regression. This is an advanced class in Machine Learning; hence, student
MATH-413: Statistics for data science
Statistics lies at the foundation of data science, providing a unifying theoretical and methodological backbone for the diverse tasks enountered in this emerging field. This course rigorously develops
Afficher plus
Publications associées (366)
Concepts associés (45)
Maximum de vraisemblance
En statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Likelihood principle
In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument.
Inférence bayésienne
vignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Afficher plus
MOOCs associés (10)
Neuronal Dynamics - Computational Neuroscience of Single Neurons
The activity of neurons in the brain and the code used by these neurons is described by mathematical neuron models at different levels of detail.
Neuronal Dynamics - Computational Neuroscience of Single Neurons
The activity of neurons in the brain and the code used by these neurons is described by mathematical neuron models at different levels of detail.
Digital Signal Processing I
Basic signal processing concepts, Fourier analysis and filters. This module can be used as a starting point or a basic refresher in elementary DSP
Afficher plus